作者:杨灵玑
出版社:清华大学出版社
出版时间:2025年08月
编辑推荐
资深算法工程师多年NLP与大语言模型实践经验总结以NLP核心任务为主线,系统梳理技术演进脉络与应用全面展示从NLP词嵌入到Transformer架构的完整技术演进脉络围绕NLP的核心模型,详解其各类典型任务的实现原理与技术要点从基本原理、数学推导和代码实践三个维度展开讲解,知识体系完整详解多个NLP经典模型的原理与演化,并深入探讨大语言模型的实际应用通过50个完整的Python代码实践案例,助力读者进行高效实践本书五大特色:涵盖技术演进的完整脉络:系统梳理从N-gram、词袋模型到Transformer架构的技术迭代,既包含词嵌入、句法解析等传统方法,又详解BERT和GPT等大语言模型的预训练范式与自注意力机制,兼顾知识深度与体系完整性。详解分层递进的知识架构:以词向量、依存句法分析为认知起点,从循环神经网络和长短期记忆网络时序建模过渡到Transformer架构,最终延伸至RLHF对齐策略,从而构建符合认知规律的渐进式学习路径。算法原理与代码实现并重:在理论推导中结合Python代码实践案例,同步提供数据预处理、子词切分、模型蒸馏等实践指南,从而强化从理论知识到应用落地的转化能力。聚焦大语言模型技术闭环:深入剖析大语言模型的全生命周期,涵盖模型的预训练、微调、部署与对齐等关键技术环节,揭示ChatGPT等模型的实现逻辑。强化生成任务的技术纵深:详解自然语言生成技术,对比贪心搜索和集束搜索等解码策略,分析温度系数调控和重复惩罚等生成控制方法,并探讨幻觉生成的检测与治理方案。
内容简介
《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》全面、系统、深入地介绍自然语言处理(NLP)的核心知识与实践方法,涵盖从传统模型到基于Transformer架构的大语言模型的完整知识体系。《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》通过理论推导与Python代码实践相结合的方式,深入解析词嵌入、句法分析、序列建模等基础技术,并重点探讨Transformer架构、预训练范式、生成控制与RLHF对齐等大语言模型的关键技术。《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》结合多个Python实践案例与伦理问题,帮助读者掌握“基础理论→算法实现→应用落地”的NLP任务构建全栈能力。《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》共12章,分为4篇。第1篇自然语言处理基础与词表示,介绍词袋模型、TF-IDF、Word2Vec和GloVe词嵌入等NLP基础,以及神经网络基础、朴素贝叶斯在情感分类中的作用、N-gram语言建模等;第2篇语言结构与句法解析,介绍上下文无关语法、成分解析与依存句法分析等;第3篇序列建模与深度学习方法,深入介绍循环神经网络、长短期记忆网络、门控循环单元、序列到序列模型、注意力机制与Transformer架构等;第4篇大语言模型与生成技术,介绍自然语言生成的解码过程、常见问题及其解决方案、评估指标、评价方法、伦理问题,以及大语言模型预处理与基于人类反馈的强化学习等。《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》内容丰富,讲解深入浅出,理论兼具实践,适合想系统、深入学习自然语言处理和大语言模型的读者,也适合数据科学家、机器学习工程师和NLP研究员等大语言模型从业人员阅读,还可作为高等院校人工智能相关专业的教材或教学参考书,以及相关培训机构的教学用书。 显示全部信息
作者简介
杨灵玑,资深数据科学家。先后在跨国咨询公司和大型国际科技公司任职。在机器学习与深度学习领域具备深厚的理论基础与丰富的实战经验,尤其擅长自然语言处理的各种模型,并对计算机视觉有深入研究。发表数篇论文,并为公司开发了多款跨区域使用的AI工具。