1、封面介绍

2、出版时间

2025年5月

3、内容介绍

本书共12章,围绕大语言模型基础理论、预训练、指令理解、模型增强和模型应用五个部分展开:第一部分介绍大语言模型的基础理论;第二部分介绍大语言模型的预训练,包括大语言模型预训练数据和分布式训练;第三部分介绍大语言模型如何理解并服从人类指令,包括有监督微调和强化学习;第四部分介绍大语言模型增强技术,包括多模态语言模型、大模型智能体和检索增强生成;第五部分介绍大模型应用,包括大模型效率优化、模型评估和应用开发。

4、推荐理由

适读人群 :AI从业者、高年级本科生和研究生、对大模型感兴趣的读者

复旦NLP团队2025年新作

新增内容超过50%

详解MOE、多模态、智能体、RAG、大模型效率优化、预训练、指令微调、强化学习、对齐、评估、应用开发

深入探讨LLM的实际应用场景和评价方法,为读者提供理论指导与实践经验

构建LLM的每个阶段都有算法、数据来源、代码、难点及实践经验的详细讨论

配代码和PPT课件

5、作者简介

张奇

复旦大学计算机科学技术学院教授、博士生导师。兼任上海市智能信息处理重点实验室副主任,中国中文信息学会理事、CCF大模型论坛常务委员、CIPS信息检索专委会常务委员、CIPS大模型专委会委员。多次担任ACL、EMNLP、COLING、全国信息检索大会等重要国际和国内会议的程序委员会主席、领域主席、讲习班主席等职务。近年来,承担了国家重点研发计划课题、国家自然科学基金、上海市科委等的多个项目,在国际重要学术期刊和会议上发表论文200余篇。获得WSDM 2014最佳论文提名奖、COLING 2018 领域主席推荐奖、NLPCC 2019杰出论文奖、COLING 2022杰出论文奖。获得上海市“晨光计划”人才计划、复旦大学“卓越2025”人才培育计划等支持,获得钱伟长中文信息处理科学技术一等奖、汉王青年创新一等奖、上海市科技进步二等奖、教育部科技进步二等奖、IBM Faculty Award等奖项。

桂韬

复旦大学副研究员。研究领域为预训练模型、类人对齐和智能体交互。在国际重要学术期刊和会议上发表论文50余篇,主持国家自然科学基金、计算机学会和人工智能学会的多个人才项目。获得钱伟长中文信息处理科学技术一等奖、NeurIPS 2023大模型对齐 Track最佳论文奖,入选第七届“中国科协青年人才托举工程”、上海市启明星计划。

郑锐

博士毕业于复旦大学计算机科学技术学院,师从张奇教授。曾任字节跳动豆包大模型团队算法工程师,现就职于某前沿科技公司,研究方向为大模型对齐、复杂推理能力提升。获得NeurIPS Workshop on Instruction Following 2024最佳论文奖。MOSS-RLHF开源项目负责人,开源了RLHF代码库及技术文档,推动大模型对齐技术发展。在ICLR、ICML、NeurIPS、ACL等国际会议上发表多篇论文。

黄萱菁

复旦大学特聘教授、博士生导师。主要从事人工智能、自然语言处理和大语言模型研究。兼任中国计算机学会理事、自然语言处理专委会主任、中国中文信息学会理事、计算语言学学会亚太分会主席。在国际重要学术期刊和会议上发表论文200余篇,获优秀论文奖8项。获得钱伟长中文信息处理科学技术一等奖、上海市育才奖,以及人工智能全球女性学者、福布斯中国科技女性等多项荣誉。

6、下载链接

本电子书可以提供下载,下载方式请移步: