|
题名:
|
大规模语言模型 / 张奇, 桂韬, 郑锐, 黄萱菁著 , |
|
ISBN:
|
978-7-121-50057-2 价格: CNY138.00 |
|
语种:
|
chi |
|
载体形态:
|
xviii, 454页, [4] 页图版 彩图 24cm |
|
出版发行:
|
出版地: 北京 出版社: 电子工业出版社 出版日期: 2025 |
|
内容提要:
|
本书围绕大语言模型构建的四个阶段: 预训练、指令微调、奖励建模和强化学习, 详述各阶段所使用的算法、数据、难点及实践经验。在此基础上, 进一步探讨了增强大语言模型能力、提升效率及如何将大语言模型落地应用的实践经验, 涵盖多模态、智能体等热门方向, 全面展现了大语言模型研究的最新进展。本书适合对深入研究大语言模型内在机制和实现方法感兴趣的读者阅读, 也可作为高年级本科生和研究生自然语言处理课程中相关部分的补充教材。 |
|
主题词:
|
语言模型 自然语言处理 |
|
中图分类法:
|
TP391 版次: 5 |
|
其它题名:
|
从理论到实践 |
|
主要责任者:
|
张奇 著 |
|
主要责任者:
|
桂韬 著 |
|
主要责任者:
|
郑锐 著 |
|
主要责任者:
|
黄萱菁 著 |
|
版次:
|
2版 |
|
附注:
|
博文视点 |
|
责任者附注:
|
张奇, 复旦大学计算科学技术学院教授、博士生导师。桂韬, 复旦大学副研究员。研究领域为预训练模型、类人对齐和智能体交互。郑锐, 博士毕业于复旦大学计算机科学技术学院, 师从张奇教授。曾任字节跳动豆包大模型团队算法工程师, 现就职于某前沿科技公司, 研究方向为大模型对齐、复杂推理能力提升。黄萱菁, 复旦大学特聘教授、博士生导师。主要从事人工智能、自然语言处理和大语言模型研究。 |