|
题名:
|
从零构建大模型 / 梁楠著 , |
|
ISBN:
|
978-7-302-68561-6 价格: CNY99.00 |
|
语种:
|
chi |
|
载体形态:
|
284页 图 24cm |
|
出版发行:
|
出版地: 北京 出版社: 清华大学出版社 出版日期: 2025 |
|
内容提要:
|
本书共12章, 涵盖了Transformer模型的基础理论, 如Seq2Seq模型、分词、嵌入层和自注意力机制等关键概念; 并深入剖析了GPT模型的核心实现与文本生成过程, 以及BERT模型的预训练和微调技术。同时, 也对ViT (视觉Transformer) 模型的架构、训练方法, 以及高阶微调策略如Adapter Tuning和P-Tuning进行了详尽讲解。 |
|
主题词:
|
人工智能 |
|
中图分类法:
|
TP18 版次: 5 |
|
其它题名:
|
算法、训练与微调 |
|
主要责任者:
|
梁楠 著 |
|
责任者附注:
|
梁楠, 博士, 毕业于北京航空航天大学, 高级工程师, 长期从事模式识别、机器学习、统计理论的研究与应用, 负责或参与过多项科研项目, 专注于人工智能、大语言模型的应用与开发。 |