题名:
从零构建大模型   / 梁楠著 ,
ISBN:
978-7-302-68561-6 价格: CNY99.00
语种:
chi
载体形态:
284页 图 24cm
出版发行:
出版地: 北京 出版社: 清华大学出版社 出版日期: 2025
内容提要:
本书共12章, 涵盖了Transformer模型的基础理论, 如Seq2Seq模型、分词、嵌入层和自注意力机制等关键概念; 并深入剖析了GPT模型的核心实现与文本生成过程, 以及BERT模型的预训练和微调技术。同时, 也对ViT (视觉Transformer) 模型的架构、训练方法, 以及高阶微调策略如Adapter Tuning和P-Tuning进行了详尽讲解。 
主题词:
人工智能  
中图分类法:
TP18 版次: 5
其它题名:
算法、训练与微调
主要责任者:
梁楠
责任者附注:
梁楠, 博士, 毕业于北京航空航天大学, 高级工程师, 长期从事模式识别、机器学习、统计理论的研究与应用, 负责或参与过多项科研项目, 专注于人工智能、大语言模型的应用与开发。