题名:
Transformer大模型   / 陈喆著 ,
ISBN:
978-7-302-69881-4 价格: CNY59.00
语种:
chi
载体形态:
179页 图 26cm
出版发行:
出版地: 北京 出版社: 清华大学出版社 出版日期: 2025
内容提要:
本书从原理的角度讲解序列监督学习、序列聚合、注意力机制、Transformer层及3种类型的Transformer架构,从应用的角度讲解并演示如何在自然语言处理、计算机视觉、信号处理、推荐系统、深度强化学习等领域使用Transformer架构完成文本分类、文本生成、机器翻译、语音识别、语音合成、图像分类、图像说明、视频分类、视频预测等任务,并从实践的角度通过47个循序渐进的实验引领读者使用PyTorch框架独立编程实现上述方法和架构,完成上述任务。 
主题词:
自然语言处理  
中图分类法:
TP391.41 版次: 5
其它题名:
原理、实践及应用
主要责任者:
陈喆
附注:
带您深度理解并精通大模型Transformer架构的原创教材 
责任者附注:
陈喆,美国田纳西理工大学博士。2003年硕士毕业后在UT斯达康、意法半导体等企业工作多年。2011年博士毕业后在东北大学物联网工程专业任副教授、硕士研究生导师。曾任东北大学物联网工程研究所副所长、无锡(滨湖)国家传感信息中心副主任(挂职),曾在美国北卡罗来纳州立大学访学。主要研究方向包括物联网无线通信、机器学习、认知无线电等。讲授机器学习、物联网技术、物联网通信技术、无线传感网络概论、无线传感网络实验、创业基础、创新创业活动、High-PerformanceEmbeddedSystemDesign等课程。编著《物联网无线通信原理与实践》。多次被学生评选为“我最喜爱的老师”,所负责的课程多次被学生评选为“我最喜爱的专业课程”。