题名:
预训练语言模型   / 徐双双编著 ,
ISBN:
978-7-115-65056-6 价格: CNY69.80
语种:
chi
载体形态:
216页 图 26cm
出版发行:
出版地: 北京 出版社: 人民邮电出版社 出版日期: 2025
内容提要:
本书内容分为基础知识、预训练语言模型和实践与应用3个部分,共9章。第一部分全面、系统地介绍自然语言处理、神经网络和预训练语言模型的相关知识。第二部分介绍几种具有代表性的预训练语言模型的原理和机制(涉及注意力机制和Transformer模型),包括BERT及其变种,以及近几年来发展迅猛的GPT和提示工程。第三部分介绍了基于LangChain和ChatGLM-6B的知识库问答系统、基于大模型语言模型的自然语言处理任务应用研究和大模型训练实战等具体应用,旨在从应用的角度加深读者对预训练语言模型理论的理解,便于读者在实践中提高技能,达到理论和实践的统一。 
主题词:
自然语言处理  
中图分类法:
TP391 版次: 5
主要责任者:
徐双双 编著