机读格式显示(MARC)
- 000 01160nam0 2200229 450
- 010 __ |a 978-7-115-65056-6 |d CNY69.80
- 100 __ |a 20250812d2025 em y0chiy50 ea
- 200 1_ |a 预训练语言模型 |A yu xun lian yu yan mo xing |e 方法、实践与应用 |f 徐双双编著
- 210 __ |a 北京 |c 人民邮电出版社 |d 2025.02
- 215 __ |a 216页 |c 图 |d 26cm
- 330 __ |a 本书内容分为基础知识、预训练语言模型和实践与应用3个部分, 共9章。第一部分全面、系统地介绍自然语言处理、神经网络和预训练语言模型的相关知识 ; 第二部分介绍几种具有代表性的预训练语言模型的原理和机制 (涉及注意力机制和Transformer模型), 包括BERT及其变种, 以及近几年来发展迅猛的GPT和提示工程 ; 第三部分介绍了基于LangChain和ChatGLM-6B的知识库问答系统、基于大模型语言模型的自然语言处理任务应用研究和大模型训练实战等具体应用, 旨在从应用的角度加深读者对预训练语言模型理论的理解, 便于读者在实践中提高技能, 达到理论和实践的统一。
- 606 0_ |a 自然语言处理 |A zi ran yu yan chu li
- 701 _0 |a 徐双双 |A xu shuang shuang |4 编著
- 801 _0 |a CN |b 辽批 |c 20250826
- 905 __ |a AHLSL |d TP391/340