MARC信息
HEA| |02138nam0 2200301 450 005| |20240428131742.5 010| |▼a978-7-111-74192-3▼dCNY139.00 100| |▼a20240428d2024 em y0chiy0120 ea 101|1 |▼achi▼ceng 102| |▼aCN▼b110000 105| |▼aa z 000yy 106| |▼ar 200|1 |▼aTransformer自然语言处理实战▼ATransfo- | |rmer zi ran yu yan chu li shi - | |zhan▼d= Natural language proce- | |ssing with transformers▼e使用Hug- | |ging Face Transformers库构建NLP应用- | |▼f(澳)路易斯·汤斯顿(Lewis Tunstall),(- | |瑞士)莱安德罗·冯·韦拉(Leandro von Werra- | |),(法)托马斯·沃尔夫(Thomas Wolf)著▼g叶伟- | |民,叶志远译▼zeng 210| |▼a北京▼c机械工业出版社▼d2024 215| |▼a343页▼c图,照片▼d24cm 300| |▼aO\'REILLY 305| |▼aO\'Reilly Media, Inc.授权出版 330| |▼a本书首先介绍Transformer模型和Hugging - | |Face生态系统。然后介绍情感分析任务以及Trainer A- | |PI、Transformer的架构,并讲述了在多语言中识别文- | |本内实体的任务,以及Transformer模型生成文本的能力- | |,还介绍了解码策略和度量指标。接着挖掘了文本摘要这个复杂的序- | |列到序列的任务,并介绍了用于此任务的度量指标。之后聚焦于构建- | |基于评论的问答系统,介绍如何基于Haystack进行信息检索- | |,探讨在缺乏大量标注数据的情况下提高模型性能的方法。最后展示- | |如何从头开始构建和训练用于自动填充Python源代码的模型,- | |并总结Transformer面临的挑战以及将这个模型应用于其- | |他领域的一些新研究。 510|1 |▼aNatural language processing - | |with transformers▼ebuilding la- | |nguage applications with huggi- | |ng face▼zeng 517| 1|▼a使用Hugging Face Transformers库构建NLP应用 606|0 |▼a自然语言处理 690| |▼aTP391▼v5 701| 0|▼c(澳)▼a汤斯顿▼Atang si dun▼c(Tuns- | |tall, Lewis)▼4著 701| 0|▼c(瑞士)▼a韦拉▼Awei la▼c(Werra, Le- | |andro von)▼4著 701| 0|▼c(法)▼a沃尔夫▼Awo er fu▼c(Wolf, Thomas)▼4著 702| 0|▼a叶伟民▼Aye wei min▼4译 702| 0|▼a叶志远▼Aye zhi yuan▼4译 801| 0|▼aCN▼b801001▼c20240428
电话:(0731)87027314
语言 : 中文