ISBN/价格: | 978-7-302-64872-7:CNY99.80 |
作品语种: | chi fre |
出版国别: | CN 110000 |
题名责任者项: | 基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理/.(法)丹尼斯·罗斯曼(Denis Rothman)著/.叶伟民译 |
出版发行项: | 北京:,清华大学出版社:,2024.01 |
载体形态项: | 17,353页:;+图:;+24cm |
相关题名附注: | 封面英文题名:Transformers for natural language processing: build, train, and fine-tune deep neural network architectures for NLP with Python, Hugging Face, and OpenAI's GPT-3, ChatGPT, and GPT-4 |
提要文摘: | 本书将引领你进入Transformer的世界,将讲述不同模型和平台的优势,指出如何消除模型的缺点和问题。本书将引导你使用HuggingFace从头开始预训练一个RoBERTa模型,包括构建数据集、定义数据整理器以及训练模型等。本书分步展示如何微调GPT-3等预训练模型。研究机器翻译、语音转文本、文本转语音、问答等NLP任务,并介绍解决NLP难题的技术,甚至帮助你应对假新闻焦虑(详见第13章。从书中可了解到,诸如OpenAI的高级平台将Transformer打展到语言领域、计算机视觉领域,并允许使用DALL-E2、ChatGPT和GPT-4生成代码。通过本书,你将了解到Transformer的工作原理以及如何实施Transformer来决NLP问题。 |
并列题名: | Transformers for natural language processing: build, train, and fine-tune deep neural network architectures for NLP with Python, Hugging Face, and OpenAI's GPT-3, ChatGPT, and GPT-4 eng |
题名主题: | 人工智能 应用 自然语言处理 研究 |
中图分类: | TP391 |
个人名称等同: | 罗斯曼 (法) (Rothman, Denis) 著 |
个人名称次要: | 叶伟民 译 |
记录来源: | CN 人天书店 20231227 |