首页>>人工智能->探索用于NLP任务的BERT语言框架

探索用于NLP任务的BERT语言框架

时间:2023-11-29 本站 点击:1

NLP 是构建以语言为中心的 AI 程序的最重要组成部分之一,例如,可以轻松帮助网站访问者的聊天机器人和基于 AI 的语音助手或 VA。NLP 作为 AI 的子集,使机器能够理解书面语言并通过各种方式解释其背后的意图。通过 NLP 添加了大量其他任务,如情感分析、文本分类、文本提取、文本摘要、语音识别、自动更正等。

然而,正在探索 NLP 以完成更多任务。最近在 NLP 和 NLU(自然语言理解)领域取得了许多进步,这些进步被应用于许多分析和现代 BI 平台。高级应用程序将 ML 算法与 NLP 结合使用,通过分析和解释各种内容来执行复杂的任务。

关于 NLP 及其任务

除了利用社交媒体上以文本、图像、视频和用户配置文件的形式产生的数据外,NLP 还作为 AI 程序的关键推动者。它正在加强人工智能程序在语音识别、聊天机器人、机器翻译和 OCR(光学字符识别)等创新用途中的应用。NLP 的功能通常会将非结构化内容转化为有用的见解,以预测趋势并为以客户为中心的产品解决方案或平台的下一个级别提供支持。

其中,NLP 被用于需要您应用以下技术的程序:

机器翻译:使用不同的方法进行处理,如统计或基于规则的,使用这种技术。一种自然语言被转换成另一种自然语言,而不会影响其流畅性和意义,从而产生文本。

词性标注:NER(命名实体识别)的NLP技术是建立词之间关系的关键。但在此之前,NLP 模型需要标记词性 (POS) 以评估上下文。有多种 POS 标记方法,如概率或词汇。

信息分组:根据语言、主题、文档类型、时间或作者对文档进行分类的 NLP 模型需要标记数据进行文本分类。

命名实体识别:NER 主要用于根据名称、时间、位置、公司等对文本进行识别和分类,以便在学术研究、实验室报告分析或客户支持实践的程序中进行内容分类。这通常涉及文本摘要、分类和提取。

虚拟助手:特别是对于聊天机器人和虚拟助手,NLG(自然语言生成)是一项关键技术,它使程序能够使用适当的单词和句子结构来响应查询。

关于 BERT 框架

开源机器学习框架 BERT(来自转换器的双向编码器表示)用于训练 NLP 的基线模型,以进一步简化 NLP 任务。该框架用于语言建模任务,并在未标记的数据上进行了预训练。BERT 对于基于神经网络的 NLP 模型特别有用,它利用左右层形成关系以进行下一步。

BERT 基于 Transformer,这是 2017 年开发和采用的开创性模型,用于识别重要词以预测语言句子中的下一个词。推翻仅限于较小数据集的早期 NLP 框架,Transformer 可以建立更大的上下文并处理与文本歧义相关的问题。在此之后,BERT 框架在基于深度学习的 NLP 任务上表现异常出色。BERT 使 NLP 模型能够理解句子的语义——XX 公司的市场估值为 XX%,通过双向(从右到左和从左到右)读取并帮助预测下一个句子

在句对、单句分类、单句标记和问答等任务中,BERT 框架非常有用,并且具有令人印象深刻的准确性。BERT 涉及两阶段应用——无监督预训练和有监督微调。它在 MLM(掩码语言模型)和 NSP(下一句预测)上进行了预训练。虽然 MLM 任务通过揭开被屏蔽的标记来帮助框架学习使用左右层的上下文,但 NSP 任务有助于捕获两个句子之间的关系。在框架所需的技术规格方面,预训练的模型有Base(12层,786个隐藏层,12个self-attention head,110 m参数)和Large(24层,1024个隐藏层,16自注意力头和 340 m 参数)。

BERT 围绕一个词创建多个嵌入以查找上下文并与之关联。BERT 的输入嵌入包括令牌、段和位置组件。

据报道,自 2018 年以来,BERT 框架被广泛用于各种 NLP 模型和深度语言学习算法。由于 BERT 是开源的,因此也有几个变体在使用,通常比基础框架(如 ALBERT、HUBERT、XLNet、VisualBERT、RoBERTA、MT-DNN 等)提供更好的结果。

是什么让 BERT 对 NLP 如此有用?

当谷歌引入并开源 BERT 框架时,它在 11 种语言中产生了高度准确的结果,简化了情感分析、多义词和句子分类等任务。2019 年,谷歌再次利用该框架来了解其搜索引擎上的搜索查询意图。在此之后,它被广泛应用于诸如在 SquAD(斯坦福问答数据集)、GLUE(生成语言理解评估)和 NQ 数据集上回答问题等任务,用于基于产品评论的产品推荐和基于用户意图的更深入的情感分析。

到 2019 年底,该框架已被用于不同 AI 程序的近 70 种语言采用。BERT 帮助解决了以人类所说的自然语言为重点构建的 NLP 模型的各种复杂性。以前的 NLP 技术需要在大型未标记数据的存储库上进行训练,而 BERT 是经过预训练的,双向工作以建立上下文并进行预测。这种机制进一步提高了NLP模型的能力,它能够执行数据而无需按顺序排列和组织数据。除此之外,BERT 框架在围绕序列到序列语言开发和自然语言理解 (NLU) 任务的 NLP 任务方面表现出色。

结尾

BERT 成为唯一的推动者,取代了从头开始构建卓越的语言处理模型,从而帮助节省了大量时间、成本、能源和基础设施资源。由于是开源的,事实证明它比以前的语言模型(如 Word2Vec 和 Glove)更加高效和可扩展。BERT 的准确率超过人类 2%,在 GLUE 得分上得分为 80%,在 SquAD 1.1 上准确率接近 93.2%。BERT 可以根据用户规范进行微调,并且适用于任何数量的内容。

该框架通过引入预训练的语言模型成为 NLP 任务的宝贵补充,同时通过其多个变体的可用性证明是执行 NLU 和 NLG 任务的可靠来源。BERT 框架无疑提供了在不久的将来关注 NLP 一些令人兴奋的新发展的机会。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/982.html