本文摘要:按:2018年,NLP领域有诸多令人伤心的进展。
按:2018年,NLP领域有诸多令人伤心的进展。例如,(公众号:)曾报导谷歌在I/O大会上展出了Google Assistant中的Duplex技术,需要在解读上下文的情况下倒数对话,协助用户预计餐厅、理发店等任务;微软公司小冰公布“全双工语音感官交互”和“共感模型”,聊天能力升级,除了持续对话外,还能引领话题,还发展了写诗、写出概要、作词作曲合唱等才艺。但是,我们离电影《Her》中那个体贴全能的人工智能“里斯曼萨”还很很远。NLP领域还有哪些难题亟待解决呢?NLP大牛、Salesforce首席科学家Richard Socher特地撰文认为了NLP领域的三座大山,展开了不转变本意的编辑。
【 图片来源:ticary solutions】语言是人类所独特的能力,是智慧的反映。但是通过人工智能技术——尤其是自然语言处置(NLP)——我们正在彰显机器解读语言的能力,为我们人类与机器交互修筑了一个全新的领域。今天你可以走出黑暗的起居室,拒绝Alexa为你关上智能灯,并调节到令人深感舒适度的75%亮度。
或者,你可以告知有关于世界另一头儿的天气状况。业界所获得的近期变革在谷歌最近释放出的关于Duplex的展示中获得了反映。
在展示中,人工智能助手可以给商家打电话并已完成购票。曾多次看上去像在科幻小说里的东西,现在早已变为了现实,但是为了构建确实简单的嵌入式,机器必需需要处置更为直观、联系上下文和更为大自然的对话——这依然是一个挑战。我的职业生涯都集中于在NLP技术上,这是一个和人工智能一样古老的研究领域,而我们依然正处于这个旅程的开始阶段。语言是共享信息并与我们周围的人交流的基本工具,但是机器必须费力解读语言的复杂性,以及我们人类是如何充分利用语言展开交流的。
情感分析、解说系统和牵头多任务自学技术的变革使得人工智能需要确实解读人类的意图和我们交流的方式。情感分析被迫说道,语言天生就很难。
它大大演化,它是高度微小的,它必须普通人年复一年的自学才能掌控。通过情绪分析技术,我们可以利用AI来解读等价话语中的某些特定内容,例如提及的品牌或正面的、负面的和中性的电影评论。
但是我们也可以解读说出者的态度和意图(她生气了吗?高兴吗?吃惊?打算买了吗?)。从客户服务到在线社区审查,再行到算法交易,通过即时分析数千条推文或数百条产品评论,理解公众对品牌的感觉,对于企业来说是十分有价值的。情感分析技术早已不存在了一段时间,但并不总是很精确。
然而,这是随着NLP技术的变革而提高的。在Salesforce,我兼任首席科学家,我们的爱因斯坦人工智能服务(Einstein AI)容许品牌商可以动态分析电子邮件、社交媒体和聊天对话中的情感,以便获取更佳的客户体验。精确的情绪分析结果可以为企业获取很多协助,例如,服务代理人可以告诉哪些不失望的客户是必须优先协助的、应当向谁获取广告宣传优惠、可以辨识产品缺失、测量总体产品满意度、甚至通过社交媒体渠道监控品牌满意度。目前有数其他科技公司也获取类似于的服务。
我们也必须背诵上下文的含义。假设你经营肥皂做生意,有人在推特上写到“这种肥皂对婴儿来说知道有趣”。这可以被看做是对肥皂合适婴儿的大力接纳,或者嘲讽地似乎它对年龄大一点的孩子来说很差劲。
在那句话里有过于多的语境,并且这只是一个非常简单的陈述!教会AI分析句子结构的所有有可能含义,并解读人在特定上下文中的意图,这是自然语言处置研究中的众多挑战。它既必须标记的数据来改良模型训练,也必须新的模型,这些模型可以自学上下文并同时在许多有所不同类型的任务中分享内容。解说系统随着NLP技术需要更佳地解析文本中的含义,协助我们管理生活的数字助理的智能程度将不会提升。
Siri和Google Assistant等应用程序早已需要为常见问题获取非常好的答案,并需要继续执行非常非常简单的命令。理想的情况下,我们应当需要问我们的计算机给定的问题,并获得较好的回应。获得更佳回应的一种方法是保证计算机需要解读这个问题。如果你问“我的飞机什么时候抵达?”计算机是如何告诉你是在谈论你的航班还是从Amazon上采购的木工工具?计算机通过更加了解地解读语义,以及更加智能地用于上下文数据来更佳地猜测我们的意图。
用于NLP,我们正在研究如何自学上下文的每一层含义,以便AI可以一次处置所有上下文而会错失最重要信息。例如,动态共计探讨网络(dynamic coattention networks)可以根据有所不同的问题来说明单个文档,例如“哪个队代表超级碗50中的NFC?”或者“谁在第四节已完成了触地分数?”通过这种有条件的说明,它可以重复地假设多个答案,以便获得最差、最精确的结果。
牵头多任务自学科学界擅于搭起运营较好的单任务的人工智能模型。但是,更加直观、对话性的和上下文解读将必须AI模型需要大大地自学——将新任务与原有任务构建,并在过程中自学继续执行更加简单的任务。一般来讲,这点子对AI是准确的,但在语言方面毕竟部分准确,这里必须一些灵活性。
“谁是我的客户?”该问题明确提出一个非常简单的任务:创立客户列表。但是接下来的问题,“谁是我在西北太平洋地区最合适某特定产品的消费者呢?”现在我们加到了一层复杂性,它必须许多构建任务来问限定版的问题,例如:如何定义“最差”?每个客户在哪里?什么因素促成一个客户对一个产品感兴趣?每减少一个必须查找的项目,问题的复杂性之后急遽减少。
Salesforce Research最近创立了自然语言技术十项全能竞赛,该竞赛利用答疑系统的力量,在单个模型中处置NLP的10项最艰难的任务:问题问、机器翻译、总结、自然语言推理小说、情感分析、语义、角色标示、关系提取、面向目标对话、数据库查找分解和代词解析。用于多任务解说模型已完成测试,单个模型在没任何特定参数或模块的情况下可牵头自学和处置有所不同的任务。
这不仅意味著数据科学家仍然必须为每个任务创建、训练和优化分开的模型,还意味著该模型将具备zero-shot自学能力——换句话说,该模型需要处置以前从未见过的或者经过专门训练的任务。随着研究人员之后改良这类模型,我们将看见AI交互在处置更加简单的任务时会显得更为智能。虽然我们早已在NLP技术上花上了很长时间,但依旧正处于早期阶段。
然而,期望NLP的改良能使AI转变我们与机器交互的方式。Viahbr.org涉及文章:2018 NLP领域持续疯狂,厂商挖空心思找寻落地场景原创文章,予以许可禁令刊登。下文闻刊登须知。
本文关键词:ky开元
本文来源:ky开元-www.mitraamily.com