最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
打印 上一主题 下一主题
开启左侧

邓力等人提出BBQ网络:将深度强化学习用于对话系统

[复制链接]
跳转到指定楼层
楼主
发表于 2017-11-20 15:49:37 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
选自arXiv
作者:Zachary Lipton等
机器之心编译
参与:Panda
强化学习是近年来最受关注的人工智能研究方向之一,相关的研究成果也层出不穷,有的甚至引起了全世界的广泛讨论。近日,卡内基梅隆大学、微软研究院、谷歌和 Citadel 等机构在 arXiv 上联合发表了一篇研究论文,提出了一种将深度强化学习应用于对话系统的新技术:BBQ 网络。本论文已被 AAAI 2018 大会接收。论文第一作者为 Zachary Lipton,另外 Citadel 首席人工智能官邓力也是该论文的作者之一,以上两位都曾出席过机器之心主办的 GMIS 2017 大会。
我们正越来越多地使用自然语言对话接口与计算机进行交互。简单的问答(QA)机器人已经在亚马逊的 Alexa、苹果的 Siri、谷歌的 Now 和微软的 Cortana(小娜)中为数百万用户提供服务了。这些 bot 通常执行的是单个交流的对话,但我们渴望开发出更通用的对话智能体,使其对话广度能接近人类对话者所表现出的能力。在这项成果中,我们研究了面向任务的 bot(Williams and Young 2004),即为了实现任务特定的目标而能执行多轮对话的智能体。在我们的案例中,我们的目标是协助用户预订电影票。
复杂的对话系统往往难以事先确定一个好的策略,而且环境的动态也可能会随时间改变。因此,通过强化学习(RL)而在线式和交互式地学习策略出现了并成为了一种流行的方法(Singh et al. 2000; Gasic et al . 2010; Fatemi et al. 2016)。受强化学习在 Atari 和棋盘游戏上的突破(Mnih et al. 2015; Silver et al. 2016)的启发,我们使用了深度强化学习(DRL)来学习对话系统的策略。深度 Q 网络(DQN)智能体通常是通过 ε-greedy 启发式方法来进行探索,但当奖励是稀疏的且动作空间很大时(对话系统就是这个情况),这种策略往往无效。在我们的实验中,随机探索的 Q 学习器永远无法在数千 episode 内取得成功。
我们提供了一种用于改善 Q 学习器的探索的有效的新解决方案。我们提出了一种贝叶斯探索策略,该策略鼓励对话智能体探索自己在动作选择时相对不确定的状态-动作区域。我们将算法命名为 Bayes-by-Backprop Q-network(简称 BBQN),该算法通过汤普森采样(Thompson sampling)进行探索,并从一个贝叶斯神经网络中抽取蒙特卡洛样本(Blundell et al. 2015)。为了得到 Q 学习的时间差分目标(temporal difference target),我们必须从一个冻结的目标网络(frozen target network)生成预测(Mnih et al. 2015)。我们的实验表明使用最大后验(MAP)分配来生成目标可以得到更好的表现水平(此外计算也很高效)。我们还证明了重放缓冲叠加(RBS/replay buffer spiking)的有效性,RBS 是一种简单的技术,其中我们使用一个过渡的小集合对经历重放缓冲进行预填充,该集合是从一个朴素但偶尔成功的基于规则的智能体得到的。证明这种技术对 BBQN 和标准 DQN 都至关重要。
我们在两个电影订票任务的不同变体上对我们的对话智能体进行了评估。我们的智能体可以与用户进行交互并预订电影票。是否成功取决于在对话结束时是否预订了电影票以及用户是否满意。我们使用了类似于 Schatzmann、Thomson 和 Young 2007 年研究中基于日程的用户模拟器对我们的算法进行基准评测和比较。为了使该任务的难度接近真实水平,我们的模拟器还引入了随机错误来作为语音识别和语言理解错误所带来的影响。在第一个任务变体中,我们的环境在所有训练轮次中保持固定。在第二个任务变体中,我们使用了一个非固定的、范围有延展的环境。在这种设置中,电影的新属性会随时间变得可用,能增加用户和智能体可以采用的对话动作的多样性。我们在固定环境和范围有延展的环境上的实验都表明 BBQN 的表现要优于使用 ε-greedy 探索、玻尔兹曼探索或 Osband et al. (2016) 引入的 bootstrap 方法的 DQN。此外,真实用户评估进一步巩固了我们的方法的有效性:BBQN 的探索比 DQN 更加有效。另外,我们还表明所有智能体只有在给出了 RBS 时才能工作,尽管预填充的对话的数量可以很小。
图 1:对话系统的组成
BBQN 是一种使用深度学习模型来学习对话策略的算法。BBQN 基于深度 Q 网络(Mnih et al. 2015),并使用了一个贝叶斯神经网络来近似 Q 函数和该近似中的不确定性。因为我们研究的是固定长度的对话表征,所以我们使用了 MLP,但也可以很简单地将我们的方法扩展到循环或卷积神经网络。
表 1:在 1 万组模拟对话(每组平均 5 轮以上)上训练得到的智能体的最终表现
图 2:在全范围(所有环境属性一开始都可用)和范围有延展(每隔 10 轮对话就增加属性)的问题上的训练过程图示(带有置信区间)
图 3:使用 100 组对话的 RBS 在成功率(上图)和奖励(下图)上都有提升
图 4:BBQN 智能体与 DQN 智能体在真实用户测试上得到的表现,测试对话的数量和 p 值在柱状图的每个柱上给出(均值差异明显,且 p<0.05)
论文:BBQ-Networks: Efficient Exploration in Deep Reinforcement Learning for Task-Oriented Dialogue Systems
摘要:我们提出了一种新的算法,可以显著提升对话系统中深度 Q 学习智能体的探索效率。我们的智能体通过汤普森采样(Thompson sampling)进行探索,可以从 Bayes-by-Backprop 神经网络中抽取蒙特卡洛样本。我们的算法的学习速度比 ε-greedy、波尔兹曼、bootstrapping 和基于内在奖励(intrinsic-reward)的方法等常用的探索策略快得多。此外,我们还表明:当 Q 学习可能失败时,只需将少数几个成功 episode 的经历叠加到重放缓冲(replay buffer)之上,就能使该 Q 学习可行。

楼主热帖
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享 分享淘帖 赞 踩

168大数据 - 论坛版权1.本主题所有言论和图片纯属网友个人见解,与本站立场无关
2.本站所有主题由网友自行投稿发布。若为首发或独家,该帖子作者与168大数据享有帖子相关版权。
3.其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和168大数据的同意,并添加本文出处。
4.本站所收集的部分公开资料来源于网络,转载目的在于传递价值及用于交流学习,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
5.任何通过此网页连接而得到的资讯、产品及服务,本站概不负责,亦不负任何法律责任。
6.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源,若标注有误或遗漏而侵犯到任何版权问题,请尽快告知,本站将及时删除。
7.168大数据管理员和版主有权不事先通知发贴者而删除本文。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-6-27 00:24

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表