切换到宽版
开启辅助访问
登录
立即注册
搜索
搜索
搜索
首页
Portal
论坛
同城
人才网
工具
菲龙网工具
个人中心
关于我们
每日签到
本地新闻
时事评论
华人世界
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
严选
话费充值
便民电话
贺词页面
瀑布流页
汇率查询
APP下载
每日签到
我的任务
道具商店
每日签到
我的任务
道具商店
更改用户名
关于菲龙网
About US
联系菲龙网
活动回顾
加入我们
本版
用户
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
为确保Bard能给出高质量答案 谷歌员工对其进行单条式的 ...
菲龙网编辑部7
有 744 人收听 TA
147021
主题
147038
回复
173128
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/86
理财情报局 | 再现0费率!年末银行理财开启“花式”营销,头部理财公司发起自购含权理财
0/86
新希望金融科技曹滔滔:坚守边界,以科技力量助力中小商业银行数字化
0/57
友邦人寿总经理张晓宇升任友邦保险集团区域首席执行官,余宏拟任友邦人寿CEO
0/56
金价连续5日上涨 触及2700美元/盎司
0/59
对话汽车流通协会周伟:银行或将继续在汽车金融市场保持优势
0/64
用户比例达到88%!手机银行已成金融服务主导渠道
0/55
视频 从整个ETF持仓量的变化来看,投资者对黄金的一个热情和策略有哪些调整?
0/59
平安健康险亮相“乌镇峰会” 科技向善助力普惠金融发展
0/53
视频 丨 黄金振荡期,投资者可以采取什么样的交易策略?
查看TA的全部帖子>>
为确保Bard能给出高质量答案 谷歌员工对其进行单条式的评估、修正训练
时间:2023-2-25 10:02
0
302
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
2月25日消息,不久前,谷歌在内部发起了代号为“斗狗”的活动,要求公司所有员工每周用两到四个小时帮助测试和改进其新的人工智能搜索聊天机器人Bard。
就在Bard发布前不久,微软也刚刚发布了采用ChatGPT聊天机器人背后技术的新版必应搜索引擎,它允许用户就几乎任何话题进行多轮对话。然而,在Bard被发现提供了一个错误的答案后,对于谷歌的质疑也逐渐浮现。同样,随着越来越多的人测试了新必应,他们的聊天机器人也遇到了问题,比如其倾向于好斗的行为。
像Bard和ChatGPT这样的AI聊天机器人,可以通过接受人类编写的文本训练来模仿人类对话,这就解释了为什么必应的回复有时候看起来有些情绪化和不可预测。毕竟,被训练得像人一样的机器人也很容易犯下人类的错误。
这些聊天机器人最初通过摄取大量的训练数据来完成大部分学习。此外,Bard项目的产品主管杰克·克劳奇克(Jack Krawczyk)在一份备忘录中告诉员工,谷歌的研究发现,为用户查询添加高质量的响应“显著”提高了其AI模型的质量。
据多位AI专家透露,谷歌员工可能会为Bard编写高质量的答复以改进其模型。这些专家已经在AI和大型语言模型领域完成了广泛的研究。
克劳奇克让员工向Bard询问他们擅长的领域,比如最喜欢的兴趣爱好。然后,他们被要求评估Bard的答案,以确保这些答案符合人们的期望,长度和结构也都要合理。如果某个答案过于人性化、存在事实错误或者没有任何意义,员工可以重写答案并提交给Bard的模型训练。
英属哥伦比亚大学计算机科学助理教授韦德·施瓦茨(ved Shwartz)表示,要想持续改进Bard,谷歌可以采取监督式学习和强化学习相结合的方式。
其中,监督式学习是第一步,研究人员可以向聊天机器人输入人类编写的查询和答案,直到它学会如何像人类那样回复。在此基础上,谷歌可以构建一个强化学习模型,用谷歌员工写的答案来训练它,以帮助它理解该公司希望Bard的答案展现哪些价值观,包括在结构、语气以及其他方面加以改进。
这个强化学习模型会查看Bard给出的答案,剔除其中不合适的答案,并验证合格的答案,直到聊天机器人明白它应该如何行事。基本上,来自谷歌员工的“正确”答案将帮助该模型改进。
强化学习模型还可以教会Bard在不谈论情感或以其他方式假装人类的情况下提供信息。第一种模型主要学习基本的写作技巧,而第二种模型将引导机器按照预期的方向回答问题。
哥伦比亚大学计算机科学教授周宇(音译)说,有了足够好的答案进行分析,强化学习模型就能知道哪些是合适的答案,哪些是不合适的答案。
确保事实准确性
谷歌始终对推出聊天机器人持谨慎态度,可能是因为其可能对搜索业务利润产生短期影响,并担心准确性。谷歌要求员工拒绝回答Bard试图就金融或健康等敏感话题向用户提供建议的问题,因为回答错误的风险很高。
AI领域始终在努力解决事实准确性问题,OpenAI在1月份发布了更新,以提高ChatGPT在各种话题上对话的准确性。本月在旧金山举行的一场关于聊天机器人和AI的会议上,Anthropic首席执行官达里奥·阿莫代(Dario Amodei)表示,他相信随着模型的改进,聊天机器人将不再编造事实。
虽然训练有助于提高聊天机器人所生成答案的质量,但施瓦茨表示,她不认为这能够彻底解决事实准确性的问题。Bard和ChatGPT都有所谓的“幻觉”倾向,这是该行业用来形容聊天机器人编造事实的术语。它们会从网页上提取内容,有时不可避免地会错误地总结这些内容。(小小)
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
关闭
站长推荐
/1
【点击免费下载】菲龙网移动APP客户端
【点击免费下载】菲龙网移动APP客户端,新闻/娱乐/生活资讯生活通,带你了解菲律宾多一点!
查看 »
扫码添加微信客服
快速回复
返回列表
返回顶部