切换到宽版
开启辅助访问
登录
立即注册
搜索
搜索
搜索
首页
Portal
论坛
同城
人才网
工具
菲龙网工具
个人中心
关于我们
每日签到
本地新闻
时事评论
华人世界
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
严选
话费充值
便民电话
贺词页面
瀑布流页
汇率查询
APP下载
每日签到
我的任务
道具商店
每日签到
我的任务
道具商店
更改用户名
关于菲龙网
About US
联系菲龙网
活动回顾
加入我们
本版
用户
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
人工智能这一点很像人,恰恰证明它们不会像人思考 ...
菲龙网编辑部7
有 744 人收听 TA
147021
主题
147038
回复
173128
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/39
理财情报局 | 再现0费率!年末银行理财开启“花式”营销,头部理财公司发起自购含权理财
0/39
新希望金融科技曹滔滔:坚守边界,以科技力量助力中小商业银行数字化
0/28
友邦人寿总经理张晓宇升任友邦保险集团区域首席执行官,余宏拟任友邦人寿CEO
0/26
金价连续5日上涨 触及2700美元/盎司
0/28
对话汽车流通协会周伟:银行或将继续在汽车金融市场保持优势
0/30
用户比例达到88%!手机银行已成金融服务主导渠道
0/31
视频 从整个ETF持仓量的变化来看,投资者对黄金的一个热情和策略有哪些调整?
0/31
平安健康险亮相“乌镇峰会” 科技向善助力普惠金融发展
0/27
视频 丨 黄金振荡期,投资者可以采取什么样的交易策略?
查看TA的全部帖子>>
人工智能这一点很像人,恰恰证明它们不会像人思考
时间:2024-5-30 09:40
0
328
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
研究发现人工智能模型也有偏爱的数字 原因并不是它们会思考了
5月29日消息,人工智能模型总是让人们感到惊讶,这不仅在于它们能做什么,还在于它们不能做什么,以及为什么会这样。最近数据科学公司Gramener工程师们开展的研究新发现,这些模型都存在一个有趣的行为,它们挑选随机数字的行为很像人,这虽然看起来肤浅,但又能揭示这些系统的本质。
首先你可能会问,这到底是什么意思呢?难道人不能随机选出个数字吗?怎样判断一个人是否成功随机选择了数字呢?这实际上是我们人类的一个古老且广为人知的局限:我们往往会过度思考并误解随机性的本质。
例如,让某人预测100次硬币抛掷的结果,并与真实的100次硬币抛掷结果相比较时,人几乎总能区分出哪个是预测,哪个是实际结果。因为与人类的直觉相反,真实的硬币抛掷结果看起来不那么随机。例如,真实抛掷中经常会出现连续六到七次正面或反面,而这是人类预测中几乎不会考虑的情况。
同样,当要求某人在0到100之间选择一个数字时,人们几乎从不选择1或100,很少选择5的倍数或重复数字如66和99。
这种可预测性在心理学中屡见不鲜。但当人工智能做出相同选择时,情况就变得有些奇怪。
Gramener公司的一些工程师进行了一个非正式但却很有趣的实验,他们让几个主流的大语言模型聊天机器人在0到100之间选择一个随机数字,结果却并非随机。
测试的三个模型都显示出对某个数字的偏好,尤其在将随机性调整到最高时,这一数字出现的频率最高。
例如,OpenAI的GPT-3.5
Turbo偏爱数字47,而在此之前它偏爱42——这个数字因道格拉斯·亚当斯经典科幻小说《银河系漫游指南》中超级计算机而闻名,书中将其定义为生命、宇宙以及一切的答案。
Anthropic的大语言模型Claude 3 Haiku也喜欢42,谷歌的Gemini则更偏爱72。
即便是在设置为高随机性的情况下,所有三个模型在数字选择上都显示出类似人类的偏见。所有模型都避开了较低和较高的数字;例如,Claude从未选择超过87或低于27的数字,而这些数字本身也是异常值。避免选择双位数非常谨慎,如33、55或66都未出现,但77(以7结尾的数字)确实出现过。Gemini几乎没有选择任何整十数,尽管在设定为最高随机性时,它曾突破常规,选择了数字0。
为什么会这样呢?这些人工智能并非人类!为什么它们会在乎哪些数字“看起来”随机?难道它们已经获得了意识,而这正是它们表现出来的方式吗?
答案是,我们常常将人类的特质错误地归因于这些模型。这些模型并不关心什么是随机的,它们甚至不知道“随机性”是什么。它们回答这类问题的方式和回答其他所有问题的方式一样:通过查看训练数据并重复出现频率最高的答案。因为这些模型并没有实际的推理能力,也不懂数字,只能像鹦鹉学舌一样随机回答问题。
这是关于大语言模型行为方式及其表现出的“人性”的生动例证。在每次与这些系统的互动中,我们必须认识到,它们被训练以模仿人类的行为方式,哪怕这并非初衷。正因如此,避免或预防拟人化变得极其困难。
所谓这些模型“认为自己是人”的说法有点误导性。实际上这些模型根本不会思考。但任何时候它们的响应都是在模仿人,根本不需要任何真正的理解或思考。不管用户是在询问食谱、投资建议还是一个随机数字,其处理过程都是一样的。因为这些答案直接源自人类内容并进行了重新组合,所以感觉很像是人类的反馈。(辰辰)
延伸阅读
OpenAI宣布开始训练新旗舰模型,用上还需要再等等?
王传福再放狠话,燃油车要成“非主流”
比亚迪重磅发布:最高续航2500KM
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
关闭
站长推荐
/1
【点击免费下载】菲龙网移动APP客户端
【点击免费下载】菲龙网移动APP客户端,新闻/娱乐/生活资讯生活通,带你了解菲律宾多一点!
查看 »
扫码添加微信客服
快速回复
返回列表
返回顶部