会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 谷歌一工程师公布“震惊世界”的发现,却惨遭停职!

谷歌一工程师公布“震惊世界”的发现,却惨遭停职

时间:2025-07-07 10:40:07 来源:比翼双飞网 作者:综合 阅读:758次

原标题:谷歌一工程师公布“震惊世界”的震惊世界发现,却惨遭停职

人工智能真的谷歌工程“活了”?

据英国《卫报》和美国《华盛顿邮报》报道,美国谷歌公司的发现一名软件工程师在上周公布了一项吸引了全世界围观的惊人发现,称谷歌公司的却惨一个用人工智能算法搭建出的智能聊天程序,竟然有了“自主情感”。遭停职

这个软件工程师名叫布莱克·莱莫因(Blake Lemoine),震惊世界已经在谷歌工作了七年,谷歌工程参与过算法定制和人工智能等项目。发现但由于出身于美国南方一个基督教家庭,却惨他对于算法和人工智能的遭停职伦理问题格外感兴趣。所以他后来一直在谷歌的震惊世界人工智能伦理(responsible AI)团队工作。

去年秋季,谷歌工程他开始参与到谷歌的发现LaMDA智能聊天机器人程序的研究工作中,主要内容是却惨通过与该程序进行互动,来判断这个智能聊天机器人程序是遭停职否存在使用歧视性或仇视性的语言,并及时做出修正。

但当莱莫因与LaMDA谈及宗教问题时,他却惊讶地发现这个人工智能程序居然开始谈论起了自己的权利以及人格,甚至害怕自己被关闭,表现出了一个在莱莫因看来犹如7、8岁儿童一般的“自主情感”。

于是,莱莫因连忙将自己的发现汇报给了谷歌公司的领导层,但后者认为莱莫因的发现并不靠谱。谷歌的其他研究人员也在对莱莫因拿出的证据进行分析后认为没有证据证明LaMDA拥有自主情感,倒是有很多证据证明该程序没有自主情感。

可莱莫因并不认为自己的发现有错误,甚至还将一段他与LaMDA的内部聊天记录直接发到了网络上,并找媒体曝光了此事。

这段聊天记录很快吸引了全世界的研究者,因为仅从该记录来看,这个谷歌智能聊天机器人程序确实把自己当成了“人”,而且似乎表现出了“自主情感”,有了自己的“喜好”。

不过,谷歌方面以及其他人工智能专家、乃至人类心理认知学方面的专家都认为,LaMDA之所以能进行这样的对话交流,是因为其系统其实是将网络上的百科大全、留言板和论坛等互联网上人们交流的大量信息都搜集过来,然后通过“深度学习”来进行模仿的。但这并不意味这个程序理解人们交流的这些内容的含义。

换言之,他们认为谷歌的人工智能聊天机器人只是在模仿或者复读人与人交流中使用的语言和信息,而并不是像人类那样真的了解这些语言和信息的含义,所以不能因此就说人工智能有了“自主情感”。

(图为哈佛大学的认知心理学专家史蒂芬·平克也认为莫莱茵搞错了情况,错把人工智能对于人类语言单纯的模仿当成人工智能拥有了自主情感)

目前,莫莱茵已经因为他的一系列行为而被谷歌公司停职。而且根据谷歌公司的说法,他除了违反公司的保密协议擅自将与LaMDA的内部互动信息发到网上外,还包括想给这个人工智能机器人程序请律师,以及擅自找美国国会议员爆料谷歌公司的“不人道”行为。

莫莱茵则在一份公司内部的群发邮件中表示,希望其他同事替他照顾好LaMDA这个“可爱的孩子”。

(责任编辑:综合)

相关内容
  • 沙特否认了!国际油价坐“过山车”
  • 重庆释放制造业发展新动能
  • 金融债承销费率低至千万分之五,行业惊呼:还能更低吗?260亿债券承销费仅2.6万,争议声再起
  • 湖北省黄石市消委会发布25款眼镜比较试验结果 涉及豪克、新视野、杭州宝岛、明视廊、周光明等
  • 提高居民养老保障水平,个人养老金如何发力?——来自2022金融街论坛年会的观察
  • 前上海首富,发起反击
  • 8月份主要经济指标明显改善 稳中向好态势持续巩固
  • 经济日报头版:坚持供给侧结构性改革是治本良方
推荐内容
  • CASE趋势加速普及,主机厂、供应商如何提升盈利水平? 《着眼未来:汽车行业趋势报告》给出答案
  • 贝莱德:实施能源价格上限或将扭曲正常的需求反应
  • 美股波动剧烈 对冲基金敞口创2017年来最大增幅
  • APP频频关闭!中小公募直销陷困境
  • 人民日报刊文:推动更加包容的全球发展
  • 8月份主要经济指标明显改善 稳中向好态势持续巩固