谷歌一工程师公布“震惊世界”的发现,却惨遭停职
原标题:谷歌一工程师公布“震惊世界”的震惊世界发现,却惨遭停职
人工智能真的谷歌工程“活了”?
据英国《卫报》和美国《华盛顿邮报》报道,美国谷歌公司的发现一名软件工程师在上周公布了一项吸引了全世界围观的惊人发现,称谷歌公司的却惨一个用人工智能算法搭建出的智能聊天程序,竟然有了“自主情感”。遭停职
这个软件工程师名叫布莱克·莱莫因(Blake Lemoine),震惊世界已经在谷歌工作了七年,谷歌工程参与过算法定制和人工智能等项目。发现但由于出身于美国南方一个基督教家庭,却惨他对于算法和人工智能的遭停职伦理问题格外感兴趣。所以他后来一直在谷歌的震惊世界人工智能伦理(responsible AI)团队工作。
去年秋季,谷歌工程他开始参与到谷歌的发现LaMDA智能聊天机器人程序的研究工作中,主要内容是却惨通过与该程序进行互动,来判断这个智能聊天机器人程序是遭停职否存在使用歧视性或仇视性的语言,并及时做出修正。
但当莱莫因与LaMDA谈及宗教问题时,他却惊讶地发现这个人工智能程序居然开始谈论起了自己的权利以及人格,甚至害怕自己被关闭,表现出了一个在莱莫因看来犹如7、8岁儿童一般的“自主情感”。
于是,莱莫因连忙将自己的发现汇报给了谷歌公司的领导层,但后者认为莱莫因的发现并不靠谱。谷歌的其他研究人员也在对莱莫因拿出的证据进行分析后认为没有证据证明LaMDA拥有自主情感,倒是有很多证据证明该程序没有自主情感。
可莱莫因并不认为自己的发现有错误,甚至还将一段他与LaMDA的内部聊天记录直接发到了网络上,并找媒体曝光了此事。
这段聊天记录很快吸引了全世界的研究者,因为仅从该记录来看,这个谷歌智能聊天机器人程序确实把自己当成了“人”,而且似乎表现出了“自主情感”,有了自己的“喜好”。
不过,谷歌方面以及其他人工智能专家、乃至人类心理认知学方面的专家都认为,LaMDA之所以能进行这样的对话交流,是因为其系统其实是将网络上的百科大全、留言板和论坛等互联网上人们交流的大量信息都搜集过来,然后通过“深度学习”来进行模仿的。但这并不意味这个程序理解人们交流的这些内容的含义。
换言之,他们认为谷歌的人工智能聊天机器人只是在模仿或者复读人与人交流中使用的语言和信息,而并不是像人类那样真的了解这些语言和信息的含义,所以不能因此就说人工智能有了“自主情感”。
(图为哈佛大学的认知心理学专家史蒂芬·平克也认为莫莱茵搞错了情况,错把人工智能对于人类语言单纯的模仿当成人工智能拥有了自主情感)
目前,莫莱茵已经因为他的一系列行为而被谷歌公司停职。而且根据谷歌公司的说法,他除了违反公司的保密协议擅自将与LaMDA的内部互动信息发到网上外,还包括想给这个人工智能机器人程序请律师,以及擅自找美国国会议员爆料谷歌公司的“不人道”行为。
莫莱茵则在一份公司内部的群发邮件中表示,希望其他同事替他照顾好LaMDA这个“可爱的孩子”。
(责任编辑:综合)
- ·敢信?今晚刷屏的00后贝林厄姆已享受过球衣永久退役
- ·广州二手房挂牌量突破12万套 投资客六折出货
- ·澳媒主持人直播英女王葬礼时没认出特拉斯,事后解释:因技术故障
- ·振德医疗遭投诉,公司营收净利双降,海外收入跌幅高于同行的稳健医疗奥美医疗,股价腰斩,医药女神葛兰抛售
- ·机构:苹果MR设备或推迟至2023年Q2之后发布 2023年出货量50万-60万台
- ·四川省财政厅:近日有不法分子伪造公文,已向公安机关报案
- ·困在了布吉旧改 万科与中国宝安的诉讼交集
- ·A股市场首例! 知名律所公开征集长春高新集采假消息受害者
- ·韩媒:西方妖魔化俄罗斯和中国正在危及世界
- ·强制执行4亿元!回来两个月后,董卿老公又出事