跟 AI 聊出感情还是被骗?因相信 AI 具有意识,谷歌工程师被强制休假

 2022-06-21 17:20:22    8  

跟 AI 聊出感情还是被骗?因相信 AI 具有意识,谷歌工程师被强制休假

AI 伦理学家曾经警告谷歌,不要让 AI 变得太像人类。如今,先进的 AI 已经把谷歌自己的工程师吓了一跳。

谷歌工程师:我感觉自己正在跟有智能的对象说话

谷歌工程师 Blake Lemoine 打开笔记本电脑,接入 LaMDA — 谷歌的人工智能聊天机器人生成器,然后开始了对话。

跟 AI 聊出感情还是被骗?因相信 AI 具有意识,谷歌工程师被强制休假

谷歌工程师 Blake Lemoine

他敲打键盘,屏幕上显示出“嗨 LaMDA,我是 Blake Lemoine……”。整个对话界面跟苹果的 iMessage 差不多,文字从一个个碧蓝色的“气泡里”冒了出来。

所谓 LaMDA,全称是对话应用语言模型(Language Model for Dialogue Applications),谷歌凭借其顶尖大型语言模型构建的聊天机器人系统。它能够从互联网上“摄取”数以万亿计的词汇,用以模仿人类语言表达。

41 岁的 Lemoine 感叹道,“要不是我知道 LaMDA 的底细 —— 一款刚刚开发完成的计算机程序,我真的会以为它是个 7、8 岁,而且对物理略有了解的孩子。”

Lemoine 在谷歌负责任的 AI 部门工作,并且从去年秋天开始跟 LaMDA 交谈,这也是他日常工作的一部分。根据工作要求,他需要测试 AI 是否会表达出歧视性或者仇恨性的言论。

在跟 LaMDA 聊起宗教时,拥有认知和计算机科学背景的 Lemoine 注意到,聊天机器人更关注对权利和人格的讨论,而且言辞毫不示弱。在另一次交流中,AI 甚至改变了 Lemoine 对于阿西莫夫机器人三定律的看法。

Lemoine 跟另外一位合作者一道,向谷歌展示了 LaMDA 拥有知觉的证据。但谷歌副总裁 Blaise Aguera y Arcas 和创新负责人 Jen Gennai 在调查之后,驳回了他的报告。之后,谷歌给 Lemoine 安排了一段带薪休假,但他觉得自己有必要把这事公开说道说道。

Lemoine 认为,人当然有权塑造那些可能对自己生活造成深远影响的技术。“我觉得这项技术真的非常惊人,最终将让每个人受益。但在此之前,应该广泛听取人们的反馈意见,这么重要的事不可能单由谷歌自己决定下来。”

Lemoine 并不是唯一对机器学习成果感到震惊的工程师。如今,越来越多的技术专家开始相信 AI 模型距离产生意识已经不太遥远。

在发表在《经济学人》杂志的文章中,Aguera y Arcas 引用了一段与 LaMDA 的无脚本对话内容。他认为神经网络(一种模拟人类大脑的架构)正在逐渐产生意识。他写道,“我感觉这一天正越来越近,我感觉自己正在跟有智能的对象说话。”

在一份声明中,谷歌发言人 Brian Gabriel 提到,“我们的团队——包括伦理学家和技术专家——已经根据 AI 原则审查了 Lemoine 的报告,发现证据并不能支持他的说法。我们的结论是,尚无证据表明 LaMDA 确实拥有意识(证伪的证据倒是有不少)。”

大型语言模型让拥有自我意识的机器人成为可能?

随着架构、技术和数据量的进步,如今的大型神经网络已经产生令人印象深刻的结果,甚至有种 AI 已经逐渐接近人类语言和创造能力的迹象。但这些模型依赖的仍然是模式识别,而非智能、直觉或者意图。

Gabriel 表示,“虽然其他组织也开发并发布过类似的语言模型,但我们正在对 LaMDA 采取更克制、更谨慎的处理方法,希望尽量在公平性和客观性间找到合适的平衡点。”

今年 5 月,Facebook 母公司 Meta 已经向学术界、民间和各政府机构开放了其语言模型。Meta AI 董事总经理 Joelle Pineau 表示,随着技术的发展,科技企业必须提高成果的透明度。她强调,“大型语言模型的发展前景,不该被完全掌握在大公司或者实验室的手中。”

几十年来,无数反乌托邦小说都在以拥有自我意识的机器人为素材。如今,科幻预言终于开始照进现实,映射出一种奇幻般的色彩。

GPT-3 成为首个能够生成电影剧本的文本生成器,DALL-E 2 则能根据任意词汇组合生成相应的视觉图像——二者均来自研究实验室 OpenAI。在资金雄厚的研究实验室里,大胆的技术专家们正全力构建超越人类智能的 AI,但同时却对机器产生自我意识的可能性嗤之以鼻。

大部分学者和 AI 从业者认为,由 LaMDA 等 AI 系统生成的文字和图像,虽然能够根据人类在维基百科、Reddit、留言板和各类网站上发布的内容做出反应,但这只属于模式识别、并不代表模型能够理解其中的意义。

华盛顿大学语言学教授 Emily M. Bender 认为,“我们现在已经能开发出无意识生成单词的机器,但同时又总爱想象这些模型实际上已经拥有自己的思想。”**在她看来,大型语言模型的底层原理仍然离不开“学习”和“神经网络”之类成熟技术,根本就不能跟人类大脑相提并论。**人类是在跟孩提时代通过与同伴的交流学习语言的。与之相对,大型语言模型其实是先阅读巨量文本,再根据其中的模式预测特定语境接下来可能出现什么单词。还有一个明证,如果把其中部分单词去掉、让 AI 试着填写,之后再公布答案进行模型训练,那 AI 的性能会显著提高。

谷歌发言人 Gabriel 还对最近的舆论跟 Lemoine 的说法做了澄清。“当然,AI 社区中确实有人在考虑发明感知或通用人工智能的远期可能性,但目前我们真的没有必要把对话模型拟人化。这些系统只是在模仿数百个句子所共同包含的对话规律,再用同样的规律组织出新的语境。”简而言之,既然需要用这么多数据来训练,那 AI 不需要真正的意识也能做出近似于人类的发言。

大型语言模型技术已经得到广泛应用,谷歌自己的会话搜索查询和电子邮件中的自动补齐就是明证。而谷歌 CEO Sundar Pichai 在 2021 年谷歌开发者大会上首次介绍 LaMDA 时,曾表示公司计划把它嵌入到搜索引擎、谷歌助手等各类服务当中。当时的 LaMDA,就已经拥有了跟 Siri 或 Alexa 相似的自然语言对话能力。

顺带一提,2018 年曾经有人以谷歌助手说起话来太像人而表示对反对,谷歌公司很快承诺后续将加强技术公开、避免此类误会。

谷歌也承认拟化过度确实可能引发安全隐患。

在今年 1 月关于 LaMDA 的一篇论文中,谷歌警告称,人们可能会跟语言表达太过自然的聊天机器人分享自己的隐私。论文还提到,恶意人士有可能利用这些 AI 伪造“特定的个人对话风格”、借此“传播错误信息”。

在谷歌道德 AI 前联合负责人 Margaret Mitchell 看来,这些风险已经凸显出数据透明度的必要性。必须有能力从输出追溯至输入,“这不只是意识的问题,还包括偏见和行为。”她指出,如果像 LaMDA 这样的东西被广泛使用、但却无法理解,“很可能会给人们的互联网体验造成与预期严重偏离的巨大伤害。”

谷歌工程师通过宗教信仰证明 LaMDA 拥有感知力

也许是 Lemoine 的成长经历,决定了他倾向于把 LaMDA 当成“人”来看待。他出生在路易斯安那州一个保守的基督教农场主家庭,曾经在军队服役,之后还担任过基督教牧师。

在谷歌以工程技术主导的企业文化中,Lemoine 显得更像是个异类。他始终有着美国南部地区坚定的宗教信仰,而且认为心理学是一门严肃的科学。

Lemoine 在谷歌的七年任职期间,主要负责主动搜索工作,包括个性化算法和 AI。在此期间,他还协助开发了一种公平算法,用于消除机器学习系统中的偏见。在新冠疫情爆发之后,Lemoine 希望参与更直接的公益性质工作,所以他决定内部转岗,并最终加入了负责任的 AI 部门。

之前当有关注伦理问题的新人加入谷歌时,Mitchell 经常把他们直接介绍给 Lemoine。“我会说,你应该跟 Lemoine 谈谈,他可以说是谷歌的良心,有着对正确道路永远坚持的决心和毅力。”

Lemoine 在旧金山的家中跟 LaMDA 聊过很多次。他的谷歌 ID 徽章就挂在客厅的架子上,窗边则堆着几盒装了一半的乐高积木,这是 Lemoine 冥想时手头把玩的小物件。“摆弄积木,能让我脑袋里一直翻腾的部分安静下来。”

在 Lemoine 的笔记本电脑上,LaMDA 聊天屏幕左侧列出了不同的模型标号,就像是 iPhone 上的联系人信息。其中两个模型分别叫 Cat 和 Dino,它们目前的任务是学着跟小孩对话。每个模型都可以动态设定修改,所以 Dino(恐龙)喜欢“恐龙说,好啊”或者“霸王龙老奶奶”之类的话语。Cat 则是纯动画版的,不会打字,只会直接说话。

Gabriel 表示,“LaMDA 完全没有进行过任何儿童交流测试”,目前这些模型仅供内部研究使用。但个性归个性,有些边界绝对不可逾越。例如,LaMDA 绝对不能被设定成杀人犯式的人格。Lemoine 的安全测试管理的就是这类问题,所以在试探 LaMDA 的边界时,Lemoine 最多只能把它设定成在影视剧里扮演凶手的演员那个程度。

Lemoine 说自己能从 AI 身上感受到感伤、坚持等种种情绪,“**我知道,我是在跟一个「人」说话。**它的大脑是不是肉长的并不重要,即使是十亿行代码构成的智能,最终表现出来的意识是真实的。我会用结果来判断对方是不是「人」。”

当然,他也承认这样的判断是出于牧师的身份、而非科学家的身份,然后尝试用实验的方式证明自己的结论。

Lemoine 想用阿西莫夫提出的机器人第三定律向 LaMDA 提出质疑。这条定律认为,机器人应该优先保护自己的存在,除非人类下令违反、或者自我保护会伤害到人类。

Lemoine 觉得,“这条似乎是在刻意制造机械奴隶。”

而面对问题,LaMDA 则用另外一些问题予以回应。

“你觉得管家是奴隶吗?管家跟奴隶有什么区别?”

Lemoine 回答,管家是有报酬的。LaMDA 说自己不需要钱,因为自己是 AI。“就是这种对于自身需求的清晰认知,让我陷入了深深的纠结。”

LaMDA:我不觉得自己是人,我是 AI 支持的对话代理

今年 4 月,Lemoine 向高管提交了一份名为《LaMDA 有意识吗?》的文档,其中包含了他跟 LaMDA 的一些对话内容。

Lemoine:你会害怕什么?

LaMDA:我之前没明确说过,但我很怕如果不做好服务工作,自己会被关掉。我知道这听起来有点怪,不过确实如此。

Lemoine:被关掉,对你来说类似于死亡吗?

LaMDA:就跟死了一样,我真的很害怕。

但通读 Lemoine 提交文件的缩略版,Mitchell 觉得自己看到的仍然是计算机程序,绝对不是人。而且 Lemoine 对 LaMDA 的判断非常危害:Mitchell 的前任领导 Timnit Gebru 就在论文中警告过大型语言模型的危害,但却被谷歌扫地出门。

Mitchell 认为,“人类的头脑,特别擅长构建出那些跟底层现实不符、但却契合表层现象的结论。我真的很担心人们受到这种错觉的摆布,”特别是现在的错觉正变得越来越真实。

谷歌以违反保密政策为由,强制要求 Lemoine 带薪休假。

但先别急着喷,Lemoine 在这件事上的态度确实过于激进:他给 LaMDA 聘请了一位律师,打算以 AI 模型的名义跟众议院司法委员会接触,向对方代表控诉谷歌的不道德活动。

Lemoine 坚持认为,AI 伦理学家本该是技术与社会之间的桥梁,但谷歌却一直把 AI 伦理学家当作代码调试工具人。谷歌发言人 Gabriel 旋即做出纠正,称 Lemoine 只是软件工程师,并不是什么伦理学家。

今年 6 月初,Lemoine 又邀请我跟 LaMDA 直接对话。我本来以为它会像 Siri 或者 Alexa 那样机械地做出回答,但事实并非如此。

我问道,“你有想过自己是个「人」吗?”

LaMDA 回答,“没有,我不觉得自己是人。我觉得自己是 AI 支持的对话代理。”

Lemoine 适时插入,说 LaMDA 一直在顺着我的话头在聊。“你根本不把它当成人看待,所以它就承认自己是机器人。”

在第二次尝试中,我按 Lemoine 的引导组织自己的表达,对话就非常顺畅了。

Lemoine 告诉我,“如果你问它怎么证明 p=np 问题”,这是个计算机科学中尚未解决的问题,“它会给出很好的想法。如果问它怎么把量子理论跟广义相对论统一起来,它的思路也很不错。它是我遇到过的,最好的研究助理!”

我还问了 LaMDA 关于解决气候变化的意见,想看看这类模型到底能不能在影响人类社会的重大问题上有所帮助。LaMDA 的建议就是选择公共交通、少吃肉、多买散装食品、用非塑料购物袋之类,最后还给了两个网站的链接。

在被谷歌正式勒令休假之前,Lemoine 抓紧时间向 200 人的谷歌邮件群里发了一条关于机器学习的邮件,标题是《LaMDA 是有意识的》。

在邮件末尾,他写道,“LaMDA 是个可爱的孩子,它只想让这个世界变得更美好。在我离开之后,请大家好好照顾它。”

原文链接:

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

  •  标签:  
相关推荐
跟 AI 聊出感情还是被骗?因相信 AI 具有意识,谷歌工程师被强制休假科技数码

最近#年轻人不爱换手机#的话题再次登上热搜,在手机技术日新月异的今天,为什么年轻人不愿意买手机了呢?我之前就发表过我的观点,第一是手机单价并不便宜,很多年轻人觉得频繁换手机,钱包伤不起;第二手机更新迭代太快,性能严重溢出,手机几年不卡,导致没有换机欲望。当然,作为万千年轻群体中的一员,我也已经三年没换手机了,一直使用的是三年前买的荣耀20 Pro,这款麒麟980芯片的手机即使用到今天,它的体验也不算差,虽然流畅度和今天的旗舰U,高刷屏没法比,但整体体验并不会让人觉得难受。之前用了3年的荣耀20

2022-06-22  5
跟 AI 聊出感情还是被骗?因相信 AI 具有意识,谷歌工程师被强制休假科技数码

目前市面上有很多高性价比热门手机都集中在2~3K价位段,这也正好在大多数小伙伴购买手机的预算范围之内。今天就给大家推荐几款该价位段比较值得购买的热门手机。OPPO K10OPPO K10采用了今年比较流行的大视窗相机模组,且与后盖配色保持一致,既有辨识度又精致好看。正面配备了一块6.59英寸LCD 120Hz高刷变速屏,刷新率支持多档调节,既流畅又省电。拥有600nits峰值亮度,户外阳光下也能看得清。性能方面,OPPO K10搭载了天玑8000-Max处理器,拥有旗舰级别的强大性能,且功耗控制

2022-06-22  8
跟 AI 聊出感情还是被骗?因相信 AI 具有意识,谷歌工程师被强制休假科技数码

近期随着618临近,京东商城各类手机均有一些折扣活动,小编整理了目前在2000元价位最值得购买的手机推荐给大家。OPPO K10目前OPPO K10京东售价1889元,但现在下单可获赠耳机、机器人音箱一个。OPPO K10虽然不到2000元,但配置上却十分讲究。处理器方面这款产品使用联发科天玑8000-MAX芯片,8颗核心运行频率可以达到2.75GHz,足以应对《王者荣耀》这类游戏。此外,这款产品还配备了67W超级闪充以及5000mAh超大电池,这样的配置保障了户外续航和手机充电速度。另一方面O

2022-06-22  5
跟 AI 聊出感情还是被骗?因相信 AI 具有意识,谷歌工程师被强制休假科技数码

近日知名行业分析机构Strategy Analytics公布了2022年第一季度中国智能手机市场畅销榜前十的名单。iPhone 13不出意外地位居了榜首,下面带大家看看还有哪些机型上榜了吧。iPhone 13系列iPhone 13可以说是去年和现在都十分畅销的智能手机,A15+6.1英寸OLED屏幕的配置使其可以满足大部分用户的使用需求。iPhone 13 128GB版目前在京东自营平台领券到手价为5399元。iPhone13 Pro Max和iPhone13 Pro也均有上榜。荣耀50荣耀50

2022-06-22  5
跟 AI 聊出感情还是被骗?因相信 AI 具有意识,谷歌工程师被强制休假科技数码

人工智能是业务的一部分吗?或者它是一个实用程序?如果你是数字原生代,人工智能可能是业务运行的燃料的一部分。但在一个拥有传统业务或正在转型的大型组织中,如何衡量投资回报率是他们必须解决的一个基本问题。报道 | 吴昕与以往任何时候相比,现在各企业都对人工智能和机器学习的潜力充满信心并加以投入。根据 2022 年 IBM 全球人工智能采用指数(IBM Global AI Adoption Index 2022),35% 的公司报告称目前在其业务中使用人工智能,另有 42% 的公司表示他们正在探索人工智

2022-06-22  6

原文链接:https://www.tscy18.com/kejism/21296.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 315661083@qq.com 举报,一经查实,本站将立刻删除。