自动驾驶伦理困境:我们能接受AI“错到什么程度”?

 2022-08-04 23:40:14    28  

1925年8月,一辆名为“美国奇迹”的无线遥控汽车诞生,它能够通过无线电遥控的方式,来实现车辆方向盘、离合器、制动器等部件的远程操控。《纽约时报》用“就好像一只幽灵的手在方向盘上”形容它,这辆车也因此被认为是人类历史上第一辆有证可查的“自动驾驶汽车”。

近百年后,这项技术正在切实走进千家万户。数据显示,L2级(部分自动驾驶,基本操作由车辆完成,但驾驶员手部不能离开方向盘,负责周边监控和随时接管)车辆今年上半年的市场渗透率已经达到30%以上。而这并非简单的驾驶技术的改变,整个社会的出行模态、基础设施、商业模式,甚至整个城市的形态都在因此发生改变。

这时,整个社会对这种改变或这项技术的接受度就显得尤为重要。8月3日,第九届智能网联汽车技术年会(CICV 2022)的“智能网联汽车社会接受度”论坛正式召开。

会上,清华大学教授、麻省理工学院未来交通研究中心主任、教育部长江学者特聘教授吴建平则描绘了他畅想中的无人驾驶所能到达的终极场景:“社会的通行能力提升3到5倍,驾驶事故率降低70%”,而这一切到来的时间“不会超过30年”。

···

智能网联汽车是指车联网与智能车的有机联合,通过搭载先进的车载传感器、控制器、执行器等装置并融合现代通信与网络技术,以代替人操作为终极目标的一种概念。

而其核心的自动驾驶技术,在让汽车不断“进化”之时,也带来了不少伦理风险。

在会议上,瑞典查尔姆斯理工大学终身教授、华为高级专家顾问陈芳便就此提出了“自动驾驶的伦理风险分析”这一议题。

陈芳解释道,伦理本质上是一种研究行为的科学,对于一辆自动驾驶车辆来说,不会有“某一块装置”直接与伦理相关,但是在自动驾驶系统进行综合决策的时候,一定会涉及到。

她举了一个例子:“比如面对一些要么撞上自己,要么撞上行人的极端情况,这种时候自动驾驶系统要如何做决定?驾驶员、车辆、自动驾驶系统开发者又该如何划分责任?”

因此,在陈芳看来,自动驾驶的伦理问题本质是“决策”,即外界的条件通过各种传感器传到了计算系统中去,再根据其他的外部环境、内部环境各方面来做一个决策,做完决策车辆再实行一定的控制过程,在这种情况下就需要考虑到很多伦理问题。

陈芳指出,这种伦理决策的倾向会受多个因素的影响:

后果影响大小及社会共识。比如导致一个人或造成很多人轻伤两个后果之间的抉择

可能性。对一名乘客有10%的概率造成严重伤害和100%造成很多乘客的轻伤两个后果之间的抉择

即时性。事故发生一刹那的本能反应

亲密感。对行人和车上家庭成员的亲密程度造成的决策不同

效果的浓度。造成10个人死亡的影响远远超过造成5个人思维的影响

图源:记者现场拍摄

除此之外,陈芳也提到,也有很多人试图从AI算法的角度解决问题。比如对于特斯拉的一些事故,很多人就想要通过AI的深度自学习来提高其决策的合理性。“但事实上自动驾驶要100%的安全是不可能的,因此我们要针对这种技术局限性,来讨论它‘错到什么程度’是我们可以接受的。”

她提到L3级汽车(有条件自动驾驶,驾驶员可以解放手脚,不必监控环境,但要能够在短时间内接管)的驾驶员接管问题时表示,这里有两个需要思考的问题:一个是驾驶员接管的时长问题,另一个是接管之后的责任问题。

中国汽车工程学会国汽战略院副院长战静静进一步提出,或许可以在标准法规上尽可能对预留接管时间、在什么样状态下有哪些选择都界定好责任,以这种责任划分的形式,把生产厂家的责任和驾驶员的责任放在一起。

···

“无人驾驶全面普及不会超过30年”

在吴建平看来,在L3或者L3以下的无人驾驶中,扮演主要角色的本来就是驾驶员,所以更多时候决策权还是落在驾驶员身上,谈不上机器做决定,所以“探讨伦理层面的问题”应该针对更高级别的无人驾驶。

因此,吴建平从“无人驾驶与未来交通”的角度,分享了在他设想中的无人驾驶最终到达之际,我们的社会将产生什么样的变化。

首先是社会的通行能力可能会有3到5倍的提升。吴建平解释道,人类反应速度的基数大概在0.5秒左右,这也就是为什么人类驾驶员需要在高速路上要保持几十米,在城市道路要保持一二十米的距离。但无人驾驶车辆的感知能力和反应能力都更强,能够把距离缩短到几米,那么路面上就不会那么堵,路上就能多跑3倍到5倍的车。

其次是能够减少70%以上的驾驶事故。因为机器不会自己打电话、酒驾或疲劳驾驶。

最后一点,则是这种无人驾驶的交通方式将会彻底改变人类的生活习惯。吴建平认为,到了无人驾驶时代,共享模式的出行会成为主流,而车则会成为家庭和办公室的延伸,汽车厂商在未来甚至有可能会变为一种社会服务、交通服务的提供商,而非汽车的销售商。

吴建平提到,目前无人驾驶研究分为两条路线:第一条是基于车端的开发,目的是把车做得像人一样智慧,让车自己看自己开自己做决定,这条线路上有不少传统车厂;第二条则基于5G、通讯和车联网。吴建平解释,第二条路线“就像人下象棋一样”,车就是一个棋子,由系统来根据车的位置,获取车辆的速度和前后侧的状况,然后再告诉汽车应该做多大的加速度或换道。

不过,在他看来,最终两条路线会合并为一条车路协同的方向:车尽可能地智慧,而系统在部分信息缺失或有误的时候提供一些补充。

吴建平还对无人驾驶时代的到来做出了预测:“就像30年以前大家在北京路上看到的都是自行车,而经历了30年,今天路上都是人类驾驶的汽车,那么到路上都是无人驾驶汽车的那一天呢?应该不会超过30年。”

采写/编译:南都见习记者杨博雯

  •  标签:  
相关推荐
自动驾驶伦理困境:我们能接受AI“错到什么程度”?科技数码

n 图灵机模型(Turning Machine)p 1936年,阿兰·图灵, 《论可计算数及其在判定性问题上的应用》A.M.Turing. OnComputableNumbers,withanApplication totheEntscheidungsproblemp现代计算机的灵魂p计算能力是人类能够完成的所有计算的全集p 图灵完备:是否能够解决所有在算法上可计算的问题n 信息科学的发展p 1936 A.M.Turing, 图灵机模型p 1945 冯·贝塔朗菲“系统论”p 1946 电子数字计

2022-08-14  7
自动驾驶伦理困境:我们能接受AI“错到什么程度”?科技数码

中新网昆明8月14日电 (熊佳欣)13日,在昆明举办的2021中国自动化大会上,国内外自动化等相关领域40余位院士以及各领域专家学者齐聚一堂,围绕航天、类脑智能、认知计算等多个热点方向,聚焦人工智能赋能中国产业未来发展,为全球人工智能发展贡献“中国力量”。“发展人工智能的动力是算法(包括平台)、算力(包括芯片)和数据,”中国工程院院士潘云鹤介绍,60余年来,人工智能主流核心技术经历了3次创新,分别是规则和逻辑驱动的人工智能、知识和推理驱动的人工智能、数据和深度神经网络模型驱动的人工智能。他指出,

2022-08-14  7
自动驾驶伦理困境:我们能接受AI“错到什么程度”?科技数码

“急招超声医师,提供住宿,最高可获30万元人才奖励。”近日,深圳龙华区的一家医院在其公众号上打出了这样的招聘广告,类似急招超声医生的帖子在网上也很常见,这背后折射的是当下超声人才匮乏的窘况。公开数据显示,我国超声人才缺口至少15万。医学影像分析工作量大且繁琐,极度消耗医生精力。近年来,人工智能(AI)在医学影像行业中正得到应用,目的是帮助“解放”医生双手,但具体到超声领域的应用却不尽如人意,目前获得国家药监局医疗器械第三类注册证的AI医学影像产品中,尚看不到与超声相关的产品,而获批的产品主要集中

2022-08-14  5
自动驾驶伦理困境:我们能接受AI“错到什么程度”?科技数码

衡宇 发自 凹非寺量子位 | 公众号 QbitAIDALL·E 2、GPT-3提示词在线交易平台,了解一下?最近,一家初创公司PromptBase,允许用户在该平台买卖提示词(Prompt),提示词售价为1.99美元。PromptBase将向卖家抽成20%。平台上已上架不少提示词,生成内容范围从新闻标题、运动队标志、针织娃娃到动物的正装照,应有尽有。△用户尝试用DALL·E 2生成包含皮卡丘形象的图片拿“Knitted Doll”这款来说,它能保证让AI生成可爱且风格一致的针织娃娃,但每次生成的

2022-08-14  5
自动驾驶伦理困境:我们能接受AI“错到什么程度”?科技数码

经济日报杭州8月13日讯(记者黄平)今年以来,杭州市全力建设城西科创大走廊,以创新激发发展新动能,打造创新策源地。城西科创大走廊位于杭州主城西部,横跨3个行政区,总长33公里,是浙江省创新实力最为雄厚的区域。近年来,大走廊围绕创新链部署产业链,引进亿元以上产业项目223个,建成投用重大产业项目108个,总投资634亿元。建设城西科创大走廊,是杭州在新发展阶段提升发展竞争力的重要抓手。浙江省委常委、杭州市委书记刘捷认为,建设城西科创大走廊,关键要增强大走廊的创新策源功能,真正以机制融合、人才融合、

2022-08-14  9

原文链接:https://www.tscy18.com/kejism/24582.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 315661083@qq.com 举报,一经查实,本站将立刻删除。