当无人驾驶汽车必须选择

2017年8月01

无人驾驶技术会在某一天让人类司机被淘汰吗?你愿意把自己的安全托付给一个单纯的算法吗?如果你知道算法可能会决定牺牲你的生命来拯救其他人的生命,你会怎么做?这些只是我们本周这一集要讨论的问题中的一部分——无人驾驶汽车在道德十字路口

我们人类是糟糕的司机。想想看,我们一边发短信一边开车,我们一边喝酒一边开车,我们在半睡半醒的时候开车。几乎在一周的任何一天,我都很乐意让电脑开车而不是让人开车。

另一方面,我喜欢开手动档。我曾经拥有的每一辆车,除了我的第一辆坏掉的福特平——还记得那些吗?-都是手动变速器。我喜欢那种掌控一切的感觉。另一方面,我不想放弃这种美妙的感觉,而让电脑来掌控一切。

不过,尽管我自认为是个好司机,也喜欢坐在方向盘后面而不是副驾驶,但其他司机简直烂透了。94%的交通事故都是人为失误造成的。而且,这不仅仅是少数几个害群之马——尽管15%的司机造成了85%的事故。真正的问题是,一般的人类司机都不是好手。一般的人类驾驶员在其驾驶生涯中,每发生一次实际事故,就会造成3到4次事故,有7到8次险些脱险。

但问题是,至少人们是在乎的。电脑没有。它们不关心你。他们也不关心我。他们连自己都不在乎!幸运的是,我们只需要给它们编程来开车好像人类对他们很重要。但这并没有让事情变得更容易,真的。因为现在我们必须问,是哪些人类?他们自己的乘客呢?其他无人驾驶汽车上的乘客?行人?骑自行车的人吗?

当然,抽象地说,每一个生命都很重要。但问题是,对于一辆自动驾驶汽车来说,它们是否都应该同等重要。我不知道你怎么想,但当我坐在方向盘后面时,自我保护的本能就会发挥作用。当我在乎的人坐在副驾驶位置上时,我会尽我所能保护他们的安全。

想知道我要说什么,想象一下你和你爱的人是一辆无人驾驶汽车中的乘客。一个行人突然跳到它的车道上。汽车计算出,它既可以执行伤害行人的机动,也可以执行伤害你的机动。它应该执行哪一种操作?

工程师们会告诉你,他们会尽最大努力确保这种情况从一开始就很少出现。这些汽车将不断地扫描道路,寻找麻烦的迹象,它们的传感器比人类好得多,反应时间也比人类快得多。也许这是有一定道理的,但“很少”仍然不等于“从不”。这意味着,我们无法避免不得不决定,自动驾驶汽车有时是否应该愿意牺牲乘客来拯救行人。这是一个必须面对的问题。

我们如何回答这个问题将取决于我们决定在我们的汽车中植入什么样的伦理理论。如果它被编程成一个功利主义者,它会通过计算为最多的人带来最大的好处来决定该怎么做。这意味着,在某些情况下,汽车可能会决定牺牲自己的乘客,以挽救其他人的生命。

这在理论上可能听起来不错,但我不确定它在实践中是否有效。问问你自己,你个人是否会把自己的生命托付给一辆实用的汽车,它被设定为把你当作芸芸之众中的一个人,而不特别关心你的生存?

有人会问:“但我们不是已经在每次打车或打车时这么做了吗?”不是真的。不管人类司机对你个人有什么感觉,他们仍然有自我保护的本能。如果你事先知道出租车司机没有这种本能,我敢打赌你会有点不愿意上那辆出租车。

听着,我并不是在建议将无人驾驶汽车设定成自杀性的,或者将其乘客视为一次性货物。但我的建议是,在人类缺乏自我保护本能的情况下——你不可能把自我保护本能从一个功能良好的人身上编程出来,但可能也不想把它编程到自动驾驶汽车中——决定究竟应该对哪些无人驾驶汽车进行编程,这是一件非常重要的事情。

人们很容易想到,也许人们应该能够选择任何无人驾驶汽车的道德理论,他们是乘客,就像可以选择升级到一个了不起的音响系统或加热座位。如果你想让这辆车对你和你的人有一点偏袒,你就得多花一点钱;如果你想让它像一辆无情的逃跑车一样行驶,你就得花更多钱。

虽然这一开始听起来不错,但在路上显然会导致道德上的混乱。在我们把道路交给汽车之前,我们需要就我们编程让汽车遵守的道德理论达成共识。毫无疑问,在未来几年里,这将是一个激烈辩论的问题。

有一点是肯定的,无论我们作为一个社会,最终为自动驾驶汽车选择什么样的道德理论,汽车制造商无疑会尽最大努力让乘客感到特别和迎合。直到他们读到小字…“警告,在严重紧急情况下,这辆车可能会基于道德理由,决定伤害你,它的乘客…”

评论(4)


Harold G. Neuman的照片

哈罗德·g·纽曼

2017年8月4日,星期五——下午12:45

我也喜欢开车和

我也喜欢开车,比起现代的变速车和其他形式的自动变速器,我更喜欢我那辆老式的手动档斯巴鲁。也就是说,我必须谴责一边开车一边处理多项任务的不负责任的行为。我认为无人驾驶汽车的概念显然是荒谬的,但显然,有些人相信它将成为下一个大事件。我并不特别担心这一点,因为不管发生什么,它对我的影响都不大。我的孙辈就另当别论了。这件事(律师或法官可能会说)还没有成熟到可以决定的地步。目前尚无定论。

蒂姆•史密斯的照片

蒂姆•史密斯

2019年12月7日,星期六——上午8:39

这是一个难以解决的问题

这是自动化、人工智能的一个难以解决的问题,到这篇文章被删除的时候……人工意识。

道德是什么?为什么它关注的是人的思维,而不是模式识别算法。如果投资的回报是远远超过将成为其合法统治者的道德宇宙的整体公共和个人安全,那么屈服于这种算法还有什么可怕的呢?

道德的确优先于行动,而不是因为它的本质。我们应该小心这类问题,以免把我们引向错误的道路。驾驶是对思想、精神和身体的一个非常深刻的隐喻,但它总体上是不正确的。当你阅读这篇文章时,并没有侏儒在驱动你的思想。也没有算法可以解读道德。

唯一让人害怕的就是恐惧。如果这是陈词滥调的话。那么试试这个。自由不是免费的。只要自由意志主义者能理解它的深度,它就一样老套,但要深刻得多,我认为自己就是其中之一。

我选择让无人驾驶汽车来开车,但我在道德上选择不被驾驶。我在那里做什么了吗?有时候不作为是道德上的选择。谨慎与道德有何不同?如果它不是又一个灾难的载体,我会开车。道德载体太少,太少了。

Harold G. Neuman的照片

哈罗德·g·纽曼

2019年12月11日,星期三——上午10:16

人工意识?

人工意识?嗯,我想没有什么是不可能的。脑子能想到的,人就能做到,也许吧。意识之谜是我最喜欢的谜题之一,所以,时不时地,我会写一些关于它的东西。以下是一篇文章的节选:
…在我看来,弗洛伊德在把“无意识”引入他的精神分析词典时,犯了一个分类错误。他似乎在寻找一个描述意识的下界状态的术语,给这个词赋予了一种以前从未有过的意义。在通常的语言中,无意识的意思是由于头部受到打击(创伤)或在麻醉下引起的睡眠状态而导致的无意识状态。在随后的几年里,哲学专业人士谈到了这个混乱的概念。吉尔伯特·赖尔(Gilbert Ryle)在1949年的著作《心智的概念》(The Concept of Mind)中给出了一个微妙的批判,将它(无意识)定性为“弗洛伊德式的成语”。后来,约翰·塞尔(John Searle)也加入进来,粗略地说,任何在讨论意识时使用“无意识”一词的人都不知道自己在说什么。的确,Je ne sais quoi。这并不是说弗洛伊德的大量工作和成就是不值得称道的。它只是说明,创造世界杯赛程2022赛程表欧洲区力,即使出自伟大的心灵,也可能被误导…… The Rooseveltian admonition about fear was never trite. The only folks who believed it was were, as they are now, unaware of the bigger picture. Ryle said it best: " The solution of a problem is not always a truth or a falsehood."

蒂姆•史密斯的照片

蒂姆•史密斯

2019年12月17日,星期二——凌晨4:07

罗斯福不是

罗斯福并不是这种恐惧告诫的鼻祖,如果这么说,那就太陈腐了。恐惧和价值是完全不同的两件事。这种困惑使它在一些人看来是陈腐的,而在另一些人看来则是严厉的虚假政治。从更大的角度来看,可以使训诫意义深远……这一点我得好好想想。

波普尔用自己那把未经检验的递归之刀杀死了弗洛伊德。无意识在弗洛伊德死后的很长一段时间里仍然存在,只是被那些不顾波普尔的暴力而公开讨论它的人打上了无意识的烙印。埃里克·坎德尔(Eric Kandel)最近的(最后的?)一本书为这一思想举行了一场非常精美的葬礼,并复活了弗洛伊德的遗产。我并不假装要和坎德尔比肩。我们需要更多的书籍,更多的数据,更少的博客,更少的散布恐惧的操纵……我明白你的意思。我认为。