IT|求解自动驾驶伦理困境:转化道德规范为数学方程( 二 )


功利主义道德原则由英国哲学家杰里米·边沁(Jeremy Bentham)提出,强调整体收益最大化 。功利主义允许并提倡牺牲一个人以拯救更多人来做决策,因此可以通过设计成本函数来让决策算法计算可能选项的成本,并从而选择成本最低的一种,如可以选择最大限度地减少车祸受害人的策略等 。
然而这里的核心问题是,为了让整个社会获得更大效用,抑制个人的效用是否正确和被允许 。想象一下,一个人是否愿意选择一辆自己会在危险情况下为了保护其他人而牺牲自己的自动驾驶汽车?
这背后还有一个根本性的问题,是应该由实施自动驾驶汽车通用行业标准的制造商对整个社会实施强制性的道德设置,还是每个驾驶员都应该选择自己个人的道德设置?
而在功利主义之外,具有浪漫主义特征的美德伦理则是倾向于强调美德是一种个人的特质 。谨慎、勇气、节制和正义均为人类的基本美德,因此在如今的人工智能伦理发展中,相关理论认为:认知机器应该类比地展现这些优点 。
但是,机器内的美德没法进行有解释性地预先编程,这是其相对于功利主义的一个不足 。现在的自动驾驶算法往往基于机器学习算法,可能产生不同的模式 。开发者可以通过在训练模型的过程中将美德作为一种积极的奖励信号加入,最终算法应该可以识别需要进行道德行动的情况,并且采取相应的行动 。
由此,这样基于美德伦理学的策略也可以具有很好的通用性,但问题在于训练数据是无法很好表示极端情况的正确决策,同时,可解释性和归责也很难实现 。
作者接着论述了第三种选择:风险伦理(处理在风险情况下的道德正确行为) 。风险伦理有三种既定的决策参考:贝叶斯规则、最大化原则以及预防原则 。
【IT|求解自动驾驶伦理困境:转化道德规范为数学方程】贝叶斯决策标准要求,当面对不同的行动选择时,选择产生最大预期效用的特定行动 。该预期效用由不同事件的发生概率和这些后果的指数/评级组成 。
最大化原则可以被理解为,在无法获得有关每种后果发生概率的信息的情况下避免最大损害 。因此,决策者会选择在最坏的预期情况下产生最少坏结果的替代行动 。
预防原则遵循“安全总比后悔好”的座右铭,提倡谨慎和规避风险,通过制定特定的法律来主动防止潜在的未来损害 。
风险伦理具有高透明度(在更可预测的意义上)、通用性(对风险的考虑与具体情况无关)、现实代表性(充分考虑不确定性),因此具有比较高的社会接受度 。
然后,作者提出,据他所知,在轨迹规划中还没有实施了风险伦理的技术方法 。然后,理论上,策略结果的积累风险可以很容易地计算和比较,从而反映在可被编程实现的数学表达中 。

推荐阅读