谦卑收集者 新见|郭锐:什么是“道德算法” 如何认识它的致命缺陷

栏目:国内 2021-09-28 10:19:34
分享到:

在人工智能伦理的研究中,主流观点认为,既然做出人工智能决策是必然的,就应该将伦理嵌入到人工智能技术中,以增加人工智能决策的可靠性和安全性。这种嵌入也被称为“道德算法”。

在道德算法实现的路径上,人们考虑了三种方法:自顶向下法、自底向上法和一些混合方法。

所谓“自上而下的方法”,本质上就是把道德规则转化为用数学符号表达的算法,用一套伦理原则来处理一切伦理问题。

自下而上的方法模拟生物进化。通过机器学习和复杂适应系统的自组织发展和进化,人工智能系统可以从特定的伦理情境中产生普遍的伦理原则。

混合路由结合了前两者,是目前人工智能算法设计的主流。

然而,上述观点并没有离开摇摇欲坠的基础,尤其是其伦理知识基础。

“道德算法”的问题在于,它仍然是一种消极的回应

在特定的伦理情境下做出道德决策,受制于不知道因果关系的困境,可能很难做出具体的道德决策。

有必要从无数具体的道德决定中产生普遍的伦理原则。让人工智能自发形成普遍的伦理标准是致命的。

无论是自上而下、自下而上还是混合方法,因果关系和终极标准的问题仍然不足,这是它们的致命缺陷。

此外,人工智能在公共决策语境中使用时,会受到现代国家“简化”社会生活的路径依赖限制,导致人工智能决策可能存在伦理盲点。公共决策只需要能够帮助决策者对整体进行总体观察的信息,并且可以在许多不同的情况下重复使用。因此,信息中显示的事实必须是那些可以键入并忽略大量相关特征的事实。

例如,人们在社会中的工作和生活非常复杂,但在就业统计中,忽略了大量复杂的特征,最后将一些格式化的信息输入到统计中:有收入的就业。无论是任务目标的设定、数据的收集还是算法的训练,都符合决策者“简单化”的需求。对数据来源的理解和数据收集者衡量标准的反映表明,在基于大数据的看似科学和中立的决策中,偏差和歧视的风险无处不在。

从根本上说,“道德算法”的问题在于,它仍然是一种消极的回应:无论是自上而下的设计,还是自下而上的归纳,如果不触及动力机制,而只回应发现的问题,无异于边盖房子边挖地基。当今人工智能技术的发展存在于市场和国家系统中,道德算法的途径并没有探索出空在这些系统中应对人工智能的伦理挑战。

应对人工智能伦理挑战可以采取的行动

真正能帮助我们在人工智能伦理领域前行的,可能不是道德算法等宏大叙事的路线图。我们能做的就是避免“简化”社会生活的傲慢假设,虚心从历史和哲学中寻求应对的智慧。以下是我们现在可以采取的一些行动:

首先,我们需要关注人工智能决策的道德维度。在现有的人工智能决策应用领域,要特别关注人工智能决策的道德性,不能把人工智能决策当成科学的、不可挑战的。这不仅关系到社会对因果关系的正常判断,也是坚持人的道德主体性的具体表现。比如,要适当重视人工智能在公共决策中的应用。

其次,我们需要对特定情况下人工智能决策的道德性保持敏感,并继续争论。人工智能决策是对个人、群体和社会决策的模仿。至于特定情境下的人工智能决策是否合乎伦理,如果我们失去了敏感性和不敏感性,只会让人工智能系统模仿甚至增强这种趋势。

持续争论是人工智能的道德决策能够与人类保持一致的前提。如果人工智能不能在具体的道德决策中校准,那么当决策走向更大的人群或不同的语境时,它可能就不在人性的道德指南针上。这个问题也关系到社会是否有健康的因果判断,是否尊重人的道德主体性。

一个众所周知的例子是微软的在线人工智能交互机器人,由于一群人使用了大量的种族主义词汇和污言秽语,很快就被同化了。同样,美国法院也有人身伤害评估制度,它模仿现有案例,学习对非裔美国人的系统性歧视。

再次,需要在人工智能系统中体现人类社会道德生活的丰富性。关于发展人工智能伦理的讨论是通过立法程序、媒体报道和社区参与推向社会的,并不仅限于技术人员。当遇到伦理问题时,技术共同体对社会保持开放,并在人工智能的伦理决策中反映社会反馈。这种方式可以帮助人工智能伦理系统最大限度地学习人类道德,是回应终极准则问题的一种切实可行的方式。

这方面最好的例子是隐私权。当社会开始讨论隐私的界限和保护方法时,人工智能系统的决策更有可能反映人类社会道德生活的丰富性。

第四,必须让弱势群体在人工智能的伦理决策中发出自己的声音。终极标准问题的一个主要原因是不同的人在道德问题上有不同的声音。在当代社会,无论是女权主义带来的伦理争议,还是残疾人群体提出的“什么是残疾人”的问题,都是由于弱势群体长期以来在社会生活中话语权的丧失。为了最大限度地回应终极标准问题,弱势群体应该能够在人工智能的伦理决策中发出自己的声音。

这方面的典型例子是亚马逊人工智能人力资源系统歧视女性引发的争议,以及人工智能风险控制系统在金融科技领域对特定民族和地区群体的信用评价得分较低。