与道德相关的话题是信任。道德是我们做决定和采取行动的指导原则。这些行为准则反映了什么是正确和公平的核心信念。另一方面,信任反映了我们相信另一个人或公司是否可靠、正直,并且会按照我们期望的方式行事。
道德和信任是相互独立的,也是相辅相成的。
那么,符合道德的AI解决方案天生就值得信任吗?
环境是信任的决定因素
当然,不道德的制度会产生不信任。然而,道德体系并不一定是绝对可信的。更复杂的是,不信任一个系统并不意味着它不会被使用。
支撑人工智能解决方案的功能——机器学习、深度学习、计算机视觉和自然语言处理——与是否道德、值得信任是无关的,重要的是它们的应用环境。
例如,使用OpenAI最近发布的GPT-3文本生成器,利用AI用来撰写社会评论或食谱,人工智能算法产生宣传效应引发了担忧。比如一个人工智能专家可以被用以传播虚假信息,或者影响人类读者的观点,很多人通常没有关注内容来源,这种情况既不道德,也不值得信任。
另一方面,如果一个厨师直接采用人工智能生成的食谱去做菜,而没有关注机器生成的食谱所涉及的道德问题。在这种情况下,信任需要经过验证。
消费者信任具有主观性
几年前,国外调查公司SAS让调查参与者评估他们在从医疗保健到零售等各种应用中使用人工智能的舒适度。但并未提供关于人工智能算法将如何训练或预期如何执行的信息,等等。有趣的是,他们更信任人工智能来执行机器人手术,而不是人工智能来检查他们的信用。最初的结果似乎与直觉相悖,毕竟手术是生死攸关的事情。
然而,影响信任的不仅是提议的应用程序,还有感知到的意图。在医学应用中,有德和不可信的。但是,一个完全没有偏见的应用,公平地分配不利的信贷条款,也会招致怀疑。
类似地,用于确定非易腐库存处置的人工智能算法也不太可能敲响任何道德警钟。但是商店经理会遵从算法的建议吗?这个问题的答案在于系统的结果与人类的目标有多接近。当人工智能应用程序建议的一个行为(例如,扔掉库存)与员工的激励机制(例如,最大化销售——即使是打折)不一致时,会发生什么?在这种情况下,信任需要的不仅仅是合乎道德的人工智能,还需要调整经理的薪酬计划。

2020-11-30 17:25:38