为 AI 驱动的机器人助手构建道德护栏
来源:CPDA数据分析师网 / 作者:数据君 / 时间:2021-06-17
随着越来越多的 AI 和机器学习开发人员从事机器人项目
甚至在以软件为中心的超自动化领域,即机器人流程自动化——他们将需要在其创作的算法核心中建立保护措施,以确保机器人在道德界限内运行. 至少,组织应该将道德 AI原则纳入数据科学 DevOps 流程,人工智能机器人开发人员也应该注意技术伦理学家凯特达林在卫报近的这篇文章中表达的担忧,将机器人视为伙伴——就像我们人类与狗、马和其他物种共生的方式一样而不是屈服于机器人是我们的竞争对手并且它们“一心想摧毁、奴役或以其他方式支配我们。
为 AI 机器人开发人员提供了大量实用建议
如果您正在为要纳入下一个 AI 数字助理项目的人机界面的道德问题而争论不休,您应该注意以下准则:
保持机器人行为与人类利益之间的一致性
在构建为硬件和软件机器人制作动画的人工智能时,道德要求一个或多个人始终承担终责任。除非社会准备在无生命的物体上投入道德责任,否则就不可能了,因此这些场景的 AI 开发人员必须构建和训练他们的创作,以始终与责任方的意图和利益保持一致,责任方可能是用户自己,也可能是构建和维护数字助理的企业,在终用户的兴趣和意图在应用程序设计中重要的地方,人工智能开发人员将图形技术融入他们的创作中以推断人们通过与数字助理的直接接触表达的兴趣和意图可能会很有用。
确保机器人推理沿袭的透明度
为确保始终有审计跟踪来验证人类责任,道德要求对数据、特征、模型、上下文和其他变量具有透明度,这些变量有助于数字助理可能做出的任何基于人工智能的任意推理,当我们考虑概率 AI 模型可能导致机器人采取的近乎无限的不可预见的行动时,这一点尤其重要,就其概率逻辑导致机器人偏离与负责任人类意图的严格一致而言,这一事实在推理审计跟踪中应该是显而易见的。
构建应用程序,以减少机器人利用人类漏洞的可能性
为了让人类用户始终意识到机器人助手为他们服务(而不是相反)这一事实,道德要求人工智能开发人员避免将“移情计算”剧本中的每一个技巧都投入到他们的新机器人项目中,如果 AI 驱动的机器人使用带有情感色彩的语言、视觉和/或触觉引导,将用户推向他或她无意的方向,则可能会发生这种情况,如果嵌入式 AI 在没有先前交互历史或用户未能阐明其意图的情况下不准确地推断出用户的目标,也可能发生这种情况,如果 AI 未能考虑用户的个人资料、历史和敏感度的重要方面,甚至可能会发生这种情况,这种缺陷可能会无意中导致机器人以可能被认为是咄咄逼人和操纵性的方式进行交互。
避开会强化攻击性文化刻板印象的拟人机器人界面
为确保机器人助手不会强化不幸或令人反感的文化刻板印象,道德要求 AI 机器人开发人员在将性别、种族、国籍和其他人类角色融入其界面设计之前,要经过深思熟虑,AI 开发人员可能希望避免数字助理设计,机器人非常类似于针对孤独男性的女性护送。同样,人工智能开发人员应该避免在他们的机器人界面中引用历史上处于不利地位、弱势群体或边缘化群体的人,原因很简单,当嵌入数字助理时,它会强化这些群体的奴性刻板印象。
要避免的项目
甚至在以软件为中心的超自动化领域,即机器人流程自动化——他们将需要在其创作的算法核心中建立保护措施,以确保机器人在道德界限内运行. 至少,组织应该将道德 AI原则纳入数据科学 DevOps 流程,人工智能机器人开发人员也应该注意技术伦理学家凯特达林在卫报近的这篇文章中表达的担忧,将机器人视为伙伴——就像我们人类与狗、马和其他物种共生的方式一样而不是屈服于机器人是我们的竞争对手并且它们“一心想摧毁、奴役或以其他方式支配我们。
为 AI 机器人开发人员提供了大量实用建议
如果您正在为要纳入下一个 AI 数字助理项目的人机界面的道德问题而争论不休,您应该注意以下准则:
保持机器人行为与人类利益之间的一致性
在构建为硬件和软件机器人制作动画的人工智能时,道德要求一个或多个人始终承担终责任。除非社会准备在无生命的物体上投入道德责任,否则就不可能了,因此这些场景的 AI 开发人员必须构建和训练他们的创作,以始终与责任方的意图和利益保持一致,责任方可能是用户自己,也可能是构建和维护数字助理的企业,在终用户的兴趣和意图在应用程序设计中重要的地方,人工智能开发人员将图形技术融入他们的创作中以推断人们通过与数字助理的直接接触表达的兴趣和意图可能会很有用。
确保机器人推理沿袭的透明度
为确保始终有审计跟踪来验证人类责任,道德要求对数据、特征、模型、上下文和其他变量具有透明度,这些变量有助于数字助理可能做出的任何基于人工智能的任意推理,当我们考虑概率 AI 模型可能导致机器人采取的近乎无限的不可预见的行动时,这一点尤其重要,就其概率逻辑导致机器人偏离与负责任人类意图的严格一致而言,这一事实在推理审计跟踪中应该是显而易见的。
构建应用程序,以减少机器人利用人类漏洞的可能性
为了让人类用户始终意识到机器人助手为他们服务(而不是相反)这一事实,道德要求人工智能开发人员避免将“移情计算”剧本中的每一个技巧都投入到他们的新机器人项目中,如果 AI 驱动的机器人使用带有情感色彩的语言、视觉和/或触觉引导,将用户推向他或她无意的方向,则可能会发生这种情况,如果嵌入式 AI 在没有先前交互历史或用户未能阐明其意图的情况下不准确地推断出用户的目标,也可能发生这种情况,如果 AI 未能考虑用户的个人资料、历史和敏感度的重要方面,甚至可能会发生这种情况,这种缺陷可能会无意中导致机器人以可能被认为是咄咄逼人和操纵性的方式进行交互。
避开会强化攻击性文化刻板印象的拟人机器人界面
为确保机器人助手不会强化不幸或令人反感的文化刻板印象,道德要求 AI 机器人开发人员在将性别、种族、国籍和其他人类角色融入其界面设计之前,要经过深思熟虑,AI 开发人员可能希望避免数字助理设计,机器人非常类似于针对孤独男性的女性护送。同样,人工智能开发人员应该避免在他们的机器人界面中引用历史上处于不利地位、弱势群体或边缘化群体的人,原因很简单,当嵌入数字助理时,它会强化这些群体的奴性刻板印象。
要避免的项目
越来越多的数字助理以动物形态构建——换句话说,作为服务动物、宠物和其他用途的机器人等价物,我们甚至可以考虑在这些产品的开发中实施道德护栏,有远见的开发人员应该避免开发可以武器化的机器人——例如,当作为诱饵部署时,可能会误用蛇、蝙蝠等形式的“可怕动物”机器人,另一种应该引发危险信号的机器人项目是为“宠物动物”机器人开发用户界面,这些机器人可以被解释为建模或鼓励人们——尤其是儿童——对相应的现实生活物种施加残忍,无论所讨论的机器人是硬件设备还是仅仅是在线头像,这些相同的道德问题都应适用,鉴于数字孪生技术的传播以及随之而来的物理实体和虚拟实体之间界限的模糊,游戏和其他网络环境中的不道德行为蔓延到真实人类身上的实际痛苦只是时间问题。