AI 治理:培养批判性思维
来源:CPDA数据分析师网 / 作者:数据君 / 时间:2021-05-31
了解风险
公平、安全和负责任地部署人工智能需要明确不解决方案的风险和回报,而不是实现,人工智能算法会犯错误,错误率可以等于或低于人的错误率。无论如何,在代表过去、现在和未来的每种潜在状态的数据存在之前,即使是完全有先见之明的算法也会出错,鉴于既不存在的数据,也不存在的算法,问题不在于是否会发生错误,而是,什么时候、在什么条件下以及以什么频率可能会出错?
进入预检
这个概念——史蒂文·约翰逊在远见卓识,我们如何做出重要的决定中强调的概念——在本质上很复杂、充满不确定性且风险很高的环境中尤为重要,除了死记硬背的任务自动化之外,此描述适用于大多数 AI 解决方案。
严格的预检通过迫使团队明确考虑以下问题来正面应对不确定性:
受解决方案影响的各方的潜在危害和容错是什么?
考虑到患者报告他们更倾向于原谅人类医生所犯的错误而不是机器——即使错误是人类临床医生可能更频繁地犯的错误,矛盾的是,患者也接受并在许多情况下欢迎人工智能,例如机器人手术——如果他们认为对他们的长期健康有积极的好处。
即使没有错误,这个解决方案在今天和明天的潜在后果是什么?
还有什么其他解决方案可以解决此问题?
减轻伤害和纠正路线,当然仅仅提出这些问题是不够的,应该鼓励有意识的辩论和开箱即用的观点,可以通过使用场景规划、决策映射、模拟、对抗性游戏、价值建模和讲故事等工具来推进此类审议,做得好预检允许不同的利益相关者在已知和未知的背景下考虑给定 AI 解决方案的影响,反过来这允许就是否以及如何实施给定的 AI 解决方案做出明智的决策,并鼓励团队在部署解决方案之前和之后抢先消除或减轻伤害并迅速纠正路线。
公平、安全和负责任地部署人工智能需要明确不解决方案的风险和回报,而不是实现,人工智能算法会犯错误,错误率可以等于或低于人的错误率。无论如何,在代表过去、现在和未来的每种潜在状态的数据存在之前,即使是完全有先见之明的算法也会出错,鉴于既不存在的数据,也不存在的算法,问题不在于是否会发生错误,而是,什么时候、在什么条件下以及以什么频率可能会出错?
进入预检
这个概念——史蒂文·约翰逊在远见卓识,我们如何做出重要的决定中强调的概念——在本质上很复杂、充满不确定性且风险很高的环境中尤为重要,除了死记硬背的任务自动化之外,此描述适用于大多数 AI 解决方案。
严格的预检通过迫使团队明确考虑以下问题来正面应对不确定性:
此解决方案可能犯的真正错误及其可量化的影响是什么?在医疗保健领域,系统可能会低估对护理人员的需求,应用错误的诊断代码,或产生假阴性诊断。
还有哪些其他看法或因素可能会影响解决方案的接收方式?尽管 AI 聊天机器人越来越复杂,但它们并不以其床边的方式而闻名。
受解决方案影响的各方的潜在危害和容错是什么?
考虑到患者报告他们更倾向于原谅人类医生所犯的错误而不是机器——即使错误是人类临床医生可能更频繁地犯的错误,矛盾的是,患者也接受并在许多情况下欢迎人工智能,例如机器人手术——如果他们认为对他们的长期健康有积极的好处。
即使没有错误,这个解决方案在今天和明天的潜在后果是什么?
还有什么其他解决方案可以解决此问题?
减轻伤害和纠正路线,当然仅仅提出这些问题是不够的,应该鼓励有意识的辩论和开箱即用的观点,可以通过使用场景规划、决策映射、模拟、对抗性游戏、价值建模和讲故事等工具来推进此类审议,做得好预检允许不同的利益相关者在已知和未知的背景下考虑给定 AI 解决方案的影响,反过来这允许就是否以及如何实施给定的 AI 解决方案做出明智的决策,并鼓励团队在部署解决方案之前和之后抢先消除或减轻伤害并迅速纠正路线。
因此,虽然我们经常将治理视为指令性规则,但如果治理促进批判性思维,我们会得到更好的服务,实际上您的 AI 治理计划创造持续、建设性批评能力的程度可能就是您的 AI 计划的利大于弊的程度。