广泛采用AI的催化剂
来源:CPDA数据分析师网 / 作者:数据君 / 时间:2020-12-30
了解AI如何做出决定的问题不再仅仅是好奇心
它几乎是所有AI应用程序中必不可少的元素,人工智能正被用来推动重大影响生命的决策,例如人工智能可能是个人抵押贷款申请是否被批准的决定因素,AI加速分析可为有关患者治疗过程的决策提供依据,在高风险的决策中,推理必须可追溯以实现AI的可审计性。
可解释性是一种具有巨大潜力的技术
它具有改变机器学习世界的巨大潜力,它正在成为人工智能应用的催化剂,可解释性力求弄清楚是什么导致了AI模型做出某种预测或决定,了解机器学习反对真实数据的原因如何帮助建立人与模型之间的信任,可解释性终实现了透明度。
我们在对抗性机器学习方面的研究为我们提供了关于可解释性的独特观点
如果对手知道如何愚弄AI模型,那么他们就会弄清楚该模型的想法,我们的解决方案基于使用对抗性AI来快速了解模型如何做出预测,然后通过产生影响那些预测的重要的输入特征来解释AI模型的输出,该过程揭示了AI模型如何区分哪些因素有助于模型预测。
至关重要的是要了解AI如何通过可解释性发挥作用
以使AI易于管理,负责和合规,对于高度管制的行业,为了达到合规目的,需要透明性,可解释性和可审核性,可解释性的影响超出了对模型如何运行的基本理解,可解释性工具也可以用于查明可能会产生偏差的模型特征,从而实现重新培训以减轻负面影响,我们需要采取一些步骤来了解哪些数据影响了模型的预测以及如何理解偏差,然后这些信息可用于训练更可靠,更可靠并针对对抗性攻击进行强化的健壮模型。
为了真正利用人工智能的力量并推动广泛采用
它几乎是所有AI应用程序中必不可少的元素,人工智能正被用来推动重大影响生命的决策,例如人工智能可能是个人抵押贷款申请是否被批准的决定因素,AI加速分析可为有关患者治疗过程的决策提供依据,在高风险的决策中,推理必须可追溯以实现AI的可审计性。
可解释性是一种具有巨大潜力的技术
它具有改变机器学习世界的巨大潜力,它正在成为人工智能应用的催化剂,可解释性力求弄清楚是什么导致了AI模型做出某种预测或决定,了解机器学习反对真实数据的原因如何帮助建立人与模型之间的信任,可解释性终实现了透明度。
我们在对抗性机器学习方面的研究为我们提供了关于可解释性的独特观点
如果对手知道如何愚弄AI模型,那么他们就会弄清楚该模型的想法,我们的解决方案基于使用对抗性AI来快速了解模型如何做出预测,然后通过产生影响那些预测的重要的输入特征来解释AI模型的输出,该过程揭示了AI模型如何区分哪些因素有助于模型预测。
至关重要的是要了解AI如何通过可解释性发挥作用
以使AI易于管理,负责和合规,对于高度管制的行业,为了达到合规目的,需要透明性,可解释性和可审核性,可解释性的影响超出了对模型如何运行的基本理解,可解释性工具也可以用于查明可能会产生偏差的模型特征,从而实现重新培训以减轻负面影响,我们需要采取一些步骤来了解哪些数据影响了模型的预测以及如何理解偏差,然后这些信息可用于训练更可靠,更可靠并针对对抗性攻击进行强化的健壮模型。
为了真正利用人工智能的力量并推动广泛采用
我们必须能够信任以人工智能为基础的决策和预测,如果不了解输出和决策流程,就不会对基于AI的决策产生真正的信心,可解释性对于进入AI应用的下一阶段至关重要。