可解释性问题-新方法能否撬开AI黑匣子?
来源:CPDA数据分析师网 / 作者:数据君 / 时间:2020-09-24
如果您无法理解模型得出的结论,该如何信任模型?
对于商业利益,出于道德考虑或监管考虑,如果用户理解,适当信任并有效管理AI结果,则X)(AI)是必不可少的。在研究该主题时,我惊讶地发现了近400篇关于该主题的论文,AI应用程序自我解释的动机是什么?我认为,实际上有四个主要原因可以解释产生不同解释的动机。
1、解释的理由-对特定结果的理由或理由的需求,而不是对决策过程背后的推理逻辑的内部运作的描述,特别是在做出意外决策时。它还确保以一种可审计且可证明的方式捍卫算法决策的公正性和道德性,从而建立信任并证明该模型符合要求。
2、解释控制权-可解释性可以防止出现问题。了解系统行为可以使您了解未知的漏洞和缺陷,并可以在低严重性情况下纠正错误。
3、 改进说明-模型,内置的AI或数据科学或任何数字代码都必须不断改进。如果您现在知道为什么系统产生特定的输出,那么您还将学习如何使其更智能。
4、探索发现-解释产生新的事实,其价值在于机器可以向我们解释其学习的策略(知识)。将来,XAI模型将教会我们有关生物学,化学和物理领域的新的和隐藏的定律。可解释性是证明基于AI的决策的有力工具。它可以帮助验证预测,改进模型并获得对当前问题的新见解。
可解释性会是什么样?
1、分析性(陈述式)陈述:用自然语言描述支持选择的元素和上下文
2、可视化:直接突出显示支持选择的原始数据部分,并允许查看者形成自己的感知理解
3、案例:援引支持选择的特定示例或故事
4、拒绝替代选择:(或“常见的误解”)与基于分析,案例和数据的较不受欢迎的答案相抵触
客服热线:400-050-6600
商业联合会数据分析专业委员会