400 050 6600
数据分析师

手机号

验证码

30天自动登录
当前位置:首页 - Q&A问答

Q&AQ&A问答

为什么机器学习这么难解释?

来源:CPDA数据分析师网 / 作者:数据君 / 时间:2020-12-24

诸如机器学习之类的在AI中被隐藏的技术很难被任何人解释
这就是为什么它会对公司以及希望解释其AI运作方式的CIO和数据科学家带来风险,AI的基本可解释性缺陷在于它使用了ML,而ML是一个黑匣子,这意味着即使模型工作了,数据科学家也不一定知道为什么,这阻碍了数据科学家快速,高效地构建高质量的ML应用程序,例如业务运营商,监管机构或消费者,就结果提出疑问,模型智能平台可以帮助解决可解释性问题。

软件可以帮助数据科学家和非数据科学家从模型以及用于构建模型的数据中解释,评估和提取见解
您可以将其视为等同于机器学习,该软件也是确保模型公平且公司可以负责任地采用它们的关键,如果您是银行,则必须能够向监管机构解释您的借贷AI软件如何工作以及如何防止偏见。即使您不必与监管机构打交道,技术人员也必须能够向董事会,C级主管和终业务用户解释AI / ML模型的工作原理,以及他们为什么应该信任结果。

确保并保持对AI所说内容的信任不仅仅是清理和审查数据
以确保在AI上线之前不会偏见,随着时间的流逝,势必会从原始数据和对其进行操作的算法中“漂移”,您还必须对此进行监视和调整,可以将工具添加到AI / ML部署和维护测试中,以确保AI / ML系统的准确性,借助此工具,组织可以针对代表性的测试用例进行测试,以了解AI的基础“黑匣子”机器学习决策如何工作,以及交付的结果是否“真实”。

人工智能正在努力应对世界的变化
在一个用例中,渣打银行使用软件来了解其正在构建的AI模型在做出其做出的贷款决策时是如何运行的,通过输入不同的贷款配置文件和标准,渣打银行的团队可以看到AI引擎返回的结果以及原因。他们可以确认AI的决策符合银行的预期,并且数据和决策过程均无偏见。同样重要的是,从事该项目的人员可以向利益相关者解释AI流程,他们找到了一种方法来破解AI的ML黑匣子。

如果数据科学家无法解释他们的AI应用程序是如何工作的

那么企业主就不会批准它们,企业运营商将无法管理它们,终用户可以拒绝它们,公司越来越意识到在利益相关者之间建立信任的挑战,这就是为什么我们近的调查中的数据科学家[和AI]负责人说,利益相关者协作'是他们公司面临的大组织挑战。


客服热线:400-050-6600

商业联合会数据分析专业委员会



Prev article

如何预测与的现代瘟疫有关的消费者行为变化?

Next article

机器人技术次将承担平凡而简单的人工任务?

数据分析师

报名咨询

数据分析师

报名缴费

数据分析师

客服中心

数据分析师

课程服务

数据分析师

认证服务