人工智能时代的风险管理模型
来源:CPDA数据分析师网 / 作者:数据君 / 时间:2020-07-02
所有受监管的行业都需要进行模型验证
鉴于这些机构每天要利用数千个模型,因此它们通常必须在整个模型风险管理程序中配备大型团队,包括拆分大型模型验证者团队。
数据科学家、数据工程师和IT运营团队能够在整个组织中协作和扩展模型的过程
通过更快地将模型投入生产并具有更高的可见性,责任感和控制力,这可以推动业务价值,金融服务组织用于AI计划的大部分资源都专门用于支持模型开发,这并不是说组织完全忽略了。相反他们似乎将视为事后才想到的,而不是作为AI / ML模型生命周期关键要素的连续部署,治理和监视周期,的确AI / ML模型仅与用于开发它们的数据和模拟一样好,但是这促使许多企业在考虑功能之前确定的优先级,序列化其对AI的投资并在使用功能之前严格专注于企业将在AI竞赛中浪费时间和竞争对手。这导致他们错过了重要的机会,使AI / ML计划能够显着地提供信息并不断改进。
企业应该认识到,从长远来看AI / ML流程将既是数据的消费者又是数据的生产者
允许AI / ML投资立即将模型投入业务,同时为流程提供持续的反馈。
模型验证挑战
对于企业而言,模型验证并不是什么新鲜事,他们必须确保预测模型遵循不断扩展的各种消费者保护和诸如CCAR,FCRA,FILA等防衰退监管措施;提出的模型风险管理要求,许多金融机构已将无数资源投入到模型验证工作中,以满足监管标准的要求,得益于AI和ML技术的发展,以及过去几年AI行业背后广为宣传的炒作,AI和ML模型和项目的数量正在迅速增长。不幸的是,这还伴随着AI / ML模型所需更新频率的增加,这需要进行额外的模型验证。使问题更加复杂的是,黑匣子AI程序提供的AI / ML模型的复杂性给希望实现可解释AI的组织带来了重大的可解释性问题。如果组织不了解其模型为何做出某些预测,则可能导致模型偏差。
银行和金融企业在减少运营费用方面承受着越来越大的压力
特别是考虑到当前全球市场的状况,也就是说银行在模型验证方面不能走捷径,由于越来越多的媒体关注AI偏见,因此确保从道德公平的角度看待模型至关重要。
自动进行模型验证以减少运营成本
由于模型验证有严格的法规要求,因此100%的自动化是不可行的-需要人工验证以确保模型符合法规和标准,这就是说自动化模型验证过程中提供方面在手给企业主的利益,拥有一支运作团队的模型无缝,高效的传输日至2 个行团队。
对于许多企业而言,模型可以指导数百个决策,并使人为和机器驱动的操作自动化
一个业务部门可以同时部署数十种模型。模型开发团队(通常称为“模型工厂”)使用一系列数据科学工具和技术来生成和更新每个模型,这种AI操作策略很难扩展到数十个,更不用说数百个同时部署的模型了–必须进行模型验证的自动化以大规模驱动AI。
部署模型后必须对其进行连续监视
与软件不同,模型会随着时间推移而衰减,并且必须在三个关键指标中跟踪性能:统计,技术和业务角度。如果模型的任何指标超出预设的目标和参数,则实践是使模型更新和批准过程自动化。这允许新优化的模型版本快速恢复生产以进行进一步的监视和评估。
管理层可以通过自动更新模型元数据来在模型的生命周期中的任何时候复制模型
这在要求明确的模型可解释性和严格遵守法规的行业或功能领域(例如金融服务行业)尤其重要,部分自动化的模型验证使企业可以在围绕以更少的钱做更多的事情。
有了如此众多的简化因素,就很容易理解为什么机构在采用自动模型验证方面会做得很好
希望将模型验证过程自动化的公司应聘请专家来指导他们进行过程,大多数企业应该从在模型开发中重复的功能中实现自动化流程开始做起,从复杂的模型的30-40%开始,从那里他们可以与数据分析专家合作,构建针对其业务目标和运营进行优化的自动化功能。
分析模型的数量和复杂性将继续增长
自动化简单模型的验证使现有人员可以将精力集中在需要他们全神贯注的复杂(因此容易出错)模型上,企业无法在其AI程序和策略中进行模型验证,开发和工具对于利用AI和ML功能至关重要,但这只是使AI模型投入业务所需的流程的一小部分。