400 050 6600
数据分析师

手机号

验证码

30天自动登录
当前位置:首页 - Q&A问答

Q&AQ&A问答

网络安全与数据科学:未来的职业道路?

来源:CPDA数据分析师网 / 作者:数据君 / 时间:2020-11-25

许多网络安全工具提供商都在疯狂地向其网络安全平台添加数据科学功能
这包括将基于行为的分析和响应分解到防病毒套件,防火墙和流量分析器中,以使其产品更智能。人工智能和数据科学可以增强传统的网络安全性,但是还有另一个领域同样重要,它仍处于起步阶段:网络安全在数据科学和人工智能(AI)中的应用。

网络安全通过诸如NIST网络安全框架和联邦信息安全管理法案之类的框架迅速成熟
以指导如何将实践应用于计算机网络和软件工程,以保护组织的资产,挑战在于如何保护动态学习和增长的黑盒算法(数据科学程序的产品),由于这些分析模型对企业具有很高的价值,因此网络安全专业人员将需要确定保护这些模型并确保其完整性的标准和方法。为此,他们将需要保护这些资产,使其免受外部和内部的破坏。

外部防护
正如网络安全专业人员受过训练并熟练管理网络外围一样,他们必须围绕自动执行业务决策的黑盒算法的外围开发控件,这包括两个重点领域,首先他们需要保护输入到模型中的数据,“垃圾进,垃圾出”的格言是正确的,但是当不是将垃圾输入模型中,而是将策略操纵的数据用于创建恶意结果时,该怎么办呢?对输入到模型中的数据的“良好”进行评估和评估是网络安全专业人员可以从外部进行保护的一个方面,其次他们需要保护模型本身。数据科学家通常比软件工程师更多,他们的重点是研究和开发,并创建可以对业务产生重大影响的令人兴奋的新算法和模型。

一旦这些模型从实验室过渡到生产环境后,就需要在这些模型上分层放置严格的控件
以确保不会对其进行修改而造成业务问题,知道模型的来源以及未被恶意更改的模型,将成为全球网络安全专业人员的研究课题,因为他们可以保护边界,由内而外的保护,从本质上讲,标记为AI的模型是学习算法,并且存在一定程度的不确定性,通常该模型不会生成确定的答案,而是会产生统计上可能的答案,挑战在于随着行为的发展,这些模型的性能也会发生变化,传统的软件工程可以结合在给定一组输入的情况下基于预期输出的通过或失败的单元测试,而测量人工智能模型可能会更麻烦,但是它仍然是网络安全专业人员在努力保护业务时需要覆盖的重要领域。

数据科学的基本原理之一是,一旦部署到生产中,就需要监视模型的性能
传统上,这一直是运营有效性的重点,因此数据科学团队会知道行为何时已超过初始约束并需要更新以准确表示新的业务条件,除了这种操作有效性推理之外,监视模型是监视模型的内部工作是否按计划运行的一种方法,异常背离可能表明有恶意的实体进行了邪恶的活动,网络安全专业人员可以了解模型输出和性能的趋势,从而发现并防止对企业的危害。

从内而外保护这些模型的另一种机制是建立结果阈值
不管模型结果如何,如果超出了这些阈值,则可以将交易放入保留区域,直到可以对其合法性进行审查,例如可以限制与算法交易相关的股票交易,该模型本身正在决定何时交易,何时出售以及以什么价格进行交易,或价格阈值(以股票价格出售)将防止黑客篡改模型约束以操纵股票市场。

无论人工智能的网络安全是从外到内还是从内到外

网络安全和人工智能的融合都将成为未来几年IT增长热门的领域之一,如今随着网络安全和数据科学专业人员的人才紧缩,请注意在不久的将来,人工智能网络安全的这一新兴角色将发挥作用,现在对您的团队进行交叉培训,并尽早设置网络安全实践和AI控制,以保持竞争优势。


 客服热线:400-050-6600

商业联合会数据分析专业委员会




Prev article

如何将AI融入您的企业计划?

Next article

如何通过文件分析来控制企业的数据泛滥

数据分析师

报名咨询

数据分析师

报名缴费

数据分析师

客服中心

数据分析师

课程服务

数据分析师

认证服务