2020年网络大数据安全的预测分析
来源:CPDA数据分析师网 / 作者:数据君 / 时间:2020-07-08
人工智能在2020年将是巨大的
总之我的意思是,许多供应商将声称他们正在使用人工智能-从使用简单的线性回归,到使用深度学习,尽管线性回归离人工智能还很遥远,但与许多使用深度学习技术作为整体解决方案的供应商相比,我们可能更信任那些供应商来提供有效的产品,我们将在很多领域看到人们开始了解算法解决方案的局限性,尤其是在那些在世界上造成,放大或僵化偏差的地方;而且购买技术的公司将真的需要开始了解这种偏见如何影响其运营”。
随着AI在网络安全中的应用范围不断扩大,围绕AI偏见的安全问题将越来越多
随着安全团队对AI的使用不断增长,他们将需要监视和管理AI模型中的潜在偏差,以避免导致导致遗漏威胁或更多误报的安全盲点,防止AI偏差的一种方法是建立认知多样性-开发AI模型,提供数据的数据以及影响它的安全团队的计算机科学家的多样性”。
在金融服务领域,由于金融网络攻击的数量不断增加
监管机构将对使用先进的AI系统识别未知和意外威胁的银行更加开放,但是这些AI系统的可解释性和透明性至关重要。
随着AI的使用继续渗透到商业世界并影响决策
为了支持组织采用AI解决方案,将越来越多地关注和解释AI的可解释性,这样一来,我们将看到越来越多的法律和技术专家专注于如何有效地审计AI算法的偏见,解释性别或种族等偏见的人类可解释模型将有助于防止诸如近发生的基于性别的Apple信用卡算法失误之类的事件发生。
我们将看到威胁行为者将仿冒产品作为公司网络攻击的一种策略,类似于网络钓鱼攻击的运作方式
这就是金钱,这是网络骗子的钱,他们可能会对毫无戒心的员工造成严重破坏。这意味着组织将需要保持验证技术;人们用来创建深造的工具将与检测它们的工具相同,因此对于谁先使用该技术将是一场军备竞赛。
我们预计随着假冒产品的现实性和潜力不断增加
它们将在2020年对我们生活的各个方面产生显着影响,我们将看到作为一种服务举措中脱颖而出,2020年为被广泛用于既有趣和恶意的原因,采取了。
随着2020年以人工智能为动力的网络攻击的兴起,构建基础已经准备就绪,因为更复杂的防御和对开放源代码AI工具的访问可以激励对手加强攻击
人工智能不仅可以使恶意软件在企业中秘密移动,而无需人工操作,而且攻击者还将以其他恶意方式使用AI,包括确定目标,进行侦察和扩大攻击范围,安全专家承认,防守AI是的强制打击进攻AI的攻击能力和战斗必须匹配作斗争-或超过-速度与攻击者创新。
工智能将在恶意行为者的攻击库中扮演更普遍的角色
他们将能够发动无限的自主攻击,从而减少对人类情报的需求,预计2020年的语音网络钓鱼计划将会有所增加,在这种计划中,员工被骗到向骗子发送钱或泄露听起来像来自CFO或其他高管的电话或泄露敏感信息,鉴于与标准的网络钓鱼攻击相比,识别这些深层造假有多么困难,我预计这些操作将在新的一年成为常态。
伪造品和合成身份将为下一波身份欺诈浪潮打开大门
欺诈者正在获得越来越复杂的技术,这些技术不仅可以创建伪造的ID图像,还可以创建伪造的数据记录来备份该伪造的身份,传统的身份验证解决方案不具备检测这些方法的能力,大小企业都面临风险,为了应对这种威胁,公司将需要投资于更先进的验证技术,包括AI和机器学习算法,以及受过培训的人员,以识别出可以消除这些新型欺诈的微小细节。
黑客会在仍在学习的同时攻击AI
随着我们对智能技术的日益依赖,破坏的大门不断打开。教智能算法所需的培训将是使不良行为者对他们采取行动的理想场所,数据完整性从未像现在这样重要。
虚假信息和虚假新闻会在公共和私营部门造成严重破坏
民族越来越多地将其用作武器,2020年我们将看到深度学习算法在生成伪造但看似逼真的图像和视频时可以带来的更多可怕现实,AI的这种应用将推动大规模的虚假信息宣传活动,这些活动针对性和针对性地针对每个受害者的行为和心理特征,进一步扩大影响力和影响力。
数据将比以往任何时候都更有价值
以前对于日常消费者而言似乎微不足道的信息实际上将对整个领域的利益相关者和黑客具有重大价值,对手或现实生活中的“数据赏金猎人”将寻找新的利用方式,政府将寻求更好的方式来使用它,企业将采取更强的安全措施来保护它,终用户将要求更好的隐私权来保护其个人信息,此外随着AI和机器学习的兴起,影响医疗决策方式,自动驾驶汽车向何处/如何移动以及更多信息的关键数据将越来越成为主流,并且对威胁参与者寻求信息的利润也越来越有利。
机器人和机器人过程自动化正在成为主流。不再例外,它们应该成为每个现代企业中的必备工具
现在它们不再令人感到惊讶,它们的用途将进一步扩大,这意味着它们的新用法将测试我们当前对它们可以做什么和应该做什么的定义的界限,在接下来的一年中,我预计会出现一波涉及机器人的漏洞和违规行为,这是一个丰富的目标表象,尚未得到充分利用,相应地随着他们变得越来越复杂,法规将开始将其包括在内,并将为人类实施者划清明确的责任分工。
总之我的意思是,许多供应商将声称他们正在使用人工智能-从使用简单的线性回归,到使用深度学习,尽管线性回归离人工智能还很遥远,但与许多使用深度学习技术作为整体解决方案的供应商相比,我们可能更信任那些供应商来提供有效的产品,我们将在很多领域看到人们开始了解算法解决方案的局限性,尤其是在那些在世界上造成,放大或僵化偏差的地方;而且购买技术的公司将真的需要开始了解这种偏见如何影响其运营”。
随着AI在网络安全中的应用范围不断扩大,围绕AI偏见的安全问题将越来越多
随着安全团队对AI的使用不断增长,他们将需要监视和管理AI模型中的潜在偏差,以避免导致导致遗漏威胁或更多误报的安全盲点,防止AI偏差的一种方法是建立认知多样性-开发AI模型,提供数据的数据以及影响它的安全团队的计算机科学家的多样性”。
在金融服务领域,由于金融网络攻击的数量不断增加
监管机构将对使用先进的AI系统识别未知和意外威胁的银行更加开放,但是这些AI系统的可解释性和透明性至关重要。
随着AI的使用继续渗透到商业世界并影响决策
为了支持组织采用AI解决方案,将越来越多地关注和解释AI的可解释性,这样一来,我们将看到越来越多的法律和技术专家专注于如何有效地审计AI算法的偏见,解释性别或种族等偏见的人类可解释模型将有助于防止诸如近发生的基于性别的Apple信用卡算法失误之类的事件发生。
我们将看到威胁行为者将仿冒产品作为公司网络攻击的一种策略,类似于网络钓鱼攻击的运作方式
这就是金钱,这是网络骗子的钱,他们可能会对毫无戒心的员工造成严重破坏。这意味着组织将需要保持验证技术;人们用来创建深造的工具将与检测它们的工具相同,因此对于谁先使用该技术将是一场军备竞赛。
我们预计随着假冒产品的现实性和潜力不断增加
它们将在2020年对我们生活的各个方面产生显着影响,我们将看到作为一种服务举措中脱颖而出,2020年为被广泛用于既有趣和恶意的原因,采取了。
随着2020年以人工智能为动力的网络攻击的兴起,构建基础已经准备就绪,因为更复杂的防御和对开放源代码AI工具的访问可以激励对手加强攻击
人工智能不仅可以使恶意软件在企业中秘密移动,而无需人工操作,而且攻击者还将以其他恶意方式使用AI,包括确定目标,进行侦察和扩大攻击范围,安全专家承认,防守AI是的强制打击进攻AI的攻击能力和战斗必须匹配作斗争-或超过-速度与攻击者创新。
工智能将在恶意行为者的攻击库中扮演更普遍的角色
他们将能够发动无限的自主攻击,从而减少对人类情报的需求,预计2020年的语音网络钓鱼计划将会有所增加,在这种计划中,员工被骗到向骗子发送钱或泄露听起来像来自CFO或其他高管的电话或泄露敏感信息,鉴于与标准的网络钓鱼攻击相比,识别这些深层造假有多么困难,我预计这些操作将在新的一年成为常态。
伪造品和合成身份将为下一波身份欺诈浪潮打开大门
欺诈者正在获得越来越复杂的技术,这些技术不仅可以创建伪造的ID图像,还可以创建伪造的数据记录来备份该伪造的身份,传统的身份验证解决方案不具备检测这些方法的能力,大小企业都面临风险,为了应对这种威胁,公司将需要投资于更先进的验证技术,包括AI和机器学习算法,以及受过培训的人员,以识别出可以消除这些新型欺诈的微小细节。
黑客会在仍在学习的同时攻击AI
随着我们对智能技术的日益依赖,破坏的大门不断打开。教智能算法所需的培训将是使不良行为者对他们采取行动的理想场所,数据完整性从未像现在这样重要。
虚假信息和虚假新闻会在公共和私营部门造成严重破坏
民族越来越多地将其用作武器,2020年我们将看到深度学习算法在生成伪造但看似逼真的图像和视频时可以带来的更多可怕现实,AI的这种应用将推动大规模的虚假信息宣传活动,这些活动针对性和针对性地针对每个受害者的行为和心理特征,进一步扩大影响力和影响力。
数据将比以往任何时候都更有价值
以前对于日常消费者而言似乎微不足道的信息实际上将对整个领域的利益相关者和黑客具有重大价值,对手或现实生活中的“数据赏金猎人”将寻找新的利用方式,政府将寻求更好的方式来使用它,企业将采取更强的安全措施来保护它,终用户将要求更好的隐私权来保护其个人信息,此外随着AI和机器学习的兴起,影响医疗决策方式,自动驾驶汽车向何处/如何移动以及更多信息的关键数据将越来越成为主流,并且对威胁参与者寻求信息的利润也越来越有利。
机器人和机器人过程自动化正在成为主流。不再例外,它们应该成为每个现代企业中的必备工具
现在它们不再令人感到惊讶,它们的用途将进一步扩大,这意味着它们的新用法将测试我们当前对它们可以做什么和应该做什么的定义的界限,在接下来的一年中,我预计会出现一波涉及机器人的漏洞和违规行为,这是一个丰富的目标表象,尚未得到充分利用,相应地随着他们变得越来越复杂,法规将开始将其包括在内,并将为人类实施者划清明确的责任分工。