2022年,令人激动的6个安全技术创新

人工智能、机器学习、神经网络方面确实是未来网络安全的重要方向

      很多机构都会发布新一年的技术创新方向,这是在darkreading上看到的文章,比较贴近现实。综合最近看到的一些资料,人工智能、机器学习、神经网络方面确实是未来网络安全的重要方向。本文算是一个引子,之后的两篇文章都是讲述人工智能和网络安全的关系。

       谁说网络安全没有新东西?即将到来的2022将是令人激动的一年,因为初创安全公司和现有玩家都将带来新的技术,解决已经存在和新出现的安全问题。许多最令人激动的技术都围绕着人工智能、数据共享和数字生态系统开发方面正在成长的趋势。他们是保护数字转型的关键,接下来看看都有什么。 

隐私增强计算的崛起

       隐私增强计算是不断成长的加密、数据混淆和隐私技术的整体概括,帮助保护正在处理的数据,并应付特别棘手的情况,例如在数字生态系统中跨地理边界、品牌线或不同公司实体时共享数据。同态加密、差异化隐私和可信执行环境等技术使各种实体能够组合和分析数据集,不需要公开共享他们自己的数据。这是最大化利用数字化转型,同时保证合规,得到客户和合作伙伴信任的关键。Gartner说,到2025年,一半的大型组织将使用隐私增强计算,2022年可能是建立这种势头的重要一年。

更健壮的API安全选项

        最新的研究表明,97%企业由于担心API安全,在发布新的应用和软件功能时经历延迟。这种困境是真实存在的。因为业务需求要求在组织边界的内部和外部更好地集成应用,但安全和合规要求其安全地完成。过去一年在这个市场的风险投资表明,API安全方案开始变得更加成熟,2022年在这个领域有更多的创新。2021年一些关键投资凸显了这个趋势,Salt Security在2020年12月和2021年5月两轮融资中获得一亿美元投资。5月,42Crunch获得1700万美元的A轮投资。9月,获得2070万美元投资的新公司Neosec,暴露在公众面前

AI加强中更好的规则

       随着企业从预测供应链需求到阻止欺骗的每件事上日益依赖AI模型,2022年,AI技术的完整性、保密性和可用性变得非常重要。安全领导人越来越相信,AI模型和AI数据可能变成网络安全的下一个战场。幸运的是,研究人员和创新者正努力在AI加强领域引入一些规则,2021年早期,微软发布了新的AI安全风险评估框架,用来帮助提高AI安全。这是继MITRE的对抗性机器学习威胁矩阵(Adversarial ML Threat Matrix)合作项目后续的坚实推动。所有迹象表明在未来的一年内,随着从业者和研究人员一起创新,需要在这个领域开展更多的工作,确保下一代企业AI工具的安全。

孪生神经网络的安全应用

        在网络安全中使用机器学习和人工智能的主要挑战包括大规模训练数据集,面对变化的条件不断重复训练,让模型表现良好。安全研究者正在努力通过使用孪生神经网(siamese neural network ,SNNs)来克服这些限制,孪生神经网络是为了做出可用的预测,使用少量数据样本实现更好预测的一种模型。例如,在美国2021年Black Hat 大会上,一群微软公司的研究者演示了如何使用这种类型模型在钓鱼攻击中检测品牌假冒,今年春天早些时候,其他的研究表明使用孪生神经网络改进入侵检测系统的检测能力。

万物身份

        自从网络安全专家首次宣称身份作为新的边界,至少已经十年了。但在现实世界中,创新者和实践者花费了相当的时间才跟上这个理念。Omdia最新数据表明,身份创新目前炙手可热,身份、认证和访问市场在2021年增长了13.4%,达到289亿美元,2022年及未来还有更多的发展空间。

        这个领域包括成熟的特权访问管理(PAM)和身份即服务(identity as a service),到越来越有望成功的无密码认证技术的方方面面。例如在2021年,我们看见网络安全历史上最大的A轮投资,投向这个领域的一家公司-Transmit Security,公司将其生物认证平台作为第一个原生无密码身份和风险管理解决方案。这里还有很多争论空间,但有一件事可以肯定:实现这个承诺,对这样的技术需要投入大量的资金和希望。

改善云工作负载安全

       容器、微服务和云在企业中流行程度的爆炸性增长,刺激了提高云工作负载安全的巨大需求。不仅主要的云和安全提供商在他们原生栈中包含这些保护措施,而且市场也看到大量新成立的公司寻求把自身在云负载保护方面的创新推向市场。发生在不久前最引人注目的一个例子是2021年11月lacework,自动化、容器化工作负载防御厂商,获得13亿美元投资。

版权归原作者所有,如若转载,请注明出处:https://www.ciocso.com/article/19037.html

(0)
上一篇 2022-02-28 11:42
下一篇 2022-02-28 13:58

相关推荐

发表评论

登录后才能评论