微软将 GPT-4 添加到 Security Copilot 的防御套件中

2026-02-07 0 227

微软将 GPT-4 添加到 Security Copilot 的防御套件中

人工智能之手正在进一步深入科技行业。

微软已将 Security Copilot(一种可以编写和分析代码的自然语言聊天机器人)添加到由 OpenAI 的 GPT-4 生成人工智能模型支持的产品套件中。 Security Copilot 于周三发布,现已向部分客户提供预览版。 Microsoft 将通过电子邮件更新发布有关 Security Copilot 何时全面上市的更多信息。

什么是 Microsoft Security Copilot?
Microsoft Security Copilot 是一个自然语言人工智能数据集,将显示为提示栏。 该安全工具将能够:

回答对话问题,例如“我的企业中发生了哪些事件?”
写总结。
提供有关 URL 或代码片段的信息。
指出人工智能从哪里获取信息的来源。
该人工智能基于 OpenAI 大语言模型以及 Microsoft 的特定安全模型构建。 该专有模型借鉴了已建立和持续的全球威胁情报。 已经熟悉 Azure 超大规模基础设施系列的企业会发现 Security Copilot 具有相同的安全和隐私功能。

Security Copilot 如何帮助 IT 检测、分析和缓解威胁?
Microsoft 将 Security Copilot 定位为 IT 部门解决人员短缺和技能差距的一种方式。 国际信息系统安全认证联盟 (ISC)² 表示,网络安全领域“急需更多专业人员”。 该联盟的 2022 年劳动力研究发现,全球网络安全岗位和工人之间的差距为 340 万。

由于技能差距,组织可能会寻找方法来帮助新员工或不太熟悉特定任务的员工。 Security Copilot 可以自动执行其中一些任务,以便安全人员可以输入“查找是否存在妥协”等提示,从而更轻松地进行威胁搜寻。 用户可以保存提示并与团队的其他成员共享提示书; 这些提示书记录了他们向人工智能提出的问题以及它如何回答。

Security Copilot 可以总结事件、事件或威胁并创建可共享的报告。 它还可以对恶意脚本进行逆向工程,解释该脚本的作用。

Copilot 与多个现有的 Microsoft 安全产品集成。 Microsoft Sentinel(安全信息和事件管理工具)、Defender(扩展检测和响应)和 Intune(端点管理和威胁缓解)都可以与 Security Copilot 通信并向其提供信息。

Microsoft 向用户保证此数据和您提供的提示在每个组织内都是安全的。 这家科技巨头还在人工智能中创建了透明的审计跟踪,以便开发人员可以看到提出了哪些问题以及 Copilot 如何回答这些问题。 Security Copilot 数据永远不会反馈到 Microsoft 的大数据湖中来训练其他 AI 模型,从而减少了一家公司的机密信息最终成为另一家公司内部问题的答案的机会。

人工智能运行的网络安全安全吗?
虽然自然语言人工智能可以填补工作过度或训练不足的人员的空白,但经理和部门负责人应该有一个框架,以便在代码上线之前让人们关注工作——毕竟,人工智能仍然可以返回错误或误导性的结果。 (Microsoft 可以选择在 Security Copilot 出错时进行报告。)

安全公司 Mondoo 联合创始人兼首席执行官 Soo Choi-Andrews 指出,网络安全决策者在指派团队使用人工智能之前可以考虑以下问题。

Choi-Andrews 在接受电子邮件采访时表示:“安全团队应该像评估任何新产品一样严格地对待人工智能工具。” “了解人工智能的局限性至关重要,因为大多数工具仍然基于概率算法,可能并不总是能产生准确的结果……在考虑人工智能实施时,首席信息安全官应该问自己,该技术是否有助于企业更快地释放收入,同时保护资产和 履行合规义务。”

Choi-Andrews 表示:“至于应该使用多少人工智能,这个领域正在迅速发展,并没有一个放之四海而皆准的答案。”

OpenAI 在 2023 年 3 月 20 日面临数据泄露。“本周早些时候,我们让 ChatGPT 下线,因为开源库中存在一个错误,该错误允许一些用户查看其他活跃用户的聊天历史记录中的标题,”OpenAI 在博客文章中写道 2023年3月24日,Redis客户端开源库redis-py已修复。

截至今天,包括埃隆·马斯克(Elon Musk)和史蒂夫·沃兹尼亚克(Steve Wozniak)在内的 1700 多人签署了一份请愿书,要求 OpenAI 等人工智能公司“立即暂停至少 6 个月训练比 GPT-4 更强大的人工智能系统”,以便“共同开发和 实施一套共享的安全协议。” 请愿书是由生命未来研究所发起的,该研究所是一家非营利组织,致力于将人工智能用于公益事业,并减少其“军事化人工智能”等“大规模风险”的可能性。

攻击者和防御者均使用OpenAI产品
微软在寻找自然语言人工智能最有利可图的用途领域的主要竞争对手谷歌尚未宣布推出专门用于企业安全的人工智能产品。 微软于 2023 年 1 月宣布,其网络安全部门现已成为价值 200 亿美元的业务。

其他一些专注于安全的公司也尝试添加 OpenAI 的多嘴产品。 ARMO 是 Kubernetes 的 Kubescape 安全平台,二月份在其自定义控件功能中添加了 ChatGPT。 Orca Security 一月份将当时最新的 OpenAI 模型 GPT-3 添加到其云安全平台中,为客户提供如何修复问题的说明。 Skyhawk Security 还将流行的人工智能模型添加到其云威胁检测和响应产品中。

相反,这里的另一个响亮的信号可能是向那些网络安全线黑帽一方的人发出的。 黑客和大公司将继续争夺最坚固的数字墙以及如何突破它们。

安德鲁斯说:“值得注意的是,人工智能是一把双刃剑:虽然它有利于安全措施,但攻击者也利用它来达到他们的目的。”

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

申明:本文由第三方发布,内容仅代表作者观点,与本网站无关。对本文以及其中全部或者部分内容的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。本网发布或转载文章出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,也不代表本网对其真实性负责。

左子网 开发教程 微软将 GPT-4 添加到 Security Copilot 的防御套件中 https://www.zuozi.net/57920.html

常见问题
  • 1、自动:拍下后,点击(下载)链接即可下载;2、手动:拍下后,联系卖家发放即可或者联系官方找开发者发货。
查看详情
  • 1、源码默认交易周期:手动发货商品为1-3天,并且用户付款金额将会进入平台担保直到交易完成或者3-7天即可发放,如遇纠纷无限期延长收款金额直至纠纷解决或者退款!;
查看详情
  • 1、描述:源码描述(含标题)与实际源码不一致的(例:货不对板); 2、演示:有演示站时,与实际源码小于95%一致的(但描述中有”不保证完全一样、有变化的可能性”类似显著声明的除外); 3、发货:不发货可无理由退款; 4、安装:免费提供安装服务的源码但卖家不履行的; 5、收费:价格虚标,额外收取其他费用的(但描述中有显著声明或双方交易前有商定的除外); 6、其他:如质量方面的硬性常规问题BUG等。 注:经核实符合上述任一,均支持退款,但卖家予以积极解决问题则除外。
查看详情
  • 1、左子会对双方交易的过程及交易商品的快照进行永久存档,以确保交易的真实、有效、安全! 2、左子无法对如“永久包更新”、“永久技术支持”等类似交易之后的商家承诺做担保,请买家自行鉴别; 3、在源码同时有网站演示与图片演示,且站演与图演不一致时,默认按图演作为纠纷评判依据(特别声明或有商定除外); 4、在没有”无任何正当退款依据”的前提下,商品写有”一旦售出,概不支持退款”等类似的声明,视为无效声明; 5、在未拍下前,双方在QQ上所商定的交易内容,亦可成为纠纷评判依据(商定与描述冲突时,商定为准); 6、因聊天记录可作为纠纷评判依据,故双方联系时,只与对方在左子上所留的QQ、手机号沟通,以防对方不承认自我承诺。 7、虽然交易产生纠纷的几率很小,但一定要保留如聊天记录、手机短信等这样的重要信息,以防产生纠纷时便于左子介入快速处理。
查看详情

相关文章

猜你喜欢
发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务