首页 | 资讯 | 财经 | 公益 | 彩店 | 奇闻 | 速递 | 前瞻 | 提点 | 网站相关 | 科技 | 热点 |
奇安信:正训练类ChatGPT安全大模型

发稿时间:2023-02-10 09:55:20 来源: 北京日报


(资料图片仅供参考)

北京日报客户端 | 记者 孙奇茹

热到发烫的ChatGPT近期不断占据媒体和社交网络的头条。在给众多行业带来巨大想象空间的同时,其带来的安全与技术伦理问题也备受关注。奇安信人工智能研究院负责人透露,公司正在基于ChatGPT相关技术和自身积累的海量安全知识和数据,训练奇安信专有的类ChatGPT安全大模型。

如同其他人工智能模型一样,ChatGPT是把双刃剑,既可以是提升效率的工具,解答人们的各种问题、创造出大学水平的论文,甚至编写代码,但同时也可能绕过安全机制,被用于实施有害的活动。“比如,对网络安全行业来说,既可以用来编写网络钓鱼、生成恶意软件、开展社工攻击,也可以成为网络防御者的有力工具。”虎符智库研究员李建平说。

据了解,网络犯罪分子使用 ChatGPT 造成的“最紧迫和常见的威胁”主要包括网络钓鱼、社会工程和恶意软件开发。以社会工程为例,研究人员发现,ChatGPT 等工具使犯罪分子能够逼真地模拟各种社会环境,从而使各种针对性的通信攻击更加有效,这类语言模型提供支持的工具,使攻击者更易诱骗受害者提供敏感信息或下载恶意软件,加速从网络钓鱼到传播仇恨言论的各种攻击。

ChatGPT等人工智能工具会以比人类罪犯更快的速度制造出新的、日益智能的威胁,传播威胁的速度也会将超过网络安全人员的反应速度。如何应对这一新挑战?网络安全业界人士认为,跟上这一变化的唯一方法是——通过使用人工智能来应对人工智能。

李建平分析,一方面,网络安全行业的研究人员、从业者、学术和企业可以利用ChatGPT的力量进行创新和协作,包括漏洞发现、事件响应和钓鱼检测。与此同时,随着ChatGPT等类似工具的发展,未来开发新的网络安全工具更加重要。安全企业应更积极地开发和部署基于行为(而非规则)的AI安全工具,来检测人工智能生成的攻击。

奇安信相关负责人称,ChatGPT是使用了互联网数据及部分由标注人员人工编写的对话数据,利用人类反馈强化学习(RLHF)技术及自有的GPT3.5大模型进行训练而成的。相关的强化学习、大语言模型等技术,奇安信团队已经有长时间实践并取得了一些成果,公司已经开展了ChatGPT在网络安全领域应用的研究和探索,目前正在训练的类ChatGPT安全大模型未来将广泛应用于安全产品开发、威胁检测、漏洞挖掘、安全运营及自动化、攻防对抗、反病毒、威胁情报分析和运营、涉网犯罪分析等领域。

标签: 网络安全 人工智能 恶意软件

责任编辑:mb01

网站首页 | 关于我们 | 免责声明 | 联系我们

生活晚报网版权所有

Copyright @ 1999-2017 www.news2.com.cn All Rights Reserved豫ICP备20022870号-23

联系邮箱:553 138 779@qq.com