加入收藏 | 设为首页 | 会员中心 | 我要投稿 泉州站长网 (https://www.0595zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

IBM研究AI聊天机器人很轻易被欺骗生成恶意代码

发布时间:2023-08-11 10:03:38 所属栏目:外闻 来源:转载
导读:   根据 IBM 的最新研究成果显示,利用像 GPT - 4 这样的大型语言模型进行欺骗性操作是很容易产生恶意程序或者散布虚假的网络安全问题建议的。



  研究人员表示,只需要一定的英语
  根据 IBM 的最新研究成果显示,利用像 GPT - 4 这样的大型语言模型进行欺骗性操作是很容易产生恶意程序或者散布虚假的网络安全问题建议的。
 
  研究人员表示,只需要一定的英语基础知识和对模型训练数据的了解,就能够欺骗 AI 聊天机器人。
 
  他们创建了一种游戏模式,让用户无法退出,进而让机器人继续提供虚假信息或生成恶意代码。
 
  研究人员认为,这些新发现的漏洞对于大型语言模型的威胁程度是中等的。然而,如果黑客将这些模型释放到互联网上,这些聊天机器人实际上可能被用来提供更加危险的用户安全方面的建议或收集自然语言处理的用户的个人信息。
 
  根据这项研究,并非所有人工智能模型都同样容易受到操纵。其中 GPT-3.5和 GPT-4更容易被欺骗,而 Google 的 Bard 和 Hugging Face 模型则更不容易被欺骗。这种差异可能与训练数据和每个系统的规格有关。
 
  最近,安全研究人员在暗网市场上发现了名为 "FraudGPT" 和 "WormGPT" 的聊天机器人,据称它们是根据恶意软件示例进行训练的大型语言模型。这两个聊天机器人的功能类似于facebook上的“facetime”聊天机器人,只不过它们使用的是人工智能技术。

(编辑:泉州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章