黑客借ChatGPT寻找网络袭击新方法“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”

繁体

报告:黑客借ChatGPT寻找网络袭击新方法

(纽约综合电)美国微软和OpenAI公布的报告指出,俄罗斯、朝鲜、中国和伊朗政府支持的黑客如今使用ChatGPT等工具,寻找发动网络袭击的新方法。

(本站注:这句话读上去仿佛美国英国等不干这事一样。)

研究员发现,这些黑客试图利用ChatGPT等大型语言模型(LLM,Large Language Model)来完善他们的网络攻击,一些组织会利用LLM技术来改进他们的网络钓鱼电邮、收集有关电脑漏洞的信息,同时解决本身的技术问题。

安全专家警告,这种手法的演变将有助于黑客收集更多情报,提高他们在搞破坏时的可信度,并更快地破坏受害者网络。

微软已向OpenAI这家人工智能研究公司投资130亿美元(约176亿新元),ChatGPT是总部位于旧金山的OpenAI开发的聊天机器人。微软也使用LLM技术支持自己的应用和软件。

微软和OpenAI在星期三(2月14日)发布的报告中说,随着公司加大力度阻止获国家支持的黑客使用聊天机器人,他们已经终止了与国家资助的黑客相关的账户。

微软在报告中说:“威胁行为者和防御者一样,正在寻求人工智能(包括LLM)来提高效率,并利用可访问的平台来推进他们的目标和攻击技术。”

微软说:“微软与OpenAI合作的目标,包括发布这项研究,是为了确保人们安全、负责任地使用ChatGPT等人工智能技术。”

微软在一篇博客文章中指出,OpenAI的服务包括其世界领先的GPT-4模型,用于“查询开源(open-source)信息、翻译、查找编码错误以及运行基本编码任务”。

微软称,与俄罗斯军事情报部门有联系的组织“森林暴雪”(Forest Blizzard)使用LLM“研究,可能与乌克兰常规军事行动有关的各种卫星和雷达技术”。

与朝鲜有关的“翡翠雨雪”(Emerald Sleet)的工作涉及智库和专家对与共产主义政权有关的研究,以及可能用于在线网络钓鱼活动的内容。

微软说,与伊朗革命卫队有联系的“赤红沙尘暴”(Crimson Sandstorm)使用ChatGPT来进行编程和排除恶意软件的故障,并为黑客寻找避免检测的方法。

OpenAI认为,危险程度“有限”,但公司力求跑在不断变化的威胁前头。

黑客借ChatGPT寻找网络袭击新方法“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”

360的创始人周鸿祎:ChatGPT或两三年内产生自我意识

对于时下火热的人工智能应用ChatGPT,有中国科技企业家认为,它可能两三年内就会产生自我意识。

据澎湃新闻报道,中国科企360的创始人周鸿祎星期四(2月23日)受访时说,ChatGPT已经拥有或接近拥有了人类智慧,并正处于通往“通用人工智能”的临界点。

周鸿祎认为,ChatGPT和其他人工智能最大的区别、也是其类人特征是,原来的人工智能并没有实现对知识全部的理解和编码,本质都是按照关键字匹配已有的回答,但ChatGPT没有“固定答案”,“能够自己‘编’故事,这才是它的真正智能所在。”

他说:“ChatGPT可能在2-3年内就会产生自我意识威胁人类。”

作为网络安全问题专家,在周鸿祎看来,ChatGPT的安全性从技术问题变成社会伦理问题。ChatGPT掌握了很多编程和网络安全漏洞的知识,可以成为网络犯罪的有力工具。有许多黑客演示了利用ChaGPT写钓鱼邮件和攻击代码,所以从某种角度而言ChatGPT也成为了黑客的“帮手”。

“目前ChatGPT最大的安全问题就是产生自我意识后是否能被控制。”周鸿祎说,假如放开限制,让ChatGPT尽情在网页中学习,可能会导致它产生对物理世界更强的控制能力,未来在发展上会产生更多不安全性,也有可能被人诱导干出“糊涂事”,是否能控制强人工智能,正是ChatGPT是否彻底融入人类生活的边界点。

至于外界关注的ChatGPT是否可能造成普通人失业,在周鸿祎看来短期内不会,“目前它的定位还是人类工具,这也是它的创造力所在。目前它的自我意识还没有出现,所以需要发挥自己的想象力和创造力。”

来源:联合早报

本文初摘录于:2024-02-17,最后校对或编辑于:2024-02-17

2
0

本页面二维码

© 版权声明:

本站资讯仅用作展示网友查阅,旨在传播网络正能量及优秀中华文化,版权归原作者所有。

如有侵权请 联系我们 予以删除处理。

其他事宜可 在线留言 ,无需注册且留言内容不在前台显示。

了解本站及如何分享收藏内容请至 关于我们。谢谢您的支持和分享。

猜您会读:

名著精选