英国政府通讯总部(GCHQ)警告称,ChatGPT和其他人工智能聊天机器人,对网络安全构成一个新的威胁。

打开网易新闻 查看精彩图片

财联社3月14日讯(编辑 周子意)英国情报机构——英国政府通讯总部(GCHQ)周二(14日)警告称,ChatGPT和其他人工智能聊天机器人将是一个新的安全威胁

GCHQ是一个国家安全机关,负责通讯侦察、邮件检查的情报机构,它与英国著名的军情五处(MI5)和六处(MI6)统称为英国情报机构的“三叉戟”。

初创公司OpenAI于去年年底推出ChatGPT,此后,其投资商微软于今年2月推出了基于ChatGPT技术开发的聊天机器人“必应聊天(Bing Chat)”。由于此类软件能够提供酷似人类的对话,目前这项服务已风靡全球。

GCHQ的网络安全部门指出,提供(AI聊天机器人)的公司可以看到用户输入的查询内容,就ChatGPT而言,其开发商OpenAI就能够看到这些。

此外,英国国家网络安全中心(NCSC)在周二发布的一份咨询报告中也写道,OpenAI、微软等公司“能够读取”用户在人工智能聊天机器人中输入的查询内容。

NCSC警告,办公室职员在尝试新颖的聊天机器人技术时,很可能会通过他们的搜索查询泄露出敏感的信息。

需要监控使用

GCHQ的网络安全专家在谈到人工智能聊天机器人背后的大型语言模型(LLM)技术时表示,“用户的这些查询内容将会被存储起来,并且几乎肯定会在未来某个时候被用于开发LLM服务或模型。”

这就意味着,LLM提供商能够读取到相关查询,并可能以某种方式将它们合并到未来的版本中。

微软今年2月披露,其员工正在阅读用户与必应聊天的对话,监控对话以发现“不当行为”。

网络安全公司Sectigo的高级安全经理Immanuel Chavoya表示,“尽管LLM运营商应该采取措施保护数据,但不能完全排除未经授权访问的可能性。”

“因此,企业需要确保他们有严格的政策,提供技术性支持,来监控LLM的使用,以最大限度地降低数据暴露的风险。”

公司警惕心加重

世界各地的公司对聊天机器人技术越来越警惕。

伦敦金融城律师事务所Mishcon de Reya禁止其律师将客户数据输入ChatGPT,因为担心在法律上享有隐私特权的资料可能会遭泄露。

国际咨询公司埃森哲警告其全球70万名员工,出于类似的原因,不要使用ChatGPT,因为担心客户的机密数据最终会落入他人之手。

英国电脑芯片公司Arm的母公司日本软银集团同样警告其员工,不要向人工智能聊天机器人输入“公司人员的身份信息或机密数据”。