当前位置:YY分类目录 » 站长资讯 » 资讯文章 » 站长新闻 » 文章详细 订阅RssFeed

谷歌声称能“偷窥”OpenAI大模型秘密,GPT-3.5核心信息遭“泄露”!

来源:网络 浏览:26次 时间:2024-03-16
谷歌声称能“偷窥”OpenAI大模型秘密,GPT-3.5核心信息遭“泄露”!

近日,谷歌的一项最新研究引发了业界的广泛关注。该研究团队声称通过简单调用API的方式,成功还原了OpenAI大型语言模型的关键信息,包括整个投影矩阵和隐藏维度大小,且成本极低,最低仅需约150元人民币。

谷歌的这项研究针对的是OpenAI的大型语言模型,尤其是GPT系列。通过巧妙地利用API访问模型,并发出大量有针对性的查询,谷歌的研究团队成功地提取出了模型的嵌入投影层的关键参数。嵌入投影层是模型的最后一层,负责将隐藏维度映射到logits向量,是模型输出的重要部分。

研究团队表示,他们通过向模型发送特定查询,并观察模型的响应,从而推断出模型的隐藏维度大小。这种方法不仅适用于GPT系列的基础模型Ada和Babbage,同样适用于更高级的GPT-3.5和GPT-4模型。

值得注意的是,谷歌的研究团队在进行这项研究之前,已经得到了OpenAI的同意。在完成攻击后,他们也与OpenAI确认了方法的有效性,并删除了所有与攻击相关的数据。

尽管谷歌的研究团队仅通过API调用就获取了模型的部分关键信息,但这一发现仍然引起了业界的震惊。这意味着即使OpenAI等大型语言模型提供商采取了严格的安全措施,其模型仍然可能面临潜在的安全风险。

针对这一发现,OpenAI已经采取了相应的防御措施,包括修改模型API和隐藏维度等。然而,这也引发了关于大型语言模型安全性和开放性的新一轮讨论。

谷歌的这项研究不仅揭示了大型语言模型的安全漏洞,也为未来的模型安全研究提供了新的思路。随着人工智能技术的不断发展,如何确保模型的安全性和隐私性将成为业界面临的重要挑战。

对于OpenAI来说,这一事件也提醒了他们需要更加重视模型的安全性,并采取更加严格的措施来保护模型的关键信息。同时,他们也需要与业界共同合作,共同推动人工智能技术的健康发展。

总之,谷歌的这项研究为我们提供了一个新的视角来看待大型语言模型的安全问题。未来,我们期待看到更多的研究和创新,以推动人工智能技术的不断进步和发展。