【发现者网】1月31日消息,近日,有关OpenAI旗下人工智能聊天机器人ChatGPT的数据泄露问题引发了广泛关注。据Ars Technica报道,一名用户声称在使用ChatGPT时,发现了不属于自己的私密对话内容,其中甚至包含了药房用户的工单和多个网站的登录凭证代码片段。
该用户,Chase Whiteside,向Ars Technica透露,他们原本在使用ChatGPT为调色板中的颜色起些巧妙名称,但在离开屏幕一段时间后,回来时发现页面左侧出现了更多未知对话。这些对话并非由Whiteside本人发起,而是涉及到了其他用户的私密信息。
然而,OpenAI方面对此事给出了截然不同的解释。一位发言人表示,Ars Technica的报道发布过于仓促,未能等待OpenAI欺诈和安全团队的调查结果。“根据我们的调查,用户的账户登录凭证遭到了盗用,随后被恶意行为者利用。所显示的聊天历史和文件均与该账户被滥用有关,而非ChatGPT展示了其他用户的信息。”
在读者提供给Ars Technica的截图中,确实包含了一些制作演示文稿的交流和PHP代码对话,其中似乎还涉及到了药房门户的故障处理工单。令人费解的是,这些工单的日期显示它们是在2020年和2021年发起的,而那时ChatGPT还未推出。
对于日期不一致的问题,网站尚未给出明确解释。但有分析认为,这些信息可能是ChatGPT在训练过程中所使用的数据。事实上,去年OpenAI就曾因被指控秘密使用大量医疗数据和其他个人信息来训练其大型语言模型而面临巨额集体诉讼。
在短短不到18个月的时间里,ChatGPT已经多次因数据泄露问题而受到质疑。2023年3月,OpenAI承认了一个故障导致聊天机器人向无关用户显示了部分用户间对话;同年12月,该公司又推出了补丁以修复另一个可能将用户数据暴露给未经授权第三方的问题。而在2023年底,谷歌研究人员还发现,通过某些“攻击”提示,ChatGPT可能会泄露其训练数据的大部分内容。
据发现者网了解,这一系列事件无疑给广大用户敲响了警钟:在使用ChatGPT或任何其他程序时,务必注意保护个人隐私和安全。不要将任何不希望被陌生人看到的信息输入到这些程序中,以免造成不必要的损失和风险。