【发现者网】12月12日消息,美国近日见证了 AI 领域的一次重大创新。埃隆·马斯克旗下的 AI 公司 xAI 推出了名为 Grok 的先进人工智能聊天机器人。这款新机器人专为 Premium+ X 用户在美国地区提供服务,采用了与众不同的技术模型 Grok-1,这一模型与目前 OpenAI 的 ChatGPT 所采用的 GPT-4 模型有着本质的区别。
Grok 的一个独特之处在于其能够利用 X 平台的实时数据,从而提供根据最新动态定制的即时回复。这种独特的实时数据整合能力,使得 Grok 在同类产品中脱颖而出。
据发现者网了解,尽管 Grok 展现了强大的技术优势,但它同样面临着所有大型语言模型(LLM)共有的挑战:产生误导或错误信息的“幻觉”。这一问题在 AI 聊天机器人领域并不罕见,包括 ChatGPT 也存在类似问题。最近,社交媒体上出现了关于 Grok 的一则尴尬插曲,一位用户报告称,在使用 Grok 时收到了一条提示:“我无法完成您的请求,因为它违反了 OpenAI 的用例政策。”这一事件迅速引发了网上的热议。
xAI 的工程师 Igor Babuschkin 对此作出了解释。他指出,Grok 在开发过程中使用了大量网络数据,其中可能包含了由 OpenAI 生成的文本,这可能是造成这种“幻觉”的原因。Babuschkin 进一步强调,尽管这类问题十分罕见,但他们已经注意到并正在努力确保未来的 Grok 版本将不再出现类似情况。他还明确表示,Grok 的开发并未使用任何 OpenAI 的代码。
这一事件不仅引发了对 AI 聊天机器人安全性和可信度的关注,也标志着 AI 研发未来的重要挑战:如何防止误导信息的产生,同时保证技术的安全可靠。