近日,多位软件工程师、开发人员及学术研究人员对OpenAI的语音转写工具Whisper提出了严重质疑,指出其存在凭空生成虚假内容的问题。这些虚假内容可能包含种族言论、暴力措辞,甚至虚假的医疗建议,被业内称为“AI幻觉”。
据报道,尽管OpenAI已提醒用户避免在高风险领域使用Whisper,但该工具仍被广泛应用于多个行业,包括医疗机构。这引发了对于其潜在风险的担忧。
研究人员和工程师在工作中频繁遇到Whisper的“幻觉”现象。例如,密歇根大学的一位研究员在研究过程中发现,他所检查的音频转录中,大部分含有虚构内容。
另一项研究表明,在审查的13000多段清晰音频片段中,有187段出现了“幻觉”现象。研究人员认为,这意味着在数百万条录音中,可能出现数以万计的错误转录。
OpenAI的发言人表示,公司正在持续研究如何减少“幻觉”现象,并感谢研究者的反馈,将在未来的模型更新中采纳这些意见。