|
最近のAP通信の報道によると、OpenAIの音声テキスト変換ツールWhisperに重大な欠陥があることが明らかになった。 10人以上のソフトウェアエンジニア、開発者、学術研究者によると、Whisperは「AIイリュージョン」と呼ばれる大量の偽コンテンツを生成することがあるという。このイリュージョンコンテンツには、人種差別的な発言、暴力的な言葉、さらには誤った医療アドバイスが含まれている可能性がある。 ウィスパーの広範な使用と潜在的なリスク Whisperは、翻訳、インタビューの文字起こし、消費者向けテクノロジー関連テキストの生成、動画キャプション作成など、世界中の様々な業界で広く利用されています。こうした広範な利用により、Whisperの「錯覚」問題は深刻化しており、意図せず誤情報を拡散してしまう可能性があります。 この問題は医療機関にとって特に深刻な課題です。OpenAIは「高リスク地域」でのWhisperの使用を控えるよう警告していますが、一部の医療機関は依然として医師と患者の診察を記録するためにWhisperベースのツールの導入を急いでいます。 幻覚の蔓延 研究者やエンジニアたちは、Whisperにおいて幻覚がかなり頻繁に見られることを発見しました。例えば、ミシガン大学の研究者は、公開会議を研究していた際に、モデルの改良を試みる前、調査した10件の音声トランスクリプトのうち8件に虚構の内容が含まれていることを発見しました。別の機械学習エンジニアは、100時間以上のWhisperトランスクリプトを分析し、コンテンツの約半数に幻覚が含まれていることを発見しました。 ある開発者は、Whisperを使って生成された26,000件の書き起こしのほぼすべてに虚偽の内容が含まれていることを発見しました。短く高品質な音声サンプルでさえ、これらの問題から逃れることはできません。コンピューター科学者による調査によると、13,000件以上のクリアな音声クリップのうち、187件に幻覚が見られました。 OpenAIの対応 この発見を受けて、OpenAIの広報担当者は、同社は幻覚を軽減する方法を継続的に研究しており、研究者からのフィードバックに感謝の意を表しました。OpenAIは、このフィードバックをモデルのアップデートに反映させ、Whisperのパフォーマンスと信頼性を向上させることを約束しました。(Suky) |
OpenAI の音声テキスト変換ツール Whisper には重大な欠陥がある。生成された文字起こしテキストに AI 幻覚現象が現れるのだ。
関連するおすすめ記事
-
Apple の幹部は、独自の検索エンジンを構築しない理由を次のように説明しています。「費用がかかりすぎるし、リスクが大きすぎるし、プライバシー保護の約束にも反するからです。」
-
アマゾンは今年の設備投資を1000億ドルに増額。AIへの投資を継続し、CEOはこれを「一生に一度のビジネスチャンス」と呼んでいる。
-
百度の創立25周年を記念して、ロビン・リーは全社員に宛てた手紙の中で、AIネイティブアプリケーションは2025年も爆発的な成長を続けるだろうと述べた。
-
OpenAI の共同設立者 Ilya Sutskever 氏は「超知能 AI」について語る。この AI は推論能力を備え、より予測不可能になるだろう。
-
長城汽車が海外展開を加速、ブラジル工場は来半ばまでに生産開始予定。
-
iQiyiとTencent Videoが相次いで、動画プラットフォームの「1人1アカウント」時代が到来すると発表。