注目の論文

人工知能:AIが生成したテキストへの透かし処理

Nature

2024年10月24日

Artificial intelligence: Watermarks for AI-generated text

大規模言語モデルによって生成されたテキストにウォーターマーク(電子透かし)を入れることで、合成コンテンツを特定し追跡する能力を向上させるツールを報告する論文が、今週のNatureに掲載される。

大規模言語モデル(LLM:Large language models)は、チャットボットや執筆支援など、さまざまな用途でテキストを生成できる人工知能(AI:artificial intelligence)ツールとして広く使用されている。しかし、AIが生成したテキストを特定の生成元に帰属させることは難しく、情報の信頼性が疑問視されることもある。この問題の解決策として透かしが提案されているが、実用システムでは品質と計算効率に関する厳しい要件があるため、大規模に展開されていない。

Sumanth DathathriおよびPushmeet Kohliらは、AI生成テキストに透かしを適用する新しいサンプリングアルゴリズムを使用する手法として知られるSynthID-Textを開発した。このツールは、サンプリングアルゴリズムを使用してLLMの単語選択に微妙な偏りを加え、関連する検出ソフトウェアによって認識可能な署名を挿入する。これは、「歪曲」モードを通じて行うことができ、この場合は出力品質を若干犠牲にして透かしを改善する。あるいは、「非歪曲」モードを通じて行うこともでき、この場合はテキストの品質を維持する。

これらの透かし文字の検出可能性は、一般に利用可能な複数のモデルで評価され、SynthID-Textは既存の方法と比較して検出可能性が向上していることが示された。テキストの品質も、Gemini LLMを使用したライブチャットのやりとりから得られた約2,000万件の回答を使用して評価され、その結果、透かし文字の非歪曲モードではテキストの品質が低下しないことが示唆された。さらに、SynthID-Textの使用は、LLMの実行に必要な演算能力への影響はごくわずかであり、実装への障壁を低減する。

著者らは、テキストの透かしは出力の編集や言い換えによって回避できる可能性があると警告している。しかし、この研究は、AI生成コンテンツに対して生成テキストの透かしを生成できるツールの実用性を示しており、LLMの責任ある利用における説明責任と透明性をさらに向上させるためのさらなる一歩である。
 

Dathathri, S., See, A., Ghaisas, S. et al. Scalable watermarking for identifying large language model outputs. Nature 634, 818–823 (2024). https://doi.org/10.1038/s41586-024-08025-4

doi: 10.1038/s41586-024-08025-4

「注目の論文」一覧へ戻る

プライバシーマーク制度