人工知能:AIが生成したテキストへの透かし処理
Nature
2024年10月24日
大規模言語モデルによって生成されたテキストにウォーターマーク(電子透かし)を入れることで、合成コンテンツを特定し追跡する能力を向上させるツールを報告する論文が、今週のNatureに掲載される。
大規模言語モデル(LLM:Large language models)は、チャットボットや執筆支援など、さまざまな用途でテキストを生成できる人工知能(AI:artificial intelligence)ツールとして広く使用されている。しかし、AIが生成したテキストを特定の生成元に帰属させることは難しく、情報の信頼性が疑問視されることもある。この問題の解決策として透かしが提案されているが、実用システムでは品質と計算効率に関する厳しい要件があるため、大規模に展開されていない。
Sumanth DathathriおよびPushmeet Kohliらは、AI生成テキストに透かしを適用する新しいサンプリングアルゴリズムを使用する手法として知られるSynthID-Textを開発した。このツールは、サンプリングアルゴリズムを使用してLLMの単語選択に微妙な偏りを加え、関連する検出ソフトウェアによって認識可能な署名を挿入する。これは、「歪曲」モードを通じて行うことができ、この場合は出力品質を若干犠牲にして透かしを改善する。あるいは、「非歪曲」モードを通じて行うこともでき、この場合はテキストの品質を維持する。
これらの透かし文字の検出可能性は、一般に利用可能な複数のモデルで評価され、SynthID-Textは既存の方法と比較して検出可能性が向上していることが示された。テキストの品質も、Gemini LLMを使用したライブチャットのやりとりから得られた約2,000万件の回答を使用して評価され、その結果、透かし文字の非歪曲モードではテキストの品質が低下しないことが示唆された。さらに、SynthID-Textの使用は、LLMの実行に必要な演算能力への影響はごくわずかであり、実装への障壁を低減する。
著者らは、テキストの透かしは出力の編集や言い換えによって回避できる可能性があると警告している。しかし、この研究は、AI生成コンテンツに対して生成テキストの透かしを生成できるツールの実用性を示しており、LLMの責任ある利用における説明責任と透明性をさらに向上させるためのさらなる一歩である。
Dathathri, S., See, A., Ghaisas, S. et al. Scalable watermarking for identifying large language model outputs. Nature 634, 818–823 (2024). https://doi.org/10.1038/s41586-024-08025-4
doi:10.1038/s41586-024-08025-4
「Nature 関連誌注目のハイライト」は、ネイチャー広報部門が報道関係者向けに作成したリリースを翻訳したものです。より正確かつ詳細な情報が必要な場合には、必ず原著論文をご覧ください。
注目のハイライト
-
生物学:全ヒト細胞アトラスの作成Nature
-
天文学:近くの恒星を周回する若いトランジット惑星が発見されるNature
-
気候:20世紀の海水温を再考するNature
-
健康科学:イカに着想を得た針を使わない薬物送達システムNature
-
化学:光を使って永遠の化学物質を分解する新しい方法Nature
-
生態学:リュウキュウアオイが太陽光を共有するNature Communications