Microsoft 、Windows AIエージェント(Copilot)が幻覚を発症する可能性があると通知…… InsiderのDev、Betaで

VideoCardz.com、TechPowerUp、そしてマ社の原文になる。


これは、実験的機能としてβ及びDevにテスト実装されている最新のAI機能に指示外動作をする”幻覚”が生じる事があるという通知である。ただ、この機能はデフォルトではオフになったので、使う場合は設定で試験的なエージェント機能(Experimental agentic features)を有効にしないと使えない仕組みになっているという。

幻覚とは具体的に言えば、誤った結果を出力する。そもそも指示していないことを実施するといった内容である。

尚、この機能を有効にするとAIエージェントはより機能の深くで動作するようで、既知のユーザーフォルダ(ダウンロード、デスクトップ、ドキュメント、ピクチャ、ミュージック、ビデオフォルダ)の読み書きが付与され、エージェントが永続的にセッションを跨いでファイルに対して操作を継続できるようになるそうだ。即ち、ここにあるデータをエージェント側で自由に操作できると言うわけだ。

問題なのがここからで、この機能を有効にした場合、セキュリティの危険性が生じる可能性を示唆している。具体的には、自立エージェントにクロスプロンプトインジェクションによるデータファイルに隠蔽したAI向けのプロンプト命令を組込んでそれに従って攻撃を実行するというものだ。これで、データをロックしたり、支払い情報などを漏洩させたり、危険なアクションを実行される危険が増すというものである。

そこで、エージェントワークスペースという実行状態のログを詳細に記録する機能を搭載し、一種のサンドボックス的な仕組みを目指して実装しているが、まだプロンプトインジェクションに対する対策は行われていないということらしい。即ち、セキュリティとして弱く、時々勝手に暴走するAIをテストし始めたということらしい。


これはあくまで私個人の意見だが、そもそもデスクトップOSにここまでのAI統合が必要なのかは疑問しか沸かない。むしろ、これはOSというよりもただのMicrosoft Copilot Software Systemであって、WindowsというOSはオプションに成り下がっているようにしか見えない。要は、マ社がAIを開発するための遊びにWindowsのテスターをさらに巻き込み、OSも巻き込んでいるという感じだろう。

この調子だと、脱Windowsが今後加速する可能性が高い。何せ、Windows向けアプリケーション開発者ですらマ社が何を目指してこのような実装を進めているのかが今では分からないという話が増えているからだ。