POLITICAL ECONOMY 第305号「AI戦争時代の始まり」を考える
金融取引法研究者 笠原一郎
この原稿を書いている3月下旬、米国トランプ大統領(およびイスラエル ネタニアフ政権)によって2月末にハメネイ師をはじめとするイラン政権指導者たちが殺害された。このピンポイントでの殺害にはじまった戦争-混乱は、ホルムズ海峡に機雷を敷設し、石油ルート掌握を“最大の武器”とするイランの抵抗によって、原油価格の世界に高騰をもたらした。特に日本のみならず、中東の原油に依存するインド・東南アジア諸国は追い込まれ、その解決の見通しが立たない状況が続いている。
今回の原稿依頼を受けて、当初は、米国トランプの地政学的リスクについて“あたり”をお題にと思っていたが、予測不能のトランプをテーマとすると、脱稿後には全く別物(ピントの外れた書き物)になってしまいかねない。そこで、少し切り口を変え、今回の戦争において、一部で報道されている“AIが軍事作戦に使われた可能性”の指摘から「戦争とAI」・「AIがもたらす未来」を考えてみる(このテーマを“AI”自身に考えてもらってみる)
ことにした。
「戦争とAI」をChatGPTに聞いてみると
この報道内容を分析するツールとして、代表的な生成AIであるChatGPTに「イラン指導者 殺害 AI」と打ち込み相談してみたところ、3秒ほどで返ってきた回答は次のようなものである。
ChatGPT の回答は、
1 標的の選定
・AIが大量の情報(行動パターン・通信・位置など)を分析
・誰をいつ攻撃するかを高速で判断
→ 専門家は「標的特定にAIが使われた可能性が高い」と指摘
2 作戦計画の最適化
・攻撃タイミング・ルート・同時攻撃の調整などをAIが支援
・短期間で複雑な作戦を設計可能
3 具体的なAIツールの報道
・一部では、米AI企業の生成AI(Claudeほか)が関与したとの報道もある
(ただし詳細は不明で、確定情報は限定的)
■ 何が問題になっているのか
この件で大きく議論されているのは、
● 人間のコントロールが弱まる懸念
・AIが「誰を攻撃するか」に関与
・判断プロセスのブラックボックス化
● 戦争のスピードが加速
・AIにより意思決定が高速化
・誤判断でも即攻撃につながるリスク
● 倫理問題(かなり重要)
・AIが人を殺す判断をしてよいのか
・国際ルールがほぼ未整備
■ まとめ
・イラン指導者の殺害は実際の軍事攻撃
・その過程で、
AIが「情報分析・標的選定・作戦支援」に使われた可能性
・これは「AI戦争時代の始まり」とも言われている
相手より早く・強く判断するAIを開発
このAI分析を踏まえて、さらに「AI 戦争 その未来」をChatGPTに打ち込むと、
■ AI戦争の未来
1 “判断の速さ”が戦争を変える
AIは人間よりも圧倒的に早く判断する
・数秒で攻撃判断
・リアルタイムで戦況分析
・自動で作戦更新
戦争が「人間の思考速度」を超える
2 無人戦争(ドローン・ロボット中心)
「兵士が死なない戦争」→ 戦争のハードルが下がる
3“見えない戦争”の拡大
物理攻撃だけでなく、情報戦(デープフェイク・世論操作・選挙干渉等)
4 AIが「提案」から「決定」に近づく
・AIが攻撃対象を提示
・人間は承認するだけ
・いずれは完全自動化の誘惑
■ 最も危険なシナリオ
● 誤作動・誤認識による戦争
・AIが誤って「敵の攻撃」と判断すると数分で報復 → 戦禍の拡大・報復の連鎖
・核保有国同士であれば取り返しがつかない
● AI同士の“暴走競争”
・相手より早く・強く判断するためのAI開発
● 人間の理解を超える
・AIの判断をだれも止められない
危険なのは「AIそのもの」ではない、検証の欠如だ
このように、ChatGPT自身が示した“生成AIがもたらす未来”は、相当に深刻なものであると考えざるを得ない。
さらにこのAIが回答した「AI戦争の最も危険なシナリオ」、「これを回避するためにできること」をChatGPTに打ち込むと、
■ いわゆる“AI戦争の最悪シナリオ”を避けるには、技術だけでなく制度・文化・国際協調が重要。
として、
● 最も重要なポイント(本質)
最も危険なのは「AIそのもの」ではなく:
・人間同士の不信(軍拡競争)
・誤情報による誤判断
・スピードについていけない意思決定
つまり、
人間の協力・制度・判断力にあります。と、ChatGPTは回答してきた。
確かに、AI様のおっしゃる通り、「最も危険なシナリオを回避するためにできること」は、「人間の協力・制度・判断力にある」とは思うところだが、ただ、ちょっと待って、AIは「最も危険なのは「AIそのもの」ではない」と、AI“自身”がその存在に自己防衛反応をしている。AI が“責任回避”に走っているのではないだろうか。
世の中のAI化の流れ、便利ツールとしての広がりの中で、人間はどのように考え・行動したらよいのだろうか。思うに、まずはAIの回答を疑ってみること、すなわち回答を妄信せず、自己の経験・知見と照らし合わせ、回答の整合性を倫理観のフィルターをかけて検証してみることこそが、我々に出来うる第一ではないだろうか。
*アイキャッチ画像は Wikimedia Commons より
入会案内&問い合わせ
私たちの事業の協同推進者をひろく求めています。私たちの事業(フォーラムやシンポジウムの開催、研究会の推進)は、皆さまの支援(=会費、寄附)で推進されます。ぜひ、私たちの事業の協同推進者になってください。

