AI兵器

2019年8月23日

西暦3404年、地球は急速に死にかかっていた
 
この宣告から始まる、手塚治虫の『火の鳥・未来編』。いまからもう50年以上前の作品です。人類は地下に潜り込み生き延びて、「永遠の都」をつくっていました。それは、おそってくるさみしさを忘れようとするためだった、とアナウンスされています。この「永遠の都」は世界に五か所あるメガロポリスで、ユーオーク・ピンキング・レングード・ルマルエーズ・ヤマトと呼ばれていました。日本を含む大国をイメージしていることは明瞭です。
 
ヤマトはその最高判断を、電子頭脳「ハレルヤ」に委ねていました。作品の中でこれは「偉大な母・地球の救い主・人類の総指揮者ハレルヤ!」と称されています。あることで、レングードの聖母機械ダニューバーとこのハレルヤとの間で意見が対立し、対決することになります。それぞれ、自分の計算が正しいと言い張る電子頭脳同士の戦いとなりました。
 
宣戦布告と同時に、互いの都市は一瞬の内に壊滅します。ところがどうしたことか、他のメガロポリスも同時に爆発します。地球の五つの部分から、あらゆる生命を消し去った五つの雲の柱が立ちのぼりました。わずかに地上に出ていた数人が命を長らえ、ソドムとゴモラの話を思い起こします。自分たちはロトの家族のように逃げ出すことができたと振り返りますが、うちひとりが火の鳥と出会い、永遠の命を生きて、新たな地球の生命の誕生を見守ることになります。
 
壮大なストーリーの魅力から、私の人生観は形作られていったのだと思いますが、さて、この電子頭脳が現実になろうとしている時代を迎えてしまいました。まだ西暦3404年は遠い先だというのに。聖書をモチーフに構想したと思われる手塚治虫の才覚に改めて敬意を表しますと共に、いまの私たちが何を判断し、人間をどうしたいのか、一人ひとりが問われていると思わされずにはいられません。
 
 
【讀賣新聞2019年8月23日付社説】
AI兵器の規制 攻撃判断を委ねるべきでない

 人間の意思が介在しない状態で、人工知能(AI)が自律的に判断し、敵を殺害する。そんな兵器システムが実用化されれば、戦闘の形態が一変しかねない。

 技術の急速な進展に伴う予想外の事態をいかに防ぐか。各国が議論を深め、現実的な規制に向けて歩み寄ることが重要である。

 AI兵器は、AIが戦闘区域の状況など膨大な情報を処理しながら作動する。自動運転車と同様に人為的な操作ミスを減らす効果や省力化、省人化が、安全保障上の利点として指摘されている。

 問題となっているのは「自律型致死兵器システム(LAWS)」だ。人間の命令なしに、AIが自ら標的を選択し、殺害する。

 人間が遠隔操作するドローンなどの無人兵器とは異なり、攻撃の責任の所在が不明確になりかねない。人間が戦闘を管理できなくなる可能性が懸念される。

 そもそもAIに生殺与奪の権利を握らせるべきでない、という主張もある。国際人道法や倫理面でLAWSが多くの問題点をはらんでいるのは明白である。

 スイス・ジュネーブで開かれた各国政府代表や専門家による会合は、LAWS規制に関するこれまでの議論を報告書にまとめた。

 「国際人道法などの国際法を守らねばならない」とし、LAWSの使用に人間の判断を介在させる必要性を強調している。

 文書に法的拘束力はないが、重視すべき原則を各国が共有した点では一歩前進だと言えよう。

 オーストリアやブラジル、途上国グループは軍縮推進の立場から、LAWS禁止条約を求める。一方、AI兵器の開発で先行する米国やロシアは、禁止や規制には慎重で、溝が生じている。

 今回の報告書を土台にLAWSの開発や運用で実効性のあるルールを作れるかが課題となる。

 例えば、規制の対象を、人間を直接殺害するよう設計された兵器システムに限る。攻撃の際、司令官の許可を得るプログラムを組み込むことで、「決断する人間の介在」を担保する。こうした具体案の議論を深める必要がある。

 米露をルール作りに引き込み、AI兵器の透明性や各国間の信頼を高めることが大切だ。一方で、民間のAI技術の研究・開発が、軍事転用の可能性を理由に規制されることは防がねばならない。

 日本は、完全自律型のLAWSは開発しないとの立場をとる。建設的な議論を主導する役割を果たしてもらいたい。




沈黙の声にもどります       トップページにもどります