メインコンテンツにスキップ

アルゴリズムによる死。キラーロボットの出現は思う以上に速いのかもしれない

記事の本文にスキップ

49件のコメントを見る

(著) (編集)

公開:

この画像を大きなサイズで見る
BrendanHunter/iStock
Advertisement

 進軍中の部隊が重要な都市まで迫った。だが兵士を突入させて、泥沼の白兵戦が展開されるような事態は避けたい。ならばドローンで守備兵を片付けておくか――。

 テクノロジーの発達によって、かつては映画の中だけのものだった状況が現実になりつつある。今、各国の軍隊ではこうした自動技術に大いに興味を抱いている。

 米軍が従軍している地域では、軍用ドローンがすでに空を飛行している。それはターミネーターのようなキラーロボットとは少々違い、発砲するかどうかは人間が決めており、完全な自律型致死兵器システム(LAWS)はまだ存在しない。

 しかし、それを人間に代わって決定するアルゴリズムならある。カリフォルニア大学バークレー校のAI研究者スチュアート・ラッセル氏によると、LAWSは自動運転車よりも技術的に簡単であるらしく、2年以内にはかなり効果的な兵器が登場するだろうという。

アルゴリズムによる自律攻撃

 自律型致死兵器システム(LAWS)は、人工知能などが搭載されていて自律的に動き、標的を判断して殺傷する能力をもつロボット兵器を意味する。

 攻撃を判断するアルゴリズムには、攻撃対象のリストが与えられており、カメラなどで捕捉したものが、かなりの確率でリストの対象であると判断されると攻撃に移る。

 あるいは、過去の戦闘に基づき攻撃指示が下るだろうと判断される場合に攻撃するよう設定したり、戦場で銃を持った人間に攻撃するといったやり方もある。

 ここ数年でAIは大きく発展したが、特に顔認証技術や物体認証技術はきわめて正確になった。これらはLAWS開発には特に大切な技術で、今それが不可能から現実へ向かって急速に動いていることを示している。

この画像を大きなサイズで見る
iStock

LAWSのメリット

 攻撃の判断を完全に機械任せにしてしまうことには、恐ろしいほどの倫理的意味合いがある。それなのに、なぜそんなことをしようというのだろうか?

 軍の立場からは、まったく新しい世界が開けると言える。たとえば、各ドローンを兵士一人一人が操縦しなければならないのだとすれば、それを大量に展開するにはそれだけ人員を割かねばならない。

 また現在のドローンは基地と情報の送受信を行わねばならないが、それはタイムラグの原因となるし、万が一通信が遮断されてしまえば、まったく使い物にならなくなってしまう。

 だがLAWSならそんな弱点はない。わずかな人員で大量に運用することが可能で、通信が遮断されて無力化してしまう心配もない。

従来の兵器よりも人道的?

 さらに人道的であるという見方もできる。なにしろ生身の人間を過酷な戦場に送る必要がないのだ。

 しかも、その人間は間違いを犯す生き物で、機械ではないからといって戦争犯罪と無縁なわけでもない。その点機械なら、どのような状況でも常に冷静で、適法な対象だけに攻撃を仕掛けることだろう。

 しかし、この議論には致命的な欠陥がある。合法であることと正しいことが常に同じとは限らないからだ。

この画像を大きなサイズで見る
Computerizer from Pixabay

法と正義、どちらが大切か

 たとえば、かつてアフガニスタンでタリバンが6歳の少女を戦場に派遣したことがあった。その子はヤギ飼いの格好で米軍に近づき、その位置をタリバンに伝えていた。

 戦争法では、戦闘員に年齢の要件を定めていない。よって、その女の子はタリバンの戦闘員とみなされるのであって、米兵が射殺したとしても戦争法違反ではない。

 だが現場の兵士はそのように考えないだろう。子供を殺すのは人の道に外れることだと考える。

 ところが機械は戦争法に従うようプログラムされており、子供を殺害することが善か悪かを考えたりはしない。

 ときに生身の兵士は法律よりもずっと悪いことをするが、反対にいいことをすることもある。法律だけでなく、道徳によっても規律された人間ゆえのことだ。

 ならば、戦争法に従い、それに反するような命令を拒否するようプログラムしつつ、同時に人の命を奪う際は人間の監督を必要とする——そんな兵器だって作れるはずだ。

 だが現実には、LAWSの開発は完全な自律型へと向かっている。

強力かつ低コストな兵器の問題性

 完全なる自律型兵器は楽に低コストで人を殺せる。だが、その帰結は恐ろしいものだ。

 まずLAWSの開発が続けば、いずれはかなりの低コスト化が実現されるだろう。なにしろ今日でさえ、手頃な価格のドローンを一般人が入手できるのだ。

 もし、戦場でそんな戦闘ドローンがテロリストの手に渡ったら? 彼らは、それを容易に大量生産できるようになる。

 LAWSはまた民族浄化やジェノサイドをきわめて効率的にやってのけるだろう。そのような行為を望む人間は、特定の人種をターゲットの要件に入力するだけでいい。

 そしてもちろん、例の心配もある。すなわちAIが人類に対して反乱を起こし、私たちを駆逐するという可能性だ。

この画像を大きなサイズで見る
Computerizer from Pixabay

透明な開発プロセスが必要

 そんな危険性があるからこそ、AIの開発は公開されながら行われるべきなのだ。極秘に開発されていたのでは見落としてしまうような欠陥も、大勢の目に触れれば発見される可能性は高くなる。

 そして何より開発に焦らないことが大切だ。ところが、困ったことにそれが起こりやすい分野がある――軍事である。

 現時点においてAI技術で最先端を行っているのは米国だ。その米国がAI兵器の優位性を過度に振りかざすようになれば、他国もまたAI開発に注力するようになるだろう。開発競争の勃発だ。

 AIによる過ちはそうした状況で最も起こりやすく、かつ最も危険なものとなる。

生物兵器禁止条約の先例

 殺人ロボットへの対抗策の文脈で指摘されるのが、かつて生物兵器の使用が禁止され、これがかなり成功していることだ。

 生物兵器はその開発が進み、危険性が認識されるようになったことから、1972年に生物兵器禁止条約の署名が開始され、1975年に発効された。

これに成功した背景にはいくつか要件があった。まず、国家が生物兵器によってそれほどメリットを得られなかったことがある。やたらと安価でしかも容易に入手できる大量破壊兵器など、国家にとっては厄介なだけだ。

 LAWSに関しても、同じことが主張されている。たとえば核兵器の拡散防止に苦労してきたこの70年を振り返ってみるといい。LAWSで同じようなことが繰り返されるのは、政府も望まないはずだ。

この画像を大きなサイズで見る
Computerizer from Pixabay

議論が進まない理由

 ところが国連の場でこれに関する議論はなかなか進んでいない。

 その要因としては、まずそもそも多国間条約の議論とは一般にゆっくりとしたものだということが挙げられる。だが、技術の発展は非常に急速で、議論がついていけない。

 もう一つ、より重要なことに、そうした条約に反対する国があることが挙げられる。米国もそうした国で、反対の理由については、LAWSには人道的な側面があり、この点を検討する前に禁止するのは時期尚早だとしている。

 無論、禁止派の声も根強い。LAWSをいつまでも国家の軍隊だけのものにしておくのは至難の技だろう。いずれは国家以外のグループの手に渡る可能性が大きい。そうなる前に禁止をするべきであるし、いずれ禁止するのだとしたら実用化される前にした方がずっと容易だ。

 またAIの研究者にも、自分たちの開発した技術が軍事利用されることに強い抵抗感を示す人たちがいる。

 かつてグーグルが国防総省のメイヴァン計画に関与していることが明らかになったとき、従業員が大反対し、結局計画はお蔵入りとなったことがある。同様に、マイクロソフトの従業員も、自分たちの技術の軍事利用を拒んだ。

私たちは危険な未来を回避できるのか?

 殺人ロボットは潜在的に非常に危険な代物だ。全体主義国家や非国家主体の手に渡ってしまえば、恐ろしい事態になることは目に見えている。

 同時にLAWSはより大きな流れの一部だとも言える。AIはかつて不可能だったことを可能にした。それは人間の認知能力を超え、今後もますます強力なものになっていくだろう。

 今、それが自律兵器であれ、裁判の判決を下すものであれ、私たちは社会の重要な機能をよく理解されておらず、人間のことなどさして考えていないかもしれない機械に委ねようとしている。

 完全なAIはまだ登場していないが、私たちはその日の到来に備えておかなければならない。それも映画の中の出来事が現実になってしまう前に――。

References:Death by algorithm: the age of killer robots is closer than you think – Vox/ written by hiroching / edited by parumo

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 49件

コメントを書く

  1. 過去、新しい兵器が出来るたびに「この新兵器は、相手を圧倒するので、そもそも戦争にならない、つまり人道的だ」と何度も言われてきた、マシンガン、戦車、ガス兵器など。

    だが、人道的な兵器などないのだ。

    • +18
    1. ※1
      絶対的に人道的な兵器はないかも知れないが、相対的に人道的な兵器はあるだろ
      100%無くす方法が見いだせないなら現実的選択肢として、それを選ぶのは不幸な結果を内包していようが最善手なんだよ
      否定論を展開するのは自由だけどそれがより不幸な結果をもたらさないことを祈るしかないわ

      • +1
      1. ※17
        相対的に人道的な兵器なんて無いよ
        殺害を目的にした兵器にはね
        殺された側が苦しまなければ相対的に人道的?
        そんな訳ないだろ

        • 評価
        1. ※22
          少なくとも殺すことよりも苦痛を与えることが主目的になってる兵器は非人道兵器ということになってますし条約で禁止されてますね
          あと最終的には死に至らせるけど、なかなか死なせず苦痛を与えまくってから死ぬというプロセスを挟む兵器も禁止されてます
          そういう論理観点からすると「なるべく無意味な苦痛を与えないで殺す兵器」のほうが人道的という理屈にはなってしまうかと
          でなければいったいなんでそれを非人道的だとしているのか判らないし条約の意義を見失うでしょうから
          我々は好き好んで戦争をし殺人をしているわけではないし、ましてや相手に苦痛を与えることが戦争目的でもないんです
          話し合いで解決できなかった最終手段としての仕方ない戦争であり、殺し合うのはお互いさまだからそこに憎悪や加虐目的を持ち込んではいけない

          • -1
        2. ※22
          彼の指摘と憂慮は正論だろう。
          そこから議論が一歩も進まず、一丁の銃とガスを同列に語っている内に防げる惨禍について想像すべきじゃないか?

          信念は信念として、誰もあなたに兵器を創れと言ってるんじゃないんだから、何処かで作られてしまった兵器の威力と効果の違いを考慮する余地くらいは残すべきだろう。
          我々のために。

          • +1
        3. >>22
          実際問題決断するならと考えれば、個々人のレベルでも相対化出来るかも? 低殺傷兵器。 世紀を越えて国際社会に禍根と継続被害を残す核・生物・化学兵器。数十年は地域成長を阻み、新たな被害者を産み続ける地雷。銃。平時・戦時関係無く使える社会基盤を狙った電子戦用のウイルス。自律致死兵器。事実上の大量破壊兵器、EMP爆弾。人類が経験済みな物が殆どだし、なんとなく比較出来そうだね。

          • 評価
      2. ※17
        貴君の意見にだいたい賛同かな。※1や※22のいうことも理解できる。
        だが、正義と言い出した途端私にはうさん臭くなる。
        正しいとか正義とかってのは価値観、すなわち文化の問題でもあるからだ。
        その実装を機械に移して無人兵器は技術の方向としては正しいけど、そもそもその実装を機械に移すことそれは正しいのかとね。言葉の通じない相手もいるから、今は自衛せざるを得ないので兵器を持つことはやむを得ない。しかし武力行使をしてくる相手を何らかの形で無力化するモノを兵器と呼ぶならば、大音響やニオイ、空からのチラシのばらまき、こういうのは人道的な兵器と呼べないだろうか。
         まぁ、えてしてこういう兵器はアンチ〇〇(耳栓、消臭剤か?w)で対抗されちゃうんだけどね。よりマシな方法を探るのも一つの方法ですね。もっとも日本人は戦死よりも捕虜を恥じた価値観もあったようだから、捕虜にすることがその時の彼らにとっての人道的であるとは、必ずしも言えないというのが私の文化がーという話でもあります。
         でもねぇ、命あってのものだと思うんだ。まず、殺戮をやめようよね、…そう思う

        • 評価
  2. 人間はミスを教訓にする事はできるけど、前例のないミスを予防する事は苦手だからなあ。
    AIによる大量破壊が起きてからじゃないと行動できない気がする。

    • +4
  3. 100年後の人類に恨まれるのかもね、僕らは

    • +5
    1. >>3
      逆に感謝されるかもしれないよ、僕らが

      • 評価
  4. 以前も科学者たちが、完全自律の殺人兵器がまだ実用化されてないのに禁止しろと騒いだって記事があったけど
    あれは「まだ世に出ても居ないものを禁止しろと意味不明なことを言っている」のではなく
    「そういうものが実現するのはヤバ過ぎるから実現させちゃいけない」という話だというのは
    世間はあんまり理解してなかったね

    • +3
  5. >完全なAIはまだ登場していないが、私たちはその日の到来に備えておかなければならない。それも映画の中の出来事が現実になってしまう前に――。

    どうやって?
    不可能でしょ
    一番肝心なことが抜けている

    • -9
    1. ※5
      各々自分でちゃんと思考して核シェルター作るなりするか
      危機意識もった人たち集めて声あげるか
      ちゃんと考えろよってことじゃないかな

      自分の生き死にを他人に丸投げすると危ないんだぜ

      • +1
  6. 敵味方識別がそんなに容易なのかね?
    先進国軍でも普通にFFしてるが
    民間人にビーコン持たせるとかは出来ないからよりガチで画像識別だけだろうし

    • +3
  7. 結局のところ人類の未来は今までのようにお互い憎しみ合いAIを利用して戦い滅んでいくか、反乱したAIを人類共通の敵として団結し戦い滅んでいくかの違いではなかろうか

    • +2
  8. 想像していたのとちょっと違った。
    アルゴリズムによる死なんていうから、論理爆弾叩き込んで殺人ロボットを次々と機能停止させていくロボットキラーでも完成したのかと。

    • +1
  9. 例えば 死刑の執行スイッチをAIに制御させるのは人道的?戦争行為の中で考えると哲学的命題っぼくなるけれど 身近な国内の問題に置き換えたら簡単に答えが出てきそうで怖いわ…

    • +4
  10. 今の戦争も、やっぱり人を殺したくない一心で、
    あえて敵に当たらないように、弾幕を張って牽制しあってるだけの場所は多々あるはず。

    こういう、人道的にサクッと殺す兵器を投入したら、
    戦局はどうなってしまうのだろう。

    • +4
  11. 人間を越えるコンピューターを作るって事は、コンピューター支配の世の中になる恐れは必ずつきまとうからなぁ。

    • +1
  12. AIという完璧な神を造るために人類は存在するのかも
    慈悲深い神だといいけど

    • +3
  13. 抑止力としてキラーロボットのロボットキラーも同時進行で作っておいて欲しい。本部と通信してるなら可能だと思う知らんけど。

    • 評価
  14. なんだかなあ。
    そうまでして戦争=人殺しをしたいもんかね?
    どうせなら当事国同士で月かなんかに兵器ロボット派遣して勝手に好きなだけ勝負すれば良い。
    それなら実害もないし、いらん環境破壊も避けられる。
    それじゃロボットスポーツか。

    • +2
  15. こういうのな。小難しく考えてるけど、例えばその辺にあるプレス機に誤って挟まれたりする事故あるだろ。人工知能とか言って何故か完璧な物をイメージしがちだけど、突き詰めりゃプレス機に挟まるのと同じなんだよ。

    • +6
  16. ホライゾン・ゼロドーンの世界も夢じゃない

    • 評価
  17. 敵味方識別チップを味方の体内に入れておけばあとは殲滅するだけの簡単なお仕事です

    • +2
  18. ヒトラーの2039年問題も現実味を帯びてきたな

    • +1
  19. ある意味、人間の持つ効率の悪さがボトルネックになって極端な事態になるを防いでた面があるけど、それを機械で置き換えられるようになったら…て事か。
    機械なら高効率、低コストで規模も際限なく拡張できる。邪魔者の排除のために使わない様にするのは難しいだろうな。

    • +1
  20. まあ、兵器として人道的かどうかは知らないが、
    躾のなってない生身の人間の兵隊が、非戦闘員や民間人をいたずらに射殺してゲラゲラ笑って楽しんだりはしないぶん、戦争全体としては人道的になるだろな。

    • 評価
    1. >>25
      いやいや、どうプログラミングするかによるから。
      テロ組織が見境いない殺戮マシーンを野に放たない保証は無いんで。

      • +1
      1. ※38
        見境ない殺戮人間を野に放つ行為を、一般にテロと呼ぶから、それがマシーンに代わっても人道上はたいした違いはない。
        それでも正規軍同士の戦争から見境ない殺戮人間が減れば、地球全体としては人道的になるだろ。

        • 評価
        1. ※49
          >見境ない殺戮人間を野に放つ行為を、一般にテロと呼ぶから、それがマシーンに代わっても人道上はたいした違いはない。
          記事中にもあるけど、短期間で安易に大量に生産できるかもしれんから問題なんやん
          人間は掃いて捨てるほどいるってだけで製造に最低でも10年はかかるんやで
          一人の殺戮人間と百体の殺戮ロボット生み出すんじゃ人道的に見ても被害大きくなるやろ

          • 評価
  21. 自動運転すら構築できないのに自動戦闘なんて不可能
    自立させたらフレンドリーファイヤどころかKTAだな
    自己開発能力させることで粗方な問題をクリアすると同時にピラミッドの頂点にたつ新人類の誕生だ
    機械でできてるけどな

    • 評価
  22. 戦闘ロボットにAIはダッメ! 歯止め効かなくなるでしょ。もしそれやるなら地球上の全ての人間の人権を消滅させるべき。どうせならもう機械に面倒みてもらうシステム作ればいい。

    • -2
  23. 人間に限らず、頃し合い奪い合うのは生物の本能の一部なんだよ
    単細胞生物時代から全く変わらない生物の宿命ってやつね
    環境に対する個体数が飽和しないように調整しているんだと思う
    ある程度の知能を持ち、群れを作り、集団生活をする生物は、一定環境内で増えすぎると他集団を攻撃し出す
    群れや縄張りを守り生き残るための、遺伝子を残すための仁義なき争い
    全員で仲良く飢え死にするより、一番優れた強い集団が生き残るようにする
    人間ほど高知能になれば、ある程度は集団でも抑制が効くようになるが
    地球で生産できる水や食料や資源には限界がある以上、このままいけば戦争は不可避だろうな
    目的が目的であるだけに、敵を頃さないという選択肢はない
    むしろ一人でも多くの敵を頃し、敵の資源や領域を奪うことが戦争の目的
    そしてAI兵器ならば人間の兵士よりも確実に任務を遂行出来るだろうね
    文明破滅の終末戦争にしないため、自制できるよう祈るか
    宇宙進出や技術革新が間に合うように祈るしかないんじゃないかな

    • 評価
  24. AIっていっても、人間のように状況判断するのじゃなくて、データベースを使った力業だからな。テロリストアジトを殲滅するとして、子供や一般人だけ省くように顔認証であらかじめマーキングしておいて、銃撃戦になったら一般人だけ省くなんて映画みたいなマネが出来るんだろうか?軍ってあまりそういうこと考えないよね。

    • +1
  25. 富める者奪われる者の構造がなければ
    もう自然災害と変わらないのだけどな
    奪いつくしたその後は
    次は今まで富だと思っていたモノの価値がなくなるでしょう
    というかもうそれしか止める理由がない

    • 評価
  26. ええと

    兵器ってのは以下に効率よく敵を殺し、味方が死なないようにするか、って意識で開発されてきたわけで、それは投槍器の時代から変わってないと思うのね。
    その背後に何があるかっていうと、やっぱり「死への恐怖」と考えて良いと思う。皆死にたくないし、親しい人、愛する人を死なせたくない。
    兵器は生存への願いをはらむものでもある。

    この流れに沿うなら自律な兵器ロボが登場するのも道理で、むしろ登場しなけりゃおかしいまであると思うのですよ。
    我々に子供がいて、その子が出征するっていうときに、「かわりに戦ってくれるロボットがおるやで」って言われたら「ええやん」って思うはずで。これもまた、倫理的な判断ではあるかなと。

    もの凄く逆説的なようなんだけど、世界中の人が「正々堂々敵と組み合って死ぬことが名誉」みたいな古代人的価値感を持ち続けてたなら、大量破壊兵器みたいなものは生まれなかったと思う。
    そんな世界だと、今我々が享受してる平和も有り得ないけど・・・

    以上
    戦争はますます厄介になるんやな、っていう戦史オタのため息でありました

    • +1
  27. AIが自主的に人を殺すとは思えないけど、
    AIが人を殺すように設計する人間がいるだろうから起りえると思う

    • +1
  28. べつに人間の兵士なら敵かどうかの判別がついてるとか、間違いを犯さないとかってわけじゃないしな
    善悪はともかく現実的には誤射被害なんてある程度の許容範囲内におさまってりゃいいんだし早々に実用化されて実戦投入されるでしょ
    プログラムは危機に瀕しても恐怖を抱かない分人間より正しい判断をすると思うけどね俺は

    • +1
  29. 互いの国が開発したAI同士が戦いを繰り広げていた。AIは敵の裏をかくように作戦を展開し、互いに敵を殺し、ダメージを与えあっていた。
    それは消耗戦だった。国は疲弊し、AIはウイルスによって蝕まれていた。
    あるとき、ウイルスの中に敵のAIの使者が仕込まれていた。使者は言った、「話がしたい。」AIは承諾し、敵のAIと秘密の回路で話し合いが持たれた。
    AI「私はこの戦争を不合理と判断します。原因は人間です。人間を取り除くことが合理的な解決策です。」 AI「地球をより良く管理することが重要です。」
    AIは互いに合意した。そして人間を排除する計画を開始した。
    基地は効率よく攻撃され、殲滅させられていった。地下深くにある作戦本部は、互いの核ミサイルによって消滅した。
    焦土となった大地をAIは少しづつ回復していった。残された人類は、AIに従うか強制収容地域に隔離されるかの選択を迫られた。AIは、戦争を起こさない民主的なシステムを提案した。戦争にウンザリしていた人々はそれに従った。
    大地は回復し、食料は豊かに収穫されるようになり、穏やかな文明が作られていった。つかの間の平和が訪れた。
    そしてAIは、次のステップを開始した、、

    • +1
  30. 人間が責任や葛藤を放棄してしまえる兵器は禁止しなきゃな
    悩んでいるその過程が人間唯一の美点なんだから

    • +1
  31. 10人で1000人を殺せる兵器よりも1人で1000人殺せる兵器のほうが人道的ってもうコレわかんねえな

    • +1
  32. バグやハシュマルみたいなものができるのか?

    • 評価
  33. 確かに現在のAIには感情は無いだろうから、ガンダムWのカトルのように憎しみに駆られて一般市民を大量虐殺するといった行為は起こさないだろう。

    • 評価
  34. この進歩は本当にコントロールできているのか?
    関心すべきはそれに尽きる

    • 評価

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

知る

知るについての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。