メインコンテンツにスキップ

イングランドの警察が、容疑者の投獄と保釈の判断を委ねるAIを導入予定

記事の本文にスキップ

25件のコメントを見る

(著) (編集)

公開:

この画像を大きなサイズで見る
Advertisement

 ロボコップの時代が到来しちゃったのか。

 イングランドの警察は、ヨーロッパ諸国に先がけ、容疑者を保釈した際の再犯リスクを評価するAIを導入する予定だそうだ。

 ダラム警察が今年の夏をめどに導入を進めている「ハート(Hart)」は、逮捕した者を釈放した場合の再犯リスクを低・中・高で評価する。判断材料となるのは、容疑者の性別、郵便番号、再犯歴といった要素だ。

拘留か?保釈か?その判断をAIにゆだねる

 ハートはケンブリッジ大学の研究者が開発したもので、2013年に最初の実地試験が行われた。以来、容疑者を2年以上監視し、警察によるリスク評価を支援。良好な結果が得られたようで、今回実践投入の運びとなった。

 最終的な決定を下すわけではなく、あくまで警察官の支援が目的である。またダラム州の警察データしか利用できないという制限もある。

 しかし同システムへの関心は高く、イギリス国内の4、5つの警察から打診があるという。システムの有効性は折り紙つきであり、リスクが低いと判断された場合の予測精度は98パーセントに達する。高リスクの場合でも88パーセントの的中率だ。

この画像を大きなサイズで見る

AIが決めることに関しての問題点

 むろん懸念を表明する専門家もいる。法律では、拘留の判断は人間がいくつもの要素を加味して下さねばならないことになっている。

 しかし、システムが導入されれば、実質的にその判断はAIに移譲されることになる。AIの判断に反する決定をした場合、間違いなく上層部から睨まれることになるだろう。

 またAIに挑まねばならない容疑者の弁護士にとっても難題だ。AIの判断は法廷での判断にどのような影響を与えるだろうか? 準科学的な判断が過度に信奉され、絶対的な真実になってしまう危険を孕んでいるのである。

 さらに統計学には生態学的誤謬という問題がある。集団レベルで当てはまることでも、それが個人に当てはまるとは限らないのだ。

 ハートは郵便番号からも容疑者のリスクを判断するが、それがその個人に当てはまるとは限らない。アルゴリズムの過ちによって、多くの人々が法的なトラブルに巻き込まれる可能性がある。

 同様のシステムはアメリカでも稼働しているが、その信頼性については多くの議論がある。昨年発表された研究によれば、AIは人種差別的思想とまったく無縁ではなく、黒人の再犯率を2倍にも見積もるそうだ。

via:news.skythevergertなど/ written hiroching / edited by parumo

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 25件

コメントを書く

  1. こういうのはAIっていうより、エクセルで自動に割り出すのとあんまり変わらんと思う

    • +1
  2. 横つながりで適当な判決出す人間よりはよっぽど信用できるんじゃないかな
    それが提示された要素をもとに総合的な結論を出すのであれば

    • +5
  3. いまは補助だけどそのうち絶対にAIが主導するようになるだろうな
    マイノリティリポートみたいになりそう

    • +2
    1. ※3
      俺もマイノリティリポートを思い浮かべたわ。
      予知はしてないけどな。

      • 評価
  4. 火の鳥 未来編で似たようなのあった
    AI同士で喧嘩して地球が滅びるやつ

    • +1
  5. >判断材料となるのは、容疑者の性別、郵便番号、再犯歴といった要素だ。

    郵便番号?住所が犯罪の多いスラム街とかだったら判断が投獄寄りになるとか?

    • +2
  6. 黒人の再犯率が二倍と計算されたから黒人差別って……
    別にAIの中に初めから黒人は犯罪やりやすいって先入観があるわけでもなし
    それは単なる集団に対する計算データだろう

    • 評価
    1. ※6
      入力に使われているだろう過去の判決は人間が決めるのでそこが人種に基づく偏見の影響を受けていればシステムの出力も偏ったものになります。詳細はわからないですが判決は正しいという前提が崩れるので補正もしてないかもしれません。

      • +2
      1. ※10
        世界的に見て黒人の犯罪率は高い。
        先入観とか差別意識で片付けるのは難しいと思う。

        • -2
        1. ※23
          そりゃ基本、底辺労働しか出来ない貧困層なんだから、犯罪率が高くなるのはしゃーない

          出来ないってのは、能力的に云々ではなく環境的な話だけどね
          倉廩実ちて則ち礼節を知り衣食足りて栄辱を知る、と言われるように普通の人間は弱いから、貧すれば鈍すものだし窮すれば濫るるものだもの

          • +3
    2. ※6
      そういうことから、本文中にも「統計学には生態学的誤謬という問題がある。集団レベルで当てはまることでも、それが個人に当てはまるとは限らないのだ」ってありますね。

      ただ、統計を取れば、今の天気予報のように再犯率については算出できますね。
      すでに性犯罪は再犯率が高いと言われてますね。

      ※9
      監獄もタダで運用できるわけじゃないんですよ。
      お金かかるというか、あなたや私らが払った税金で運用されてます。
      だから、リスクが高いからといって全員ぶち込むわけにもいきません。
      さらには、更生のチャンスだって、奪うわけにいかないでしょ。
      まぁ、ある一定よりも重罪なら、一般人のいないところへ島流しというのは賛成ですけど。

      • +2
  7. 電子政府で有名なエストニアの方が早々に導入しそうな話ではあるが
    フーリガンをさっさと仕分けしたいのかな?

    • +1
  8. ロボコップとか関係ないし
    AIも全く関係ない

    判断基準を数値化しただけ

    • 評価
  9. 片っ端から投獄に決定するようにしときゃ言いだけだし
    保釈はガチガチに厳しくして決定すりゃ問題なし
    AIも糞もない

    • -1
  10. キニー君、ちょっと銃を構えてくれたまえ

    • +2
  11. 裁判官の判断も、朝イチの元気な時か夕方の疲れてる時かーとか、お腹満腹か空腹かーとかで変わってくるという調査結果が、「ファスト&スロー」とかで語られてるしね。
    ヒューリスティクスやバイアスに左右されないという点では、AIの方が優れてるだろうとは思う。……まあ、バイアスとかがプログラミングされてない限り。

    • +7
  12. いいと思うよ
    知人の子が司法研修性で検察で仕事してた時、
    検察官は気分の赴くまま法なんか完全に無視して
    恣意的に容疑者を脅迫したり、騙したりやりたい放題だったと絶望してた。

    大半の裁判は簡易裁判で裁判官も立ち会わずに検察の要求のまま容疑者がサインして
    終わってしまうそうで本来は不起訴処分、厳重注意で済ませるような事例でも
    金を踏んだくれるとみれば判例を完全無視して恣意的な徴収を行っている、
    そのせいで社会に恨みを持って再犯率が高くなるとのこと。

    • +5
  13. 軽犯罪で再犯に関する刑期なんかはAIで計算して貰った方がいいんじゃない。
    初犯及び重罪は人が相手した方が良いと思うけど。

    • +1
  14. 報復や内部と繋がりがあるのが怖いからAIに丸投げというのが本音だろ

    • 評価
  15. 行動経済学で人の先入観の影響が非常に大きいことは示されているので、AIによってデータだけで純粋に判断する方が公平かもよ。

    • +1
  16. 日本でも、一般的な感覚の欠如した判断をする裁判官や検察官がよくいるんだから、
    こっちのほうが正常な判断がなされるんじゃないかな。

    • 評価
  17. 変形機構のついた拳銃型装置がセンサーとして働くとか?(((・・;)

    • 評価
  18. AIに委ねるのだけはやめとけ。
    大抵はブレインみたいに、「人間こそ諸悪の根源」という結論に辿り着くからなぁ…。

    • -1
  19. バカということが犯罪になるなら、俺は無期懲役くらいになると思う。

    • +1

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

知る

知るについての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。