イスラエル軍の爆撃でガザ住民の犠牲者のうち、約7割を女性と子どもが占める理由 大竹「AIによる冷静で心が入らない判断」

5月10日(金)、大竹まことがパーソナリティを務めるラジオ番組「大竹まことゴールデンラジオ」(文化放送・月曜~金曜13時~15時30分)は、東京新聞の田原牧氏の論説「イスラエル軍のAIシステム 何が虐殺を促したのか」を取り上げ、パーソナリティの大竹まことがコメントした。

東京新聞・田原牧氏の論説によると、「先月3日に配信されたイスラエルのメディアの合同調査報道でガザでの戦争で、イスラエル軍が人工知能(AI)システムをどう使っているのかという内容が6人の情報将校が匿名で証言したという。

砂山アナ(アシスタント)「合同調査報道の記事によるとイスラエル軍は「ラベンダー」と「パパはどこ?」という2つのシステムを組み合わせています。前者は標的となる人を選ぶシステム。これ実は誤差も10%あるということなんですけど、標的に選んだ人物は後者の行動監視システムに登録され、帰宅した時点で爆撃のゴーサインが出る仕組み。自宅を爆撃対象にしたのは、補足が確実なためで当然家族は巻き添えになります」

今回イスラエル軍は敵の下級戦闘員への攻撃についても民間人の巻き添えを許した。戦闘員1人につき15人から20人という。むろん国際法違反だ。更には戦費削減のため、誘導装置のない精度の低い大型爆弾を使った。建物全体を破壊することになり周辺の民間人の犠牲を増やした。この報道内容をイスラエル軍は否定している。

この記事を受けて大竹は次のようにコメントした。

大竹「アルゴリズムは、機能的というか1番効率を大事にするシステム。ここには心が全然入らない。入る余地がないということですね。イスラエルはハマスを攻撃対象にしていて、それを「ラベンダー」と「パパはどこ?」というシステムを使っている。これはAIのシステムで、たとえばハマスの要人がいます。これはもう全部マークされている。ハマスの要人がどこにいるかもわかる。ハマスの要人が家に帰りました。家に帰った時には家族もみんな一緒にいます。で、今家にいることがわかっているからここを爆撃しましょう。という話だよね。そうすると、家族が巻き添えになる。これが普通の要人だったら、AIの判断で10人から15人までは許容量だと」

壇蜜(パートナー)「巻き添えにしてもいいってことですか」

大竹「巻き添えにしてもいい。これがかなりの要人だということになると100人だと。100人いてもこれ巻き添えにしてもいいんじゃないですかと」

壇蜜「近所の人たちもってことですか」

大竹「そうそう。だからかなりの要人だったらば、絶対殺傷しなくちゃいけないからというんで、100人までは、巻き添えにしていいんじゃない?と。それでAIが判断して爆撃する。パレスチナで女の人と子供の人が巻き添えでたくさん死んでいる。このAIのシステムが家に帰った要人を狙った時に15人でもいいんだという判断を下せば、当然巻き添えになる。そういうアルゴリズムの判断がある」

砂山アナ「しかも、戦費の削減のため、誘導装置のない精度の低い爆弾を使っている」

大竹「だからAIの判断、簡単にいうと、冷静で心が入らない判断ということになるかね。そういうシステムを使っている状況に対して日本は大きく声を上げてほしいと思います」

© 株式会社文化放送