AIで鮮明にした動画は裁判で証拠にならない ワシントン州で裁定

3人が殺害された事件を担当するワシントン州の判事は、この種の裁定としてはおそらく初めて、人工知能(AI)を使った動画を証拠として提出することはできないとの判断を下した。

Leroy McCullough判事はこの裁定について説明する中で、AI技術は「見せるべき」と捉えたものを見せるために不透明な方法を用いており、陪審員を混乱させ、目撃者の証言を損なう可能性があるとの懸念を示した。また、この動画を証拠として採用した場合、「AIモデルが使用する査読不可能なプロセス」をめぐり、長時間の審理につながる可能性があるとした。

問題の動画は、2021年にワシントン州デモインのラ・ファミリア・スポーツ・パブ&ラウンジの外で起きた銃撃事件に関するもの。この事件で3人が死亡、2人が負傷した。殺人容疑で起訴されたJoshua Pulokaという男は、2人の口論を和らげようとしていたときに撃たれ、自己防衛のために発砲し、傍観者を殴ったと主張している。

スマートフォンで撮影され、「Snapchat」に投稿された10秒間の動画に、発砲の様子が映っているとされる。容疑者の弁護団は、機械学習によって映像をより鮮明にしたバージョンを提出しようとした。その理由は、元の動画は解像度が低く、かなりの被写体ぶれがある一方、アップスケーリングされたバージョンはシャープかつ鮮明になり、物体の端が滑らかになっているというものだ。シアトルのニュースサイトK5によると、新しい動画の画素数は元の動画の約16倍だという。

The Hillによると、検察側は、このような動画を使用する法的な前例はないと主張し、改良された動画は「不正確で誤解を招くものであり、信頼できない」と訴えていた。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

© 朝日インタラクティブ株式会社