ロボット・AIによる看護「不可能とは言い切れない」倫理的課題を整理 東京理科大など

(Getty Images)※画像はイメージです

患者保護や思いやりといった看護に求められる概念をロボットや人工知能(AI)に実装することについて、倫理学の観点から分析する論文を東京理科大学、共立女子大学、東京大学の研究チームが発表した。ロボット・AIによる看護は「将来的には不可能とは言い切れない」が、倫理概念自体に論争中の部分があり、今後も議論が必要だとしている。

研究チームは看護に必要とされる倫理的な要素として、寄り添って患者を守る「アドボカシー(擁護)」、自身の行動を説明する「アカウンタビリティー(説明責任)」、ほかの医療関係者と共に働く「コーポレーション(協働)」、思いやりなどの「ケアリング(思いやり)」の4つを挙げて、ロボット・AIがこれらを実現できるかを分析した。このうちコーポレーションについては、人間そっくりのロボットに不快感を抱く「不気味の谷現象」が人間とロボットの連携が阻害するかもしれないと懸念を表したが、すでに看護業務の一部が機械化されていることからロボット・AIとの協働は可能であるとした。

アドボカシーに関しては、先行研究をもとに要素を5つに細分化。「患者保護」「告知」「医療提供における社会正義の擁護」は比較的容易に実装できるとする一方で、感情的なコミュニケーションを必要とする「価値観の尊重」や「(患者・家族・病院間の)仲介」は実装が困難だとした。

アカウンタビリティーについては、アルゴリズムに基づいて動くロボット・AIは行動の理由を説明することができる(行動の原因を割り出せる)と考えを示した。人間のようにミスを隠そうとして誤った報告をすることがないため、ロボット・AIの方が優秀だと言える側面もあるという。だが、ロボット・AIが行った説明の責任の帰属先といった問題については十分に議論されていないなどの課題があり、現段階では人間の看護師が行う「説明」の役割を担うことは難しいという。

特に重要とされるケアリングは「ケアをする、受ける」という要素を中心に論じ、ロボット・AIが人間の感情を理解できるかは分からないが、少なくとも外見的には感情を理解して適切に対応できるようになる可能性があるとした。また、ケアを受ける患者がロボットによる看護を拒否する問題が起きうると予測。ロボット・AIに「思いやり」を実装する過程で、人間も「思いやり」への理解が深まると見通した。

ロボット・AIによる看護の倫理課題についてまとめた研究チームは、実装可能な領域は存在するが、さらなる検討が必要であることが示唆されたと結論づけた。さらに、AIと倫理の問題に詳しい研究者、ジョアンナ・J・ブライソン氏が「ロボットは奴隷であるべきだ」「ロボットに法的・道徳的な責任を与えてはいけない」と表明していることを受けて、技術的にロボット・AIが看護をできるようになったとしても、現場で活用するかどうかは慎重に議論して決めるべきだと述べている。

© 株式会社産経デジタル