CIOがAIに光を与える5つの方法

ジェネレーティブAIの急速な普及と民主化は、約150年前に電気と同じことをした電球と比較されてきた。電気の発明(1831年)から数十年後の1879年に発明された電球が、大衆や企業に実用的なユースケースをもたらしたように、ジェネレーティブAIはAIにも同じことをもたらそうとしている。

テクノロジーが研究室から日常生活へと移行するとき、主流への採用は通常、ますます強力になり、証明された初期のユースケースに乗る。このような急速な採用には、可能性の芸術に対する興奮が伴う。これが、ガートナーのハイプ・サイクルにおいて、AIが現在、期待のピークに達している理由の一部である。

実際、ChatGPTは昨年、わずか2ヶ月で1億人以上の月間アクティブユーザーを獲得し、テクノロジー採用のライフサイクルにおける位置づけは、ハイプ・サイクルにおける位置づけを上回っている。私たちはメインストリームでの採用(現在、一般人口の半数近くがジェネレーティブAIを使用している)に達しているが、私たちはまだ膨らんだ期待のピークにいる。つまり、よくよく考えてみると、私たちはまだジェネレーティブAIのガス灯の瞬間にいて、電球の瞬間はまだ来ていないのかもしれない。そして、これは悪いことではない。

ジェネレーティブAIの世界では、コンピューターがいかに驚くべき方法で物事を誤ることができるかを発見している。公的データと私的データの両方にジェネレーティブAIを適用して実験する中で、我々は何がうまく機能し、何がうまく機能しないかをリアルタイムで学んでいる。

以下は、CIOがジェネレーティブAIのハイプ・サイクルをナビゲートし、幻滅の谷から啓蒙の坂道への迅速な移行に備えるための5つの提言である。

顧客、従業員、利害関係者と現実的に向き合う

ジェネレーティブAIや関連ソリューションの変革的性質を伝道する一方で、必ずマイナス面も指摘すること。コンサルタント会社や技術ベンダーは、AIが持つ変革の力を誇示する一方で、その欠点にはあまり注意を払わないことが多い。しかし、公平を期すために、多くの企業がこれらの問題への対応に取り組み、様々なプラットフォームやソリューション、ツールキットを提供している。

現実的であるということは、長所と短所を理解し、この情報を顧客、従業員、C-suiteの同僚と共有することを意味する。彼らは、あなたの率直さを高く評価するだろう。明確に説明し、理解できるように、権威ある弊害と欠点のリストを作成する。AIアドバイザーが指摘しているように、ブラックボックス問題、人間の誤った主張に対するAIの脆弱性、幻覚など、マイナス面は枚挙にいとまがない。

企業としての利用方針を定める

以前の記事で述べたように、企業利用方針と関連するトレーニングは、従業員にテクノロジーのリスクや落とし穴について教育し、テクノロジーを最大限に活用するためのルールや推奨事項を提供するのに役立つ。ポリシーの策定にあたっては、関連するすべてのステークホルダーを必ず参加させ、組織内で現在どのようにAIが利用されているか、また将来どのように利用される可能性があるかを検討し、組織全体で広く共有すること。ポリシーは生きた文書とし、必要に応じて適切な周期で更新することが望ましい。このポリシーを導入することで、契約、サイバーセキュリティ、データプライバシー、欺瞞的取引行為、差別、偽情報、倫理、知的財産、検証などに関する多くのリスクから守ることができる。

各ユースケースのビジネス価値を評価する

純粋なテキスト出力の場合、私たちは、優れた文法で書かれたAIからの回答を信じる傾向がある。心理学的に言えば、私たちは背後に強力なインテリジェンスがあると信じがちだが、実際には何が真実で何が誤りなのか、AIは全く理解していない。

ジェネレーティブAIには優れた使用例がいくつかあるが、ケースバイケースでそれぞれを検討する必要がある。例えば、AIは一般的に技術的な予測を書くのが苦手だ。出力される内容は、私たちがすでに知っていることを教えてくれることが多く、また盗作である可能性もある。リライトツールやリフレーズツールを使うことさえ、問題を悪化させる可能性があり、チームは自分たちで予測を書くよりも、こうしたツールを使うことに多くの時間を費やすことになる。戦いを選び、そうすることに明確な利点がある場合にのみ、ジェネレーティブAIを使うのがベストだ。

厳格なテスト基準を維持する

ジェネレーティブAIは、組織内の多くの従業員によって利用される可能性が高いため、従業員に長所と短所について教育し、企業の使用ポリシーを出発点として使用することが重要である。これだけ多くのAIが採用される中、我々は皆、事実上テスターであり、学びながら行動している。

組織内では、IT部門であれ事業部門であれ、本番稼働前にテストや実験を行うことを重視し、かなりの時間を確保すること。従業員が経験や学んだ教訓を共有できる社内実践コミュニティを立ち上げることも、全体的な意識を高め、組織全体でベストプラクティスを推進するのに役立つ。

技術的な問題が発生した場合の計画を立てる

私たちは、長く続いた英国の郵便局のスキャンダルで、AI非対応のシステムでさえ、人生を変えるような重大なミスを犯す可能性があることを目の当たりにした。これらのシステムが正しいと誤って思い込むと、何百人もの労働者が誤って標的にされることになる。イギリスの郵便局の事件では、15年の間に700人以上の郵便局長が不正の濡れ衣を着せられ、評判を落とし、離婚や自殺にまで至った。

そのため、AIが誤った行動をとった場合の対策を立てておくことは非常に重要だ。企業の使用ポリシーはガードレールを設定するが、物事がうまくいかなくなったとき、IT部門のガバナンス・プロセスはどのように状況を監視し、対応できるのだろうか?計画はあるのか?ガバナンス・プロセスは、どのようにして正しい答えや判断を区別するのだろうか?間違いが生じた場合のビジネスへの影響はどのようなもので、その修復は容易なのか困難なのか?

ジェネレーティブAIが光明を見出す瞬間はそう遠くないが、まずは幻滅の谷を乗り越え、悟りの坂を登り、最終的に生産性のプラトーに到達するまではない。ガス灯も、実験も、途中の学習も、すべてプロセスの一部なのだ。

© Foundry