NVIDIのNeMo Guardrails、開発者によるAIチャットボットへのガードレール追加を支援

この新たに公開されたオープンソースソフトウェアは、開発者がジェネレーティブAIアプリケーションを指導し、軌道に乗った優れたテキストの応答を作成するのに役立つという。

NeMo Guardrailsにより、企業は大規模言語モデルで構築されたアプリケーションを、自社の安全およびセキュリティ要件に沿った形で維持することが可能になるという。

NeMo Guardrailsは、大規模言語モデル(LLM)を搭載したスマートアプリケーションの正確性、適切性、文脈の整合性、安全性の確保をサポートする。このソフトウェアには、テキストを生成するAIアプリケーションに安全性を付加するために企業が必要とするすべてのコード、サンプル コード、そしてドキュメントが含まれている。

多くの産業がこれらのAIアプリケーションを支える強力なエンジンであるLLMの採用が進んでいる。LLMは、顧客の質問に答えたり、長い文書を要約したりする。さらにはソフトウェアを書いたり、薬の設計を加速させたりしているという。

NeMo Guardrailsは、この新しいクラスのAI搭載アプリケーションの安全性を保つために、ユーザーを支援するように設計されている。

強力なモデル、強固なレール

ジェネレーティブAIにおける安全性は、業界全体の懸念事項だという。NVIDIAは、OpenAIのChatGPTのようなすべてのLLMで動作できるようにNeMo Guardrailsを設計。このソフトウェアにより、開発者はLLMを搭載したアプリケーションが安全で、企業の専門領域内にとどまるように指導できるという。

NeMo Guardrailsは、開発者が以下の3種類のガードレール(境界)を設定できる。

  • 話題のガードレール:
    アプリが望ましくない領域の話題に逸脱してしまうことを防ぐ。例えば、カスタマーサービスが天気に関する質問に答えないようにする
  • 安全性ガードレール:
    アプリが正確で適切な情報で応答することを保証する。不要な言葉をフィルタリングし、信頼できる情報源のみを参照するように設定できる
  • セキュリティガードレール:
    安全性が確認されている外部のサードパーティアプリケーションとのみ接続するよう制限できる。

事実上すべてのソフトウェア開発者がNeMo Guardrailsを使用できるため、機械学習の専門家やデータサイエンティストでなくても、数行のコードで素早く新しいルールを作成できるという。

使い慣れたツールとの連携

NeMo Guardrailsはオープンソースなので、エンタープライズアプリの開発者が使用するすべてのツールと連携可能。例えば、LLMの性能にサードパーティのアプリケーションをプラグインするために、開発者が急速に採用しているオープンソースのツールキットであるLangChain上で実行できる。

LangChainツールキットとその名を冠したスタートアップを設立したHarrison Chase氏は、次のようにコメントしている。

Chase氏:ユーザーはLangChainのワークフローにNeMo Guardrailsを簡単に追加して、AI搭載アプリに安全な境界線を素早く設置することができます。

さらに、NeMo Guardrailsは、Zapierなどの幅広いLLM対応アプリケーションと連携できるように設計されているという。Zapierは200万社以上の企業に利用されている自動化プラットフォームであり、ユーザーがどのようにAIを業務に組み込んでいるかを知っている。

ZapierのAI担当リードプロダクトマネージャーであるReid Robinson氏は、次のようにコメントしている。

Robinson氏:安全性、セキュリティ、信頼性は、責任ある AI 開発の礎であり、これらのガードレールをAIシステムに埋め込むというNVIDIAの積極的なアプローチに期待しています。AIが頼もしく信頼できる存在である未来を築くことで、さまざまな面でより良い影響が生まれることを楽しみにしています。

オープンソースで提供、NVIDIAからも入手可能

NVIDIAは、NeMo GuardrailsをNVIDIA NeMoフレームワークに組み込んでいる。このフレームワークには、ユーザーが企業独自のデータを使って言語モデルのトレーニングとチューニングを行うために必要なすべての要素が含まれている。

NeMoフレームワークの多くは、すでにオープンソースコードとしてGitHubで公開されている。また、企業は、NVIDIA AI Enterpriseプラットフォームの一部として、完全かつサポートされたパッケージとして入手可能。

NeMoは、NVIDIA AI Foundationsの一部として、サービスとしても提供されている。独自のデータセットやドメイン知識に基づいてカスタムのジェネレーティブAIモデルを作成、実行したい企業向けのクラウドサービスとなっている。

韓国大手のモバイル事業者は、NeMoを利用してインテリジェントアシスタントを作り、すでに顧客と800万回会話をしているという。スウェーデンの研究チームは、NeMoを採用して、国内の病院、政府機関、および企業向けのテキスト機能を自動化できるLLMを作成した。

コミュニティの継続的な取り組み

ジェネレーティブAIのための優れたガードレールを構築することは難しい課題であり、AIの進化とともに多くの継続的な研究が必要だという。

NVIDIAは、数年にわたる研究の成果であるNeMo Guardrailsをオープンソース化し、開発者コミュニティの多大なエネルギーとAI業務の安全性に貢献するとしている。

ガードレールに関するコミュニティとNVIDIAの取り組みは、企業がスマートサービスを安全、プライバシー、セキュリティの要件に合致させ、イノベーションの原動力が軌道に乗るよう支援するものだという。

▶︎NVIDIA

© 株式会社プロニュース