連載 :
  インタビュー

AIリスク管理プラットフォーム「Robust Intelligence platform」を提供する米Robust Intelligence Inc.共同創業者 大柴 行人氏インタビュー【後編】

2023年9月7日(木)
吉田 行男

AIのリスクを適切に管理したモデルの運用“AI Integrity”を実現するシリコンバレー発のAIスタートアップ・Robust Intelligence, Inc.(本社:米国カリフォルニア州、CEO:ヤローン・シンガー)の共同創業者である、大柴 行人さんにお話を伺いする機会がありましたので、紹介します。

前編はコチラ

AIマーケットの行く末は?

Q:国内外を問わず、御社の競合となる企業ははありますか。

  • 大柴氏日本に関しては、我々が業界初となります。今後、我々の真似をする会社も増えてくるとは思いますが、現状の日本においては我々しかいないです。我々は2019年からやっているので、アメリカでもエクスペディアやADP、国防総省といった最大手のエンタープライズと取引があります。アメリカでは、我々が築いたビジネスチャンスを見て参入してくる企業が出てきています。

Q:逆に言うと、競合企業がいないとマーケット自体が形成できないので、レベルの違いはあるにせよ似たようなことをやっている会社は多少あった方が良いのでは、と思いますが。

  • 大柴氏おっしゃる通りで、2019年にアメリカで私たちが始めたときは、誰も「興味ない」という雰囲気 だったのが、生成AIが出てきた後でどんどんエコシステムが生まれてきているというのは、非常に良いことだと思っています。実際に事業会社やOpenAIのような企業がAIリスクについて啓蒙してくれています。前は1人でひたすら喋っていたので、それでマーケットを形成するのはなかなか難しいと実感していました。ただ、今は実際に使う側も提供する側も「AIのリスクセキュリティをちゃんとチェックしなければいけない」と言ってくれているので、そこはここ1、2年の大きな変化だと思います。

Q:この数年、IT系のニュースではAIがずっとトップですが、最近ではChatGPT、生成AIと続けて出てきました。AIの中でも生成AIはキーワードとしてChatGPTと同じレベルで伸びてきています。それが最近の例としては面白いと思っています。

  • 大柴氏そうですね。生成AIはかなりAIを民主化しているというか誰でも使えるようになっています。シンプルにChatGPTでチャットボットみたいなイメージもあると思いますが、本当にいろいろな活用方法があります。例えば、エンジニアで言えばコードの自動生成です。エンジニアのお供としてQAをやってくれたり、デバッグをしてくれたりするユースケースもあります。あとは、これまでSQLを書いてデータ分析しなければいけなかったのが、ChatGPTにCSVをアップロードすれば分析してくれるものも出てきています。
    また、エクスペディアでは旅行の予約をするときにChatGPTに「予約をして」と言うとAPIのリクエストに変換し、エクスペディア上に投げて勝手に予約してくれるといったもできるようになってきています。一方で、活用範囲が広がると生成AIを介して私たちがいろいろなアプリケーションのインターフェースとして使うことになるので、そこに大きなリスクや脆弱性も潜んでいます。

Q:今、仕事の1つとしてオープンソースのライセンスのコンサルをやっていますが、似たようなコードが出てきたときに「オープンソースのここのコードと一致しているが、良いのか悪いのか」ということがあります。現状で、これは人海戦術でやるしかありません。

  • 大柴氏当然、最終的な意思決定は人間やるかもしれないですが、人海戦術でチェックをかけなければいけないケースでは「一番グレーなところをあぶり出す」といったタスクでAIをかなり使えると思います。

Q:AIの得意なところだと思うので、そういった使い方もあるでしょう。特に開発寄りの人たちには、すごくありがたいと思います。オープンソースの使い方にはルールがあって、そのルールがどれくらい守れているかということです。

  • 大柴氏LLMのオープンソースでもLLM単体のレスポンスのリスクもありますが、LLMのサプライチェーンのリスクもあります。いわゆるソフトウェアのオープンソースのサプライチェーンのリスクで、マルウェアがどこかに入り込んでいるというケースは結構あると思います。LLMも「Hugging Face」というGitHubのLLM版のようなものがありますが、そこに置かれているモデルは誰がどこでどう作ったのかよく分かりません。そうすると、例えばブロックチェーンでも一時期ライブラリの中にログを勝手にどこかへ送ってしまうようなスニペットが入っていたことがありましたが、それと同じようにオープンソースのLLMにもサプライチェーン上の問題になり得るようなことがあります。例えば、送ったテキストが全部どこかへ勝手に送られているようなサイドエフェクトがあるかもしれないということも、実は大きな問題としてあります。
    アメリカの企業には、そこをかなり注視して製品提供しています。特に金融機関でこういったオープンソースのLLMを使う際には、必ずロバストインテリジェンスのリスク評価を通して、特にセキュリティの部分でサプライチェーンと実際の挙動、データ漏洩のリスクがないかをチェックしてからしか社内で使ってはいけない、という仕組みにしているお客様がいます。なので、どんどんオープンソースのリスクがAIのリスクと融合して、より複雑になっているところはあると思います。

米Robust Intelligence, Inc. 共同創業者 大柴 行人氏

Q:現状で、将来に向けて業界や会社がどのようになっているか、またどのようになっていたいか、というビジョンはありますか。

  • 大柴氏特に現在の生成AI系の革命の延長で、将来に何が起こるか考えているところでは「今後AIがあらゆるアプリケーションをつなぐ役割を担っていく」というものがあります。アメリカではAIを「エージェント」と呼ぶようになってきています。エージェントとは「AIが独立して任務をこなす人」といった意味です。これは予約を代行したり、データを取ってきたりするエージェントなのですが、AIが今後エージェントしていろいろなタスクをこなし、アプリケーションとデータをつなぐ役割として機能していくという世界観があります。
    実際にChatGPTも「Function calling」という、まさにエージェント機能をより拡張したものをリリースしています。それが今はチャットボットとして使われていると思いますが、今後はより本格的に活用されていくと思っています。以前はコマンドラインインターフェースがあり、グラフィカルユーザーインターフェースがあったものが、さらに3年ぐらい経つと今度はAIがインターフェースになっていろいろなアプリケーションと対話できるようになってきます。そうすると想像に難くないと思いますが、今度はAIを介していろいろなデータやアプリケーションがつながるので、いろいろな脆弱性が出てきます。そこに発生するリスクは、これまでのAIが独立して存在していたリスクとレベルが違います。我々のポジションを考えたときに、各事業会社が自分たちでャッチアップして対策できない新しいAIリスクに立ち向かうことが重要だと考えています。
    我々はシスコもお客様として一緒にやっていますが、今はサイバーセキュリティの会社でもAIとセキュリティ両方の専門性を十分に蓄えることはなかなか難しいわけです。そのため、我々のようにAIのセキュリティをしっかりとチェックできる企業が必要になってきます。AIのマーケットが大きくなればなるほど、AIリスクのマーケットも大きくなります。これはソフトウェアとサイバーセキュリティとの関係と一緒です。その中で今、我々はリーディングプレイヤーとして位置付けられていますが、今後もリーディングプレイヤーとしてマーケットとともに会社も成長していきたいと考えています。

Q:今後の会社の成長を考えたときに「人材の確保」も重要になってくると思います。AI人材を育成していく上でどのようなことが重要でしょうか。「これからAIをやりたい」という、特に学生の方にアドバイスいただけますか。

  • 大柴氏今、AIに携わる形として、ざっくり3種類があると思います。1つは「AIの専門家としてAIに携わる」方法です。これは我々の会社にも、元々Googleにいた人やMicrosoftでAIリスクの統括をしていた人が来ています。そういったトップのAI人材は我々の会社で常に採用していますし、今後もそこを目指していく人たちもいると思います。その過程で、やはり「作って終わり」「論文を書いて終わり」ではなく「自分たちは社会に大きな影響を与えるソフトウェアを作っている」という感覚を持つことです。コードは何に使われるかわからないものです。専門家には、そういった「使い方次第で諸刃の剣にもなる技術を作っている」ことを認識する必要があります。
    2つ目は「ビジネスサイド」です。これまで、ビジネス側には「AIのことはAIの専門家に任せておけば良い」という風潮がありましたが、今後は事業の根幹でAIが使われるようになっていきます。意思決定において、AIが「このようにすれば良いですよ」という事業のアドバイスをしてくる可能性もあります。もしくはAIが取ってきた情報を基に何かを決定するということがあるかもしれません。そのときに根拠として「AIが言ったから」とは言えないので、どのようなときにAIが使えるのか、使えないのか、まずはどのようなユースケースで使っていけば良いのかを理解しなければなりません。「なんとなく怖いから使わない」というのもダメなので、リスクとリターンの塩梅をしっかりと把握して、リスク管理を意識的かつ適切にできる人が今後は求められます。
    最後は、より広い話で「誰もがAIリテラシーを持つ必要がある」ことです。誰でもAIを使うようになってきているときに、裾野の教育は非常に大事だと思います。例えば、パソコンだったらパスワードをポストイットに書いて貼ってはいけないということは誰でも知っていますよね。「同じパスワードや1234といったパスワードは使ってはいけない」というようなベーシックなセキュリティや使い方の教育は、子どもでも、どのような従業員でも等しくしていかなければいけないと思っています。
    学生さんであれば、今挙げた3つの中のどういったポジションに属して行くのかを意識して考えて、その上で専門家であれば専門性を磨き、経営者であればどのようなビジネスインパクトがあるのかを考える。そしてユーザーとして使うのであれば、ユーザーとしてどのようなリスクに気をつけなければいけないのか考える、といったことが必要になってくると思います。

Q:漠然と「AIをやりたい」というよりも、「どのような形AIに関わりたいか」を考えた上で、スキルアップしていくことが大事になってくるのでしょうか。

  • 大柴氏そうですね。今後、AIについてはいろいろな役職が出てくると思います。アメリカの企業を見ていると、AI倫理に関わる業種や「レスポンシブAIオフィサー」といった役職が出てきています。AI系の専門性を持った弁護士がAIの著作物に関わる著作権の話をしたりと、いろいろな職業でAIの関わり方が広がってきています。もはや、AIと関わるのは必ずしも技術者だけではありません。ですので、自分の職や自分が興味のあることが、どのような関連性を持つかを考えていくのは1つ重要なことかなと思います。

ありがとうございました。

2000年頃からメーカー系SIerにて、Linux/OSSのビジネス推進、技術検証を実施、OSS全般の活用を目指したビジネスの立ち上げに従事。また、社内のみならず、講演執筆活動を社外でも積極的にOSSの普及活動を実施してきた。2019年より独立し、オープンソースの活用支援やコンプライアンス管理の社内フローの構築支援を実施している。

連載バックナンバー

運用・管理インタビュー

本当に役立つプロダクト開発を目指し、ユーザーとなる社内の営業に向き合う

2024/11/13
15分という限られた時間で印象を残すには? KDDIアジャイル開発センターの、アジャイルな営業ツール開発とは
設計/手法/テストインタビュー

現場の声から生まれた国産テスト自動化ツール「ATgo」が切り開く、生成AIを駆使した次世代テスト自動化の最前線

2024/11/6
六元素情報システム株式会社のテスト自動化ツール「ATgo」概要と開発の背景、今後のロードマップについて、同社の石 則春氏と角田 聡志氏に聞いた。

Think ITメルマガ会員登録受付中

Think ITでは、技術情報が詰まったメールマガジン「Think IT Weekly」の配信サービスを提供しています。メルマガ会員登録を済ませれば、メルマガだけでなく、さまざまな限定特典を入手できるようになります。

Think ITメルマガ会員のサービス内容を見る

他にもこの記事が読まれています