記事を読む

人間が書いたような文章を作ることができる生成AI(人工知能)の利用が急拡大しています。代表格の対話型AI「チャットGPT」などを業務に導入する企業や組織も増えてきました。
帝国データバンクのアンケート調査では、生成AIを活用・検討している企業は6割を超え、活用したい生成AIの9割をチャットGPTが占めました。

その一方で、「AIガバナンス」の構築はいまや重要な経営課題ですが、「リスク管理なきAI戦略は成立しない。AIガバナンスの構築を怠れば経営リスクに直結する」と、専門家は警鐘を鳴らします。AIガバナンスの構築が遅れると、ESG経営の中で「グリーンウォッシュ」あるいは「DEI(ダイバーシティ=多様性・エクイティ=公平性・インクルージョン=包摂)ウォッシュ」と批判を受ける可能性もありそうです。

※旧サイト(環境と人)からの転載記事です。

専門家が指摘する生成AIの脅威

アメリカの新興企業「オープンAI」が2022年11月に無料で公開した「チャットGPT」の利用者は、公開から2か月で1億人に達しました。気候変動は、産業革命の幕開けから温暖化が実感されるまで200年以上かかったことを考えると、技術の影響の波及スピードが桁違いであることがわかります。ですから、規制が追いついていかないのです。

しかも、関わるプレーヤーの主役は巨大IT企業です。このことは、営利企業が人類の命運に関わるかもしれない技術の根幹を握ることを意味します。また、生成AIは文章の作成がとても楽になります。スマホでも使えるようになってきたので、悪用しようと思えば、誰でも可能になるでしょう。

「AIのゴッドファーザー」と呼ばれるジェフリー・ヒントン博士は、アメリカでのセミナーで、チャットGPTの予想以上の賢さに驚き、怖さも感じると語っています。「最新のモデルは常識的な推論ができる。IQは80か90くらい。古今の小説とマキャベリの人心掌握術から学び、もっと賢くなったら私たちを巧みに操れるようになるだろう」

歴史を顧みれば、核や遺伝子でも、研究開発に関わった科学者たちは真っ先に警鐘を発しています。AIの場合はどうでしょう? 核を持つのは少数の国家であり、遺伝子の改変を扱えるのは限られた専門家であるのとは、状況がまったく異なるといえるのではないでしょうか。

生成AIの活用術

もちろん、ヒルトン博士ら専門家も、生成AIが社会の抱える様々な課題解決に役立つ可能性を認めています。

環境系の専門誌「オルタナ」が2023年4月に開催したズームセミナー「チャットGPTとESG」で、AIスタートアップ企業「ロバストインテリジェンス」で国内政策企画を担当する佐久間弘明氏から、生成AIの活用術とそこに潜むリスク・対処法について話を聞く機会がありました。ロバストインテリジェンスは、2019年に米ハーバード大学の研究者たちがシリコンバレーで創業したスタートアップ。同社は、米国国防総省、PayPal、Expedia Inc.などに加えて、国内企業では、東京海上、セブン銀行、NTTデータ、NECなどの大手企業を顧客に持っています。

佐久間氏によれば、チャットGPTにフォーカスしてみても、その活用範囲は幅広いと言い、具体的な活用法を4つ挙げています。

① 電話対応のカスタマーサービスなど対話型サービス。AIに任せれば、言語や時差の壁もクリアできます。

② 文章・コンテンツ作成。画像生成AIもStable Diffusionなどいろいろ出てきており、自社の広告バナーなどの作成には便利。人力で手間をかけてやっていたことを、AIに置き換えて効率よく仕事を進められます。

③ データ分析。同じくオープンAIによって開発されたマルチモーダル大規模言語モデル、GPT-4では、より複雑なテキスト、たとえば日々利用しているLINEの文章などの分析にも使えることがわかってきました。その分析によって人の経済活動をより深く分析することが可能に。最近のモデルでは、画像や複雑な数式を分析できるので、環境影響を考える時も、画像を認識したうえでいかなる問題が起きているか、いろいろなパターンの分析が可能になります。

④ 合成データの生成。世の中のデータがまだ不足している分野について、既に存在するデータから似たようなデータをAIでつくり、サンプル数を増やして分析。これまでサンプル数が少なくて分析がうまくいかない、プライバシーの問題で匿名性を担保するために元のデータが使えないなどの案件についても分析を進めることができます。

以上の活用事例のメリットとしては、①②は、業務効率化が進むこと。労働時間的な意味でのサステナビリティの改善、日本語オンリーのオペレーターよりも英語を話すAIの方が外国人を含めインクルーシブにサービスを提供することができる、見た目で顧客を判断することがなくなり、バイアスを排除し公平なサービスが提供可能です。

③④は、かなり高度な事例になるものの、環境影響など高度な分析、経済活動で使ったドキュメントなどの分析が進むので、インパクトを考える際、より精度が高まるはずです。

経産省は2020年にAIの導入による経済効果は2025年に34兆円に及ぶと試算しています。いろいろなプレーヤーが模索している段階ではありますが、ESGやサステナビリティを考えるうえでも必須のツールになることは明らかと言ってよいでしょう。

AIに潜むこれまでにないリスク

政府のAI戦略会議は、2023年5月、懸念されるリスクとして、偽情報の氾濫、犯罪の巧妙化、著作権の侵害などの7項目を挙げています。生成AIには、業務の効率性が上がったというポジティブな側面が認められる一方で、佐久間氏は、「生成AIには、これまでのソフトウェアにはないリスクが存在する」と警告します。

佐久間氏によれば、生成AIが抱えるリスクは3つに分類されます。データの不備などから起きる「機能・品質面のリスク」、プライバシーなどの権利侵害につながる「セキュリティ面のリスク」、そして差別的な予測を生み出す「倫理的リスク」の3つです。

その一つひとつについて、具体的に説明しましょう。

機能・品質面のリスクとは、AIの学習能力と現実との間にズレが出てしまうことがあるのです。アメリカの大手不動産検索サイト「Zillow」は、住宅価格を査定して物件を購入するサービスを提供していますが、コロナ禍前の条件で学習していたため、コロナ禍での移住や市況の変化を誤って予測。多くの住宅を購入時よりも低い価格で売却し、多額の損失を計上してサービスから撤退することになりました。
また、GoogleがチャットGPTに対抗して2023年3月にリリースした会話型AI「Bard」では、デモ回答の一部に誤りが発覚、嘘の回答をする問題が起きていることを専門家から指摘されています。これに伴い、アルファベットの株価は9%下落、時価総額1000億ドル超を失ったそうです。

セキュリティ面のリスクとは、悪意のあるハッカーのような人たちに、AIが攻撃されるリスクのことです。よく知られるのは、チャットGPTの「プロンプト・インジェクション」と呼ばれる攻撃です。プロンプトは言語モデル(AI/機械学習モデルの型)における「指示」の役割で用いられます。差別的なことは言わないようにしようと、AIも実際にトレーニングを重ねているわけですが、この攻撃では、AIに対して特殊な質問を入力することにより、AI開発者が想定していない悪いアウトプットを引き起こし、AIチャットボットが保有する機密情報や公開すべきでないデータを引き出す手法です。いわゆる「暴走」につながるわけです。実際に、ロバストインテリジェンスのエンジニアが発見し、修正したそうです。

また、ソフトウェアのコードなどの機密データを入力してしまうという危険もあり、実際にサムスンで問題になりました。

ESG活動に直結する「倫理的リスク」

佐久間氏が挙げる「3つのリスク」の中で、最もESG活動に直結すると思われるのが、「倫理的リスク」でしょう。

有名な事例が、与信判断における男女差別です。米アップルと米ゴールドマン・サックスが2019年共同で開発したクレジットカード「アップルカード」では、著名なIT起業家が、「妻の方が、クレジットスコアが高いにもかかわらず、夫である自分の利用限度額は妻の20倍だった」と指摘。これをきっかけに、同様のケースがSNSに多数投稿されました。その後、米ニューヨーク州金融サービス局が調査を開始、与信判断に関する透明性の欠如や公平性に対する懸念を示しました。

ほかにも、米アマゾンが開発した人材採用AIが、女性差別的傾向を持つことが判明し、運用停止を余儀なくされています。人材会社の「ワークデイ」では、採用に使用しているAIが、黒人や障害者を差別していると訴訟が起きています。これも米国のケースですが、「再犯予測プログラム」で、同じ条件を入力すると、白人よりも黒人の方が、危険性が高いと評価される傾向があり、物議をかもしています。

炎上レベルからリーガルリスクに至るまで、経営を揺るがす問題に発展する可能性があるのです。

なぜこうした問題が発生するのかというと、AIが現実社会にある差別やバイアスをそのまま学習してしまうからにほかなりません。したがって、社会のバイアスを反映した学習データを用いて、差別的な予測を立ててしまうことになるのです。

佐久間氏は、「AIは完ぺきではない。学習するデータに差別が温存されていれば、そこから導かれる推論結果にそのまま反映されてしまう。環境経営を掲げ、DEI宣言している企業がAIのバイアスを放置していると、実態が伴わない見せかけだとして、『ウォッシュ』との批判を受ける可能性が出てくる」と話します。

リスクに対応するAIガバナンスの構築

AIリスクに対応するためにはどうすればよいのでしょうか? 企業には「AIガバナンス」の構築が強く求められています。

AIガバナンスの構築とは、佐久間氏によれば、「継続的なリスク検証」を核に置いて、「社内外とのコミュニケーション」と「規制への対応と第三者の関与」を繰り返して実践すべきだと説明します。

システムをつくったあとも、AIは日々学習して変化していくので、出力の偏りに変化はないか、リスクが増えていないか、男女差別をするようなAIに育っていないかなど、検証する必要があります。男女の偏りがあれば、女性のデータを増やして検証し直すなど、AIの脆弱性に対応していくことが求められます。

こうして得られた結果を社内外とのコミュニケーションに活用します。AI活用における基本的な考え方「AIポリシー」などを策定して、仕組みをつくるわけです。先進的な会社だと、「公平性を重視してAIを使っています」、社外向けには「この分野でAIを使っています」と明示しています。

そのうえで、社内ルールで公平性を実装し、ポリシーに沿って公平性を守って使っていることを積極的に共有する必要があります。ポリシーがあるだけでなく、国内外の規制やガイドラインへの対応も行い、有言実行の姿勢を外に向けてもアピールし、説明することが重要です。

なお、日立製作所は、生成AIを導入するにあたって社内に専門組織「ジェネレーティブAIセンター」を新設しています。

規制への対応は「第三者関与」を念頭に

このプロセスで欠かせない視点が、規制への対応です。独りよがりにならないチェックをするためにも、第三者や外部有識者の知見をしっかり使うことで信頼性を担保することでしょう。

たとえば、経産省の「AIガバナンスガイドライン」では、設定した目標が達成されているかを見ながら改善のサイクルを回すように、継続的なリスク検証を軸にループ図が描かれています。AIマネジメントシステムの設計や運用の妥当性の評価に関しては、第三者に任せることが推奨されています。

開発と活用~難しいバランス

生成AIの勢いは増しており、AI導入の意思決定の遅れはそのまま経営リスクにつながります。とはいえ、焦って導入しても、非効率なAIリスク対応では、逆に生産性が低下し、人材も流出する懸念があるのです。「リスク管理なきAI戦略はもはやありません」と佐久間氏は断言します。

チャットGPTを開発したアメリカのオープンAIのサム・アルトマンCEOは、米議会で「国際原子力機関(IAEA)のような組織が必要だと証言。米国の科学者グループは、英科学誌「ネイチャー」で気候変動に関する政府間パネル(IPCC)の生成AI版の創設を提案しています。様々な利害が交錯し、どちらも実現は簡単ではなさそうですが。

欧州では、AI活用に関する法整備が進んでいます。欧州委員会は2021年4月、AI規制法案を発表し、2024年に施行する予定です。

どんな規制が有効なのか、開発や活用とのバランスはどうすべきか、技術で悪用は防げるのか。

生成AIは私たちに多大な恩恵をもたらす可能性を秘めています。一方で、最悪の場合、言語で人心を操作しうることも可能で、そうなれば、文明の基盤を揺るがしかねません。私たちは、なんとも複雑な難題と向き合うことになったわけです。

参考文献

生成AIの活用に関する企業アンケート
DEIとは?企業が推進するときの5つのポイントや事例を紹介 | PR TIMES MAGAZINE
日本のChatGPT利用動向(2023年4月時点)| 生活者動向 | レポート | 野村総合研究所(NRI)
What Really Made Geoffrey Hinton Into an AI Doomer | WIRED
Robust Intelligence
AIの経済効果34兆円 25年、中小だけで11兆円 経産省試算ほか【AI最新ニュース】 | DeepSquare
AI に関する暫定的な論点整理
米不動産テック大手Zillowの大失敗に見るAI経営の教訓…「予測モデルの過信」「目標設定のミス」は他人事ではありません | Business Insider Japan
プロンプト・インジェクションとは【用語集詳細】
Apple's 'sexist' credit card investigated by US regulator - BBC News
Workday AI Biased Against Black, Older Applicants, Suit Says (1)
生成AI積極利活用…日立製作所がセンター新設で狙う効果AI原則実践のためのガバナンス・ガイドライン