編集部ピックアップ

AIはなぜその答えを導き出したのか ~根拠を見える化する「説明可能なAI」~

現在、AI(人工知能)は第3次ブームの真っ只中にあります。そこから導き出される答えは右脳のような直感的なものであり、なぜその結論にたどり着いたのかという根拠の説明はできず、ブラックボックス化しています。今後、AIをより広範な社会実装が可能なアプリケーションに発展させていく上で不可欠なのが、「説明可能なAI」です。

AIの判断結果を論理的に説明することは可能か
AIの第3次ブームをもたらしたディープラーニング

AIは1950年代から1970年代にかけた第1次ブーム、1980年代の第2次ブームを経て進化してきました。しかし、そこで追求してきた「人間(専門家)の知識を機械(コンピュータ)に教え込む」というアプローチは極めて困難なことから、思い描いていたような実用化には至らず、しばらく「冬の時代」が続きました。

そこにブレークスルーをもたらしたのが「ディープラーニング」と呼ばれる技術です。人間の脳を構成するニューロン(神経細胞)を模した機械学習モデルをコンピュータ上に実装し、実行するもので、大量のデータからコンピュータ自身が知識を獲得することを最大の特徴としています。
現在の第3次AIブームは、まさにこの技術によって巻き起こったものにほかなりません。実際、ディープラーニングをベースとした現在のAIは、囲碁の世界チャンピオンや将棋の名人も打ち破るなど、人間をはるかに凌駕する能力を示し、世の中に衝撃を与えました。

ブラックボックスのAIにはクリティカルな業務を委ねられない

ただ、このAIの技術を企業の様々な業務にすぐに活用できるかというと、なかなかそうはならないのが現実です。

囲碁や将棋などの世界で問われるのは、「勝つか負けるか」であり、AIが途中で「なぜその手を打ったのか」という理由は分からなくても、対戦相手に勝つことさえできれば、その結果をもって価値を評価することができます。

しかし、このようなブラックボックスのAIに、果たしてミッションクリティカルな業務を委ねることができるでしょうか。「AIがなぜその判断を下したのか」について、納得できる説明を得られなければ業務への適用は難しいといえます。

例えば、体の不調を感じて医師の診察を受けた際に、問診のほか血液検査やMRIなどの結果に基づいて、「あなたの脳には動脈瘤があり、なおかつ直径7mmに達しており、このままではくも膜下出血になる危険性が高いため、早期に手術が必要です」と説明されれば、その事実を受け入れることができます。それでも納得できない場合には、医師に過去の経験、論文や治癒情報などを基にした論理的説明を求めます。

将来、高度なAIが医師を支援する時代になり、「AIによるとあなたは今すぐ手術が必要です」と何の根拠もなく医師に言われても納得することはできません。

高度な社会受容性を備えた、すなわち「信頼できるAI」でなければ、多くのビジネスや生活では通用しないのです。

そうしたこともあり、現時点でのAIの応用分野は、画像認識や一般会話レベルでの音声認識・翻訳などの限定的な範囲にとどまっています。これらはいずれも先の囲碁や将棋における「勝ち負け」と同様に、結果だけを見て「合っているか間違っているか」を比較的容易に判断できるアプリケーションです。社会実装で求められるアプリケーションとなるまでには、まだまだ高いハードルが立ちはだかっています。

今後のAIに求められること

人間からの信頼を担保するために必須となる「説明可能なAI」

そもそもAIといえども、導き出す答えが必ずしも正しいわけではありません。今AIと呼ばれているもののほとんどは、まだ何も知らない「赤ちゃん」と同じです。うまく育てることができれば賢くなりますが、育て方を間違えると実用に堪えるものにはなりません。役立つ「大人」にするには、どんなテクノロジーをベースにしているかだけでなく、育て方や与える食事(データ)も非常に重要であることを認識しておく必要があります。これがAIの現実です。

例えばクレジットカードの与信をAIで行うシステムを構築したとします。そこで学習に用いるデータに偏りがあれば、AIが導き出す結果にもバイアスがかかり、特定の属性を持った人物に不利な審査結果を示すことになりかねません。

実際、あるITベンダーが、ユーザーと会話しながら学習していくAI型のチャットボットをインターネットに公開したところ、人種差別や性差別、暴力表現など悪意を持った会話が繰り返され、結果として意図しない方向に学習が進み、極めて不適切な発言を連発するようになりました。わずか半日ほどで停止に追い込まれたケースもありました。

社会実装で求められるレベルのAIのアプリケーションを構築するためには、その判断(思考)のプロセスが、倫理規定やコンプライアンスにも沿った形で行われていることを実証できなくてはなりません。どのようなロジック、あるいはどういった経緯から結果が導き出されたのか、人間がプロセスを理解し、管理し、間違っていたなら修正できるようにする必要があります。

こうした人間の信頼を担保できるのが「説明可能なAI」であり、AI自身で「説明責任を果たせる」ことがその大前提の条件となります。これがあって初めて、人間はAIが導き出した新しい発見や洞察に対しても信頼を置くことができ、ひいてはそれがAIの提供範囲の拡大や高度利用など、さらなる改善(発展)につながっていきます。

「説明可能なAI」ができること

「説明可能なAI」に向けた2つのアプローチ

具体的に「説明可能なAI」はどのようなアプローチによって実現することができるのでしょうか。現在、世界において研究が進められているのは大きく次の2つの方法です。

1つは、これまで学習能力は非常に高いが理由の説明は苦手とされてきたブラックボックスAI、すなわちディープラーニングに説明機能を持たせるものです。例えば画像データの認識や分類を行う際に、学習のプロセスから特に大きな重みづけが行われた部分や領域をニューラルネットから抽出し、判別の理由として示します。

もう1つは、ホワイトボックスAIです。文字どおり判断の仕組みが分かる学習モデルを備えたAIであり、結論を導き出すまでのプロセス(計算過程)をトレースして示すことで、人間にとっても比較的理解しやすい理由を説明することができます。

「説明可能なAI」の要素

また、より人間に理解しやすい「説明可能なAI」を実現すべく、例えば動物の画像を読み込ませた際に「毛皮とひげ、爪を持ち、さらに耳の特徴から"猫"と判断した」といった言葉(自然言語)による説明を行えるようにする機能も検討されています。こちらの研究はまだ始まったばかりであり、今後の成果が期待されるところです。

「説明可能なAI」により「なぜそうしたのか」が分かるようになる