今後5年間でAIはここまで発展する

現在利用できるAI

この1年でも、実際にいくつかのAIが各社によって開発され、皆さんの企業でも利用できるようになりました。ここでは、そのいくつかの事例とそれらの強みを紹介します。

  • エアバスが、最新型飛行機の仕様(客室の容積測定、形状、目標重量、注視点、空気流量の要件、温度範囲など)を想定して、客室の隔壁や新しいタイプの座席に適した最も効率の良い(すなわち、既存のものよりも軽量かつ安全な)機体を作成できるAIを開発した。
  • ボストンの企業であるガマロンは、ハード変数の代わりに「学習した」確率に基づいて自らのコードを書き換えることのできるAIをリリースしている。このAIだけでも、AI開発における面倒な作業を完全に自動化できるため、AI関連のビジネス提案に向けて自社の業務内容の拡張を目指すIT企業にとって役に立つはずだ。
  • 製品ライフサイクル管理ソリューションの大手であるオートデスクが、ビショップと呼ばれるソリューションの開発を最近完了した。ビショップは、AIの「脳」に直結するロボットアームであり、指示どおりに穴を開けることが可能。人間の作業者が、特定のコンポーネントを固定するために特定の数の穴を開ける必要があることを、ビショップに話しかけて伝えると、ビショップは、対象となる箇所の構造と、そのコンポーネントに取り付ける必要のある部品を分析し、それらの両方が傷つかないように穴を開ける位置を「決定」する。さらに、結果的にいずれかの構造体が傷つくことが判明した場合、そのことを作業者に伝え、穴の数を増減するといった代替案を提示することまで行える。
  • 医療・健康分野のAIは、CTスキャンを分析し、診断と治療手順の提案を両方行っている。AIによる診断は、すでに健康への潜在的脅威を「人間」よりも平均で20%多く発見できることを実証した。また、同AIは人間の医師よりも10%高く肺がん発生の可能性を診断できるところまできている。
  • 最近では、体温に加えて心拍や動脈圧を監視できるヘルスケアAIを搭載したスマートウォッチアプリで収集された情報の相互参照により、慢性疾患患者の観察を通じて、命にかかわるインシデントを軽減できるようにもなった。
  • 販売促進をサポートする「AIレインメーカー(祈祷師)」の異名をとるマリアナIQは、特定市場の垂直セクターにおいてソーシャルメディアを利用することにより、個人の関心や好み、購買傾向、あるいは意思を決定する際の「根拠」に関する情報を収集している。そして、その情報が顧客企業(=その市場に売り込みを試みている企業)のポートフォリオと、対象となる見込み顧客のプロファイルおよび個人のコミュニティ情報の両方を用いて分析され、相互参照される仕組みを作りあげた。これにより、意思決定者あるいはファシリテーター関係者に対して的確に売り込みを行えることが可能となったが、このことには、一時的な利益以上の価値があるといえよう。
  • アップゼンは、詳細な財務諸表(ERP内のデータ)を利用して、すべてのコンプライアンス違反とエラー、そしてそれらの発生源を確実に検出することができる裏方的な業務の自動化ツールを開発した。同社が、ある大企業の顧客と共に同ツールを試験的に運用し、数十人の担当者で構成されるチームとAIに同じ監査を行わせた結果、人間チームは1か月半かかって、わずか86%の精度しか得られなかったのに対し、AIは3日以内で100%の精度を達成した。
  • すでにいくつかの通信社では、文章と口頭による別々のテキストで示された事実をAIを利用して相互に関連付け、それらを設定済みの言語、タイムライン、記述ルールに従って短信の記事にまとめる処理が実用化されている。
  • 「Amy」(エイミー)は、AIによって開発された、ユーザーのスケジュールを管理する仮想アシスタントである。このAIアシスタントは、ユーザーが1週間にミーティングの依頼を何件受け取ったか、双方にとって都合のよい時間帯を調整するためのメッセージのやりとりにどのくらいの時間がかかったか、といった事柄を管理してくれる。また、人間のアシスタントと同様に、既存の予定を管理するだけでなく、個人的な好みや制約を「確認」して、ゲストと電子メールをやりとりし、ミーティングの実施に最適な時間と場所を見つける役割も果たす。

真の危険

最近、AIの開発方法に対して十分な注意が払われていないのではないかとの危険性を警告する多くの声が聞かれます。

カリフォルニア大学バークレー校のAIラボの責任者であるStuart Russel(スチュアート・ラッセル)教授は、去る2015年、AI搭載ドローンをはじめとする「自律型兵器」の真の危険性について国連の前で証言しました。人からの指示を受けずに人間を狙って殺すことのできるロボットを軍が保有するならば、映画『ロボコップ』や『ターミネーター』のようなとてつもないリスクが生まれるでしょう。

また、テスラを創業したElon Musk(イーロン・マスク)氏は、彼が名付けた「Artificial Super intelligence」(人工スーパー知能)のリスクについて、「核兵器の取り扱いと似ている」と指摘しました。「潜在的な蓄積エネルギーを抑制することよりも、それを解放することのほうがはるかに簡単である」という点で、同一線上にあるというわけです。

Bill Gates(ビル・ゲイツ)氏はより端的に、「実験結果を知識や推論に変換できるという人間の持つ "アルゴリズム" をAIも用いるようになれば、すぐにAIの計算能力に基づく圧倒的な処理能力によって、人間の理解が及ばないような知性体を生みだすだろう」と考えています。そうなると次のステップでは、「自己を認識する能力を持つ存在は、自己が存在し続けることに重点を置くようになるため、そのようなAIが、人間によって自分が排除される可能性に気づいたが最後、ユーザーによって最初に刷り込まれた、人間に対する不可侵ルールなど意味をなさなくなる」ことを認識せざるをえなくなるはずです。

そしてStephen Hawking(スティーブン・ホーキンス)教授は、「自己を認識できるAIが、自己の再設計や強化を行う能力を獲得し、それを指数関数的に高めていくことが予想される」と警告しています。これはつまり、「AIの意思と基本構成要素が、人間の理解の範囲を即座に超えてしまうだろう」ということです。そのため、生物の種としての私たちは、人間が生物学的限界のために数千年かけてようやく到達した知能をはるか超える存在と突然向き合うことになります。そして、その超越した存在は、人間がAIを排除する可能性があることを知りながらも、自制心と自由意志を持って、人間の物質的世界と論理的世界の両方に大きな影響を与える能力を持っていくのです。

さらにGoogleのエンジニアリング担当ディレクターであるRay Kurzweil(レイ・カーツウェイル)氏は、「AIが15年以内に人間の知能レベルに到達し、25年以内には人間の知能と知力を上回るようになっているだろう」と述べています。

2010年以降、AIは毎年能力を倍増させてきたわけですが、今やこの傾向は指数関数的成長の段階へと移行しました。そのため、これらの予測が常軌を逸していると感じたとしても、それはむしろ当たり前の反応なのです。