万能ではない!生成AIの進化とAIがまだ苦手なこと

  • このエントリーをはてなブックマークに追加
  • LINEで送る

ChatGPTをはじめとする生成AIは驚くほど進化しています。

数年前までSFの世界だと思われていた「AIと自然に会話する」「AIがクリエイティブな文章や画像を作る」といったことが現実となり、「AIはもはや万能になったのでは?」と感じている方も多いのではないでしょうか。

本記事は、元々2019年5月に「AI(人工知能)がまだ苦手なこと」というテーマで公開しました。当時、「苦手」として挙げていたこと(例えば「言葉の意味・意図を理解した解釈」や「創造的な作業」)の多くは、正直なところ、生成AIの登場によって劇的に覆されました。

では、現在のAIは“万能”になったのでしょうか。

その答えは「NO」です。最新のAIにも「まだ苦手なこと」は残っています。

そこで2025年現在、AIが本当に苦手なことを、ビジネス活用の視点からわかりやすく再整理します。AIのできることだけでなく、できないこと、つまりAIの真の限界を正確に知ることこそが、AIに仕事を奪われる不安を取り除き、強力なアシスタントとして使いこなすための第一歩です。

「AIの苦手」を覆した生成AI

本題である「AIが苦手なこと」を解説する前に、まず前提として、近年の生成AIがいかに従来のAIの限界を覆してきたかを見ていきましょう。

数年前まで、AIは決まった作業は得意でも、曖昧な人間の要求に応えるのは苦手とされていました。

かつての弱点①:自然な会話

かつて、AIは言葉の意図や感情を汲み取ることが非常に苦手でした。例えば、「もういいよ」という言葉が「好意」なのか「憤慨」または「諦め」なのかを文脈から理解するのは、AIにとって最も困難な作業の一つでした。

しかし今では、生成AIが膨大な文脈を学習した結果、人間の会話の意図を高い精度で推測し、驚くほど自然な対話が可能になっています。

かつての弱点②:創造的な作業

かつて、AIが作れるものはあくまでも学習データの組み合わせであり、人間のような創造的な作業は不可能とされていました。

学習データの組み合わせであることは変わりないものの、今では学習データ量が膨大になり、その組み合わせレベルも劇的に向上しました。その結果、人間が「創造的」と感じるほどの自然な文章や画像を生成し、アイデアの壁打ち相手を務められるまでに進化しています。

このように、AIはかつての弱点を次々と克服しています。 では、現在のAIにも本当に苦手なことは残っているのでしょうか?

AIの苦手なこと、成果が出しにくい条件

それでは、現在のAIが一般的に苦手とすることや成果が出しにくい条件について順番にみていきます。

質の高い学習データがない領域での判断

AIが「AI」として機能するためには、その判断の根拠となる「データ」を学習させることが不可欠です。このインプットするデータを「教師データ」と呼びます。この教師データを学習してAIは初めて物事に対する判断ができるようになるのですが、このデータの量と質が担保されないと判断の正確性も鈍ってしまいます。

教師データの必要数は、学習させる内容によって変わってきます。例えば、手書きの数字を識別するためのデータセットとしてよく知られている「MNIST(エムニスト)」は、6万枚の手書き数字画像データと1万枚の検証画像データが格納されています。つまり、0〜9のたった10種類の数字を判別するだけでも、正確に判別させるには、数万のデータが必要であるという一例を示しています。

また、単純に多いだけの教師データは有効ではなく、目的に沿ったデータが必要です。極端な話、車の有無を判断させたいのに、バイクの写真ばかりが写された画像データを使っても話にならないということです。同じような状況のデータばかりでも有効ではなく、様々な場所、状況での画像データを収集することも大切です。

ChatGPTなどの昨今の生成AIが賢く振る舞えるのは、インターネット上の膨大なテキストや画像といった超高品質で超大量の教師データを学習した結果にほかなりません。つまり、学習できていない領域では、AIは依然として判断することを苦手とします。

マニュアルを超えた心情的な配慮

前の章で触れたように、AIは自然な会話や共感風の応答が非常に得意になりました。例えば、AIは文脈を深く理解し、「お気持ちお察しします」といった、一見すると感情に寄り添う模範的な応答を返すことが得意です。

しかしながら、AIは人間の感情を理解できるようになったわけではなく、あくまで学習データに基づいた統計的に“それらしい”応答パターンを生成しているのです。

AIは当然ながら、人同様の実体験をしたことがあるわけではありません。クレームや失敗の経験から生まれる「失敗するかもしれない」という焦りや、期待を裏切られた時の失望感といった、本当の痛みを実感することはできません。

つまり、AIはマニュアル通りの共感はできても、その場の空気や相手の心情を深く察し、パターンを超える本質的な心情配慮を行うことは、今も苦手なのです。

倫理的なジレンマの解決

AIは学習したロジックに基づき、最も効率的もしくは最良と考えられる選択肢で判断していきます。事前に学習していなければ、そこに考慮や遠回りは介入してきません。

例えば、仕事が早い人と遅い人がいるとします。当然、仕事が早い人に仕事を割り当てる方が、早く終えることができます。しかしあまりにも割り当てを偏らせると、負荷が集中してパフォーマンスの低下を招いたり、成長に繋がらないもの。人間が仕事を割り当てるならば、作業者の負担を考えたり、過去経験を考慮した判断ができるでしょう。しかしながらAIは、人間の作業負荷や成長機会といった合理的ではない配慮を学習させない限り、どんなに疲弊していても仕事が早い人へ仕事を割り当て続けてしまいます。

一方で、最近のAI(特に生成AI)は、差別的な表現を避けるなど、倫理的に「安全な」応答をするようにも訓練されています。それゆえに一見すると、AIが倫理観を持ったかのようにも見えます。しかし、AIは炎上しない安全なパターンを選んでいるだけで、道徳や正義について悩んでいるわけではありません。

例えば、採用選考でAIが応募基準(ルール)に基づき候補者を公平にスコアリングしたとします。スコアは基準ギリギリだが、面接官が「非常に強い熱意や、基準外のユニークな可能性」を感じた候補者がいた場合、どうでしょう?公平なルールを優先すべきか、個別のポテンシャルを優先すべきか、悩ましいものです。しかしAIは悩むことなく、当たり前のようにその候補者を除外するでしょう。

AIはルールでは判断できても、こうした道徳的な悩みを解決することは、今もなお苦手な領域なのです。

判断プロセスの明確な説明

ディープラーニングやChatGPTのような高性能なAIが主流になる前までは、AIの判断ロジックは比較的シンプルで、なぜAIがその判断をしたのかを追跡できるケースがほとんどでした。

しかし昨今のAIは、人間の脳神経回路のように、とても複雑な内部構造を持ち、ブラックボックス化しています。その結果、AIの性能は飛躍的に向上しましたが、引き換えに判断プロセスを明確に説明することが非常に困難になりました。

AIに理由を尋ねても、それは本当の計算プロセスではなく、AIがもっともらしく生成した後付けの説明文であるケースも少なくありません。このことを「ポストホック説明」と呼びます。

重要な意思決定において、「AIがそう判断したが、理由は不明」では済まされないため、これはビジネス利用におけるAIの大きな課題となっています。

意志や目的を持ったゼロからの創造

前の章で触れたように、AIは人間が「創造的」と感じるほどの文章や画像を「生成」できるようになりました。

それでも残る苦手なことは、AI自身が「意志」や「目的意識」を持つことです。AIは、何を生成すべきか、人間からの指示(プロンプト)がなければ、何も生み出しません。自ら「こんなサービスを作りたい」「こんな世界を実現したい」といった意志を持って、作業を開始することはないのです。

AIは創造的な作業の優秀なアシスタントにはなりましたが、「なぜそれを作るのか」というゼロ地点の意志を生み出すことは、未だに苦手な領域なのです。

関連記事 日本国内の企業が開発!国産AI 11選

AIが得意なこととは

ここまでAIの苦手なことを見てきましたが、ビジネスで活用する上で、AIの得意なことを正しく知ることも同じくらい重要です。 AIの能力は、従来の「高速な計算・処理能力」と、近年の「高度なパターン認識・生成能力」に大別できます。

高速なデータ処理/記憶と高速な計算

AIの土台はコンピュータであり、その得意分野は記憶と速度です。これはAIの最も基本的な強みです。

記憶(ストレージ)

AIは、人間が一生かかっても触れられないほどの膨大なデータを教師データとして記憶し、忘れることがありません。記憶装置は容量が足りなくなれば増強できますので、途方もない容量のデータを記憶することが可能です。大手のAIサービスは、AI専用の巨大なストレージシステムを構築することにより、膨大な容量が必要なAIへ対応しています。

速度(計算処理)

AIは記憶した膨大なデータを、人間とは比較にならないスピードで高速処理します。この高速処理を支えているのが、「GPU」というハードウェアです。

GPUは元々、画像処理のために開発されたプロセッサですが、単純な計算を同時に数千個行う並列処理能力が、AIの膨大な計算処理に最適なのです。通常のCPU(中央演算処理装置)では、汎用的な処理に対応するため回路が複雑になり、同時に実行できる計算の数は限られるため、AIの学習のような膨大な並列計算にはあまり適しておらず、GPUが使われることが多くなっています。

このように、膨大なデータを記憶し、それをGPUのような専用ハードウェアで超高速に処理できることが、AIの得意分野の土台となっています。

データの共通点やパターンの発見

高速処理能力を活かし、膨大なデータの中から共通点や傾向・パターンを見つけ出すことも、AIの得意分野です。

特に画像認識においてこの特徴は効果を発揮します。教師データとして複数の画像を読み込ませる際に、画像の共通点を認識することで学習し、似た特徴を持った画像データを探し出せるようになります。

この能力は、工場の製品画像から「不良品」のパターンを見つける異常検知や、過去の販売データから「売上の傾向」を見つける需要予測など、様々なビジネスの現場で活用されています。

自然な文章の生成・要約・翻訳

前述の「パターン認識」が劇的に進化した結果、AIは自然な文章(テキスト)を扱うことも得意になりました。

少し前までは、単純な翻訳のように単語を置き換えるような作業が中心でしたが、AIが膨大なテキストデータを学習した結果、まるで人間が書いたかのような自然な文章を生成できるようになりました。

単に文章を作るだけでなく、長文のレポートを要約したり、専門的な内容をわかりやすい言葉に翻訳・要約したり、アイデアの「壁打ち相手」として複数のパターンを提案させたりと、知的作業のアシスタントとして非常に強力な能力を発揮します。

単一の事項を判断していくような行動はAIの得意分野です。例えば、単語を次々に認識して言語の翻訳をかけていくことはAIの得意とする領域です。文脈を完全に考慮しきることはまだ困難ですが、ある程度の文脈を考慮して単語に意味を割り当てていくことはできます。

まとめ

かつては、AIで対応可能な事項かどうかを判断する基準として、「人間が0.1秒で判断できること」や「データを数値化できるかどうか」が重要だと言われてきました。

確かに、従来のAIは、データを明確に数値化することで状況判断を可能にしてきました。例えば画像認識では、AIは画像のピクセルごとの色を数値化し、その共通点を認識しています。AIに取り組ませたい課題をまず「数値化できるか」で考えることは、今でもAI活用の基本です。

しかし、その基準だけでは測れないAIが登場しました。それが、本記事で触れてきたChatGPTなどの生成AIです。生成AIは、かつて数値化が困難とされてきた、自然な会話やアイデア出しといった領域で、アシスタントとして機能し始めています。

AIが知的作業のアシスタントになった今、私たちが本当に目を向けるべきは、AIが本質的に持てないもの、すなわち数値化できない/しづらい「意志(目的意識)」「道徳(倫理観)」「実体験(心情への共感)」の領域です。

AIの得意な計算、生成といった作業は徹底的に任せ、人間にしかできない目的設定、倫理的判断、最終責任を私たちが担うこと。この使い分けこそが、AI時代を生き抜くビジネスパーソンに求められる最も重要なスキルです。