日鉄ソリューションズ株式会社

第1回:AIの歴史と展望 ~AIの歴史から学ぶべきこと、これから私たちがすべきこと~

先端技術コラム The Pionnering Edge

タグ コラム

カテゴリ 予測AI 業種・業界共通 業務効率化・業務自動化・業務プロセス改善 コスト削減・コスト最適化・経費削減 データドリブン経営 AI・データ利活用 デジタルソリューション&コンサルティング 生成AI 予測AI

今回のAIブームは「本物」か? ~AIの歴史と教訓~

AIは、これまで3度のブームと2度の「冬の時代」を経験してきた。そして現在は、第4次AIブームの最中にある。現在は第3次AIブームから冬の時代を経ることなく、直接第4次AIブームに移行した稀有な状況である。

今回のAI ブームは本物なのか?  
答えはYes でもあり、No でもあると思う。
現在の AI が本当に使えるものである、という意味では、Yes である。しかし、今回のAI ブームは一過性のもの(ブーム)ではなく、これからはAIを前提とした社会になる、という意味では No である。

では現在のAI は、これまでと何が違うのか、どんな課題があるのか。AIの歴史と教訓を振り返りながら、考えてみたい。

AIの主な出来事 年表

第一次AIブーム (1950年~1960年代)

  • 1950 アラン・チューリングによるチューリングテスト論文の発表
  • 1956 ダートマス会議(AI研究の出発点)
  • 1958 ローゼンブラットがパーセプトロンの論文発表
  • 1967 甘利俊一氏が確率的勾配降下法を提唱
  • 1969 パーセプトロンの限界が数学的に示される
  • 1969 フレーム問題の定式化(McCarthy & Hayes)

第二次AIブーム (1970年代後半~1990年前半)

  • 1970年代初め~中頃 MYCIN(エキスパートシステムの象徴)の開発
  • 1975 遺伝的アルゴリズム(GA:Holland)──進化の仕組みを最適化へ\
  • 1980 XCON(構成自動化の実務価値)
  • 1982–92 日本での第五世代コンピュータ(ICOT)の取り組み
  • 1983 シミュレーテッドアニーリング(SA:Kirkpatrickら)
  • 1986 「メタヒューリスティクス」という用語をGloverが導入
  • 1986 ニューラルネットワークにおける誤差逆伝播法提唱(ヒントンら)
  • 1988 モラベックのパラドックス(モラベック、ハンスら)
  • 1989/90 タブーサーチ(TS:Glover)
  • 1995 粒子群最適化(PSO:Kennedy & Eberhart)
  • 1997 アントコロニー最適化ACS(Dorigoら)

第三次AIブーム (2010年代中盤~2020年代中盤)

  • 2012 ヒントン率いるトロント大学がDeep Learning を用いて画像認識コンテストで圧勝
  • 2016 AlphaGo がプロ棋士に勝利。
  • 2017 大企業を中心に AutoML の採用開始
  • 2017 AlphaZero(将棋・チェス・囲碁)登場

第四次AIブーム (2022年~現在)

  • 2022 ChatGPT登場
  • 2023後半~ RAGの試行進む
  • 2025 AIエージェントへの注目(AIエージェント元年)

第1次AIブーム(1950年〜1960年代) 定式化の時代

AI の歴史は長く、コンピュータ黎明期の1950年代には既に研究が始まっている。   第一次AI ブームは、1950年~1969年。AIという用語が始めて使われた1956年のダートマス会議、1958年のパーセプトロンの開発の後の1960年前後がブームの中心だろう。  

筆者は実際にこの時代を体験していないので、当時の雰囲気はわからない。しかし、今から60年も前のコンピュータ黎明期に、既に AI の重要な概念がほぼ全て登場しているのは驚くべきことだ。

知能とは何かを問うチューリングテスト、人間の脳を模したアルゴリズムであるパーセプトロン、コンピュータが実問題を扱う際の難しさを明示するフレーム問題。哲学的、科学的、工学的にも本質的な問題に正面から取り組んでいる。「ブーム」という言葉では軽すぎて、先達に対してなんだか申し訳ない気持ちになる。  

ただし、この時期は、簡単化したゲームのような問題(いわゆるトイプログラム)は解くことが出来たが、現実的に有用な問題は解くことが出来ず、ビジネスの観点でいうと目ぼしい成果はなかった。そして、AIは最初の冬の時代に入る。   この時期の主要な成果と課題を概観してみる。

チューリングテスト: 知識とは何か? AI とは何か? を観測可能にする試み

1950年、アラン・チューリングにより、チューリングテストが提案された。
チューリングテストとは、「コンピューターは思考できるのか?」という命題に答えるため、提案された思考実験 である。  

チューリングテストでは、質問者が文字のみの質疑応答を通してコンピュータと対話し、人間とコンピューターの区別がつかなければ、そのコンピュータはテストに合格したとみなす。チューリングテストは、AIの研究だけでなく、人間とは何か、知能とは何か、という哲学的に重要な命題としても後々まで大きな影響を与えている。例えば、1980年の 哲学者のサールは、「中国語の部屋」の例えを用いてチューニングテストを批判している。チューニングテストに形式的に合格したからといって、コンピュータが意味を理解しているとは言えず、知能があるとは言えない、という反論である。

※ なお、[チューリングの原論文 COMPUTING MACHINERY AND INTELLIGENCE では、Imitation Game (模倣ゲーム)という語が使われている。質問だけから回答者が男性か女性かを当てるゲームのアナロジーでコンピューターと人間を区別できるか?という着想に至ったようである。

チューリングテストは、直近でも、いくつかのLLM (Large Language Model 大規模言語モデル) がチューリングテストに合格したのでは?という話題が起きるなど、現在でも重要な命題である。このコラムでもいつか改めて考えてみたいと思う。

技術面の成果:パーセプトロン

AI を実装するための、技術面の重要な成果はパーセプトロンである。  
パーセプトロンはフランク・ローゼンブラットが考案した、人間の脳の神経回路を模したシンプルな学習アルゴリズムで現在のニューラルネットワークの原型となる革命的な概念である。  
※アルゴリズムとは、コンピュータが特定の問題を解くための計算方法

パーセプトロンにより、機械が経験から(正確には経験を表現するデータから)学習するという概念(機械学習)が初めて実用的な形で提示された。  
パーセプトロンは、ニューラルネットワークの原型であり、ニューラルネットの一種とみなすことができる。そのニューラルネットワークを発展させたものが、ディープラーニングであり、生成AI の土台もディープラーニング一種である。そう考えると、パーセプトロンの発見が持つ意味はとてつもなく大きい。
しかし、1969年に、パーセプトロンで解ける問題が限定的であることが数学的に証明されたことも一因となり、研究は下火になっていく。  
※正確には入力層、出力層からなる単純パーセプトロンにおいては、線形分離不可能な問題が解けないということが示された

実務面の成果とフレーム問題

この時期のAIは、迷路の最短経路を見つける、ハノイの塔のような問題を解く、といった簡単化された問題(トイプロブレム)は解くことはできた。しかし、現実世界で意味のある課題、例えば、文字の自動認識、需要予測のような業務の効率化に活用できるような課題は解くことができなかった。
原因は、アルゴリズム、コンピュータの処理能力、利用データにある。 アルゴリズム的には、先に述べたようにパーセプトロンの限界が数学的に証明されてしまった。1960年代にはコンピュータの処理能力は現在とは比べるまでもないのはご存じの通りである。もちろん利用できるデータも極めて限られていた。
こうした現実的な(実務的な)問題とは別として、AI に問題を解かせる際の枠組み・前提条件を定義するのが難しいことがこの時期に発見された「フレーム問題」である。
フレーム問題とは、有限な情報処理能力しかないロボット(コンピュータ)には、解決したい課題に必要な情報だけを選択することが困難である、という問題である。
現実に発生しうる全ての事柄を考慮すると、無限の時間がかかってしまう。そのため、何らかの枠(フレーム)を作り、その枠だけで思考する必要があるが、考慮すべき事柄が無数にあり、どの事柄が、解きたい問題に関係するかをふるい分けるのにも無限の時間がかかってしまう。このように、コンピューターは現実に起こりうる問題を想定して、自律的に重要な情報を選別して、対処することができない。
例えば、「庭の木を一本切りなさい」とAI に命令したとする。 「庭とは何か?」「庭の境界はどこか?」「境界をどう判定するか?」「木とは何か?」「1本とは何を指すのか?」「どのように木を選ぶのか?」「どうやって切るのか?」など次々と決めるべき事柄が生じる。さらに、「木を切る際に、周囲の人やものを傷つけないか?」「傷つけないようにするにはどうしたらいいか?」「傷ついていないことをどう判定するのか?」などと波及的な問題を考慮する必要がある。
コンピュータを使って、何らかの課題を解く場合には、人間側であらかじめ現実世界を簡素化したフレームを作る必要があるということだ。
人間にもフレーム問題は存在する。人間は、過去の経験や常識などから発生確率が高い事象について考慮し、確率が低い事象は無視し、わからないことは考慮せずに、見切り発車で、(いい感じに)動いているだけと言える。今後、Agentic AI のような、より自律的なAI では、人間がしているのと同じようにフレーム問題に対処する必要があるに違いない。フレーム問題は、古くて新しい問題と言える。
本節の執筆にあたっては、中島 秀之著 「知能の物語」 公立函館未来大学出版会 を参考にした。興味のある方はご参考にされたい。

第2次AIブーム(1980年代〜1990年代) 知識の時代

第二次AIブームは、「知識」に着目した時代であった。時期は、1980年代~1990年代。弊社 NSSOL がAIに本格的に取り組み始めたのは、この時代からである。第二次AIブームにおける主要な成果と課題を概観してみる。

エキスパートシステムの登場

第2次AIブームにおける技術的に重要な成果は、エキスパートシステムの登場である。エキスパートシステムとは、専門家の知識をIF-THEN形式のルールとして蓄積し、推論エンジンによって問題解決を行うシステムである。IF-THEN形式のルールとは、「もし、Xが起きたら、Yを行う」というルールである。エキスパートシステムでは、専門家の知識をルールとして抽出し、コンピュータに蓄積して、判断させる。

エキスパートシステムの先駆けとなる事例は、Dendral、MYCIN、XCON などがある。Dendral は、化学者が行うような判断と問題解決の過程を自動化したシステムである。1965年にスタンフォード大学のファイゲンバウムらがプロジェクトを開始。実際には、第一次AIブームの後半の出来事だが、1970年代後半から、MYCIN, XCON などのエキスパートが相次いで登場し、ブームになっていく。
ここでは、MYCINについて簡単に触れる。MYCINは、スタンフォード大学で開発された 感染症の診断と治療のアドバイスをするためのルールベースのエキスパートシステムである。質問に答えることで診断ができるシステとして設計されている。例えば、「咳が出るか?」「38℃以上の発熱があるか?」といった質問に答えることで、どの感染症にかかっているかの確率を提示する。 MYCINは、感染症の専門医には及ばないが、非専門医よりも高い正解率を誇ったという。

ニューラルネットの進歩

ルールベースエンジンに加えて、ニューラルネットにも再び注目が集まる。

やや技術的になるが、現在のディープラーニングに繋がる発見であり、日本人の貢献や2024年のノーベル賞とも関連するトピックでもあるので、簡単に触れておく。

第一次AIブームの後半から冬の時代にかけて、入力層と出力層からなる単純パーセプトロンの発展系として、入力層、中間層(隠れ層)、出力層からなるニューラルネットによって、単純パーセプトロンの表現力の限界を突破する試みがなされていた。 1967年には、甘利俊一氏が確率的勾配降下法を提案し、多層のニューラルネットの学習方法に改善がなされた。5層のニューラルネット(5層のパーセプトロン)の学習が行われた。ニューラルネットの層を増やせば、表現力が増し、モデルの精度も上がると理論的には分かってきたため、多くの研究者や実務家が取り組んだ。

パーセプトロンからディープラーニングへの発展

パーセプトロン・ニューラルネット・ディープラーニングの比較図
※Gensparkにて作成
1986年には、ラメルハート、ヒントンらが甘利氏の手法を独自に再発見し、ニューラルネットワークにおける誤差逆伝播法を提案する。誤差逆伝播法は、現在のディープラーニングでも使われている手法であり、ヒントン氏に2024年のノーベル物理学賞をもたらした功績の一つである。
※ヒントン氏らが独自に再発見したと言われているが、最初の発見者の甘利氏がノーベル賞が受賞できなかったのは、とても残念である。この辺りの歴史に関しては、日経ビジネス ノーベル賞が見逃したAI研究者、甘利俊一氏「ヒントンはよく粘った に詳しい。 個人的には、コンピュータサイエンスの分野がノーベル物理学賞を取ったのも(ポジティブな意味で)大きな驚きだった。  

メタヒューリスティクス

この時代に発展した有力な手法にメタヒューリスティクスがある。
           
まず、(メタが付かない)ヒューリスティクスは、心理学などでも使われる幅広い用語だが、計算機科学においては、特定の問題に対して、人間の経験や直感をベースに最適とは限らないが素早く解を見つける方法といった意味である。人間が空模様を見て天気を判断するのもヒューリスティクスの例としてあげられる。計算機科学では、貪欲法や山登り法 がヒューリスティクスを活用した手法にあたる。ヒューリスティクスは、問題が複雑すぎて、しらみつぶしの探索や数理的な手法では解が求められない時に用いられる。

そして、本題のメタヒューリスティクス。メタヒューリスティクスとは、ヒューリスティクスを、様々な問題に適用可能な形に一般化した手法のことで、ヒューリスティクスを一つ上の視点から見て一般化する手法なので「メタ」が付いている。メタヒューリスティクスもヒューリスティクスと同じく最適化の手法であり、通常の方法では計算量が多すぎる問題の解を効率よく探すために使われる。どんな問題にも"そのまま"効く魔法の最適化はないが(No Free Lunchという)、"探索をどう進めるか"には普遍的なコツがある。そのコツを体系化した上位の設計指針がメタヒューリスティクスである。
メタヒューリスティクスにも様々な手法があるが、一般に以下のような二つのステップからなる。
  1. これまでの探索結果を利用して、新たな解を探索する
  2. 探索した解を評価して、次の解の探索に必要な情報を取り出す

メタヒューリスティクスでは、生物や物理現象をヒントにした最適化の定式化が行われている。例えば、環境に最も適応した生物が生き残る、というダーウィンの法則からの着想で、遺伝子の交差と突然変異をモデル化して最適化問題を解く遺伝的アルゴリズム、金属の焼きなまし(アーニーリング)からヒントを得たシミュレーティッド・アーニーリング、アリがフェロモンの強化・蒸発のバランスで道を学習することからヒントを得たアントコロニー最適化。

この時期から、あの手この手という感じで、様々なメタヒューリスティクスの手法が編み出されていった。

日本の第五世代コンピュータ

高度経済成長期を終えた日本企業にとって、熟練技能者の知識を体系化し、継承することは喫緊の課題であった。日本でも1982年国家主導で知識情報処理に特化した「第五世代コンピュータ」プロジェクトが発足。大きな盛り上がりを見せる。

期待、そして、幻滅

エキスパートシステムの先駆けとなったスタンフォード大学のMYCINの診断の精度は、感染症の専門医には及ばないが、非専門医よりも高かった。悪くない精度と言える。しかし、医療現場で実際に使われることはなかった。誤った診断を行った責任は誰が取るのか?という問題やAIを使うことに対する医師の抵抗感が主な理由であった。

責任の所在、専門家の抵抗、というのは、現代のAI の現場適用でも未だに頻発する課題である。

エキスパートシステムを実装する中で、専門家の知識をルール化が困難、知識ベースの更新と保守に膨大なコストが必要、といった課題が顕在化。また、人間が当然とする常識的判断をシステムに組み込むことができなかった(これはフレーム問題にも近いものがある)。

こうした壁に阻まれ、期待の大きさに反して、実用上の大きな成果は上げられなかった。

ニューラルネットは確かにいくつもの大きな改良がなされ、大きな期待のもと研究や応用が進んだ。
しかし、多層のニューラルネットは、うまく学習が進まないという重大な問題(勾配消失問題)があった。データ量の不足、計算機パワーの不足もあり、結局、実用化には至らなかった。

筆者がAIの領域に関わり始めたのは2000年代初頭であるが、当時はニューラルネットは理論的には面白いけど、実用的にはダメな手法の代表というような雰囲気があった。
多層のニューラルネット(≒ディープラーニング)が実用化されるには、第3次AIブームが始まる2012年を待たねばならなかった。

日本の「第五世代コンピュータ」は10年間で540億円もの予算が投入されたが、実用的な問題を解くことが出来ず、失敗に終わった。

メタヒューリスティクスは、様々な手法が生み出され、改善が重ねられていくが、次第にAI とは切り離され最適化の技術として、知る人ぞ知る面白い手法といった趣になっていく。

そして、AIは、再び長い冬の時代に入る。

NSSOLにおけるAIの活用 ~宿老モデルを中心として~

NSSOL (前身の新日鉄)では、この時期から、エキスパートシステムを中心としたAI の研究開発に非常に力を入れ、多くの実機化の取り組みもなされた。
当時は経営合理化、多角化の時代であり、製鉄操業の効率化、熟練技術者の技能伝承や属人化の回避がAI活用の大きなモチベーションであった。

NSSOL の取り組みでも特徴的な「宿老モデル」について紹介する。
宿老とは、製鉄所の中核設備である高炉(溶鉱炉)の制御を行う熟練の職人のことである。高炉は製鉄所の最上流のプラントで、高炉内部は高温高圧で直接観測することが出来ない。宿老の経験と勘に基づく判断は、製鉄プロセスの品質と効率を左右する重要な要素であった。

宿老モデルは、宿老が持つ暗黙知を形式知として体系化し、エキスパートシステムとして実装したものである。形式知化できない部分は、ニューラルネットなどの機械学習の手法で、宿老が行ったオペレーションを手本として学習を行う(技術的には、特定の環境条件下での宿老のオペレーションを教師データとして蓄積し、ニューラルネットに学習させる)。 暗黙知のうち形式知化としてルール化されたものが80%、残り20% の暗黙知を機械学習でデータから学習するような実装イメージである。宿老モデルは、操業の全自動化には使われなかったが、一定の有用性があり、高炉操作の操作ガイダンスとして利用された。

NSSOL では、一般企業向けにも「宿老モデル」を応用したシステムの構築を行った。 例えば、企業の与信管理のエキスパートを「宿老」と見立て、倒産確率を推定する事例がある。 「こういう財務諸表の動きの会社は黒字倒産しやすい」など与信のエキスパートが持つヒューリスティクスからアラートを作成し、複数のアラートを総合して、機械学習も使いながら、意思決定を行うシステムである。

宿老ソリューションの構成

宿老ソリューション - 業務ノウハウのシステム化と事例紹介
「宿老モデル」は、エキスパートからいかにして知識・経験を聞きだし、形式知化するか、あるいは、機械学習に使うデータ(特徴量)を作るか、という方面の研究にも発展した。宿老モデルは、ルールと機械学習の組合せであるので、今話題のニューロシンボリックAIの先駆けともいえる。
※生成AI の幻覚(ハルシネーション)を防ぐためにルールを組み込むアプローチ  

この研究の成果は、現在のNSSOL での AI プロジェクトでも、お客さんのエキスパートとの対話を促進して、特徴量設計を効率化するためのノウハウとして生かされている。

メタヒューリスティクスの領域でも、遺伝的アルゴリズムを活用した電力消費の最適化などにも取り組んで成果を上げている。

AIが冬の時代に入っても、NSSOLでは、研究開発と実用化の試みを地道に続け、成果を上げていった。

宿老ソリューションを中心とした第二次AIブームの執筆にあたっては、日鉄ソリューションズシステム研究開発センターの南悦郎所長、秋里 由佳氏の協力いただいた。感謝します。

次回予告

次回は、長い冬の時代を経て、第3次AIブームを振り返り、現在の第4次AIブームについて考察する。現在のAIブームは過去とは何が違うのか。過去の歴史から何を学ぶべきか。
そして、AGI、ASI の時代はいつ来るのか? その時、私たちは何をすべきなのか、などについて考えてみたい。

今後の配信予定

今後の掲載予定は、以下の通りです。
時期 内容(予定)
第1回 10月 AIの歴史と展望 ~AIの歴史から学ぶべきこと、これから私たちがすべきこと~
第2回 11月 AI エージェントの実相 ~現状の課題と対策、取るべき戦略~
第3回 12月 AIの実運用とガバナンス
第4回 12月 先端技術対談 業界のThought Leader との対談(仮)
第5回 1月 2026年の技術展望
第6回 3月 先端技術トピック・要素技術・ノウハウ集(仮) ~小粒でもエッジが効いた技術達~

お問い合わせ

ソリューション・サービス全般に関するご相談・‍お問い合わせを承っております。
お気軽にご相談ください。

相談する