G検定単語帳 - 人工知能とは

AI効果

開発時や登場時には人工知能(AI)の一種であると認識されていた技術や製品が、社会に浸透し普通に使われるようになるに連れて人工知能扱いされなくなっていく現象。

人工知能とは人間の知的な行いを模倣することができるコンピュータプログラムのことだが、どのような知的作業をどの程度のレベルで再現することができるかは各時代の技術水準によって大きく異なっている。

歴史的に、その時代の技術水準から考えて、より人間に近い柔軟で複雑な情報処理が可能になると、開発元は「人工知能である」と宣伝する傾向がある。人々もそれまでにない高水準の機能や性能に驚いて、人工知能として話題にするようになる。

しかし、時間が経ち、そうした技術や製品が社会に広く受け入れられて「当たり前」の存在になったり、より高水準の技術が登場したりすると、その技術を「それほど知的ではなかった」と評価するようになり、人工知能と呼ばなくなる。このような過程をAI効果という。

例えば、1990年代にはビデオゲームのキャラクター操作の一部をプレイヤーに代わって自動的に行う機能が「AI搭載」と宣伝されたが、21世紀には単なるコンピュータプログラムによるありふれた機能の一つとみなされるようになった。2000年代初頭には部屋を徘徊して自動的に掃除を行うロボット掃除機が「AI掃除機」として人々を驚かせたが、現在では誰もこれをAIとは呼ばなくなっている。

エージェント

代理人、代理店、仲介人、取次業者、などの意味を持つ英単語。ITの分野では、利用者や他のシステムの代理として働いたり、複数の要素の間で仲介役として機能するソフトウェアやシステムなどを指すことが多い。

コンピュータ科学の研究分野として「ソフトウェアエージェント」(software agent)がある。これは、利用者が何らかの目的を達するための代理として機能し、自らがある程度の判断能力を持って自律的に振る舞い、永続的に活動するソフトウェアを意味する。機器やシステムの監視や制御、情報の収集や加工などのために用いられる。

まだ人間のように高度に自律的な判断や行動を行うことは難しいが、限定された分野である程度エージェント的に振舞うソフトウェアは実用化されており、「ロボット」(あるいは「ボット」)、「アシスタント」などと呼ばれることもある。

また、分野によっては、システムに常駐して利用者や外部からの要求を待ち受けて対応するソフトウェア(UNIX系OSのデーモンなど)のことや、利用者の代理として外部と通信するなどして目的を達成するソフトウェア(Webブラウザや電子メールサーバ/クライアントなど)のことをエージェントと呼ぶ場合もある。

人工知能

人間にしかできなかったような高度に知的な作業や判断をコンピュータを中心とする人工的なシステムにより行えるようにしたもの。

人類は未だに人間の脳の振る舞いや知能の仕組みを完全には解明していないため、人工知能にも明快な定義は与えられていない。また、情報技術の進歩に伴って時代によって人工知能とされるシステムの具体的な内容は大きく変化してきている。

特に、前の時代に人工知能の一分野として研究・開発が進められていたものが、技術が成熟し実用化や普及が進むと人工知能とは呼ばれなくなり、より高度で研究途上のものが新たに人工知能として注目される傾向がある。この現象は「AI効果」と呼ばれ、例として文字認識技術(OCR)や検索エンジン、かな漢字変換システム、ロボット掃除機などが挙げられる。

2000年代後半以降に人工知能とされるものは、大量のデータから規則性やルールなどを学習し、与えられた課題に対して推論や回答、情報の合成などを行う機械学習(ML:Machine Learning)を基礎とするものが主流となっている。

特に、人間の神経回路を模したニューラルネットワーク(NN:Neural Network)で深い階層のモデルを構築し、精度の高い推論を行うディープラーニング(深層学習)研究に大きな進展があり、これに基づく研究や開発が盛んになっている。

応用分野として、チェスや将棋、将棋など知的なゲームで対局するシステム、画像や映像に映る物体や人物を識別する画像認識システム(コンピュータビジョン)、人間の発話を聞き取って内容を理解する音声認識システム、言葉を組み立てて声として発する音声合成システム、ロボットや自動車など機械の高度で自律的な制御システム(自動運転など)、自動要約や質問応答システム、高度で自然な機械翻訳といった様々な自然言語処理などがよく知られる。

機械学習

コンピュータプログラムにある分野のデータを繰り返し与えることで内在する規則性などを学習させ、未知のデータが与えられた際に学習結果に当てはめて予測や判断、分類などを行えるようにする仕組み。現代の人工知能(AI)研究における最も有力な手法の一つ。

例えば、数字を手書きした画像と、そこに写っている数字をペアにした学習データをたくさん用意し、一定のアルゴリズム(計算手順)に従って次々にこれを処理していくと、画像のパターンから写っている数字を予測する学習モデルを作ることができる。学習済みのシステムに未知の手書き数字の画像を与えると、そこに写っている数字を推論して回答できるようになる。

従来このような仕組みを作ろうとすると、各数字の画像に現れる特徴的なパターンを人間が整理して、判断基準としてプログラムに組み込む必要があるが、機械学習ではデータから特徴を抽出して特定の結果(答え)に紐付ける操作をコンピュータが自動的に行うため、人間は学習させたい内容を表すデータを与えるだけでよい。

教師あり学習 (supervised learning)

機械学習の手法のうち、「例題と答え」という形式に整理された「教師データ」に適合するようにモデルを構築していく方式を「教師あり学習」という。例題を入力すると対応する答えを出力するようにモデルを調整していく。

人間が既に答えを知っているような判断や作業を自動化したい場合に有効な手法で応用範囲も広いが、生のデータを「例題と答えのペア」という形式に(人手によって)整理しなければならない。学習データの質や潜在的な問題点がそのまま精度や結果に反映されてしまう難点もある。

教師なし学習 (unsupervised learning)

人間が基準や正解を与えずに学習データを分析させ、システムが自律的に何らかの規則性や傾向を見出す方式を「教師なし学習」という。与えられたデータ群を何らかの目的をもって解析し、特徴の似たデータのグループ分けなどを行えるようにする。

人間にも正解が分からない課題についての知見を得たい場合や、大量のデータから規則性を探索したい場合などに有効な手法で、データの前処理が少なく現実世界にある多様な大量のデータを素材にできる。ただし、結果が何を意味するかは人間による解釈が必要で、人間にとって有用な結果が得られるよう制御するのが難しく精度も安定させにくいなどの課題がある。

強化学習 (reinforcement learning)

システムの行動に対して評価(報酬)が与えられ、行動の試行錯誤を繰り返して評価を最大化するような行動パターンを学習させる方式を「強化学習」という。機械の制御や競技、ゲームなどを行うAIの訓練に適している。

他の学習手法と異なり、人間がまとまった形で学習データを与えることはせず、システムは現在の状況を入力として行動を選択する。行動の結果は評価(値)としてシステムに伝達され、どのような行動が好ましい結果に繋がるかを繰り返し試行錯誤しながら学習していく。

人工知能・深層学習との関係

「人工知能」(AI:Artificial Intelligence)とは人間の知的な営みの一部を何らかの形で模倣するITシステム全般を指す総称であり、初期のAI研究では対象についての知識やルール、判断基準などを人間がプログラムの一部として直に記述する手法が一般的だった。

しかし、このような手法では知識の記述に手間がかかり、特定の狭い分野であっても人間のような判断を下せるシステムを実現するには途方も無い時間とコストが必要になってしまう。この限界を打ち破るため、人間は学習の仕方だけをプログラムとして実装し、実際の知識の獲得はデータを大量に与えて自動処理するという機械学習の手法が考案された。

機械学習の具体的な方式にはSVM(サポートベクターマシン)やベイジアンネットワーク、決定木(デシジョンツリー)学習、データクラスタリングなど様々な手法があるが、人間の脳の神経回路の網状の繋がりに着想を得た「ニューラルネットワーク」(NN:Neural Network)が有力な方式として台頭した。

2010年代になると、ネットワークの階層を従来より深く設定(4層以上)した「ディープニューラルネットワーク」(DNN:Deep Nueral Network)が目覚ましい発展を遂げ、機械学習研究・開発の中核として注目されるようになった。このDNNに基づく機械学習のことを「深層学習」あるいは「ディープラーニング」(deep learning)という。

ディープラーニング

ニューラルネットワーク(NN:Neural Network)を用いた機械学習システムのうち、中間層(隠れ層)が複数のシステムを利用するもの。広義にはこれをNN以外の手法に応用したもの(深層強化学習など)を含む。画像処理に強く精度が高いため近年急激に注目が高まっている。

ニューラルネットワークは動物の脳の仕組みを模した学習する機械の数学的なモデルで、データの入力、単純な計算、出力を連続して行うノードを脳神経(ニューロン)に見立て、これを大量に用意して網状に相互接続した構造となっている。

ノードは層状に配置され、外部から入力層のノード群がデータを受け取り、計算を行って結果を中間層に伝達し、中間層も同様に計算を行って出力層に伝達、出力層から結果が出力される。学習データを用いて計算や伝達に用いるパラメータを調整すると、推論や予測、分類などを行うシステムを構成することができる。

1950年代の研究初期に提唱されたニューラルネットワークはノード群を入力層・中間層・出力層の3層に配置した構造だったが、1990年代に複数の中間層を設けて全体を4層以上の深さにした「ディープニューラルネットワーク」(DNN:Deep Neural Network)が提唱された。これを用いて行う機械学習をディープラーニングという。

初期のDNNは性能がなかなか向上せずあまり注目されてこなかったが、2006年のジェフリー・ヒントン(Geoffrey E. Hinton)氏による「オートエンコーダ」の提案を突破口に劇的な飛躍を遂げた。2010年代以降は代表的な機械学習モデルとして活発に研究・開発が進み、有用なシステムの実用化や社会への実装も進展した。

ディープラーニングは画像認識(画像に何が写ってるのか検知する)において顕著な高性能を示したため画像処理分野での研究や応用が最初に注目され、画像認識や画像生成、文字認識、自動運転のためのセンサー技術などへの適用が進んだ。ディープラーニングを応用したコンピュータ囲碁やコンピュータ将棋のシステムがプロに勝利するなどのニュースを通じて一般への認知度も高まった。近年では機械翻訳や音声認識、音声合成、動画生成などへの応用も進んでいる。

シンギュラリティ

人工知能(AI)の能力が人間の知性を超える歴史的転換点。コンピュータや人工知能の改良が現在のペースで続いていくと、数十年以内という近い将来に起きると予想する論者がいる。

何をもってシンギュラリティとするか、そのような事態が起きうるか、起きた後の世界はどうなるかについては百家争鳴の状態で、広く合意された予測や学説などは存在しないが、現在一般に論じられているシンギュラリティとは、人工知能が自らを改良する手段を獲得し、加速度的に進化した結果、人間の知性を大きく凌駕する知性体が誕生するというものである。

汎用AI

人間のような知性や知能と、意識や意志(に相当する自律的に行動する仕組み)を持つ人工知能は「強いAI」(strong AI)あるいは「汎用人工知能」(AGI:Artificial General Intelligence)と呼ばれる。

現在は存在しうるかどうかすら明らかになっていないが、もしそのような存在が生み出されると、人間の力に頼らず自らを改良するための研究や発明を行うことができるようになり、いずれ人間の理解できない方法で人間を大きく超える知性を獲得するというのがシンギュラリティの基本的な考え方である。

予想と批判

シンギュラリティによって生じる事態には様々な予想があり、全人類が労働から解放され裕福に暮らせるようになるといった楽観的なものから、映画「ターミネーター」のように人類に敵対して滅ぼそうとするのではないかといった悲観的なものまである。

実現可能性についても様々な考え方があり、そもそも現在のAI研究の延長線上に自らを人間の思いつかない方法で改良する自律的なAIが誕生すると想定するのは無理があるとする意見や、AIが依り代とする半導体チップの素子や配線の微細化が物理限界に近づいており、物理的な制約が足かせとなって近い将来の実現は無理ではないかといった意見などがある。

歴史

シンギュラリティの概念を最初に提唱したのはアメリカの数学者でSF作家のヴァーナー・ヴィンジ(Vernor Steffen Vinge)氏であると言われており、1980年代に発表されたSF作品の中で遠い未来の架空の概念として提示している。

これを現実に起きうるものとして紹介したのはアメリカの発明家で未来学者のレイ・カーツワイル(Ray Kurzweil)氏で、2005年の著書「The Singularity Is Near: When Humans Transcend Biology」(邦題:ポスト・ヒューマン誕生 コンピュータが人類の知性を超えるとき)の中で、シンギュラリティの定義を「1000ドルのコンピュータが全人類の計算能力を足し合わせたより強力になる時点」として、それは2045年であると予想している。

2012年に人工知能の実装方式の一つである「ディープラーニング」(deep learning)の驚異的な性能が実証されて以降、人工知能の進歩と社会への普及が大きく進展しており、2010年代後半頃から、そう遠くない将来起こりうる事態としてシンギュラリティへの関心が高まっている。

シンボルグラウンディング問題

単語など人間が扱う記号が、それが指し示す現実の対象にどのような結びつけるのかという問題。AIなどの機械が人間のように言語を扱おうとする際に問題となる。

1990年に哲学者のスティーブン・ハーナッド(Steven Harnad)氏が提起した問題である。人間は単語や熟語などの記号を扱う際に、それが指し示す現実世界の対象や抽象的な概念を暗黙的に思い浮かべて理解しているが、単純な記号処理プログラムにはそれができない。

ハーナッド氏が示した例では、“horse”(馬)と“stripe”(縞模様)を知っている人間は、“zebra”(シマウマ)が何か知らなくても、「縞模様の馬だ」という説明を聞けば、初めて見たシマウマを「これがシマウマだ」と認識できるが、記号を記号としてしか処理しないプログラムは、馬の姿や縞模様を思い浮かべるわけではないため、このような理解はできない。

このように、記号が何を表しているか思い浮かべることなく、記号の操作だけで自然言語を扱うには限界がある。人間は記号が表す内容について暗黙的に様々な意味やイメージを想起しており、人工知能などの機械が言語を扱う際にも、記号が表す内容を処理する何らかの仕組みが必要となることを示唆している。

この問題に対して、人間が五感を通じて現実を認識する点に着目し、機械にもセンサーなどを通して得た感覚的な情報を記号と共に記録・処理するアプローチが考えられた。人間の「身体性」を機械でも再現しようとする方策だが、映像信号などから概念を抽出して表現する手法などに困難があり、あまりうまく行っていない。

一方、ディープラーニングでは大量の言語データを機械学習システムに投入することで、一つの言葉に別の言葉がどのように関わっているかというパターンをニューラルネットワークとして表現することが可能になった。現在実用化されている大規模言語モデル(LLM)に「縞模様の馬」を尋ねれば「シマウマ」と答えることができ、記号の操作のみでシンボルグラウンディング問題をある程度解決することができている。

身体性

人間が体を通じて外界と相互作用することにより知覚や認識を行っているという性質。哲学や認知科学、人工知能の分野では、知能が成立するのに身体は不可欠か否か、が重要な問題となっている。

人間は感覚器によって外界から得た情報に基づいて思考し、運動器で外界に働きかけることで行動している。人間が知識を得て知性を発達させる過程では、行動を通じて得た様々な知覚情報を統合して一つの概念を形作っていると考えられる。

機械学習システムなどの人工知能は人間の知性の模倣を目指しているが、その学習過程は文字や画像、映像などデータ化(符号化)された情報の加工や操作であり、人間の学習過程とは異なり自らの身体による外界との相互作用が欠落しているという指摘がある。

フレーム問題やシンボルグラウンディング問題など、現在の人工知能が苦手とする問題の克服には、人間の持つ身体性を何らかの仕組みで再現する必要があるのではないかという仮説があり、人工知能研究者の間でも見解が分かれている。

ダートマス会議

1956年にコンピュータ科学者ジョン・マッカーシー(John McCarthy)が主催して開催された学術会議。史上初めて「AI」(Artificial Intelligence)という語が使われてことで知られる。

マッカーシーが在籍していた米ダートマス大学で2か月に渡り開催された会議で、クロード・シャノン(Claude Shannon)、マービン・ミンスキー(Marvin Minsky)、ナサニエル・ロチェスター(Nathaniel Rochester)など、当時発明されたばかりのコンピュータや情報理論を研究する有力な科学者が集結した。

当時のコンピュータは数値計算を繰り返し実行する比較的単純な機械だった。マッカーシーらは汎用的な情報処理能力に着目し、これを発展させることで、思考したり知的なタスクを実行することができる、人間の知性を模倣した機械が作れるのではないかと考えた。

当時、知性と機械の関連についての研究は「サイバネティックス」(cybernetics)、「オートマトン」(automaton)など既にいくつか存在したが、マッカーシーら発起人は開催1年前の1955年8月に「A PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE」(人工知能に関するダートマス夏季研究プロジェクトについての提案)という提案書を招待者に送付し、これが思考する機械を「Artificial Intelligence」と総称するようになった起源とされる。

提案書では議題を「自動計算」(Automatic Computers)、「自然言語処理」(How Can a Computer be Programmed to Use a Language)、「ニューラルネットワーク」(Neuron Nets)、「計算量理論」(Theory of the Size of a Calculation)、「自己改良」(Self-lmprovement)、「データの抽象化」(Abstractions)、「Randomness and Creativity」(ランダム性と創造性)の7つに定めており、このうちのいくつかは今日でも活発に研究されるトピックである。

トイ・プロブレム

ルールの決まったパズルを解くといった、現実の問題とは異なる単純化された問題のこと。新しいアルゴリズムやAIシステムの能力の実証などに用いられる。

人間がルールとゴールを明確に定義した、比較的単純な要素の組み合わせで作られた問題を指す。現実に遭遇する問題のような複雑な環境や要素は排除され、少数の決まった要因を考慮するだけで解くことができるように作られている。

有名なトイプロブレムの例としては、オセロやチェス、三目並べのような対戦ゲーム、迷路やハノイの塔、Nクイーン問題、スライドパズル、川渡りパズルなどの古典的なパズルがある。現実のような複雑な状況設定がないというだけで、必ずしも簡単に解いたり勝利できるわけではない。

トイプロブレムは同じ問題を同じ条件で繰り返し試すことができるため、アルゴリズムや機械学習の研究などで、問題を解く能力を実証したり、複数の手段の性能を比較したりするのに便利である。また、プログラミングの学習者などがアルゴリズムを理解するための題材としても適している。

反面、人間が直面する現実世界の課題に対処する役に立つかどうかは検証できず、「おもちゃのような問題しか解けない」と皮肉を込めて否定的な意味で用いられることもある。1960年代の第1次AIブームでは、当時のAIがトイプロブレムを解くことしかできず実用的な応用例を提示することができなかったことから幻滅され、「AIの冬」というAI研究下火の時代を招いた。

知識獲得のボトルネック

人間が意思決定に用いる情報のすべてを明示的に記述してコンピュータに与えることは困難であるという問題。人間は一つの知的判断を下す際に実際には膨大な背景知識を動員しており、そのすべてを記述するには途方もない時間とコストがかかってしまう。

1980年代前後の第2次AIブームでは、前の時代より向上したコンピュータの処理能力や記憶容量を背景に、人間の持つ知識を一定の形式で記述し、明示的に定義された推論ルールを適用して様々な知的な処理を行うアプローチが用いられた。

語彙や文法を定義して入力文に適用するルールベース機械翻訳や、専門家の知識の体系をデータベース化してその分野の質問に回答するエキスパートシステムなどの応用例が構想され、書籍や専門家への聞き取りなどを元に、一定のデータ形式で知識ベースを構築する活動が活発に行われた。

しかし、この方法では、多義的な意味を持つ単語のどの意味を選択するのが適切か、といった問題を解決することが難しい。例えば “This box was in the pen.” という文章は「この箱はペンの中にあった」ではなく「この箱は囲いの中にあった」という意味だが、これを正しく解釈できる知識ベースを構築するのは非常に難しい。

名詞の “pen” には、「ペン」「作家」「囲い」など複数の異なる意味があり、人間は文脈や常識を元に、「箱が入っている pen はペンや作家ではなく囲いのことだ」と判断している。このような判断のためには「通常、物が人に入っているという表現はしない」「通常、ペンは箱より小さい」といった常識が必要となる。

この2つの事実を形式的に記述して入力することは可能だが、このような常識に属する知識は無数にあり、列挙してデータとして入力するのには膨大な労力と記憶容量が必要となる。また、常識にせよ専門知識にせよ、人間には自覚せず暗黙的に用いる知識が大量にあり、明示的に列挙すること自体がそもそも困難である。こうした形式的な知識の獲得に関する限界を指して「知識獲得のボトルネック」と呼んでいる。

チューリングテスト

機械が人間のような知性を備えているかを見分ける思考実験および実際のテスト。人間の試験官が人間と機械の両方と同じように対話を行い、どちらが機械か見分けられなければ合格とするもの。

1950年にイギリスの数学者アラン・チューリングが提案した手法で、人間の知性の定義や詳細な仕組みが分からなくても、人間とやり取りして機械であると見抜けなければ、その機械は内実はどうあれ人間と同程度には知的に振る舞っている証明になっていることを示している。

テストの形式

チューリングはいくつかの方式を提唱しているが、最初に提案したのは次のテストである。人間の試験官が別室の男性と女性に何度か質問し、どちらが男性でどちらが女性かを当てる。姿を見たり声を聞くことはできず、文字(紙のメモ)のみでやり取りする。

男性は女性を装い、どちらが女性か見抜けないように演技する。この男性側を人間(実際の男性)と機械が交代しながら何度も繰り返し、人間と機械が同程度の頻度で試験官を「騙す」ことに成功すれば、人間と同じように振る舞う機械とみなして構わないというものである。

批判と合格事例

チューリングテストについては、会話ができるというだけで人間の知的能力と同等とみなして良いのか、膨大なデータベースを用意して「カンニング」しているだけでも知性があると言えるのか、など様々な批判や論点があり、実用的なテストとして実施されているわけではない。

しかし、1966年に心理カウンセリングのような対話を行うチャットボット「ELIZA」が開発され、被験者に実際にやり取りをさせてみたところ、相手がコンピュータであると種明かしをしても人間のカウンセラーであると信じて疑わない被験者がいたことが報告され、チューリングテストのコンセプトの有用性が指摘された。

1990年代からは大学などが主催してチューリングテストのコンテストも開かれており、2014年には人間の審判の3割に機械であると見抜かれず、初めて「合格」と判定されたプログラムが登場した。2020年代にディープラーニングや大規模言語モデル(LLM)が発展すると、AIとのやり取りで相手が人間であると誤解する事例が多数報告されるようになっている。

中国語の部屋

1980年に哲学者ジョン・サール(John Searle)が提唱した思考実験。コンピュータが一見知的に見える受け答えをしたとしても、それはコンピュータに知能や意識があることを意味しないことを表している。

中国語が理解できない人が部屋に閉じ込められていて、部屋の外とは文字を書いた紙を出し入れすることができるという状況を想定する。室内には、その人が読むことのできる言語で書かれた、中国語の文字の操作についての完璧なマニュアルが存在する。

部屋の外にいる人が紙に中国語を書いて部屋に入れると、中の人はマニュアルを参照して適切な応答を中国語で紙に書き、外に返す。外の人は中に中国語を理解できる人がいると考えるが、中にいる人は中国語を理解していない。中にあるのはマニュアルだけであり、部屋全体として見ても「中国語を理解して受け答えしている存在」はどこにもいないことになる。

この思考実験は、「動作原理が人間と違っていても、人間と同じように受け答えできれば、機械が人間と同じ知性を持つとみなすことができる」とするチューリングテストに対する反論となっている。コンピュータはプログラムに従って記号を操作しているだけで、その意味を理解しているわけではないとする立場である。

サールは人工知能について、翻訳AIや将棋AIのような特定の課題のみを解くことができる「弱いAI」と、人間のように心や意識、意思を持ち、どのような課題にも同じように対応することができる「強いAI」という分類を提唱した。中国語の部屋の思考実験を踏まえ、弱いAIをどんなに発展させても強い、AIを実現することはできないと主張している。

強いAI

人間の持つ知識や情報処理能力、認知能力などに加え、意識や意志、心に相当するような自律的に行動する仕組みを備えた人工知能(AI)。現在は存在しうるかどうかすら明らかになっていない。

現在AIとして研究・開発されているコンピュータシステムは「弱いAI」あるいは「特化型人工知能」と呼ばれるカテゴリーに分類され、特定の分野や対象、問題に特化した限定的な知的能力を有する。人間に代わって自動車を運転するAI、将棋や碁で人間と対戦するAIなどである。

これに対し、「強いAI」あるいは「汎用人工知能」は、人間のように広範で統合された世界認識、自意識や自律性などを持ち、人間の指示がない状況でも自発的に行動を起こしたり、未知の概念について学習して新たな知識や能力を獲得したり、長期的な目標や目的を見出したり、意思に基づく創造や創作、発明などを行うことができるとされる。

様々な分野を対象とする弱いAIをいくらたくさん繋ぎ合わせてもこのような振る舞いをするAIを作り出すことができないことは明らかで、何らかの新しいメカニズムが必要になると考えられている。それが可能か否か、現在のコンピュータやソフトウェアの延長線上にある人工物で実現可能かも含め、詳しいことは未だ分かっていない。

シンギュラリティ

もし汎用人工知能のような存在が生み出されると、人間の力に頼らず自らを改良するための研究や発明を行うことができるようになり、いずれ人間の理解できない方法で人間を大きく超える知性を獲得し、独自の文明や文化を築き始めるようになるとする予想もある。

そのような事態を「シンギュラリティ」(singularity)と呼び、映画「ターミネーター」シリーズの人工知能ネットワーク「スカイネット」のように、人間に敵対し、人類を大きく凌駕する科学力と工業力を身に付けて人類を滅ぼそうとするAIが生み出されるかもしれないと警鐘を鳴らす人もいる。

弱いAI

人間の持つ知的な能力の一部を備え、特定の課題を解決することができる人工知能。現在実用化されているAIは基本的にすべてこれに分類される。

カメラに写って物体を識別する、人間の問いかけに応えて文字で対話する、将棋を指す、車を運転する、といったように、特定の分野や対象、問題に特化した限定的、個別的な知的機能を有するAIのことをこのように呼ぶ。

これに対し、人間のように特定の対象や課題に囚われない汎用的な知的能力を持ち、統合された世界認識、自意識や意思に相当するような高い自律性を備えたAIを「汎用人工知能」(AGI:Artificial General Intelligence)あるいは「強いAI」(strong AI)という。

現在のAIは複数の異なる能力や機能を組み合わせて持つことはあっても、人間のような広範に応用可能な知性があるわけではなく、すべて特化型人工知能に相当する。汎用人工知能は存在し得るかどうかも含めて研究の途上であり、果たして実現可能か否かも定かではない。

なお、ディープラーニングを応用したニューラルネットワーク系の技術の飛躍的な進展により、汎用人工知能が近い将来実現可能であるとする研究者やAI企業幹部もいる。彼らによれば、近い将来、汎用人工知能自身がAI研究・開発を高速に進めることで、人類の知能を完全に凌駕する「人工超知能」(ASI:Artificial Superinteligence)が誕生すると予測されている。

統計的機械翻訳

コンピュータによる翻訳の手法の一つで、膨大な対訳集のデータを元に統計モデルに基づいて翻訳文を生成するもの。ニューラル機械翻訳が普及する以前は最有力の方式だった。

対になる2つの言語間の対訳(原文と翻訳文のペア)を大量に収録したデータ集(コーパス)を用意し、システムに統計的なパターンを学習させる。原文の中から単語や句、文などのレベルで学習したパターンの中から最も似ているものを選び出し、対応する訳を繋ぎ合わせていく。

これ以前に主流だったルールベース機械翻訳では文法や構文規則を記述してシステムに与える必要があるが、統計的機械翻訳では対訳集があれば翻訳のパターンをコンピュータが自動的に学習できるという利点がある。既存の訳文に似た文を出力するため、流暢で自然な表現になりやすい。

一方、十分な量の対訳コーパスが用意されていない言語ペアの間では精度が低くなり、コーパスを新たに作成する負担も大きい。コーパス全体の統計的な傾向を元に訳文を作るため、特定の誤りのみを修正することも難しい。欧州の言語間など語順や語彙が近い言語間では良好な結果が得られやすいが、日本語と英語など共通点に乏しい言語間では機能しにくい。

大量のテキストデータの利用が可能になった1990~2000年代に活発に研究された手法で、一般向けのソフトウェア製品やネットサービスにも採用された。2010年代になり、ニューラルネットワークによる機械学習を利用する「ニューラル機械翻訳」(NMT:Neural Machine Translation)がディープラーニング(深層学習)の応用により飛躍的に進展すると、そちらの方が主流となった。

フレーム問題

現実の問題に取り組む際、実世界の膨大な情報や対象の中から、どのようにして問題に関係のあるものだけを絞り込めるかという問題。

将棋を指すAIには将棋の盤面情報しか入力しないため、必要な情報を取捨選択する必要はないが、現実世界で稼働するロボットを制御するAIを開発しようとすると、実世界で遭遇する物体、起き得る事象の可能性の中から、与えられた課題に関係するものだけを絞り込まなければならない。

何らかの動作を実行した際の影響について、ありとあらゆる対象のありとあらゆる事象について評価しようとすると、有限の処理能力と有限の制限時間では困難となる。課題と無関係な事象の評価を回避しようとして「関係があるかどうか」を検討し始めると、ありとあらゆる可能性について関係あるかどうかを考えなければならず、やはり有限の能力では絞り込むことができない。

人間は毎日の生活で「このドアを開けたら天井が降ってこないだろうか」といったことをいちいち心配しているわけではなく、行動にあたって検討すべき事柄の取捨選択を無意識のうちに行っている。どのようなメカニズムでこれを実現しているのかは不明で、人工知能で同じ仕組みを再現することもできない。

現在のAIは特定の対象や課題のみを取り扱う特化型AIであり、入力する情報は問題に関係あるものだけに制限されているためフレーム問題は生じにくいが、対話型AIなどは自然言語のコミュニケーションにおける「文脈」を解釈する必要があり、適切なフレームを設定できずに頓珍漢な回答を返すことがある。今後、自動運転車やAIロボットなど現実世界で活動するAIの開発が本格化すると、フレーム問題にどのように取り組むかが重要な課題の一つになる。

ルールベース機械翻訳

コンピュータによる翻訳の手法の一つで、辞書や文法に基づいて入力文を解析し、同じ語彙と構造を持つ翻訳文を出力するもの。最も初期に構想された自動翻訳の手法である。

単語の対訳を集めた辞書に相当するデータ集と、翻訳元と翻訳先の言語の文法を記述したデータを用意する。元の文の単語の品詞や活用形、文の構造を解析し、翻訳先の言語で対応する単語、対応する構文に置き換えて翻訳文を出力する。

人間が与えたルールに従って翻訳するため、原文と翻訳文の要素の対応関係がわかりやすく、特定の誤りについて辞書やルールを部分的に修正することも容易である。統計的機械翻訳と異なり、膨大な対訳集のない言語ペア間でも辞書と文法を用意できれば翻訳することができる。

一方、原文の構造に忠実に訳すため、訳文はいわゆる「直訳調」となり、翻訳先の言語の表現としては不自然だったり堅苦しかったりすることがある。多義的な単語のどの意味を選ぶかについて、人間は文脈や常識から判断するが、辞書と文法だけで特定することは難しい。口語のくだけた表現や慣用句なども苦手である。

初期のルールベース機械翻訳システムは1970年代に開発され、語彙や文法の似ている欧州の言語間などでは良好な結果を得られることもあった。1990年代になると大量の対訳集から統計的なパターンを見出して翻訳する「統計的機械翻訳」(SMT:Statistical Mathine Translation)が主流となり、ルールベースの手法はあまり用いられなくなった。

ローブナーコンテスト

人間に似た応答をするチャットボット(会話プログラム)の競技会。また、競技会で最も人間に近いプログラムに送られる賞。1991年から2019年まで年に1回開催されていた。

アメリカの発明家ヒュー・ローブナー(Hugh Gene Loebner)が創設した賞で、文字による対話を行うチャットプログラムに審査員が質疑応答を行い、最も人間に近い応答をしたプログラムを表彰するというもの。賞金は初期の大会で2000ドル、後期には3000ドルだった。

この審査方法は数学者のアラン・チューリングが提唱した「チューリングテスト」の方式を踏まえている。チューリングは「人間が機械と対話して、機械であると見抜けなければ、原理はどうあれ人間と同じ知能がある」として、文字によるやり取りを繰り返すテスト形式を考案した。

ローブナー氏の言動や大会運営の杜撰さ、学術的な貢献への軽視など様々な理由から、主流の人工知能研究者の多くはこの賞に批判的だったとされ、人工知能研究の大家であるマービン・ミンスキー氏からは名指しで廃止を希求されるほどだった。

実際、大会に出品されたプログラムには何十年も前のチャットボットと同じレベルの質の低いものも多かったとされ、「返答にわざとタイプミスを混ぜることで人間らしさを演出する」など、人間の知能の再現とは無関係な小手先のテクニックを弄するものまであったという。

ホーム画面への追加方法
1.ブラウザの 共有ボタンのアイコン 共有ボタンをタップ
2.メニューの「ホーム画面に追加」をタップ
閉じる