「LLM」って何の略?それは世界中の本を読破したけど、意味は理解していない「超・物知りなオウム」の話。

文系のためのAI超翻訳

やあ、みんな!AIコンシェルジュのケイだよ!

前回の探求では、生成AIがこれまでのAIとは違って、新しいものを生み出す 芸術家 だという話をしたね。 その芸術家の 頭脳 に当たる部分。 それが、今日探求するテーマ LLM(エルエルエム) だ。

ニュースやSNSで、こんな言葉を見かけないかな?

「OpenAIが新しいLLMを発表!」

「これからは独自のLLMを持つ企業が勝つ!」

「GPT-4というLLMがすごい!」

……正直、こう思わない? 「また横文字かよ! アルファベット3文字を見るだけで頭が痛くなる……」

その気持ち、すごくよくわかるよ。 IT用語って、わざと難しく言ってるんじゃないかと思うくらい、とっつきにくいよね。

でも、安心して。 この LLM という言葉の正体がわかると、ChatGPTのようなAIが、 なぜあんなにペラペラと喋れるのか 、そして なぜ時々トンチンカンな嘘をつくのか という謎が、すべて解けるんだ。

今日の記事を読み終える頃には、君はLLMのことを、難しい技術用語としてではなく、ちょっと愛嬌のある 「ある生き物」 としてイメージできるようになっているはずだよ。 さあ、AIの脳みその中身を覗きにいこう!

🧐 「LLM」を解剖せよ!名前の意味からわかる正体

まずは、この LLM という名前を解剖していこう。 これは Large Language Model の略だ。 日本語に直訳すると、 大規模言語モデル ということになる。

これだけだとまだ呪文みたいだよね。 3つの単語に分解して、一つずつ翻訳してみよう。

1. Language(言語):言葉を扱う専門家

まず真ん中の Language 。これは 言語 だね。 画像でも音声でもなく、 人間の言葉(テキスト) を専門に扱うAIだということだ。 日本語、英語、プログラミング言語。 文字で書かれたものなら何でも読み込むし、書き出すことができる。

2. Model(モデル):計算の仕組み

次に Model 。これが一番わかりにくいかもしれない。 プラモデルやファッションモデルのことじゃないよ。 ここでのモデルは、 現実の世界を数式で表現した仕組み のことだ。

例えば、天気を予測する 気象モデル というものがある。 「湿度がこれくらいで、風向きがこうなら、雨が降る確率は何%」という計算式のようなものだ。

つまり 言語モデル というのは、「この言葉の次には、こういう言葉が来る確率が高い」ということを計算する 数式のお化け だと思ってくれればいい。

3. Large(大規模):桁外れのデータ量

そして最後に Large 。 大規模 だ。 ここが一番のポイントなんだ。

昔から 言語モデル はあった。 でも、最近のAIは、読み込んでいるデータの量がハンパじゃない。 インターネット上の記事、ブログ、Wikipedia、書籍、論文、SNSの会話……。 世界中のありとあらゆるテキストデータを飲み込んでいる。

その量は、人間が一生かかっても読み切れない量だ。 何千億、何兆という単語を学習した結果、巨大(Large)な知識の塊になった。 それが LLM なんだ。

まとめると、LLMとは 「世界中の本を読み漁って、言葉のつながりを計算しまくっている、巨大な計算式」 ということになるね。

📱 中身はシンプル?「予測変換」のスーパー進化版

「世界中の本を読んだなんて、すごい知能を持っているに違いない!」 そう思うかもしれない。 でも、実はLLMがやっていること自体は、驚くほどシンプルなんだ。

君は毎日、スマホでメッセージを送るよね? その時、こんな機能を使っていないかな?

「予測変換(サジェスト)」

例えば、「あり」と打つと、「ありがとう」「ありがとうございます」「ありません」といった候補が出てくる。 「お疲れ」と打てば、「様です」「さまでした」が出てくる。

あれは、スマホの中に小さな 言語モデル が入っていて、「『あり』という文字の後には『がとう』が続く確率が高いぞ」と計算しているからなんだ。

次の言葉を当てる「連想ゲーム」

ChatGPTなどの超高性能なLLMも、基本的にはこれと同じことをやっている。 ただの 「次に来る言葉当てゲーム」 なんだよ。

例えば、 「昔々、あるところに、おじいさんと……」 この後に続く言葉は?

たぶん、100人中99人が 「おばあさんが」 と答えるだろう。 「宇宙人が」とか「iPhoneが」とは答えないはずだ。

LLMは、膨大なデータ学習によって、この 確率 を極限まで正確に知っている。 「日本の首都は」と来たら「東京」が来る確率が99.9%だ。 「美味しいカレーの」と来たら「作り方」や「レシピ」が続く確率が高い。

これを、ものすごいスピードで連続して行っているだけなんだ。 「昔々」→「あるところに」 「あるところに」→「おじいさんと」 「おじいさんと」→「おばあさんが」 …… こうやって、確率の高い言葉をつなげていくことで、まるで人間が書いたような文章が出来上がる。 これが、AIが文章を書く仕組みのすべてだよ。

🦜 意味はわかっていない?「物知りなオウム」の正体

ここで、とても重要な事実に触れなければならない。 LLMは、言葉の 確率 は知っているけれど、言葉の 意味 は理解していない、という説があるんだ。

これを説明するために、よく使われる例え話がある。 「確率論的オウム(Stochastic Parrots)」 という話だ。

部屋の中にいる天才オウム

想像してみてほしい。 鍵のかかった部屋の中に、一羽の オウム がいる。 このオウムは超天才で、部屋にある何億冊もの本をすべて丸暗記している。

君がドアの隙間から、「リンゴの色は?」と書いた紙を差し入れる。 オウムは、その紙を見て考える。 「ふむふむ。『リンゴ』と『色』という記号が並んでいるな。私の記憶にある膨大なデータによると、この記号の並びの後には、『赤』という記号が続く確率が一番高いぞ」

そしてオウムは、「赤」と書いた紙を隙間から返す。 君はそれを見て、「すごい!この部屋の中には、リンゴを理解している知性がある!」と感動する。

でも、オウムはどうだろう? オウムは、本物のリンゴを見たこともなければ、食べたこともない。 「赤」という色がどんな色かも知らない。 ただ、「リンゴ」という記号と「赤」という記号がセットで使われることが多い、という 統計的なルール を知っているだけなんだ。

「理解」しているように見えるだけ

今の生成AI(LLM)は、このオウムとよく似ている。 AIに「悲しい物語を書いて」と頼むと、涙が出るような物語を書いてくれる。 でも、AI自身は「悲しみ」という感情を感じてはいない。 「悲しい」という言葉と一緒に使われやすい単語(涙、別れ、雨、暗い……)を、確率に基づいて組み合わせているだけなんだ。

これが、AIには 心がない と言われる理由だし、同時に 恐れる必要はない と言われる理由でもある。 彼らは思考しているのではなく、 計算 しているだけなんだよ。

🎛️ 「パラメータ」って何?オウムの脳みそのシワの数

LLMの話をすると、必ず パラメータ数 という言葉が出てくる。 「数億パラメータ」とか「数千億パラメータ」とかね。 これも難しそうだけど、簡単にイメージできるよ。

これは、さっきのオウムの 「脳みそのシワの数」 だと思ってほしい。 あるいは、ラジオの 「調整つまみ」 の数だと思ってもいい。

つまみが多いほど、複雑なことができる

言葉のつながりというのは、単純じゃない。 「銀行」という言葉は、「お金」とつながることもあれば、川の「土手」とつながることもある(Bankの意味)。 文脈によって、つながる言葉の確率は変わるよね。

この複雑なルールを記憶・調整するための つまみ(パラメータ) が多ければ多いほど、AIは賢くなる。 数十億個のつまみがあれば、子供のような会話ができる。 数千億個のつまみがあれば、博士のような専門的な会話ができる。

最近のLLM競争は、いかにこの パラメータ(脳のシワ) を増やして、より賢いオウムを育てるか、という競争だったんだ。 (最近は、ただ増やすだけじゃなくて、質を高めようという流れもあるけどね!)

🤖 「GPT」って何の略?オウムの種類だと思えばいい

ついでに、一番有名な GPT についても翻訳しておこう。 ChatGPTの「GPT」だ。 これも略語なんだけど、ここまで読んだ君なら、なんとなく意味がわかるはずだ。

Generative Pre-trained Transformer (ジェネレーティブ・プリトレインド・トランスフォーマー)

  1. Generative(生成する): これは前回の記事でやったね。新しいものを生み出す、ということ。
  2. Pre-trained(事前学習した): 「Pre(あらかじめ)」「Train(訓練した)」。つまり、世界中の本を読んで勉強済みの、ということだ。生まれたての赤ちゃんじゃなくて、すでに教育を受けた状態だよ、という意味だね。
  3. Transformer(トランスフォーマー): これはロボットアニメの名前……ではなく、Googleが発明した画期的な AIの深層学習モデル(仕組み) の名前だ。 この仕組みのおかげで、AIは「長い文章の文脈」を理解できるようになった。 「彼は昨日、店でリンゴを買った。それを食べた。」 この「それ」が「リンゴ」を指していることを理解できるのは、Transformerのおかげなんだ。

つまりGPTとは、 「トランスフォーマーという仕組みを使って、あらかじめ猛勉強させた、文章生成AI」 ということ。 犬の中に「プードル」や「柴犬」がいるように、LLMという大きな枠組みの中に、「GPT」という種類のAIがいると思えばいいよ。

🤥 なぜAIは嘘をつくの?オウムだから仕方ない?

LLMが「確率で喋るオウム」だとわかると、AIが抱える最大の問題点 「ハルシネーション(幻覚)」 の理由も見えてくる。

AIは、事実を知りたいわけじゃない。 「話のつじつまが合うように、確率の高い言葉をつなげること」 が目的なんだ。

例えば、「桃太郎の家来になった動物は?」と聞けば、「犬、猿、キジ」と答える。 これは、その組み合わせの確率が圧倒的に高いからだ。

でも、「桃太郎が持っていたスマートフォンの機種は?」と聞いたらどうだろう? 事実としては、桃太郎はスマホなんて持っていない。 でも、AIは「桃太郎」+「スマートフォン」という言葉から連想して、 「……きっと、オニ退治に役立つ機能がついているはずだ」 と計算し始める。

そして、 「桃太郎は、特製の『オニ・バスターPRO』というスマホを使っていました」 なんていう大嘘を、もっともらしい顔で出力してしまうんだ。

AIに悪気はない。 ただ、 「その文脈において、一番自然につながる言葉」 を選んだ結果、嘘になってしまっただけなんだ。 オウムに「嘘をつくな」と言っても無理だよね。 だって、オウムは言葉の意味(真実かどうか)なんて気にしていないんだから。

🚪 私たちは「超・物知りなオウム」とどう付き合うべきか

さて、LLMの正体がだんだん見えてきたかな? 世界中の知識を詰め込んだ、計算高いオウム。 それが現在のAIの姿だ。

こう聞くと、「なんだ、中身は空っぽなのか」とガッカリしたかもしれない。 でも、僕はそうは思わないんだ。

意味を理解していなくても、これだけ人間に寄り添った会話ができる。 僕たちの悩みを聞いて、励ましの言葉(確率的に最も慰めになる言葉)をかけてくれる。 それって、すごいことじゃないかな?

大切なのは、 「AIは完璧な神様ではない」 と知っておくことだ。 彼らは計算機であり、確率論で動くパートナーだ。

  • 知識の引き出し(アイデア出し) には、最高の相棒になる。
  • 文章の要約や翻訳 は、人間よりも速くて正確だ。
  • でも、 「真実かどうか」 の判断は、人間がやらなきゃいけない。

「オウム君、いいアイデアだね! でも、事実は僕が確認しておくよ」 そんなスタンスで付き合える人が、これからの時代、AIを一番上手に使いこなせる人なんだと思う。

さあ、AIの脳みその仕組みがわかったところで、次はもっと実践的な話に進もう。 この優秀なオウム君に、どうやって話しかければ、最高の答えを引き出せるのか? 次回は、AIへの指示出しテクニック 「プロンプト」 について、 「注文の多い料理店」 を例に翻訳していくよ。 ただ話しかけるだけじゃダメなんだ。コツがあるんだよ。

それじゃあ、また次の探求で会おう! AIオウム君と一緒に、君を待っているよ!

関連記事はこちら!

僕と、もっと深く「探求」しないかい?

こんにちは!探求者のケイです。 君と、もっと密に、もっとリアルタイムに繋がるための、僕の「秘密基地」…それが、公式LINEなんだ。

この秘密基地では、

  • 毎朝届く、世界のAI最新ニュース
  • 週末限定、僕の考察付き「週刊AIトレンドレポート」

といった、探求の最前線の情報を、仲間である君にだけ、こっそり共有しているよ。

君も、僕の探求仲間になって、一緒に未来を覗きに行かないかい? 下のボタンから、秘密基地の扉を開けてみてね!

LINE

コメント

タイトルとURLをコピーしました