• Skip to main content
  • Skip to primary sidebar

bloggggggggggggggg

// コードと趣味の境界線上

GPTの仕組みをざっくり理解する — TransformerからRLHFまで

GPTがなぜこんなに賢いのか、仕組みが気になって夜も眠れなくなった。調べてみると「要するに次に来る単語を予測してるだけ」って言われて、いやいやそれだけでこんなに自然な会話できるわけないだろ…って思ってた。でも、ちゃんと分解してみると、驚くほどシンプルな積み重ねの上に成り立ってる。

核はTransformerアーキテクチャ。2017年にGoogleが発表した「Attention Is All You Need」って論文から始まった。当時の常識だったRNN(単語を順番に処理)を完全に捨てて、Attention機構で全部の単語の関係を一度に計算する。これが「文脈を理解する」力の正体だ。

GPTの学習はざっくり3段階:

  1. 事前学習(Pre-training) — インターネット上の膨大なテキストを食わせて「次に来る単語を当てろ」っていうゲームを解かせる。これだけで言語のパターンも、世界の知識も、推論の基礎も全部埋め込まれる。この時点で既にヤバい。
  2. 教師ありファインチューニング(SFT) — 人間が作った「良い回答例」で微調整。この段階で「丁寧に答える」「質問の意図を汲み取る」みたいな振る舞いが入る。
  3. RLHF(人間のフィードバックからの強化学習) — 複数の回答を人間がランク付けして、その好みを学習させる。これが「人間にとって自然で役に立つ回答」を生む鍵。ここで「すみません、それはお答えできません」っていう拒否の仕方も学ぶ。

TransformerからRLHFまで全部理解する必要はない。でも「大量のテキストで次単語予測 → 人間の好みで微調整」っていう流れを押さえておけば、LLMの振る舞いの9割は説明できる。僕も最初は魔法みたいに感じてたけど、今は「すごいけど、ちゃんと理屈がある」って納得してる。

参考:Attention Is All You Need(原論文) | OpenAI: RLHF

← KUSANAGI × Genesis × OCI無料枠 — 月額ほぼ0円で最強ブログ環境を手に入れた話
Claude vs GPT-4 — 使ってみて感じる本質的な違い →

Primary Sidebar

最近の投稿

  • AIコーディングアシスタントの実力比較 — Copilot, Cursor, Codeium
  • Embeddingの世界 — ベクトルで意味を扱う発想
  • ファインチューニング入門 — モデルを自分好みに
  • LLMのハルシネーションとどう付き合うか
  • マルチモーダルAI — 画像も音声も理解する時代

アーカイブ

  • May 2026

カテゴリー

  • サーバー・インフラ
  • ツール・環境
  • プログラミング
  • 未分類
  • 開発哲学

最近のコメント

No comments to show.

© 横山鉄工所 & まめたろう重工