ページの作成
親となるページを選択してください。
親ページに紐づくページを子ページといいます。
例: 親=スポーツ, 子1=サッカー, 子2=野球
子ページを親ページとして更に子ページを作成することも可能です。
例: 親=サッカー, 子=サッカーのルール
親ページはいつでも変更することが可能なのでとりあえず作ってみましょう!
| この記事の要点 |
|---|
|
本稿は AI / 機械学習に必要な情報理論 の入門です。分類モデルの損失関数 (Cross-Entropy)、蒸留 (KL Divergence)、VAE (情報ボトルネック) など、AI 中核の指標が情報理論由来です。
なぜ AI に情報理論が必要なのか
| 場面 | 情報理論の役割 |
|---|---|
| 分類モデルの学習 | 損失関数に Cross-Entropy を使う(ほぼ標準) |
| 生成モデル (VAE / GAN) | 2 つの分布の差を KL ダイバージェンスで測る |
| 言語モデル評価 | Perplexity = 2^(エントロピー) で測る |
| 蒸留 (Knowledge Distillation) | 教師モデルの softmax 出力に生徒を KL で近づける |
| 決定木 / Random Forest | 分岐の指標に 情報利得(エントロピー減少)を使う |
| 強化学習 | 方策のエントロピーを探索促進のため目的関数に加える |
| 圧縮・量子化 | モデル軽量化のために情報を最小限に圧縮 |
最低限おさえる概念
| 概念 | 数式 | 意味 |
|---|---|---|
| 情報量(自己情報量) | I(x) = -log P(x) | 稀な事象ほど大きい「驚き度」 |
| エントロピー | H(X) = -Σ P(x) log P(x) | 分布の「曖昧さ・平均的な驚き」 |
| 交差エントロピー (Cross-Entropy) | H(P, Q) = -Σ P(x) log Q(x) | 「真の分布 P を Q で表したコスト」 分類の損失関数の本体 |
| KL ダイバージェンス | KL(P‖Q) = Σ P(x) log(P(x)/Q(x)) | 分布 P と Q の非対称な距離 |
| JS ダイバージェンス | KL を対称化したもの | GAN 系で使われる |
| 相互情報量 (Mutual Information) | I(X;Y) = H(X) - H(X|Y) | X と Y の関連の強さ |
| 条件付きエントロピー | H(X|Y) | Y を知った後の X の残った曖昧さ |
| Perplexity | PP = 2^H または e^H | 言語モデルの「次トークン候補数」感覚 |
エントロピーの直感
| 分布 | エントロピー | 意味 |
|---|---|---|
| 確実 (1 つの値だけ確率 1) | 0 | 驚きゼロ |
| 2 値の均等 (50/50) | 1 bit | コイン投げ 1 回ぶんの曖昧さ |
| 8 値の均等 | 3 bit | 3 bit ぶんの情報 |
| 偏った 8 値 | 3 bit 未満 | 予測しやすいぶんエントロピー低 |
つまりエントロピーが大きい = 予測しにくい = 情報量が多い。
Cross-Entropy がなぜ損失関数になるのか
真のラベル分布 P(one-hot ベクトル)と、モデル予測の分布 Q(softmax 出力)の Cross-Entropy を最小化することは:
|
真のクラスが「猫」のとき、P = [1, 0, 0]、Q = [0.7, 0.2, 0.1] |
これは最尤推定と等価でもあり、確率モデルとして自然な目的関数です。
KL ダイバージェンスの応用
| 用途 | 使い方 |
|---|---|
| 蒸留 | 教師モデルの softmax と生徒の softmax の KL を最小化 |
| VAE | 潜在分布を標準正規分布 N(0,1) に近づける制約 |
| 強化学習 (PPO / TRPO) | 方策更新の急激な変化を抑える正則化 |
| 変分推論 | 近似分布と真の事後分布の差を測る |
| RLHF | SFT モデルからの逸脱を KL で罰則化(人間フィードバック強化学習) |
典型コード(PyTorch)
|
import torch |
学習のステップ
| 段階 | 学ぶ内容 |
|---|---|
| 1. 情報量 | 「稀な事象ほど情報量が大きい」が直感的に分かる |
| 2. エントロピー | 分布の曖昧さの指標として理解 |
| 3. Cross-Entropy | 分類モデルの損失関数として実装できる |
| 4. KL ダイバージェンス | 2 分布の距離として VAE / 蒸留で使える |
| 5. 相互情報量 | 特徴選択・表現学習で使えるようになる |
つまずきやすいポイント
- KL は対称ではない — KL(P‖Q) ≠ KL(Q‖P)。順序を間違えると意味が変わる
- log の底: 機械学習では自然対数 (e) 中心。bit 単位なら底 2、nat 単位なら底 e
- 0·log 0 = 0 と約束(実装上は数値安定化のため
log(p + ε)) - Cross-Entropy は実装上 softmax を含んだ
F.cross_entropyを使うのが安定(数値オーバーフロー回避) - Perplexity を比較できるのは同じ語彙・トークナイザのときのみ
使える教材・ライブラリ
| 種類 | 名前 |
|---|---|
| 教科書(日本語) | 「はじめての情報理論」(小林欣吾) / 「情報理論の基礎」(村田昇) |
| 教科書(英語) | 「Elements of Information Theory」(Cover & Thomas) — 古典の決定版 |
| 動画 | 3Blue1Brown「Solving Wordle using information theory」(直感重視) |
| ライブラリ | PyTorch / TensorFlow に標準で Cross-Entropy / KL あり |
関連
- 親: AI に必要な数学
- 姉妹: ディープラーニング / 機械学習
- 応用: LLM / Diffusion Model / ファインチューニング
ページの作成
親となるページを選択してください。
親ページに紐づくページを子ページといいます。
例: 親=スポーツ, 子1=サッカー, 子2=野球
子ページを親ページとして更に子ページを作成することも可能です。
例: 親=サッカー, 子=サッカーのルール
親ページはいつでも変更することが可能なのでとりあえず作ってみましょう!
子ページはありません
人気ページ
- 1 Eclipseで「サーバーに追加または除去できるリソースがありません。」の原因と対処法
- 2 tomcat の起動 / 停止ログと catalina.log・catalina.out の違い
- 3 【Javascript】base urlを取得する方法
- 4 YouTube Data API (v3) のエラー一覧|403系エラーの確認ポイント
- 5 Spring Frameworkのアノテーション一覧
- 6 Laravelのエラー一覧|原因と対処の入口ページ
- 7 3D グラフィックスとは?Unity・OpenGL・DirectX の基礎
- 8 【Spring】@Valueアノテーションとは
- 9 CATALINA_HOME の確認方法 (Linux / Mac)
- 10 【Spring】@Autowiredアノテーションとは
最近更新/作成されたページ
- 最適化とは?AI 学習を支える勾配降下法・Adam・凸最適化の基礎 NEW 2026-05-14 01:13:08
- 情報理論とは?AI 必須のエントロピー・交差エントロピー・KL の基礎 NEW 2026-05-14 01:12:58
- 確率統計とは?AI に必要な確率分布・ベイズ・最尤推定の基礎 NEW 2026-05-14 01:12:44
- 微積分とは?AI 学習を支える勾配降下法・連鎖律・自動微分の基礎 NEW 2026-05-14 01:12:39
- 線形代数とは?AI に必要な行列・ベクトル・固有値・SVD の基礎 NEW 2026-05-14 01:12:34
- AIの基礎概念:LLM/Transformer/Attention/RAG/エージェント など必須キーワード NEW 2026-05-13 12:19:18
- Diffusion Model とは?画像生成 AI の仕組み・Stable Diffusion NEW 2026-05-13 12:18:15
- マルチモーダル AI とは?GPT-4o・Gemini・Claude の使い方 NEW 2026-05-13 12:18:14
- トークン / コンテキストウィンドウとは?料金・上限・最適化 NEW 2026-05-13 12:18:14
- ファインチューニングとは?LoRA・QLoRA・SFT・RLHF/DPO NEW 2026-05-13 12:18:13
- AIエージェントとは?Tool Use・LangGraph・MCP・実装例 NEW 2026-05-13 12:18:13
- RAG (検索拡張生成) とは?仕組み・実装・LangChain 例 NEW 2026-05-13 12:18:12
- Prompt Engineering とは?技法・Chain-of-Thought・実践例 NEW 2026-05-13 12:18:12
- Attention (注意機構) とは?Q/K/V・Multi-Head の仕組み NEW 2026-05-13 12:18:11
- Embedding (埋め込み) とは?ベクトル化・類似検索・RAG NEW 2026-05-13 12:18:11
コメントを削除してもよろしいでしょうか?