ページの作成
親となるページを選択してください。
親ページに紐づくページを子ページといいます。
例: 親=スポーツ, 子1=サッカー, 子2=野球
子ページを親ページとして更に子ページを作成することも可能です。
例: 親=サッカー, 子=サッカーのルール
親ページはいつでも変更することが可能なのでとりあえず作ってみましょう!
本稿は JAX (ジャックス) に関する記事です。
| この記事の要点 |
|---|
|
JAX とは?
JAX は、Google が開発する数値計算ライブラリです。「NumPy のような API」「自動微分」「GPU / TPU での実行」「XLA による JIT コンパイル」「並列化変換」を、関数を変換する形で統一的に提供します。
PyTorch / TensorFlow が「フレームワーク」だとすれば、JAX は「NumPy の強化版」に近い思想で設計されており、ニューラルネット以外の数値最適化・物理シミュレーション・確率モデル等にも自然に使えます。深層学習向けの上位ライブラリ (Flax / Equinox / Haiku) を上に積んで使うのが一般的です。
主な特徴
| 特徴 | 説明 |
|---|---|
| NumPy 互換 API | jax.numpy as jnp がほぼ NumPy と同じ呼び方 |
自動微分 (grad) | 任意関数の偏微分・高階微分を関数変換として取得 |
JIT コンパイル (jit) | XLA で関数全体を最適化。GPU/TPU でも高速 |
ベクトル化 (vmap) | ループ不要でバッチ並列化 |
デバイス並列 (pmap / pjit) | 複数 GPU / TPU 跨ぎの並列実行 |
| 純関数モデル | 副作用なしの関数を変換していくスタイル |
| TPU 親和性 | Google TPU で性能が最も出やすい |
| 関数型エコシステム | Flax / Optax / Orbax / Chex 等のモジュール群 |
4 つの主要変換
| 変換 | 役割 | 直感 |
|---|---|---|
jit(fn) | 関数を XLA でコンパイル | 「同じ計算を爆速にする」 |
grad(fn) | 勾配を返す関数を生成 | 「微分してくれる」 |
vmap(fn) | 関数を自動でバッチ化 | 「for ループを並列化」 |
pmap(fn) / pjit | 複数デバイス間で並列実行 | 「複数 GPU/TPU に分散」 |
最小サンプル: NumPy 風+自動微分+JIT
|
import jax |
関数型スタイルの注意点
| PyTorch / NumPy 出身者が戸惑うポイント |
|---|
|
深層学習用上位ライブラリ
| ライブラリ | 立ち位置 |
|---|---|
| Flax (Linen / NNX) | Google 公式。Gemini 等の社内利用実績。現在は NNX が新世代 |
| Equinox | PyTorch ライクな素直さ。クラスで層を書く |
| Haiku | DeepMind 製。Flax の前身的存在 (現在は保守モード) |
| Optax | 最適化アルゴリズム (Adam / AdamW / Lion 等) |
| Orbax | チェックポイント保存・配信 |
| Chex | テスト・アサーションのユーティリティ |
| NumPyro | 確率プログラミング (Pyro の JAX 版) |
| Diffrax | 微分方程式ソルバ |
| jaxtyping | テンソルの形状・型を注釈 |
PyTorch / TensorFlow との立ち位置
| 観点 | JAX | PyTorch | TensorFlow |
|---|---|---|---|
| パラダイム | 関数型 | 命令型 (eager) | 命令型 (eager) + Keras |
| TPU 親和性 | 最強 | 対応進行中 | 従来からの定番 |
| 研究での採用 | Google 系・確率プログラミング | 圧倒的多数 | 減少傾向 |
| 本番デプロイ | 少ない (JAX2TF 経由) | TorchServe / ONNX | TF Serving / TFLite / TF.js |
| 学習コスト | 高め (関数型 + 純関数) | 低い | 中 |
| 科学計算・物理 | 得意 | ○ | ○ |
使うのが向くシーン
- TPU を活用したい(Google Cloud TPU、Colab TPU)
- 大規模分散学習を関数変換で表現したい
- 確率プログラミング・科学計算・物理シミュレーション
- 研究プロトで論文の実装を NumPy 風に純粋に書きたい
- Google DeepMind / Google Brain 系の論文を再現したい
インストール
|
# CPU 版 |
運用上のヒント
| Tips |
|---|
|
注意点
| よくある落とし穴 |
|---|
|
関連
- 親カテゴリ: AIライブラリ
- 関連: PyTorch / TensorFlow / NumPy
- 背景: ディープラーニング / Google DeepMind
ページの作成
親となるページを選択してください。
親ページに紐づくページを子ページといいます。
例: 親=スポーツ, 子1=サッカー, 子2=野球
子ページを親ページとして更に子ページを作成することも可能です。
例: 親=サッカー, 子=サッカーのルール
親ページはいつでも変更することが可能なのでとりあえず作ってみましょう!
子ページはありません
人気ページ
- 1 Eclipseで「サーバーに追加または除去できるリソースがありません。」の原因と対処法
- 2 tomcatの起動/停止ログとcatalina.log/catalina.outの違い
- 3 【Javascript】base urlを取得する方法
- 4 YouTube Data API (v3) のエラー一覧|403系エラーの確認ポイント
- 5 Spring Frameworkのアノテーション一覧
- 6 Laravelのエラー一覧|原因と対処の入口ページ
- 7 3Dグラフィックス
- 8 【Spring】@Valueアノテーションとは
- 9 CATALINA_HOMEの確認方法(Linux, Mac)
- 10 【Spring】@Autowiredアノテーションとは
最近更新/作成されたページ
- AIの基礎概念 NEW 2026-05-13 10:24:45
- ディープラーニングとは?CNN・RNN・Transformer・LLM の入門 2026-05-13 10:24:07
- 機械学習とは?教師あり・教師なし・強化学習・代表アルゴリズム 2026-05-13 10:24:07
- AIサービスとは?ChatGPT・Claude・Copilot・Gemini など主要サービスの比較 2026-05-13 10:20:39
- AIに必要な数学:線形代数・微積分・確率統計・情報理論・最適化 2026-05-13 10:20:39
- AIライブラリ一覧:PyTorch・TensorFlow・Hugging Face・LangChain 等の比較 2026-05-13 10:20:39
- AIとは?人工知能(機械学習・ディープラーニング・LLM)の入門 2026-05-13 10:20:39
- PyTorch とは?深層学習フレームワークの使い方・TensorFlow との比較 NEW 2026-05-13 10:11:42
- ONNX Runtime とは?クロスプラットフォーム AI 推論エンジン NEW 2026-05-13 10:11:19
- JAX とは?Google 製の関数型数値計算フレームワーク NEW 2026-05-13 10:11:18
- LangChain とは?LLM アプリ開発フレームワークの使い方・RAG NEW 2026-05-13 10:11:17
- LlamaIndex とは?RAG / LLM データ統合フレームワークの使い方 NEW 2026-05-13 10:11:17
- Hugging Face Transformers とは?OSS LLM 利用の標準ライブラリ NEW 2026-05-13 10:11:16
- TensorFlow とは?使い方・Keras・本番デプロイ(vs PyTorch) 2026-05-13 10:11:16
- AIベンダー一覧:OpenAI・Anthropic・Google DeepMind・Microsoft・Meta NEW 2026-05-13 10:00:16
コメントを削除してもよろしいでしょうか?