Gemmaをローカルで動かしてオフラインAI開発環境を作る
約8分で読めます
Googleが「Gemmaをオフラインで動かすiOSアプリ」をリリースしたニュースを見て、自分もローカルでGemmaを動かしてみた。結論から言うと、個人開発の試作フェーズには十分すぎるほど使える。
なぜローカルLLMが魅力的か
Claude APIやGPT-4 APIは高品質だが、使うたびにコストが発生する。プロトタイプ開発や実験的な自動化では、コストを気にせず試せる環境が欲しい。
ローカルLLMのメリット:
- APIコストゼロ: 何回呼んでもタダ
- オフライン動作: ネット不要
- プライバシー完全保護: データが外部に出ない
- レート制限なし: 好きなだけリクエストできる
セットアップ手順(Ollama使用)
1. Ollamaをインストール
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh
Windowsは公式サイトからインストーラーをダウンロード。
2. Gemmaをダウンロード
ollama pull gemma3:4b # 4Bパラメータ版(軽量・高速)
ollama pull gemma3:12b # 12Bパラメータ版(高品質)
4Bなら約3GB、12Bなら約8GBのストレージが必要。
3. 動作確認
ollama run gemma3:4b
これだけでチャット形式で使える。
Node.jsからAPIとして呼び出す
OllamaはOpenAI互換のREST APIを提供する。
// ollama-client.mjs
async function askGemma(prompt) {
const response = await fetch('http://localhost:11434/api/generate', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({
model: 'gemma3:4b',
prompt,
stream: false,
}),
});
const data = await response.json();
return data.response;
}
// 使い方
const result = await askGemma('この記事の要約を3行で書いてください: ' + articleText);
console.log(result);
Claude APIとほぼ同じ感覚で使える。
実際に使ってみた用途
記事の下書き生成
const draft = await askGemma(`
以下のトピックについて、個人開発者向けのブログ記事の下書きを書いてください。
トピック: ${topic}
文字数: 800字程度
`);
4Bモデルでも十分な品質の下書きが生成された。
コードのコメント自動生成
const comment = await askGemma(`
以下のコードにJSDocコメントを追加してください:
${codeSnippet}
`);
エラーメッセージの日本語解説
const explanation = await askGemma(`
以下のエラーメッセージを日本語で分かりやすく説明してください:
${errorMessage}
`);
Claude APIとの使い分け
| 用途 | Gemmaローカル | Claude API |
|---|---|---|
| プロトタイプ・実験 | ◎ | △(コスト) |
| 高品質な最終出力 | △ | ◎ |
| 大量バッチ処理 | ◎ | △(レート制限) |
| 機密データ処理 | ◎ | △(外部送信) |
プロトタイプはGemmaで、本番はClaudeという使い分けが今の私のスタイルだ。
まとめ
Googleがオフラインアプリにまでオープンモデルを組み込んできたことで、「ローカルAI」の時代が本格的に来ていると感じる。セットアップは10分、コストはゼロ。個人開発者こそ積極的に使うべき選択肢だ。
関連記事
A
Agentive 編集部
AIエージェントを実際に使い倒す個人開発者。サイト制作の自動化を実践しながら、その知見を発信しています。