Agentive
AIエージェント活用

Gemmaをローカルで動かしてオフラインAI開発環境を作る

約8分で読めます

Googleが「Gemmaをオフラインで動かすiOSアプリ」をリリースしたニュースを見て、自分もローカルでGemmaを動かしてみた。結論から言うと、個人開発の試作フェーズには十分すぎるほど使える

なぜローカルLLMが魅力的か

Claude APIやGPT-4 APIは高品質だが、使うたびにコストが発生する。プロトタイプ開発や実験的な自動化では、コストを気にせず試せる環境が欲しい。

ローカルLLMのメリット:

  • APIコストゼロ: 何回呼んでもタダ
  • オフライン動作: ネット不要
  • プライバシー完全保護: データが外部に出ない
  • レート制限なし: 好きなだけリクエストできる

セットアップ手順(Ollama使用)

1. Ollamaをインストール

# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.com/install.sh | sh

Windowsは公式サイトからインストーラーをダウンロード。

2. Gemmaをダウンロード

ollama pull gemma3:4b   # 4Bパラメータ版(軽量・高速)
ollama pull gemma3:12b  # 12Bパラメータ版(高品質)

4Bなら約3GB、12Bなら約8GBのストレージが必要。

3. 動作確認

ollama run gemma3:4b

これだけでチャット形式で使える。

Node.jsからAPIとして呼び出す

OllamaはOpenAI互換のREST APIを提供する。

// ollama-client.mjs
async function askGemma(prompt) {
  const response = await fetch('http://localhost:11434/api/generate', {
    method: 'POST',
    headers: { 'Content-Type': 'application/json' },
    body: JSON.stringify({
      model: 'gemma3:4b',
      prompt,
      stream: false,
    }),
  });
  const data = await response.json();
  return data.response;
}

// 使い方
const result = await askGemma('この記事の要約を3行で書いてください: ' + articleText);
console.log(result);

Claude APIとほぼ同じ感覚で使える。

実際に使ってみた用途

記事の下書き生成

const draft = await askGemma(`
以下のトピックについて、個人開発者向けのブログ記事の下書きを書いてください。
トピック: ${topic}
文字数: 800字程度
`);

4Bモデルでも十分な品質の下書きが生成された。

コードのコメント自動生成

const comment = await askGemma(`
以下のコードにJSDocコメントを追加してください:
${codeSnippet}
`);

エラーメッセージの日本語解説

const explanation = await askGemma(`
以下のエラーメッセージを日本語で分かりやすく説明してください:
${errorMessage}
`);

Claude APIとの使い分け

用途GemmaローカルClaude API
プロトタイプ・実験△(コスト)
高品質な最終出力
大量バッチ処理△(レート制限)
機密データ処理△(外部送信)

プロトタイプはGemmaで、本番はClaudeという使い分けが今の私のスタイルだ。

まとめ

Googleがオフラインアプリにまでオープンモデルを組み込んできたことで、「ローカルAI」の時代が本格的に来ていると感じる。セットアップは10分、コストはゼロ。個人開発者こそ積極的に使うべき選択肢だ。

関連記事

A

Agentive 編集部

AIエージェントを実際に使い倒す個人開発者。サイト制作の自動化を実践しながら、その知見を発信しています。