ClineとOllamaでローカルLLMのAIコーディング環境を構築するメモ
Clineとは
ClineはVSCode用のオープンソースAIコーディングエージェント拡張機能です。 単なるコード補完を超えて、ファイルの作成・編集、ターミナルコマンドの実行、ブラウザ自動化まで可能な開発パートナーとして機能します。
OllamaやLM Studioを通じたローカルモデルにも対応しており、Ollamaと組み合わせることでAPIコストなし・プライバシー保護のAIコーディング支援を受けられます。
前提条件
- VSCodeインストール済み
- Ollamaインストール済み(OllamaでローカルLLMを動かすメモを参照)
VSCode拡張機能のインストール
VSCodeの拡張機能タブで「Cline」を検索してインストールします。
OllamaとClineの連携設定
- VSCodeのサイドバーにClineのアイコンが表示されるのでクリック
- 「API Provider」で「Ollama」を選択
- Base URLに
http://localhost:11434を入力 - 使用するモデルを選択
APIキーは不要です。
おすすめモデル
コーディング用途には汎用モデルよりコーディング特化モデルの方が精度が高いです。 ただし日本語での指示も混在する場合は、汎用モデルのQwen3.5も選択肢になります。
コーディング特化(英語メイン)
純粋にコード生成・修正・デバッグに使いたい場合はQwen2.5-Coderがおすすめです。 トレーニングデータの70%がコードのため、コーディングタスクに最適化されています。
| VRAM | モデル | コマンド |
|---|---|---|
| 6GB / 8GB | Qwen2.5-Coder 7B | ollama pull qwen2.5-coder:7b |
| 12GB | Qwen2.5-Coder 14B | ollama pull qwen2.5-coder:14b |
コーディング+日本語も使いたい場合
日本語での指示やコメントが混在する場合はQwen3.5がおすすめです。 コーディング性能も高く、日本語の扱いも得意です。
| VRAM | モデル | コマンド |
|---|---|---|
| 8GB | Qwen3.5 9B | ollama pull qwen3.5:9b |
| 12GB | Qwen3.5 9B (Q8_0) | ollama pull qwen3.5:9b-q8_0 |
Compact Promptの有効化(推奨)
ローカルモデルとの使用時はClineの設定からCompact Promptを有効にすることを推奨します。 プロンプトサイズを大幅に削減しながら主要な機能を維持できます。
設定場所:Cline Settings → Features → Use Compact Prompt
Cline CLIの使い方
Cline CLIを使うとVSCodeを開かずにターミナルからClineを利用できます。 インタラクティブモードとヘッドレスモードの2種類があります。
インストールと認証
Node.js 18以上が必要です。
# インストール
npm install -g cline
# 認証(プロバイダーの設定)
cline auth
Ollamaを使う場合はAPIキーは不要です。cline authでOllamaを選択してローカルサーバーのURLを設定します。
インタラクティブモード
clineを引数なしで起動するとインタラクティブモードになります。
チャット感覚でClineと対話しながら開発できます。
# インタラクティブモードで起動
cline
# 特定のタスクをインタラクティブモードで実行
cline "このファイルのバグを修正して"
インタラクティブモードの主な操作です。
| 操作 | 内容 |
|---|---|
@ | ファイルのメンション(ファジー検索で補完) |
/settings | プロバイダーやモデルの設定 |
/history | タスク履歴の確認 |
Tab | Plan/Actモードの切り替え |
Shift+Tab | 自動承認の切り替え |
ヘッドレスモード(自動化・CI/CD)
-yフラグを使うと承認なしで自動実行するヘッドレスモードになります。
CI/CDパイプラインやスクリプトへの組み込みに向いています。
# 自動承認で実行(-yフラグ)
cline -y "src/配下のESLintエラーをすべて修正して"
# JSON形式で出力
cline --json "TODOコメントを一覧にして" | jq '.text'
# パイプで入力を渡す
cat README.md | cline "このドキュメントを要約して"
# git diffをレビュー
git diff origin/main | cline -y "このdiffをレビューして問題点を指摘して"
CI/CDパイプラインへの組み込み例(GitHub Actions)
- name: Clineでコードレビュー
run: |
git diff origin/main | cline -y "このdiffをレビューしてバグやセキュリティ問題を指摘して"
インタラクティブモードとヘッドレスモードの違い
| 機能 | インタラクティブ | ヘッドレス |
|---|---|---|
| 対話的なチャット | ✓ | - |
| ファイルメンション(@) | ✓ | ✓ |
| 自動承認 | Shift+Tab | -yフラグ |
| JSON出力 | - | --jsonフラグ |
| パイプ入力 | - | ✓ |
注意点
ローカルモデルはクラウドAPIと比べてコンテキスト長や精度に制限があります。 複数ファイルにまたがる複雑なタスクよりも、単一ファイルの修正や小規模なコード生成に向いています。
ヘッドレスモードで-yフラグを使う場合は、変更を簡単に戻せるようクリーンなgitブランチ上での実行を推奨します。
まとめ
ClineとOllamaを組み合わせることで、APIコスト不要・プライバシー保護のAIコーディング環境を構築できます。
VSCode拡張機能としての通常利用に加え、Cline CLIを使えばターミナルやCI/CDパイプラインからも活用できます。
まずはollama pull qwen2.5-coder:7bでモデルをダウンロードして試してみるのがおすすめです。