ローカルLLMを使って、VS CodeのClaude Codeを使ってみる

TL;DR

重くて無理。

Background

前回の続き

blog.akagoma.com

Claude Codeでも使えるのか気になった。

やってみる

Claude Code CLIをインストールする

code.claude.com

公式のやり方で問題ない。Windowsなので、このコマンドを叩いた。

curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd

環境変数を設定し、リクエスト先をOllamaに向ける

環境変数は2つ設定する。

export ANTHROPIC_AUTH_TOKEN=test
export ANTHROPIC_BASE_URL=http://localhost:11434

VSCodeの拡張機能のインストール

公式のもので問題ない。

marketplace.visualstudio.com

VSCodeのsettings.jsonで、Ollamaのモデルを指定する

モデルを指定しないと、存在しないモデルを指定することになる。Ollamaにインストール済みのモデル名を指定する。

    "claudeCode.selectedModel": "qwen3-coder-next",

所感

正直これは使えたものではなかった。

この程度の質問でリソースをガッツリ使ってしまう。GPUメモリもフルに使っているが、質問の返事も遅いし、PCの負荷も高そうなので辞めたほうがいいかもしれない。

 

Copyright (C) 2018-2022 akagoma. All Rights Reserved.