TL;DR
Ollamaを使えば簡単にできたが、高品質なものを作るなら引き続きクラウドに繋ぐのが無難。
Background
Github Copilotを使って、SKILLの検証をしたいが、そもそも読み込んでるのか?や、解釈できてるか?といった、検証段階でトークンを使うのがもったいないと思った。
やってみる
Ollamaをインストールする
なんとも可愛らしいアイコンのOllamaをダウンロードし、インストールする。
GUIが起動する
GUIが立ち上がった時点でローカルサーバーも立ち上がっている。
(http://localhost:11434/で、「Ollama is running」と表示されればOK。)
Modelをダウンロードする
ここで調べて任意のモデルをダウンロードする。(まぁまぁ大きいので時間がかかる)

VSCodeで、Ollamaのモデルを使うようにする
Manage Modelsを選択する。

[モデルの追加]から、[Ollama]を選択し、ローカルのアドレスを指定。
モデルの文字がグレーの場合、一番左にマウスカーソルを当てると、チャットモデルピッカーで表示/非表示が切り替えられるので、表示されるように設定すればOK。

あとは、モデルを選択すればすぐに使える。

試しにprettierの設定を読み込ませてみたが、ちゃんとファイルを読んでまとめてくれていた。

注意点と感想
モデルは"Tools"が有効になっていないとAgentモードは使えないようだ。
- Cloud: 外部APIとの連携機能
- Embedding: テキストをベクトル表現に変換する機能
- Vision: 画像を解析する機能
- Tools: 外部ツールを呼び出す機能
- Thinking: 推論を行う機能
2/7 現在
VSCodeのアップデートの影響で、障害が発生しておりローカルのAgent利用ができていない。
Cant use agent mode with ollama · Issue #293271 · microsoft/vscode · GitHub
所感
どのモデルを使うのか、で結局悩むが、今回の目的の背景は満たせそう。
私のデスクトップマシン環境では、重めのモデルでもサクサク動いた。