ローカルLLMを使って、VS CodeのGithub CopilotをAgentモードを使ってみる

TL;DR

Ollamaを使えば簡単にできたが、高品質なものを作るなら引き続きクラウドに繋ぐのが無難。

Background

Github Copilotを使って、SKILLの検証をしたいが、そもそも読み込んでるのか?や、解釈できてるか?といった、検証段階でトークンを使うのがもったいないと思った。

やってみる

Ollamaをインストールする

なんとも可愛らしいアイコンのOllamaをダウンロードし、インストールする。

ollama.com

GUIが起動する

GUIが立ち上がった時点でローカルサーバーも立ち上がっている。

http://localhost:11434/で、「Ollama is running」と表示されればOK。)

Modelをダウンロードする

https://ollama.com/search

ここで調べて任意のモデルをダウンロードする。(まぁまぁ大きいので時間がかかる)

VSCodeで、Ollamaのモデルを使うようにする

Manage Modelsを選択する。

[モデルの追加]から、[Ollama]を選択し、ローカルのアドレスを指定。

モデルの文字がグレーの場合、一番左にマウスカーソルを当てると、チャットモデルピッカーで表示/非表示が切り替えられるので、表示されるように設定すればOK。

あとは、モデルを選択すればすぐに使える。

試しにprettierの設定を読み込ませてみたが、ちゃんとファイルを読んでまとめてくれていた。

注意点と感想

モデルは"Tools"が有効になっていないとAgentモードは使えないようだ。

  • Cloud: 外部APIとの連携機能
  • Embedding: テキストをベクトル表現に変換する機能
  • Vision: 画像を解析する機能
  • Tools: 外部ツールを呼び出す機能
  • Thinking: 推論を行う機能

 

2/7 現在

VSCodeのアップデートの影響で、障害が発生しておりローカルのAgent利用ができていない。

Cant use agent mode with ollama · Issue #293271 · microsoft/vscode · GitHub

所感

どのモデルを使うのか、で結局悩むが、今回の目的の背景は満たせそう。

私のデスクトップマシン環境では、重めのモデルでもサクサク動いた。

Copyright (C) 2018-2022 akagoma. All Rights Reserved.