タイトルを読んで字の如し、Ollama というLLMを動かせるツールをつかってローカルでLLMを動かして、VS Code の GitHub Copilot 拡張機能のチャットやコード補完をやってもらおうというハナシ。 2025年5月から GitHub Copilot が有料版でもある程度の上限が設けられるみたいなので、いざというときの逃げ道のため (という口実で技術的興味を満たすため) にやってみる。 参考: Premium リクエストについて LLMのこととか全然詳しくないので素人のお遊び程度にどうぞ。 環境OS: Windows 11 HomeCPU: Ryzen 7 3800XRAM: 56GBGPU: RTX 3060 12GBOllama のインストールOllama公式サイトからインストーラーを落としてインストールするだけ。 Ollama はGUIソフトではない (たぶん) なの