generated at
Open Interpreter
https://openinterpreter.com/HP/デスクトップアプリへの早期アクセス
ファイルをアップロードしないといけないCode Interpreterと違ってPC内のアプリやらファイルを直接扱えるのでまだ見ぬWindows Copilotにも近いのかもしれないnomadoor
OpenAI APIのかわりにローカルでCode Llamaを動かして使うこともできる
Hugging Faceから好きなモデルをダウンロードして使うことができるようになったhttps://github.com/KillianLucas/open-interpreter/pull/213

使う
$ pip install open-interpreter
$ interpreter

Visual Studio 2022のインストール
Desktop development for C++ workload を選択してインストール
llama-cpp-pythonとopen-interpreterのインストール
$ pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir
$ pip install open-interpreter
(ちなみに)モデルの保存場所
$ path\to\AppData\Local\Open Interpreter\Open Interpreter\models

以下PowerShellでのコマンド
最新(12.2)のCUDA Toolkitをインストール
インストールできたか確認
$ $env:CUDA_PATH
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.2 が表示されれば成功
Nvidia GPU版llama-cpp-pythonをインストール
$ $env:FORCE_CMAKE=1; $env:CMAKE_ARGS='-DLLAMA_CUBLAS=on'
$ pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir -vv
インストールできたか確認
$ python -c "from llama_cpp import GGML_USE_CUBLAS; print(GGML_USE_CUBLAS)"
Powershell(cmd)
ggml_init_cublas: found 1 CUDA devices: Device 0: NVIDIA GeForce RTX 3080, compute capability 8.6 True
が表示されれば成功
実行
$ interpreter --local -y