Docker propose un petit tutoriel sur comment exécuter Claude Code en utilisant Docker Model Runner pour un LLM local. Pour ce rappel, cet outil permet d'exécuter des LLM sur sa machine, un peu comme Ollama.
1 / installer Claude Code (Linux, macOS) : curl -fsSL https://claude.ai/install.sh | bash
2 / Docker doit être installé. Il est possible d'utiliser Model Runner avec Docker Desktop. Model Runner peut être accessible sur localhost:12434
3 / augmenter la taille du contexte :
docker model pull gpt-ossdocker model package --from gpt-oss --context-size 32000 gpt-oss:32kQuand le package est prêt, vous pouvez l'utiliser avec Claude code :ANTHROPIC_BASE_URL=http://localhost:12434 claude --model gpt-oss:32kANTHROPIC_BASE_URL=http://localhost:12434 claude --model gpt-oss "Describe this repo."Les commandes finales sont alors :$ docker model pull gpt-oss$ docker model package --from gpt-oss --context-size 32000 gpt-oss:32k$ ANTHROPIC_BASE_URL=http://localhost:12434 claude --model gpt-oss:32k "Describe this repo."Si tout fonctionne correctement, Claude Code s'appuie alors sur Docker Model Runner pour utiliser un LLM local. Source : https://www.docker.com/blog/run-claude-code-locally-docker-model-runner/Catégorie actualité: OutilsClaude CodeImage actualité AMP: