Blog & Actualités

Insights & Actualités Tech

Découvrez nos derniers articles sur le développement web, le design et les technologies digitales qui façonnent l'avenir

Recherche pour : "LLM local"
Effacer les filtres
Gemma Gem - Un agent IA dans Chrome, 100% local

Gemma Gem - Un agent IA dans Chrome, 100% local

Les extensions Chrome qui promettent de l'IA, ça pullule de ouf et à vrai dire, la plupart se contentent d'envoyer vos données sur un serveur distant. C'est naze ! Heureusement, l'extension Gemma Gem prend le problème à l'envers puisque son modèle tourne directement dans votre navigateur via...

TurboQuant - Un LLM de 104B sur un MacBook, merci Google

TurboQuant - Un LLM de 104B sur un MacBook, merci Google

Vous faites tourner des LLMs en local comme le gros fifou de Hipster IA que vous êtes et, Ô drame, la VRAM de votre ordinateur explose dès que le contexte dépasse 8000 pauvres malheureux tokens ? Le problème c'est le KV cache les amis ! Le KV cache c'est ce truc qui stocke les clés et valeurs...

Claude Code : exécution locale avec Docker Model Runner

Claude Code : exécution locale avec Docker Model Runner

Docker propose un petit tutoriel sur comment exécuter Claude Code en utilisant Docker Model Runner pour un LLM local. Pour ce rappel, cet outil permet d'exécuter des LLM sur sa machine, un peu comme Ollama. 1 / installer Claude Code (Linux, macOS) : curl -fsSL https://claude.ai/install.sh | bash2 /...

Claude Code : utiliser les LLM d'Ollama

Claude Code : utiliser les LLM d'Ollama

Tu aimes Claude Code mais tu ne veux pas payer le plan à 17 $ / mois et le plan gratuit n'est pas assez étendu et tu veux être totalement local. Ollama vient à ton aide. Avec la version 0.14.0, et plus récente, Ollama est désormais compatible avec l'API Message d'Anthropic et Claude Code. On peut...

Ollama : une app pour faire tourner des LLM localement et nouvelle version

Ollama : une app pour faire tourner des LLM localement et nouvelle version

En juillet dernier, nous avions présenté l'application Ollama. Cette app permet d'exécuter des LLM localement. Pour rappel : Ollama met d'abord en place un serveur pour ensuite récupérer le LLM et l'exécuter localement. Il faut donc prévoir la place nécessaire. Ollama est disponible sur macOS et...

Firefox 142.0 : quoi de neuf dans les DevTools ?

Firefox 142.0 : quoi de neuf dans les DevTools ?

Firefox 142 est disponible depuis quelques heures. Comme à chaque version, quelques nouveautés nous attendent du côté développeur :- support des API wllama pour les extensions : les développeurs peuvent utiliser un LLM local dans leurs extensions- le debugger possède de nouveaux paramètres quand...

RTX AI : utiliser les cartes RTX pour coder et faire de l'IA

RTX AI : utiliser les cartes RTX pour coder et faire de l'IA

Les GPU RTX sont les plus utilisées pour le gaming. Mais elles peuvent aussi servir à autre chose : faire de l'IA localement et du développement ! Avec RTX AI, NVIDIA veut montrer comment utiliser et exploiter les cartes graphiques en dehors des jeux. Grâce à la puissance des GPU, vous pouvez faire...