IA
-
Utiliser une IA localement avec Open Notebook
Habituellement je suis plus que rétif quant à l'utilisation de solutions se basant sur des supposées intelligences artificielles pour tout un tas de raisons, et en particulier pour ce qui a trait à l'éducation. Voir mon billet dans Médiapart pour plus d'info : https://blogs.mediapart.fr/thierrym/blog/090625/pour-un-debat-citoyen-sur-une-utilisation-raisonnee-de-lintelligence-artificielle.
Mais j'ai découvert à travers cet article de ZD.Net https://www.zdnet.fr/pratique/linux-pratique-installer-la-solution-alternative-open-source-et-puissante-a-notebooklm-485056.htm qu'il était possible de s'installer localement une alternative libre à NoteBookLM de Google. Dans ce cas-là, pourquoi ne pas tester cette solution qui s'appuie sur Open Notebook ? Je vais décrire sur cette page comment j'ai configuré cette application sur mon ordinateur, non sans quelques recherches...
Personnellement, je vais utiliser un modèle LLM (modèle de langage) local en me servant d'Ollama : https://ollama.com/. Ce fonctionnement par contre nécessite des ressources sur l'ordinateur local et il vaut mieux avoir une carte graphique qui pourra aléger la tâche du processeur. Il faut également pas mal de place : le LLM Qwen3 par exemple fait plus de 5 Go...
Remarque : il est possible d'intégrer Ollama dans VSCodium (à la place de l'IA de Microsoft Copilot).Sources :
- déploiement de Open Notebook : https://github.com/lfnovo/open-notebook/blob/main/docs/deployment/docker.md
- Utilisation de Ollama dans Open Notebook : https://github.com/lfnovo/open-notebook/blob/main/docs/features/ollama.md
- Changer le dossier de stockage des modèles LLM dans Ollama : https://medium.com/@rosgluk/move-ollama-models-to-different-location-755eaec1df96
- Modèles proposés par Ollama : https://ollama.com/models
- Choisir son fournisseur le modèle d'IA et de LLM : https://github.com/lfnovo/open-notebook/blob/main/docs/features/ai-models.md
I- Particularité de Ollama et de Docker en tant que services
Ollama et Docker s'installent en tant que service. Cela signifie qu'ils se lancent automatiquement à chaque redémarrage de l'ordinateur. Si on ne veut pas cela, il va falloir les désactiver lorsqu'on ne les utilise plus, ce qui permet d'économiser des ressources. Pour arrêter et désactiver, il faut taper les commandes suivantes :
sudo systemctl stop nom-du-servicesudo systemctl disable nom-du-service
On verra comment automatiser tout cela avec des fichiers de scripts à la fin de cet article.II- Installation de Ollama et des LLM
A- Installation de Ollama
L'installation se fait très simplement : il suffit de taper la commande suivante qui permettra d'installer Ollama en tant que service (systemd) :