Opera, premier navigateur web à prendre en charge les LLM locaux

Opera

Les grands modèles de langage (LLM), entraînés sur de grands volumes de texte, sont les moteurs intelligents propulsant les chatbots IA comme ChatGPT et Gemini. Et Opera est devenu le premier navigateur web capable d’intégrer un LLM local. Vous avez peut-être même déjà installé et utilisé un LLM en local. Le modèle étant stocké sur votre ordinateur, vous n’avez rien à envoyer dans le cloud. Cela demande une bonne configuration hardware, mais c’est la meilleure solution d’un point de vue vie privée. Opera a déjà introduit plusieurs fonctionnalités IA. Aujourd’hui, le navigateur se lance dans les LLM locaux, et vous avez plus de 150 LLM parmi lesquels choisir.

Les LLM locaux dans Opera

Il y a quelques aspects à garder à l’esprit avant de vous lancer. Tout d’abord, sachez que l’option est encore expérimentale, vous pourriez donc rencontrer un bug ici ou là. Ensuite, il vous faudra de l’espace sur votre disque, certains LLM font moins de 2 Go, d’autres plus de 40.

Un grand LLM vous donnera de meilleures réponses, mais il est aussi plus long à télécharger et lent à fournir ses réponses. Les performances du modèle dépendent de votre configuration matérielle. Si vous avez une machine vieillissante, vous devrez probablement attendre quelques instants avant d’avoir une réponse.

Ces LLM locaux sont un mix de modèles publiés par des géants de la tech (Google, Meta, Intel, Microsoft) et d’autres mis au point par des chercheurs et développeurs. Ils sont gratuits à installer et utiliser – principalement parce que vous utilisez votre machine pour l’exploiter, cela n’engendre donc aucun coût d’exploitation pour l’équipe qui l’a développé -.

À noter, certains de ces modèles sont très orientés, notamment sur le codage, et pourraient donc ne pas vous donner de réponses très satisfaisantes sur des sujets plus génériques comme ChatGPT, Copilot ou Gemini. Chacun a une description, pour vous orienter avant installation.

Testez vous-même

À l’heure d’écrire ces lignes, cette fonctionnalité n’est disponible que sur les versions de test d’Opera, en attendant un déploiement de plus grande échelle. Si vous voulez tester, il vous faut télécharger et installer la version développeur de Opera One. Une fois cela fait, ouvrez le panneau latéral sur la gauche en cliquant sur le bouton Aria (le petit symbole A) et suivez les instructions pour configurer le bot IA intégré (vous devrez utiliser un compte gratuit Opera).

Lorsque Aria est prêt, vous devriez voir la boîte de texte Choisissez un modèle d’IA locale en haut. Cliquez dessus, choisissez Allez aux paramètres et vous verrez une liste des LLM disponibles ainsi que certaines informations les concernant. Sélectionnez-en un pour voir une liste des versions, avec la taille des fichiers, et les boutons de téléchargement pour les installer localement.

Vous pouvez configurer plusieurs LLM dans Opera si vous le souhaitez – choisissez celui que vous voulez utiliser dans chaque conversation via le menu déroulant en haut de la fenêtre Aria -. Si vous ne choisissez pas de LLM local, un modèle par défaut (basé dans le cloud) sera utilisé. Vous pouvez toujours démarrer une nouvelle conversation en cliquant sur le gros bouton + dans le coin supérieur droit de la fenêtre de chat.

Utilisez ces LLM locaux comme vous le feriez avec n’importe lequel d’entre eux dans le cloud. Servez-vous-en pour générer du texte sur n’importe quel sujet et dans n’importe quel style, posez des questions sur la vie, l’univers et tout le reste, et obtenez des réponses sur tout ce que vous voulez. Ces modèles n’ayant pas accès au cloud, ils ne pourront puiser dans les sujets récents sur le web.

Lire la source


A lire aussi