12 outils offrant une interface Web pour Ollama (traduction)

Ollama est un outil open-source gratuit qui permet aux utilisateurs d'exécuter localement des grands modèles de langage (LLM). Il simplifie l'utilisation de l'IA en vous permettant d'interagir avec les LLM de manière simple sur votre machine.

Vous pouvez exécuter certains des LLM les plus populaires et quelques LLM open-source disponibles.

Malheureusement, il propose une interface en ligne de commande, ce qui n'est pas forcément au goût de tout le monde. Vous pouvez donc choisir de faciliter les choses en exécutant les LLM localement à l'aide d'une interface utilisateur Web. Pour ce faire, il existe quelques outils open-source qui fournissent une interface utilisateur web.

Permettez-moi de vous présenter quelques options.

1. Page Assist

Page Assist est une extension de navigateur open-source intéressante qui vous permet d'exécuter des modèles d'intelligence artificielle en local. Il prend en charge Ollama, et vous donne un bon nombre de possibilités de contrôle pour ajuster votre utilisation. Vous pouvez l'installer sur les navigateurs basés sur Chromium ou sur Firefox.

Qu'il s'agisse de gérer facilement les modèles installés, d'ajouter des fichiers à analyser ou à rechercher, ou encore de permettre la recherche sur internet, il s'agit d'un moyen pratique d'accéder aux LLM directement dans votre navigateur.

Vous pouvez également décider de partager vos résultats avec le monde entier en utilisant une URL auto-hébergée (je ne sais pas trop qui le voudrait, mais c'est possible). 

https://github.com/n4ze3m/page-assist

2. Open WebUI

 

Open WebUI est la solution la plus populaire et la plus riche en fonctionnalités pour obtenir une interface web pour Ollama. Le projet visait initialement à vous aider à travailler avec Ollama. Mais, au fur et à mesure de son développement, le projet souhaite devenir un fournisseur d'interface web pour toutes sortes de solutions LLM.

Il prend en charge les API compatibles pour OpenAI et fonctionne entièrement hors ligne. Vous pouvez l'installer rapidement en utilisant Docker ou Kubernetes. De plus, il propose une Progressive Web App (ndlr : application web progressive en fr) pour les mobiles, et des intégrations de génération d'images.

Si vous voulez une interface web pour Ollama, je pense que c'est une recommandation évidente. Cependant, si vous cherchez quelque chose de différent, il y a également beaucoup d'autres options.

https://github.com/open-webui/open-webui

3. Lobe Chat


Lobe Chat est un framework d'interface utilisateur de type ChatGPT, local et axé sur la protection de la vie privée.

Vous pouvez déployer votre application de chat privée Ollama en utilisant Lobe Chat, et elle devrait être assez élégante. Il est également disponible sous forme de script en un clic si vous utilisez Pinokio, le navigateur basé sur l'IA.

Lobe Chat prend également en charge les conversations vocales et la génération de texte à partir d'images. En outre, vous pouvez améliorer ses capacités à l'aide de plugins. Il prend également en charge les applications Web progressives.

https://github.com/lobehub/lobe-chat/

4. Text Generation Web UI

Une interface Web qui se concentre entièrement sur la génération de texte, construite à l'aide de la bibliothèque Gradio, un paquetage Python open-source qui aide à construire des interfaces Web pour les modèles d'apprentissage automatique.

L'interface Web de génération de texte propose trois styles d'interface différents, un mode traditionnel de type chat, un mode à deux colonnes et un modèle de type carnet de notes. Vous bénéficiez du support des modèles compatibles avec OpenAI et de l'intégration de la bibliothèque de transformateurs.

https://github.com/oobabooga/text-generation-webui

5. Ollama UI


Si vous n'avez pas besoin de quelque chose de sophistiqué, ou d'un support d'intégration spécial, mais plutôt d'une expérience simple avec une interface web accessible, Ollama UI est ce qu'il vous faut.

Il s'agit d'une interface HTML simple qui vous permet d'utiliser Ollama dans votre navigateur. Vous disposez également d'une extension Chrome pour l'utiliser. Vous disposez d'une simple option déroulante pour sélectionner le modèle que vous souhaitez utiliser, et c'est tout.

https://github.com/ollama-ui/ollama-ui

6. Ollama GUI

Alors que tous les autres logiciels vous permettent d'accéder à Ollama et à d'autres LLM indépendamment de la plateforme (sur votre navigateur), Ollama GUI est une application pour les utilisateurs de macOS.

L'application est gratuite et open-source, construite en utilisant le framework SwiftUI, elle est jolie, c'est pourquoi je n'ai pas hésité à l'ajouter à la liste.

Oui, ce n'est peut-être pas un outil web UI qui vous permet d'accéder au modèle depuis votre téléphone ou n'importe quel navigateur, mais c'est une option réalisable pour les utilisateurs de macOS.

https://github.com/enoch1118/ollamaGUI

7. Lord of LLMs Web UI

Un nom assez explicite, alias LoLLMs Web UI, est une solution assez populaire pour les LLM qui inclut le support d'Ollama.

Elle prend en charge une grande variété de fonctionnalités telles que la génération de texte, d'images, de musique et bien plus encore. Vous pouvez l'intégrer au dépôt GitHub pour un accès rapide et choisir parmi les différentes personnalités proposées.

Vous pouvez l'installer sur Linux à l'aide du script d'installation automatique, ce qui constitue un moyen facile pour commencer à l'utiliser.

https://github.com/ParisNeo/lollms-webui

8. LibreChat

LibreChat est une alternative open-source à ChatGPT que vous pouvez déployer localement ou dans le nuage.

Il est compatible avec Ollama. Vous pouvez utiliser des LLMs open-source et des modèles propriétaires populaires comme Google Vertex AI, ChatGPT, et plus encore. Il est conçu pour être un clone de ChatGPT, vous ne trouverez donc rien de particulier dans l'interface utilisateur proposée. Mais pour certains, la familiarité de l'interface utilisateur peut vous aider à mieux vous y retrouver.

https://github.com/danny-avila/LibreChat

9. Minimal LLM UI

Vous voulez quelque chose de basique mais de performant ?

Minimal LLM UI est une solution inhabituelle qui fournit une interface web pour Ollama en utilisant React, visant à vous fournir un design propre et moderne.

Vous pouvez passer d'un LLM à l'autre et sauvegarder votre conversation localement à l'aide d'une base de données.

https://github.com/richawo/minimal-llm-ui

10. Enchanted

Enchanted est une application open-source qui vous permet de vous connecter à vos modèles privatifs, compatibles avec Ollama pour avoir une utilisation transparente à travers l'écosystème Apple (iOS, macOS, Vision Pro).

C'est un outil utile pour les utilisateurs qui veulent le support de la plateforme Apple. Si vous vouliez avoir une interface graphique tout en ayant la possibilité de configurer une interface web pour accéder à macOS.

https://github.com/AugustDev/enchanted

11. Msty.app (logiciel non libre et non open-source)

Msty est un logiciel non libre et non open-source intéressant, disponible sur plusieurs plateformes, qui vous offre une interface utilisateur locale pour exécuter des modèles d'intelligence artificielle ou des LLMs.

Les points forts de cet outil sont les branches conversationnelles et la possibilité d'ajouter des piles de connaissances à l'aide des coffres-forts Obsidian (et d'autres services).

https://msty.app/

12. Hollama

Hollama est une autre option d'interface utilisateur web minimaliste qui propose une version hébergée publiquement. Vous pouvez l'utiliser sans inscription et vos données sont stockées localement.

Il est également possible d'exécuter Hollama localement en utilisant une image Docker. Cependant, contrairement à d'autres solutions, Hollama propose un ensemble de fonctionnalités plus limité. Néanmoins, si vous recherchez simplement une interface utilisateur web rapide pour Ollama, cela peut être une option intéressante.

https://github.com/fmaclen/hollama

Conclusion

Considérant que ce n'est là que le commencement avec l'IA locale et privée, je suis certain que d'autres outils seront disponibles pour nous permettre d'utiliser Ollama pour des utilisations intéressantes.

Pour moi, l'extension Page Assist me semble être un gain de temps (sans installation) qui me permet d'exécuter des modèles d'IA localement tout en ayant la possibilité de faire des recherches à partir d'Internet.

source :

https://itsfoss.com/ollama-web-ui-tools/

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne