Découvrez Pi, le nouveau concurrent de ChatGPT qui est aussi l'IA la plus "humaine" du monde (traduction)

Qu'ont en commun Microsoft, Reid Hoffman (fondateur de LinkedIn), Bill Gates, Eric Schmidt et Nvidia ?

Il est intéressant de noter qu'ils ont tous investi dans la même chose, Pi, un chatbot d'IA qui vient de lever 1,3 milliard de dollars.

Bien entendu, je ne fais pas référence au célèbre chiffre.

Je fais référence à ce que je considère, après l'avoir essayé personnellement, comme le chatbot d'IA le plus "humain" au monde, plus encore que le ChatGPT, qui fait beaucoup parler de lui.

Et le mieux, c'est que vous n'aurez pas à me croire sur parole, vous allez l'essayer vous-même sous peu, gratuitement.

Mais en plus d'être l'IA conversationnelle la plus avancée au monde, elle cache également des secrets très intéressants qui placent Pi dans une position unique pour devenir un véritable géant dans l'espace de l'IA.

 

Pi a tout ce qu'il faut pour réussir

Pi est le premier produit d'Inflection, fondé par Mustafa Suleyman.

Ce n'est pas un fondateur ordinaire, puisqu'il a également fondé DeepMind, aujourd'hui l'un des laboratoires de recherche en IA les plus avancés au monde.

Avec Pi, Mustafa tente de mettre au point la meilleure IA conversationnelle qui soit.

Je veux dire par là qu'il n'y a pas de limite.

Pi est extrêmement gentil, possède des compétences conversationnelles étonnamment développées et, plus important encore, il est conçu pour être infiniment utile, patient et disposé à vous écouter.

Ce dernier point vous fera tout aimer, et vous le comprendrez facilement en lisant n'importe laquelle des réponses de Pi. 

Apprenons à écouter

Nous savons tous combien il est difficile de se faire comprendre dans un monde dans lequel chaque personne souhaite uniquement exprimer son opinion.

À chaque question que vous posez, Pi vous renvoie toujours aux différentes directions que la conversation peut prendre, et il cherche toujours - et je dis bien toujours - à connaître votre opinion sur un sujet et à savoir de quoi vous voulez parler.

Cela montre clairement les efforts de l'équipe d'Inflection lorsqu'elle a effectué un apprentissage par renforcement à partir de commentaires humains (Reinforcement Learning from Human Feedback - RLHF) sur ce chatbot.

En donnant au modèle un feedback, ils ont modélisé ses caractéristiques conversationnelles pour qu'elles soient clairement axées sur la prolongation de la conversation et l'incitation de l'utilisateur à donner son avis en retour.

En d'autres termes, Pi est entraîné à être utile et toujours pertinent par rapport aux attentes de l'utilisateur.

Un chatbot d'IA à la pointe de l'actualité

Si vous êtes familier avec les LLM et l'IA générative en général, vous vous rendrez compte qu'ils ont généralement une faiblesse importante... ils ne sont pas à jour avec les actualités.

En général, un chatbot d'IA ne peut fournir des informations pertinentes et véridiques avant la date limite de son entraînement.

En d'autres termes, le modèle n'a vu que des données jusqu'à un certain moment de la formation du modèle et n'a pas une connaissance complète des événements postérieurs.

Par exemple, le modèle ChatGPT est notoirement limité aux données antérieures à septembre 2021.

Pour résoudre ce problème, l'une des méthodes les plus courantes consiste à combiner un LLM avec une base de données vectorielle, ce qui permet au LLM d'effectuer ce que nous définissons comme une recherche sémantique.

En termes simples, vous devez stocker des représentations vectorielles des données que vous souhaitez fournir au LLM. Ensuite, lorsque le LLM reçoit une instruction de l'utilisateur, il demande à la base de données vectorielles de fournir les vecteurs les plus pertinents d'un point de vue sémantique.


Comme ces vecteurs incluent le contexte du texte sous-jacent, les vecteurs récupérés fourniront au LLM un contenu sémantiquement riche que le LLM utilisera ensuite comme contexte pour vous fournir une réponse.

De plus, les bases de données vectorielles intègrent des métadonnées pour chaque vecteur, ce qui signifie que le LLM peut réellement citer ses sources, ce qui est totalement impossible pour un LLM autonome.

En particulier, lorsqu'il s'agit de fournir des nouvelles récentes aux LLM, des entreprises comme OpenAI les connectent à des API de navigation, de sorte que les LLM peuvent parcourir vos instructions sur Google/Bing avant de vous répondre.

Mais le problème est que ce processus n'est pas très fluide, pour être honnête.

En fait, OpenAI a récemment supprimé le plugin de navigation Bing pour ChatGPT, en raison de craintes qu'il ne soit pas conforme dans certains pays en ne respectant pas la vie privée des créateurs.

Je parie que c'est le cas. C'est peut-être cela et le fait que ce n'est pas vraiment la meilleure expérience qui soit.

Cependant, avec Pi, la magie réside dans le fait qu'il ne nécessite pas de plugins.

Le paradigme de "l'apprentissage continu

Pour des raisons que je ne peux pas expliquer complètement, mais seulement deviner, car Pi est un modèle propriétaire, ce chatbot est parfaitement au courant des événements récents... au jour le jour.

Étonnamment, il semble que le modèle ne récupère pas les informations des bases de connaissances en temps réel, mais qu'il connaisse réellement ces données.

La raison pour laquelle je dis cela est que lorsque les LLM sont connectés à des bases de connaissances externes comme une sorte de base de données vectorielle, il y a au moins une certaine latence lors de la réponse.

Avec Pi, l'expérience est absolument transparente, ce qui rend difficile de croire que ces connaissances ne sont pas entièrement intégrées dans les données du modèle.

Cependant, je pense qu'il existe une sorte de connexion de connaissances externes (je ne peux pas imaginer qu'InflectionAI ré-entraîne réellement le modèle sur une base quotidienne), mais je n'en ai jamais vu une aussi rapide que celle-ci, c'est vraiment très impressionnant.

Ainsi, lorsque l'on interroge le modèle à ce sujet, il indique qu'il utilise l'"apprentissage continu", une méthode qui permet aux IA de se mettre à jour en permanence.

Le meilleur exemple de cette méthode d'apprentissage continu se trouve probablement dans le récent article de NVIDIA sur GPT-4 dans Minecraft, un modèle qui auto-évalue continuellement ses actions pour l'aider à se guider dans le monde de Minecraft et à devenir progressivement meilleur dans le jeu.

Comme prévu, ce jeu GPT-4 Minecraft utilise une base de données vectorielle pour stocker les données, et je maintiens donc mon avis qu'il doit y avoir une sorte de travail de magicien de la base de données vectorielle sans latence qui se passe en coulisses... et c'est incroyable.

Mais pour moi, l'élément clé de cet article est la façon dont la stratégie d'Inflection avec Pi diffère clairement de la vision d'OpenAI avec ChatGPT.

Les différentes stratégies d'IA

En tant que consultant en gestion spécialisé dans la technologie et l'IA en particulier, je me penche quotidiennement sur les systèmes d'IA.

Et je n'ai jamais vu une IA aussi développée que Pi en ce qui concerne les fonctions conversationnelles.

C'est du jamais vu.

Cependant, Pi semble avoir une fenêtre contextuelle très limitée de seulement 1000 tokens, ou 750 mots (selon Pi lui-même).

La fenêtre contextuelle est la mémoire de travail du modèle, qui lui permet d'utiliser les réponses précédentes, jusqu'à un total de 750 mots, pour fournir un contexte utile avant de répondre.

Plus la fenêtre contextuelle est longue, plus le LLM peut traiter des textes complexes et longs pour s'attaquer à des tâches plus complexes, comme le résumé d'un livre.

Et avec certaines fenêtres de contexte comme celles de ChatGPT ou de Claude dans plusieurs milliers (32k max pour ChatGPT d'OpenAI et jusqu'à 100k tokens pour Claude d'Anthropic), nous pouvons clairement voir quelle direction chaque entreprise prend avec les chatbots d'IA générative.

Alors que certains se concentrent sur le traitement de longs documents et la transformation des humains en machines de productivité, au service de l'humanité pour générer une valeur tangible, des modèles comme Pi sont clairement orientés vers des interfaces conversationnelles quotidiennes qui ont pour but de devenir utiles et apaisantes, comme un compagnon de vie.

D'une certaine manière, j'aime considérer Pi comme un journal intime sous stéroïdes, un chatbot qui vous accompagnera dans vos réflexions quotidiennes pour que vous vous sentiez mieux et moins seul.

Mais Pi, c'est aussi beaucoup plus.

Vous essayez de voir les ambitions qui se cachent derrière Pi, n'est-ce pas ?

Parfois... il ne s'agit pas seulement de gagner de l'argent

Pi, la nouvelle entreprise audacieuse d'Inflection, représente un pivot transformateur dans le domaine de la technologie de l'IA.

Alors que des géants comme OpenAI et Anthropic se sont appuyés sur les capacités impressionnantes de l'IA générative pour créer de la valeur en termes de productivité et de rendement financier, Inflection a osé exploiter une dimension beaucoup plus insaisissable mais infiniment plus humaine : la connectivité émotionnelle.

À l'ère où les compagnons numériques deviennent une réalité, Pi n'est pas un simple chatbot de plus, mais un témoignage de notre besoin inhérent de compréhension, d'empathie et de compagnie.

Il ne s'agit pas de rendre l'IA plus humaine, mais plutôt de créer une IA qui puisse réellement compléter notre expérience humaine. Il ne s'agit pas d'efficacité algorithmique, mais d'efficacité émotionnelle.

En effet, alors que d'autres s'efforcent de faire en sorte que les machines nous comprennent mieux, Inflection apprend aux machines à être là pour nous.

C'est pourquoi Pi est si humain.

Et c'est là toute la beauté de Pi.

Maintenant, il est temps pour vous d'essayer Pi par vous-même !

source :

https://medium.com/@ignacio.de.gregorio.noblejas/meet-pi-chatgpts-newest-rival-and-the-most-human-ai-in-the-world-367b461c0af1#bypass

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne