Bien, bien, bien, qu'avons-nous là ? OpenAI a laissé échapper quelques détails passionnants sur son prochain service Foundry, qui est alimenté par nul autre que ChatGPT 4.0 ! Il semble que même les grands esprits d'OpenAI ne peuvent pas s'empêcher de cracher le morceau quand ils ont quelque chose d'aussi enthousiasmant que Foundry en préparation. Je ne peux qu'imaginer le genre de développements révolutionnaires que nous pouvons attendre de ChatGPT 4.0, mais une chose est sûre, il va changer la donne.
Dans cet article, je vais vous donner tous les détails juteux qu'OpenAI a accidentellement laissé échapper sur Foundry et ChatGPT 4.0. Alors attachez vos ceintures, mes amis, parce que ça va être un moment intéressant !
Travis Fisher a pu jeter un coup d'œil au prochain service d'OpenAI, Foundry, qui utilise ChatGPT 4.0 par erreur. Il semble qu'OpenAI prépare quelque chose d'excitant et de révolutionnaire une fois de plus !
Comme l'a indiqué Travis Fisher, Foundry va fournir des serveurs dédiés aux développeurs pour qu'ils puissent créer leurs propres applications sur l'API GPT. Et la meilleure partie ? Les modèles GPT utilisés dans ces serveurs seront alimentés par ChatGPT 4.0, la version la plus récente et la plus avancée de GPT.
Vous pensez peut-être que tout cela est un peu trop beau pour être vrai. Mais d'après les captures d'écran qui ont fuité, certaines des spécifications sont assez impressionnantes. Imaginez un peu que vous ayez accès à une API capable de comprendre le langage naturel et de générer des réponses textuelles de type humain.
Bien sûr, le prix de Foundry se révèle assez élevé. Mais bon, l'innovation et le progrès n'ont pas de prix, n'est-ce pas ? Pour ma part, j'ai hâte de voir ce que les développeurs vont inventer avec ce nouveau service passionnant.
Mais accrochez vous bien, car la partie la plus excitante de cette nouvelle est encore à venir ! Selon les détails qui ont été divulgués, le nouveau modèle DaVinci (également connu sous le nom de GPT 4.0) sera capable d'accepter jusqu'à 32 000 tokens !
Pour mettre cela en perspective, chaque jeton représente environ un mot que ChatGPT peut traiter. Actuellement, ChatGPT fonctionne sur le modèle GPT 3.5 et est limité à 4000 tokens (équivalent à 3500-4000 mots).
Alors, qu'est-ce que cela signifie ? Eh bien, si l'on fait le calcul, 32000 tokens permettraient de multiplier par huit les entrées et sorties de texte ! C'est une puissance de traitement de texte absolument stupéfiante. En tant que développeur Python, j'ai eu de nombreux problèmes avec ChatGPT, soit parce que mon code était trop long en entrée, soit parce que le code en sortie de ChatGPT était trop long et était tronqué quelque part au milieu. Avec le nouveau modèle DaVinci (ChatGPT4.0), ces problèmes pourraient très bien appartenir au passé.
En tant que développeur, je ne peux exprimer à quel point je suis excité d'entendre parler du nouveau ChatGPT 4.0 et du prochain service Foundry. Cette fuite de renseignements sur le nouveau modèle DaVinci, avec sa capacité à accepter jusqu'à 32 000 tokens, signifie qu'un tout nouveau monde de puissance de traitement de texte se profile à l'horizon.
En tant que personne ayant expérimenté les limites de la limite actuelle de 4000 jetons de ChatGPT, j'attends avec impatience la sortie de ChatGPT 4.0. Les possibilités de ce que les développeurs peuvent construire à partir de l'API GPT avec des serveurs dédiés sont infinies.
Il s'agit d'une avancée technologique qui va certainement changer la donne, et vous ne voudrez pas manquer les développements passionnants.
source :
https://medium.com/@neonforge/sneak-peek-chatgpt-4-0-foundry-openai-has-shared-some-interesting-details-by-mistake-748db77d5fbc