Jeudi, OpenAI a annoncé des mises à jour des modèles d'IA qui alimentent son assistant ChatGPT. Au milieu de mises à jour moins remarquables, OpenAI a mentionné un correctif potentiel à un problème de « paresse » largement signalé et observé dans GPT-4 Turbo depuis sa sortie en novembre. La société a également annoncé un nouveau modèle GPT-3.5 Turbo (avec un prix inférieur), un nouveau modèle d'intégration, un modèle de modération mis à jour et une nouvelle façon de gérer l'utilisation des API.
« Aujourd'hui, nous publions un modèle d'aperçu GPT-4 Turbo mis à jour, gpt-4-0125-preview. Ce modèle accomplit des tâches telles que la génération de code de manière plus approfondie que le modèle d'aperçu précédent et est destiné à réduire les cas de « paresse » où le modèle ne termine pas une tâche », écrit OpenAI dans son article de blog.
Depuis le lancement de GPT-4 Turbo, un grand nombre d'utilisateurs de ChatGPT ont signalé que la version ChatGPT-4 de son assistant IA refusait d'effectuer des tâches (en particulier des tâches de codage) avec la même profondeur exhaustive que dans les versions précédentes de GPT-4. Nous avons nous-mêmes constaté ce comportement en expérimentant ChatGPT au fil du temps.
OpenAI n'a jamais proposé d'explication officielle pour ce changement de comportement, mais les employés d'OpenAI ont précédemment reconnu sur les réseaux sociaux que le problème est réel, et le compte ChatGPT X a écrit en décembre, « Nous avons entendu tous vos commentaires sur le fait que GPT4 devenait plus paresseux ! Nous n'avons pas mis à jour le modèle depuis le 11 novembre, et ce n'est certainement pas intentionnel. Le comportement du modèle peut être imprévisible et nous cherchons à le corriger. «
Nous avons contacté OpenAI pour lui demander s'il pouvait fournir une explication officielle du problème de paresse, mais nous n'avons pas reçu de réponse au moment de la publication.
Nouveau GPT-3.5 Turbo, autres mises à jour
Ailleurs dans la mise à jour du blog d'OpenAI, la société a annoncé une nouvelle version de GPT-3.5 Turbo (gpt-3.5-turbo-0125), qui, selon elle, offrira « diverses améliorations, notamment une plus grande précision dans la réponse dans les formats demandés et un correctif pour un bug qui a provoqué un problème d'encodage de texte pour les appels de fonctions dans une langue autre que l'anglais. »
Et le coût de GPT-3.5 Turbo via l'API d'OpenAI diminuera pour la troisième fois cette année « pour aider nos clients à évoluer ». Les prix des nouveaux jetons d’entrée sont inférieurs de 50 %, à 0,0005 $ pour 1 000 jetons d’entrée, et les prix de sortie sont inférieurs de 25 %, à 0,0015 $ pour 1 000 jetons de sortie.
Des prix de jeton plus bas pour GPT-3.5 Turbo rendront l'exploitation des robots tiers beaucoup moins coûteux, mais le modèle GPT-3.5 est généralement plus susceptible de fabuler que GPT-4 Turbo. Nous pourrions donc voir davantage de scénarios comme le robot de Quora disant aux gens que les œufs peuvent fondre (bien que l'instance utilisait un modèle GPT-3 désormais obsolète appelé text-davinci-003). Si les prix de l’API GPT-4 Turbo baissent avec le temps, certains de ces problèmes d’hallucination avec des tiers pourraient éventuellement disparaître.
OpenAI a également annoncé de nouveaux modèles d'intégration, text-embedding-3-small et text-embedding-3-large, qui convertissent le contenu en séquences numériques, facilitant ainsi les tâches d'apprentissage automatique telles que le clustering et la récupération. Et un modèle de modération mis à jour, text-moderation-007, fait partie de l'API de l'entreprise qui « permet aux développeurs d'identifier les textes potentiellement dangereux », selon OpenAI.
Enfin, OpenAI apporte des améliorations à sa plate-forme de développement, en introduisant de nouveaux outils de gestion des clés API et un nouveau tableau de bord pour suivre l'utilisation des API. Les développeurs peuvent désormais attribuer des autorisations aux clés API à partir de la page des clés API, contribuant ainsi à lutter contre l'utilisation abusive des clés API (si elles tombent entre de mauvaises mains) qui peuvent potentiellement coûter beaucoup d'argent aux développeurs. Le tableau de bord de l'API permet aux développeurs de « visualiser l'utilisation au niveau de la fonctionnalité, de l'équipe, du produit ou du projet, simplement en ayant des clés API distinctes pour chacun ».
Alors que le monde des médias semble tourbillonner autour de l'entreprise avec des controverses et des réflexions sur les implications de sa technologie, des publications comme celles-ci montrent que les équipes de développement d'OpenAI continuent comme d'habitude avec des mises à jour à un rythme assez régulier. Bien que l'entreprise se soit presque complètement effondrée à la fin de l'année dernière, il semble que, sous le capot, les affaires se déroulent comme d'habitude pour OpenAI.