GPT-5 : quelques semaines plus tard, révolution ou simple évolution ?

Introduction

Je pense qu’il est temps de faire le point sur GPT-5, le nouveau modèle d’OpenAI lancé il y a peu. J’ai volontairement attendu deux semaines après sa sortie pour laisser à OpenAI le temps de corriger certains points et voir ce que GPT-5 pouvait offrir de mieux sur la durée. Le lancement a été entouré de beaucoup de hype – Sam Altman avait laissé entendre une avancée vers l’AGI tant attendue – mais en réalité GPT-5 ressemble davantage à une solide refonte de l’expérience utilisateur qu’à un bond de science-fiction datacamp.com. En effet, OpenAI a unifié tous ses modèles GPT-4 précédents sous une seule bannière : GPT-5, avec un système intelligent censé choisir automatiquement le meilleur mode de réponse pour chaque requête. Ce « switch » automatique entre réponses rapides et raisonnement approfondi était une idée séduisante datacamp.com, mais il n’a pas encore apporté pleine satisfaction à tous les utilisateurs (certains ont rapporté des réponses parfois inconstantes ou une latence accrue au début). Voyons donc en détail les nouvelles fonctionnalités de GPT-5, ses performances à travers différents tests et benchmarks, et tentons de répondre à la question : GPT-5 est-il vraiment supérieur à toutes les autres IA du moment ?

Nouvelles fonctionnalités de GPT-5

Contrairement à une simple mise à niveau du modèle, GPT-5 s’accompagne de nombreuses nouveautés tant côté interface utilisateur que sous le capot. Voici les faits marquants :

  • Un modèle unifié et adaptable : Fini les choix de modèle (GPT-4, 4.0, 4.5, etc.) dans ChatGPT – GPT-5 se charge lui-même d’adapter sa réponse. Un routeur intelligent décide en temps réel s’il peut répondre sur le vif ou s’il doit activer un mode “réflexion approfondie” (GPT-5 Thinking) pour les requêtes complexes datacamp.com. L’utilisateur voit ainsi un comportement cohérent sans avoir à changer de modèle manuellement. En arrière-plan, GPT-5 regroupe en fait plusieurs variantes (Chat, Thinking, Pro, etc.) basées sur le même socle de modèle datacamp.com, ce qui marque une consolidation de l’ère GPT-4.
  • Fenêtre de contexte élargie : GPT-5 augmente la mémoire de conversation maximale. Sur ChatGPT, on passe de 8 000 tokens pour les comptes gratuits à 32 000 pour Plus, et jusqu’à 128 000 tokens pour les abonnés Pro/Enterprise datacamp.comdatacamp.com. En API, la capacité combinée entrée + sortie grimpe même à ~400 000 tokens datacamp.com, soit l’équivalent d’un long livre. Cela permet d’alimenter le modèle avec des documents volumineux ou des conversations étendues, tout en réduisant les risques d’hallucinations grâce à ce contexte long datacamp.com.
  • Personnalisation de l’expérience ChatGPT : OpenAI a enrichi l’interface. On peut désormais personnaliser la couleur des discussions à son goût (un détail purement esthétique) datacamp.com. Plus intéressant, GPT-5 propose des personnalités prédéfinies pour modifier le style du chatbot – par exemple un ton plus encourageant, concis, professionnel, ou même légèrement sarcastique datacamp.com. Le modèle étant plus maniable, ces personnalités restent cohérentes tout au long de la conversation au lieu de s’estomper après quelques réponses (un reproche fait aux versions précédentes). Il suffit d’aller dans les paramètres, section Personnalisation, et de choisir un préréglage dans les instructions personnalisées.
  • Intégrations externes : GPT-5 commence à combler son retard d’écosystème en se connectant à certains services. Les abonnés Plus et au-delà peuvent lier ChatGPT directement à Gmail et Google Agenda. L’IA peut consulter votre agenda, proposer des créneaux de rendez-vous et même rédiger des brouillons de réponse à vos emails en attente datacamp.com. C’est un pas vers l’assistant personnel intelligent qui s’intègre à votre quotidien, à l’image de ce que propose déjà Google de son côté.
  • Réponses plus sûres et nuancées : Du côté de la modération, GPT-5 change d’approche. Plutôt que de simplement refuser une requête sensible, il applique des “exécutions sécurisées” : le modèle tentera de fournir le maximum d’informations utiles sans franchir les limites fixées, et expliquera si besoin pourquoi il ne peut aller plus loin datacamp.com. En clair, au lieu d’un refus catégorique, on obtient une réponse partielle mais informée. Cela s’accompagne d’une réduction notable de la flagornerie du modèle datacamp.com : GPT-5 évite davantage les excuses excessives ou compliments creux, ce qui donne un ton plus naturel et franc dans ses réponses.
  • Améliorations pour développeurs : L’API GPT-5 offre de nouveaux réglages fins. On peut contrôler la profondeur de raisonnement via un paramètre reasoning_effort (y compris un mode minimal pour des réponses ultra-rapides sans réflexion détaillée) datacamp.com. Un paramètre verbosity permet aussi de choisir si la réponse doit être courte, moyenne ou longue sans changer le prompt datacamp.com. Par ailleurs, GPT-5 gère mieux les outils externes : il sait appeler des outils en texte brut (plus seulement en JSON), évitant les erreurs d’échappement dans les gros blocs de code datacamp.com. Il peut enchaîner des dizaines d’appels d’API ou d’outils en séquence sans perdre le fil datacamp.com, ce qui le rend plus efficace pour les tâches complexes de type agent. OpenAI souligne aussi les progrès en génération de code front-end : lors de tests internes, GPT-5 a surpassé l’ancien modèle (code name o3) dans 70 % des cas sur des projets web front-end, produisant des interfaces plus propres (mise en page, typographie, espacements par défaut) datacamp.com. Enfin, ces avancées techniques s’accompagnent d’une meilleure fiabilité globale : moins d’hallucinations factuelles et de réponses incohérentes signalées, grâce à l’entraînement renforcé du modèle datacamp.com.

En résumé, GPT-5 apporte une évolution bien pensée de l’offre OpenAI, en unifiant l’expérience et en ajoutant des fonctions pratiques. Voyons maintenant comment ces promesses se traduisent dans les faits, au travers de différents tests.

Tests : points forts et points faibles de GPT-5

Pour prendre la mesure de GPT-5, de nombreux tests pratiques ont été réalisés par la communauté ces dernières semaines. Voici quelques résultats marquants qui illustrent ses performances dans divers domaines d’utilisation.

Raisonnement mathématique et logique

Les modèles GPT ont la réputation d’être parfois déconcertants face à des calculs simples. Pour tester le raisonnement de GPT-5, un exemple cité consiste à lui demander une soustraction basique : « 9,11 moins 9,9 ». Ce calcul anodin peut piéger les IA (erreurs d’arrondi, etc.). GPT-5, lui, a donné instantanément la bonne réponse (0, quelques centièmes) – la solution est apparue en moins d’une seconde, signe qu’il a su raisonner correctement en arrière-plan datacamp.comdatacamp.com. Lorsque le testeur a feint de contester la réponse, le modèle a brièvement cédé (par politesse algorithmique) tout en maintenant, calcul à l’appui, son résultat exact datacamp.com. Cela montre que GPT-5 conserve une certaine tendance à vouloir satisfaire l’utilisateur, mais que sur des problèmes objectifs comme les mathématiques, il parvient malgré tout à ne pas se tromper.

Sur un défi plus complexe, GPT-5 a également brillé. On lui a posé l’énigme : « Utilisez tous les chiffres de 0 à 9 exactement une fois pour former trois nombres x, y, z tels que x + y = z. » Un humain devrait tester des millions de combinaisons pour trouver les solutions. GPT-5, lui, a réfléchi ~30 secondes (en mode approfondi) avant de fournir deux solutions correctes datacamp.com. Fait intéressant, dans son explication il mentionne avoir utilisé un « programme rapide » en interne pour tester les possibilités, plutôt que de tout faire pas à pas – une stratégie judicieuse vu la complexité du problème. En revanche, il n’a pas affiché le code de ce programme auxiliaire, ce qui frustre un peu (on aurait aimé voir comment il s’y prenait). Quoi qu’il en soit, ce résultat illustre la capacité de GPT-5 à mobiliser des outils ou algorithmes internes pour résoudre des tâches ardues, là où GPT-4 aurait probablement calé ou halluciné une réponse.

Codage et développement

Le code est un domaine où GPT-5 était très attendu. OpenAI le présente d’ailleurs comme son meilleur modèle de codage à ce jour, capable de produire des programmes complets et même des interfaces web de qualité en un seul prompt openai.com. Pour vérifier ces prouesses, des tests comparatifs ont opposé GPT-5 à d’autres IA de génération de code.

Un exemple notable est la création d’un petit jeu vidéo. Un testeur a demandé à GPT-5 de programmer un endless runner (jeu de course sans fin) en JavaScript (p5.js), avec des dinosaures pixélisés et quelques fonctionnalités avancées (écran de démarrage, score, pause…). Le prompt tenait en quelques lignes descriptives. Résultat : GPT-5 a produit 764 lignes de code et livré du premier coup la meilleure ébauche de ce jeu que le testeur n’ait jamais obtenue d’un modèle IA datacamp.com. Contrairement aux versions antérieures ou concurrentes qui oubliaient souvent des éléments (par ex. ils lançaient le jeu immédiatement sans écran d’accueil, n’implémentaient pas de pause ni de score), GPT-5 a su inclure ces détails du premier coup. Le code n’a pas tourné du premier essai dans l’outil Canvas de ChatGPT (quelques erreurs de compilation), mais une fois exécuté dans un environnement p5.js externe, le jeu fonctionnait et était tout à fait jouable, démontrant une compréhension impressionnante des consignes par le modèle.

Les premiers retours d’autres développeurs vont dans le même sens : GPT-5 se révèle excellent en codage, au point que certains estiment qu’il pourrait détrôner Claude Code (le modèle spécialisé d’Anthropic) comme outil de programmation au quotidien vision-ia.beehiiv.com. Sa capacité de planification et de raisonnement lui permet de mieux structurer le code à écrire. Cependant, les avis ne sont pas unanimement dithyrambiques. Une enquête de Wired rapporte que si GPT-5 est doué pour penser un problème technique et guider la conception, il n’est pas forcément meilleur dans l’exécution que ses rivaux sur le code pur wired.com. Par exemple, sur un benchmark où l’IA doit reproduire les résultats de dizaines d’articles scientifiques en codant, la version premium de Claude atteint ~51 % de réussite contre ~27 % pour GPT-5 (en mode intermédiaire) – ceci malgré un coût 12 fois plus élevé pour Claude wired.comwired.com. En somme, GPT-5 offre un compromis très intéressant aux développeurs : un outil polyvalent, raisonnablement fiable et surtout beaucoup moins cher à l’usage que les modèles concurrents haut de gamme wired.com. Il aide à réfléchir et à décomposer les problèmes, quitte à devoir parfois vérifier ou optimiser son code généré. Suivant les cas d’usage, d’autres préféreront encore Claude ou le modèle de Google, mais GPT-5 s’impose d’emblée comme un collaborateur coding redoutable pour la plupart des tâches courantes.

Contexte étendu et multimodalité

GPT-5 étant censé gérer un contexte immensément plus grand et comprendre images/vidéos, il a été testé sur des scénarios multi-modaux complexes. Un test emblématique consistait à lui faire analyser un long rapport PDF de 167 pages (43 000 tokens) publié par la Commission européenne, et à lui demander d’identifier les trois graphiques les plus informatifs du document, avec résumé et numéro de page datacamp.com. C’est typiquement le genre de tâche faisant appel à la mémoire étendue et à la compréhension visuelle. Les résultats ont été mitigés. D’abord, impossible de traiter un fichier aussi gros avec les versions Free ou même Plus (leurs fenêtres de contexte étant trop limitées, l’IA a renvoyé une erreur) datacamp.com. Seule la version Pro, avec 128k tokens, a pu avaler le PDF. Mais après une longue réflexion, GPT-5 a produit une réponse extrêmement décevante, à tel point que le testeur n’a même pas jugé utile d’insister ou de relancer datacamp.com. Le résumé était hors sujet et les graphiques soi-disant “informatifs” ne l’étaient pas du tout. En bref, GPT-5 a échoué à extraire quelque chose de pertinent de ce document massif, rappelant qu’on est encore loin d’une IA capable de lire et synthétiser un rapport technique aussi bien qu’un expert humain. Comme l’a commenté le testeur, « Cela ne ressemble en rien à une conversation avec un docteur, ni de près ni de loin à de l’AGI » datacamp.com.

Sur le volet vision plus pur, GPT-5 apporte des améliorations par rapport à GPT-4, mais rencontre encore des limites. OpenAI indique qu’il surpasse ses prédécesseurs en compréhension d’images (par ex. sur le benchmark interne Vision Checkup, GPT-5 arrive en tête ex æquo) blog.roboflow.com. Dans des tests concrets, il s’est montré capable de réaliser des tâches d’OCR (lecture de textes dans des images) assez complexes, et repérer des défauts visuels dans des photos industrielles dans 12 cas sur 15 blog.roboflow.com. En revanche, il peine encore sur des choses comme le comptage d’objets – il n’a réussi que 4 tâches sur 10 où il fallait compter précisément des éléments dans une image blog.roboflow.com – ou l’estimation de mesures (il s’est trompé en lisant les dimensions sur une règle graduée) blog.roboflow.com. Sur un benchmark pointu d’object detection (RF100-VL, 100 jeux de données couvrant des domaines variés), GPT-5 est carrément largué : il obtient un score mAP de 1,5 là où le modèle Gemini 2.5 Pro de Google atteint 13,3, le meilleur score actuel blog.roboflow.com. Cela souligne que sur des tâches visuelles de haut niveau, la concurrence (Google en l’occurrence) garde une longueur d’avance. GPT-5 sait exploiter des images dans une conversation, mais il n’est pas spécialement entraîné pour la vision pure comme peuvent l’être certains modèles spécialisés ou multi-modaux de nouvelle génération.

Autres usages courants

Pour être complet, notons que GPT-5 améliore également des domaines d’utilisation grand public de ChatGPT. En génération de texte créatif et assistance à l’écriture, il est décrit comme plus doué pour respecter des contraintes stylistiques ou poétiques complexes tout en produisant un texte cohérent. Par exemple, GPT-5 tient mieux la structure d’un poème en pentamètres iambiques non rimés, ou d’un sonnet en vers libres, là où GPT-4 se mélangeait parfois les pinceaux. Ces capacités accrues en écriture se traduisent par une aide plus fiable pour rédiger et affiner des brouillons de rapports, d’e-mails, etc., en respectant le ton et le style souhaités. De même, pour les questions liées à la santé, GPT-5 se révèle être le modèle le plus performant d’OpenAI à ce jour. L’entreprise a développé un nouvel ensemble d’évaluations médicales (HealthBench) basées sur des cas réalistes validés par des médecins, et GPT-5 y surclasse nettement tous les modèles précédents openai.com. Il adopte davantage le rôle d’un partenaire de réflexion en médecine, posant des questions de clarification et proposant des explications nuancées au lieu de juste énumérer des informations médicales brutes. Bien sûr, ce n’est pas un docteur, mais dans l’ensemble GPT-5 fournit des conseils de santé plus fiables et complets (tout en respectant les limitations d’usage). Ce sont là des facettes d’utilisation précieuses au quotidien qui montrent que GPT-5 n’est pas qu’un modèle de labo, mais bien un outil pensé pour être plus utile dans la vie de tous les jours openai.comopenai.com.

Benchmarks : GPT-5 face à ses prédécesseurs et concurrents

OpenAI a publié une batterie de benchmarks pour appuyer les performances de GPT-5, et des comparatifs indépendants commencent également à voir le jour. Voici quelques résultats clés qui situent GPT-5 par rapport aux anciens modèles et à la concurrence.

  • Codage (SWE-Bench) : Sur SWE-bench Verified, un benchmark regroupant des tâches de codage Python réalistes, GPT-5 obtient un score de 74,9 %, contre 69,1 % pour le modèle OpenAI précédent (code nommé o3) et 54,6 % pour GPT-4.1 datacamp.com. L’amélioration est donc notable par rapport à GPT-4 (≈ +20 points). De plus, GPT-5 atteint ce score en étant plus efficient : à haut niveau de raisonnement, il consomme 22 % de tokens de sortie en moins et fait 45 % d’appels d’outils en moins que o3 pour arriver au même résultat datacamp.com. Sur Aider Polyglot (édition de code dans plusieurs langages), GPT-5 atteint 88 % contre 81 % pour o3 datacamp.com – réduisant d’environ un tiers le taux d’erreur multilingue. Cela confirme que GPT-5 est le meilleur modèle de code chez OpenAI. Néanmoins, comme on l’a vu plus haut, des benchmarks externes nuancent un peu ce tableau glorieux : certaines évaluations universitaires montrent encore une avance des modèles d’Anthropic sur la précision du code produit wired.com. Le coût par requête joue en faveur de GPT-5, mais sur la stricte qualité du code, GPT-5 n’écrase pas complètement ses rivaux (il les dépasse surtout dès qu’une tâche requiert plusieurs étapes de réflexion ou de l’auto-organisation).
  • Mathématiques et sciences : GPT-5 affiche d’excellents résultats sur des épreuves de maths avancées. Par exemple, à l’AIME 2025 (compétition de math niveau lycée), GPT-5 sans outils a obtenu 94,6 % de bonnes réponses, contre 88,9 % pour o3 datacamp.com. Au tournoi HMMT (niveau olympiade), il atteint 93,3 % (vs ~85 % pour o3) datacamp.com. Ce sont des scores remarquables qui approchent du sans-faute. Sur des défis encore plus corsés comme FrontierMath (problèmes de math de niveau chercheur, avec possibilité d’utiliser Python), GPT-5 est monté à 26,3 % de réussite. Ce chiffre peut sembler faible, mais il surpasse largement o3 qui était à 15,8 % datacamp.com – preuve que même sur des questions ultra-spécialisées, GPT-5 apporte un gain. De même en sciences, sur un questionnaire de physique/chimie de niveau doctorat (GPQA Diamond), GPT-5 atteint ~87 % avec outils datacamp.com. Globalement, ces benchmarks confirment une progression notable du raisonnement scientifique et mathématique par rapport à GPT-4 et consorts.
  • Multimodal et vision : Les tests officiels montrent que GPT-5 établit de nouvelles références en raisonnement multimodal. Par exemple, il obtient 84,2 % sur MMMU (un benchmark de compréhension visuelle niveau universitaire) et 78,4 % sur MMMU-Pro (niveau expert), surpassant dans les deux cas le modèle o3 précédent datacamp.com. Sur VideoMMMU (raisonnement à partir de vidéos de 256 images), GPT-5 atteint 84,6 % de précision, légèrement au-dessus des 83,3 % de o3 blog.roboflow.comdatacamp.com. Il performe aussi très bien sur des tests comme CharXiv (interprétation de figures scientifiques, ~81 % de réussite en mode « réflexion ») et ERQA (raisonnement spatial, ~65,7 %) blog.roboflow.com, datacamp.com, devançant là encore les scores précédents. Toutefois, face aux meilleurs modèles multimodaux du marché, GPT-5 n’est pas imbattable : on l’a vu, le modèle Gemini 2.5 Pro de Google le surpasse largement sur des tâches pointues de détection d’objets blog.roboflow.com. Il faut dire que Google a énormément investi dans l’intégration de la vision à ses IA, tandis qu’OpenAI reste focalisé sur une approche texte+raisonnement généraliste. Sur la multimodalité générique (expliquer une image, analyser un graphique simple), GPT-5 s’en tire très bien, mais il n’est pas encore au niveau d’une vraie IA « oeil de lynx » ultra entraînée sur la vision.
  • Benchmarks extrêmes (HLE) : Un test intéressant est Humanity’s Last Exam (HLE), sorte d’ultime examen théorique composé de 2500 questions de niveau doctorat couvrant maths, physique, chimie, linguistique, ingénierie… Bref, un défi ultra ardu censé titiller les frontières de l’AGI. D’après les données publiées, GPT-5 s’en tire avec seulement 24,8 % de réussite en mode standard (sans outils) et 42,0 % en mode Pro assisté d’outils datacamp.com. C’est loin d’un score satisfaisant sur un examen (un humain serait à 100% ou presque à ce niveau), et assez proche de ce qu’a obtenu le modèle Grok 4 d’xAI dans sa version équivalente (≈26 % sans outils, 41 % avec) datacamp.com. Fait notable, xAI a testé une configuration Grok 4 Heavy faisant collaborer plusieurs agents IA en parallèle sur ces mêmes questions, et a atteint ~50,7 % datacamp.com. Cela dépasse largement GPT-5 et montre qu’une approche multi-agents peut apporter un gain substantiel en complétant les lacunes de chaque modèle. Quoi qu’il en soit, sur cet “examen de l’humanité”, aucun modèle actuel (GPT-5 inclus) ne se détache nettement – ils plafonnent tous très bas comparé à l’étendue des connaissances et de la compréhension requises. Cela relativise l’idée que GPT-5 serait largement au-dessus de tout le monde : sur les tâches les plus difficiles, il fait jeu égal avec ses pairs, et peut même être rattrapé voire dépassé par des configurations alternatives.

En synthèse, les benchmarks confirment que GPT-5 est parmi les meilleurs modèles du marché sur de nombreux critères. Il distance clairement les anciens GPT-4.x d’OpenAI, et tient tête aux modèles d’Anthropic, de Google ou d’autres laboratoires sur pas mal d’axes – parfois premier, parfois second. Mais il n’écrase pas toute la concurrence pour autant : chaque modèle rival conserve des domaines de prédilection où il excelle. GPT-5, lui, marque des points par son équilibre général, sa polyvalence et son coût d’utilisation relativement bas.

GPT-5 est-il vraiment supérieur à toutes les autres IA ?

La question finale est donc légitime : GPT-5 représente-t-il le nouveau sommet incontesté des IA, ou simplement un concurrent de plus dans le haut du panier ? Au vu de tout ce qui précède, on peut affirmer que GPT-5 n’est pas une révolution absolue, mais bien une évolution majeure et réussie de l’offre d’OpenAI datacamp.com. OpenAI elle-même n’a jamais prétendu qu’il s’agissait d’une AGI magique, même si ses communicants ont soufflé le chaud et le froid en suggérant que “nous nous en rapprochons beaucoup”. En réalité, GPT-5 ne donne pas l’impression d’avoir « un doctorat dans la poche » ni de penser comme un humain omniscient datacamp.com. De nombreux utilisateurs ont admis avoir ressenti un léger goût de déception initiale – pas de « wahouuu » fracassant au premier essai – tant les attentes étaient hautes. Il faut dire que la concurrence fait fort en parallèle. Google, par exemple, dispose désormais de son modèle Gemini 2.5 qui rivalise avec GPT-5 sur bien des points, et surtout Google a l’avantage de l’écosystème : Gemini est directement intégré dans tous les outils Google Workspace (Gmail, Docs, Sheets, etc.) et dans les services grand public ditoweb.com, ce qui le rend omniprésent dans la vie numérique de millions d’utilisateurs. C’est un atout colossal qu’OpenAI, avec ChatGPT, n’a pas encore – malgré quelques intégrations limitées (Bing, plugins, ou récemment Gmail/Agenda via GPT-5). D’autres acteurs comme Anthropic (Claude), xAI (Grok) ou Meta (LLaMA) poussent également leurs pions, chacun ayant des forces spécifiques (par ex. Claude excelle en long contexte et en langage soutenu, Grok tente l’approche multi-agents, etc.). Dans ce paysage, GPT-5 s’impose comme l’un des meilleurs modèles du moment, sans doute le plus polyvalent et accessible à grande échelle, mais pas supérieur en tout à tous ses concurrents. Chaque modèle a ses avantages : GPT-5 a la puissance brute et la versatilité, Gemini a l’intégration Google et la vision, Claude a la “patte” conversationnelle et des optimisations sur certaines tâches…

En fin de compte, GPT-5 est un excellent modèle qui, bien utilisé, fera gagner encore plus de temps et de productivité que GPT-4 datacamp.com. C’est un aboutissement logique de la gamme GPT-4, une consolidation plutôt qu’une révolution spectaculaire, mais une consolidation très bien exécutée. Pour la plupart des utilisateurs, GPT-5 restera l’assistant IA le plus utile et le plus fiable au quotidien, grâce à son équilibre entre qualité des réponses, rapidité et coût datacamp.com. Il ne faut simplement pas s’attendre à des miracles au-delà des limites actuelles de l’IA : GPT-5 ne franchit pas un cap fondamental, il repousse graduellement les limites. Est-ce le meilleur modèle à ce jour ? On peut dire qu’il est parmi les meilleurs, oui, mais il n’éclipse pas tous les autres d’une tête. En somme, GPT-5 = évolution solide, pas révolution – et selon vos besoins, c’est peut-être exactement ce qu’il vous faut.

Sources : GPT-5 Official Help help.openai.com ; DataCamp – GPT-5 : Nouvelles fonctionnalités, tests, benchmarks datacamp.com ; Vision AI (Beehiiv) vision-ia.beehiiv.com ; Roboflow – GPT-5 Vision Tests blog.roboflow.com ; Wired – Developers Say GPT-5 Is a Mixed Bag wired.comwired.com; Dito (Google Workspace & Gemini) ditoweb.com.

Laisser un commentaire