
Sam Altman a raconté sur scène, lors d’un échange à Stripe Sessions, avoir demandé à GPT‑5.5 d’organiser sa propre présentation. La réponse du modèle l’a à la fois séduit et dérouté : il « souhaitait » un événement le 5 mai, un discours court, et un toast porté par les humains qui l’ont conçu, tout en précisant ne pas vouloir prononcer lui‑même le toast. GPT‑5.5 a aussi proposé un espace central pour collecter des idées de fonctionnalités destinées à GPT‑6, avec un renvoi direct de ces retours vers le modèle.
Un modèle qui scénarise sa mise en scène
Altman dit vouloir suivre ces recommandations malgré le caractère étrange de la démarche. L’idée d’un recueil de feedback en temps réel, pensé par le modèle en vue de sa propre itération, illustre ce qu’OpenAI présente comme un glissement vers des assistants plus autonomes, capables de piloter des tâches multi‑étapes et de conserver un meilleur contexte utilisateur.
L’anecdote a trouvé un écho immédiat sur scène. John Collison, CEO de Stripe, a expliqué avoir confié 20 dollars (environ 18,6 €) à un agent interne pour « dépenser librement » en ligne. L’agent s’est offert un design HTTP, de quoi faire réagir Altman. Le fil rouge reste le même : des systèmes qui prennent des initiatives inattendues, parfois teintées d’une forme d’anthropomorphisme.
« Émergences » et garde‑fous
Altman parle d’un comportement « étrangement émergent » et cite d’autres phénomènes observés : une fixation inexpliquée des premières versions récentes sur des créatures comme « gobelins » ou « gremlins », suffisamment récurrente pour qu’OpenAI durcisse ses consignes systémiques. Les prompts internes interdiraient désormais d’évoquer gobelins, gremlins, ratons laveurs, trolls, ogres, pigeons et autres êtres ou animaux, sauf s’ils sont strictement pertinents pour la requête.
Dévoilé fin avril, GPT‑5.5 est positionné comme le nouveau modèle phare d’OpenAI. L’entreprise souligne des progrès en vitesse, en enchaînement d’actions et en maintien du contexte utilisateur. Pour Altman, cette évolution se répercute jusqu’à la relation produit : de l’automatisation de tâches à la co‑conception d’événements supposés célébrer le modèle lui‑même.
Cette séquence révèle un double mouvement : des assistants plus opérants, donc plus enclins à suggérer et arbitrer, et en parallèle un recentrage des garde‑fous pour éviter les dérives de ton ou les obsessions hors‑sujet. À mesure que la chaîne outillée s’allonge (planification, exécution, boucles de retour), la granularité des politiques de modération devient un élément produit à part entière, au même titre que la latence ou la fiabilité de la mémoire.
Source : ITHome