OpenAI : nouveaux SDK, nouvelles API pour les Agents IA

Par:
francoistonic

ven, 28/03/2025 - 08:50

Pour OpenAI, 2025 est sous le signe des agents IA. L'éditeur annonce plusieurs API pour les développeurs pour créer et déployer les agents :

  • La nouvelle API Responses qui simplifie la création d'agents et constitue la première brique pour exploiter les outils intégrés d'OpenAI afin de construire des agents. Il suffit de moins de quatre lignes de code pour démarrer – elle est conçue pour les développeurs qui souhaitent combiner aisément les modèles d'OpenAI et les outils intégrés dans leurs applications, sans la complexité d'intégrer plusieurs API ou fournisseurs externes.

  • L'API Responses intègre désormais des outils tels que la recherche sur le web, la recherche de fichiers et l'utilisation de l'ordinateur – les mêmes modèles qui alimentent la recherche dans ChatGPT et Operator – offrant aux agents un accès direct à des informations et fonctionnalités pertinentes.

  • Pour simplifier davantage le développement, le kit de développement logiciel (SDK) Agents permet aux développeurs de gérer facilement les flux de travail des agents ou de coordonner plusieurs agents ensemble.

OpenAI prend en charge le Model Context Protocol, MCP. MCP s'impose comme un standard (et non une norme). Il a été développé par Anthropic. MCP doit faciliter l'accès aux informations de multiples sources de données. Il doit permettre d'améliorer la qualité des réponses des assistants et agents. MCP est un protocole permettant aux apps de fournir un contexte aux LLM. Le SDK Agents supporte MCP. 

OpenAI annonce aussi de nouveaux modèles pour la reconnaissance vocale et la synthèse vocale :

  • Les deux derniers modèles de reconnaissance vocale établissent un nouveau standard de pointe, surpassant les solutions existantes sur des critères tels que le taux d'erreur de mots (WER) en anglais ainsi que dans plusieurs autres grandes langues.

  • Nous introduisons également un nouveau modèle de synthèse vocale avec une meilleure capacité de guidage. Pour la première fois, les développeurs peuvent également demander au modèle de synthèse vocale de parler d'une manière spécifique.

Post de blog sur la partie audio : https://openai.com/index/introducing-our-next-generation-audio-models/