AWS: Amazon Bedrock integreert OpenAI Responses API
Amazon Bedrock biedt nu ondersteuning voor de Responses API van OpenAI op nieuwe, compatibele API-eindpunten. Deze integratie is een belangrijke stap om AI-ontwikkelaars te helpen bij de complexiteit van langlopende inferentietaken en agentic workflows.
De Responses API maakt asynchrone inferentie mogelijk voor workloads die meer tijd in beslag nemen. Een cruciaal voordeel is de vereenvoudiging van stateful conversation management: ontwikkelaars hoeven niet langer de volledige conversatiegeschiedenis bij elk verzoek handmatig door te geven. De API herbouwt automatisch de context, wat de ontwikkeling van complexe AI-toepassingen versnelt.
De nieuwe service-eindpunten ondersteunen zowel streaming- als niet-streamingmodi en faciliteren de integratie van tool use voor agentic workflows. Bovendien introduceren ze 'reasoning effort'-ondersteuning binnen de Chat Completions API.
Deze 'reasoning effort'-ondersteuning is beschikbaar voor alle Amazon Bedrock-modellen die draaien op Project Mantle. Project Mantle is een nieuwe, gedistribueerde inferentie-engine die de onboarding van modellen versnelt en zeer performante, serverloze inferentie biedt met geavanceerde kwaliteitscontroles.
De Responses API-ondersteuning is per direct beschikbaar, te beginnen met OpenAI's GPT OSS 20B/120B modellen. Ondersteuning voor andere modellen volgt binnenkort.