OpenAI élargit l’accès à son API multimodale, mais des études récentes soulignent les limitations et les imperfections persistantes du système.
OpenAI met à la disposition d'un public plus large son API multimodale, des recherches récentes mettent en évidence des limitations et des imperfections persistantes au sein du système. Lors de sa première conférence destinée aux développeurs, OpenAI a dévoilé des informations concernant GPT-4, son modèle phare d'IA pour la génération de texte, qui est désormais capable de comprendre le contexte des images en plus du texte. Cette version, nommée "GPT-4 avec vision," peut légender et même interpréter des images relativement complexes, telles que l'identification d'un adaptateur Lightning Cable à partir d'une image d'un iPhone connecté. Initialement, l'accès à GPT-4 avec vision...