Site Web de ChatGPT GPT-4o vu sur un iPhone. Les capacités de vision tant attendues de ChatGPT pourraient arriver bientôt, selon certains enquêteurs aux yeux d’aigle.

Android Authority a repéré quelques lignes de code dans la partie Mode Vocal Avancé de la dernière version bêta de ChatGPT v1.2024.317, qui pointent vers quelque chose appelé “Caméra en direct.” Le code semble être un avertissement aux utilisateurs de ne pas utiliser la Caméra en direct “pour la navigation en direct ou les décisions qui pourraient affecter votre santé ou votre sécurité.”

Une autre ligne dans le code semble donner des instructions pour les capacités de vision en disant : “Tapez sur l’icône de la caméra pour permettre à ChatGPT de voir et de discuter de votre environnement.”

VOIR ÉGALEMENT :

Mises à jour de ChatGPT pour Windows et macOS : Tout ce que vous devez savoir

Les capacités évolutives de ChatGPT : Vision, voix et au-delà

La capacité de ChatGPT à traiter visuellement l’information était une fonctionnalité majeure présentée lors de l’événement OpenAI en mai dernier, lançant GPT-4o. Les démonstrations de l’événement ont montré comment GPT-4o pouvait utiliser une caméra mobile ou de bureau pour identifier des sujets et se souvenir de détails sur les visuels. Une démonstration particulière mettait en avant GPT-4o identifiant un chien jouant avec une balle de tennis et se souvenant que son nom est “Bowser.”

Depuis l’événement OpenAI et l’accès précoce accordé à quelques chanceux testeurs alpha, il n’a pas été beaucoup question de GPT-4o avec vision. Entre-temps, OpenAI a expédié le Mode Vocal Avancé aux utilisateurs de ChatGPT Plus et Team en septembre.

Si le mode vision de ChatGPT est imminent comme le suggère le code, les utilisateurs pourront bientôt tester les deux composantes des nouvelles fonctionnalités de GPT-4o annoncées au printemps dernier.

OpenAI a été très occupé ces derniers temps, malgré les rapports de rendements diminuants avec les futurs modèles. Le mois dernier, il a lancé ChatGPT Search, qui connecte le modèle d’IA au web, fournissant des informations en temps réel. On dit aussi qu’il travaille sur une sorte d’agent capable de réaliser des tâches en plusieurs étapes pour le compte de l’utilisateur, comme écrire du code et naviguer sur le web, vraisemblablement prévu pour une sortie en janvier.

Share this post

Articles similaires

21 NOVEMBRE 2024

Le département de la Justice confirme qu’il veut que Google se débarrasse de Chrome

Le ministère américain de la Justice (DoJ) a publié un document de 23 pages appelant à la scission de Google, y compris une vente du navigateur web Chrome et des restrictions sur Android, confirmant des rapports précédents. Vendre Chrome "mettra fin de manière permanente au contrôle de...

0

21 NOVEMBRE 2024

Lighthouse, un fournisseur d’analytique pour le secteur de l’hôtellerie, s’illumine avec 370...

Nous avons encore un autre signe de l'essor de l'industrie du voyage : une levée de fonds majeure par l'une des startups B2B servant ce secteur. Lighthouse, une plateforme d'analyse de données pour les hôtels et d'autres acteurs de l'industrie hôtelière, a clôturé un tour de série C de 370...

0

20 NOVEMBRE 2024

La magie de l’amour : Le casting de Hot Frosty parle d’acceptation et de l’esprit des fêtes

Lacey Chabert et Dustin Milligan partagent comment Hot Frosty mélange humour, coeur et magie des fêtes.

0

20 NOVEMBRE 2024

Black Friday 2024 : Meilleurs produits à acheter

Le plus grand jour de shopping de l'année approche à grands pas. Nous avons compilé une liste des meilleurs produits à acheter lors du Black Friday.

0

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.