Les députés convoqueront Elon Musk pour témoigner sur le rôle de X dans les émeutes estivales au Royaume-Uni.

ACTUALITÉS

Les députés convoqueront Elon Musk pour témoigner sur le rôle de X dans les émeutes estivales au Royaume-Uni.

L’enquête des Communes sur la montée du contenu nuisible sur les réseaux sociaux devrait également convoquer les dirigeants de Meta et TikTokLes députés doivent convoquer Elon Musk pour témoigner sur le rôle de X dans la propagation de la désinformation, dans le cadre d’une enquête parlementaire sur les émeutes au Royaume-Uni et l’augmentation du contenu IA faux et nuisible, a appris le Guardian.Des dirigeants de haut niveau de Meta, qui gère Facebook et Instagram, ainsi que de TikTok devraient également être appelés à répondre à des questions dans le cadre d’une enquête de la commission des sciences et de la technologie des Communes sur les réseaux sociaux. Continue reading…

Strava ferme les portes au partage de données de fitness avec d'autres applications

TECHNOLOGIES

Strava ferme les portes au partage de données de fitness avec d’autres applications

Image : Strava Strava a récemment informé ses utilisateurs et partenaires que de nouveaux termes pour son API restreignent les données que les applications tierces peuvent afficher, s'abstiennent de répliquer l'apparence de Strava et interdisent l'utilisation des données "pour tout entraînement de modèle lié à l'intelligence artificielle, à l'apprentissage automatique ou à des applications similaires."La politique est effective à partir du 11 novembre, même si le post de Strava lui-même au sujet du changement est daté du 15 novembre.À compter du 11 novembre, l'accord API mis à jour introduit trois changements clés qui offrent aux utilisateurs de Strava un meilleur contrôle, une plus grande sécurité et une expérience cohérente :Normes de confidentialité renforcées : Les applications tierces ne peuvent désormais afficher les données d'activité Strava d'un utilisateur qu'à cet utilisateur spécifique. Les utilisateurs continueront d'avoir accès à leurs données personnelles Strava à travers les applications connectées à notre plateforme, bien qu'il puisse y avoir des différences dans la manière dont ces données apparaissent.Limitations d'utilisation des données : Nos termes interdisent désormais explicitement aux tiers d'utiliser des données obtenues via l'API de Strava dans des modèles d'intelligence artificielle ou des applications similaires.Protection de l'expérience Strava : Des termes supplémentaires ont été ajoutés pour protéger l'apparence, la sensation et la fonctionnalité uniques de Strava, aidant les utilisateurs à distinguer facilement entre Strava et les plateformes tierces.Ray Maker, alias DCRainmaker, souligne que Strava a largement servi d'intermédiaire pour transmettre les données collectées par les dispositifs portables à d'autres applications et services. Selon Maker, "chaque partenaire unique avec qui j'ai parlé au cours des dernières 24 heures a été complètement pris au dépourvu par ce changement", leur seule notification arrivant par un email vendredi donnant un préavis de 30 jours pour apporter des ajustements.Maintenant, des services comme VeloViewer et Final Surge pourraient devoir trouver...
Niantic est en train de construire un modèle d'IA « géospatial » basé sur les données des joueurs de Pokémon Go.

TECHNOLOGIES

Niantic est en train de construire un modèle d’IA « géospatial » basé sur les données des joueurs de...

Photo par Sam Byford / The Verge Niantic a annoncé qu'il construisait un nouveau "Grand Modèle Géospatial" (LGM) qui combine des millions de scans pris depuis les smartphones des joueurs de Pokémon Go et d'autres produits Niantic. Ce modèle d'IA pourrait permettre aux ordinateurs et aux robots de comprendre et d'interagir avec le monde de nouvelles manières, a déclaré l'entreprise dans un article de blog repéré par Garbage Day.L'"intelligence spatiale" du LGM est construite sur les réseaux neuronaux développés dans le cadre du Système de Positionnement Visuel de Niantic. L'article de blog explique que "Au cours des cinq dernières années, Niantic s'est concentré sur la construction de notre Système de Positionnement Visuel (VPS), qui utilise une seule image d'un téléphone pour déterminer sa position et son orientation à l'aide d'une carte 3D créée à partir des scans de lieux intéressants dans nos jeux et Scaniverse," et "Ces données sont uniques parce qu'elles sont prises d'une perspective piétonne et incluent des endroits inaccessibles aux voitures."Le scientifique en chef de Niantic, Victor Prisacariu, a été plus explicite lors d'une session de questions-réponses en 2022, en disant : "En utilisant les données que nos utilisateurs téléchargent en jouant à des jeux comme Ingress et Pokémon Go, nous avons construit des cartes 3D de haute fidélité du monde, qui incluent à la fois la géométrie 3D (ou la forme des choses) et la compréhension sémantique (ce que sont les éléments de la carte, comme le sol, le ciel, les arbres, etc.)."Comme le souligne 404 Media, personne n'ayant téléchargé Pokémon Go en 2016 n'aurait pu prédire que leurs données alimenteraient "un jour ce type de produit d'IA."
Netflix déclare que le combat entre Jake Paul et Mike Tyson était « l'événement sportif le plus diffusé de tous les temps »

TECHNOLOGIES

Netflix déclare que le combat entre Jake Paul et Mike Tyson était « l’événement sportif le plus diffusé de...

Photo par Al Bello/Getty Images pour Netflix © 2024 Malgré des problèmes répandus de qualité vidéo et de mise en mémoire tampon, le match de boxe en direct entre Mike Tyson et Jake Paul a attiré en moyenne 108 millions de téléspectateurs, selon les données de TVision aux États-Unis et les données de première main sur les marchés mondiaux. Avec 65 millions de flux simultanés, Netflix affirme que le combat a été l’« événement sportif mondial le plus regardé en streaming de tous les temps ».Parmi ces flux simultanés, 38 millions provenaient de foyers aux États-Unis, et les données de TVision disent qu'ils ont représenté 56 % des téléspectateurs entre minuit et 1 heure du matin ce jour-là.Pendant ce temps, le match entre Katie Taylor et Amanda Serrano a battu le record de l'« événement sportif professionnel féminin le plus regardé de l'histoire des États-Unis », avec 47 millions de téléspectateurs en moyenne à l'échelle nationale, selon Netflix. Même avec des chiffres d'audience record, de nombreux fans de la NFL et de la WWE s'inquiètent de savoir si Netflix peut gérer les grandes audiences qui se tourneront vers les futurs événements en direct.
Google Gemini a désormais la capacité de mémoriser des informations.

INTELLIGENCE ARTIFICIELLE

Google Gemini a désormais la capacité de mémoriser des informations.

Google Gemini a maintenant la capacité de “se souvenir” de certains éléments vous concernant, comme vos centres d’intérêt et vos préférences personnelles. Ce développement est actuellement déployé pour les utilisateurs ayant accès à Gemini Advanced, et il permettra au chatbot AI d’ajuster ses réponses en fonction de vos besoins, selon les dernières notes de mise à jour de Gemini. Comme l’a mentionné Google, vous pouvez communiquer vos intérêts, ainsi que des informations sur votre travail, vos loisirs ou vos ambitions, lors de vos discussions avec Gemini. Vous avez également la possibilité de saisir des informations pertinentes sur vous-même sur la page “Informations enregistrées” du bot, comme lui faire savoir de n’émettre que des suggestions de recettes végétariennes ou que vous exercez en tant que comptable. Vous avez également la possibilité de consulter, modifier ou effacer les données que Gemini a rassemblées à partir de la page “Informations enregistrées”. Gemini indiquera lorsque vos informations seront utilisées dans ses réponses. L’accès à Gemini Advanced peut se faire via un abonnement à Google One AI Premium, et il est actuellement disponible uniquement en anglais. OpenAI a d’abord mis en place sa fonction Mémoire pour les abonnés ChatGPT Plus en avril. Tout comme avec Gemini, ChatGPT est capable de se souvenir d’informations que vous avez partagées dans des échanges précédents, comme votre plat préféré ou les animaux que vous possédez.

Les scientifiques mettent en lumière les frontières des IA vidéo, et c'est vraiment frustrant.

INTELLIGENCE ARTIFICIELLE

Les scientifiques mettent en lumière les frontières des IA vidéo, et c’est vraiment frustrant.

Tout comme Midjourney qui peine à reproduire les doigts, la grande majorité des IA génératives de vidéos, y compris Sora AI d’OpenAI, présentent des limitations qu’il est crucial de prendre en compte. Certes, elles réussissent à créer des vidéos de qualité remarquable. Cependant, ces modèles, selon les chercheurs, manquent de la capacité à saisir les lois de la physique.

Ce qui fait qu’en dépit des ambitions des entreprises, il est toujours ardu pour leurs modèles de reproduire le monde réel.

Cependant, une question émerge. Est-ce que cette faiblesse est liée à la qualité des données d’entraînement des modèles d’IA génératives de vidéos ?

Ou s’agit-il principalement de l’incapacité des modèles à assimiler et à comprendre les règles universelles ?

YouTube video
[youtube https://www.youtube.com/watch?v=HK6y8DAPN_0?feature=oembed&w=662&h=372]

Les générateurs de vidéos IA ne peuvent pas restituer le monde réel

Après avoir effectué des analyses sur les modèles de génération vidéo par IA, les chercheurs ont conclu que même les plus avancés ne saisissent pas les lois de la physique.

En réalité, ils se contentent de reproduire les modèles présents dans les données d’entraînement, en se basant sur leurs caractéristiques superficielles.

Tous les modèles affichent effectivement le même schéma. Ils suivent une organisation dans le processus de création des vidéos.

<pCela dit, des modèles comme Sora AI, Dream Machine, HeyGen et Kling peuvent générer des vidéos réalistes si les prompts contiennent des données qui leur sont familières.

À l’inverse, lorsqu’ils sont confrontés à des situations non familières, les résultats obtenus sont plutôt médiocres.

La vidéo de démonstration de Sora AI illustre bien cette hypothèse

Pour démontrer l’hallucination des modèles de génération de vidéos par IA, Bingyi Kang, chercheur scientifique chez TikTok, a publié une vidéo de démonstration sur X.

Lors de leur expérimentation, Kang et son équipe ont exposé Sora AI à un entraînement avec des projectiles se déplaçant horizontalement, dans les deux directions.

Lors des tests avec des balles à vitesse réduite, ils ont noté un comportement inattendu du modèle, qui anticipait des changements brusques de trajectoire après seulement quelques images.

Peut-on réellement résoudre ces problèmes d’hallucinations et dépasser les limites actuelles des IA génératives de vidéos ?

Bien sûr que oui, mais pas en élargissant le modèle. Cela signifie que l’accroissement des données d’entraînement ne suffit pas à améliorer sa capacité de compréhension.

Or, c’est précisément ce qu’ont réalisé OpenAI et Google avec leurs modèles Orion et Gemini. Toutefois, cette stratégie n’autorise pas aux IA génératives de vidéos de reproduire des scénarios n’appartenant pas à leurs données d’entraînement.

Ainsi, ces systèmes limités ne peuvent pas revendiquer le statut de modèles du monde réel.

YouTube videoYouTube video
[youtube https://www.youtube.com/watch?v=X7Ho_o1VF0I?feature=oembed&w=662&h=372]

La véritable nature d’un tel modèle dépend de sa capacité de généralisation. Une compétence qui dépasse les données ayant été utilisées pour son apprentissage.

Étant donné l’impossibilité concrète de capturer toutes les nuances du monde ou de l’univers dans la constitution des données d’apprentissage, un modèle de génération de vidéos par IA doit être en mesure de comprendre et d’appliquer des principes fondamentaux, plutôt que de se limiter à la simple mémorisation de configurations établies.

De toute façon, personnellement, je suis impatient de pouvoir enfin essayer Sora AI après tant de bruit médiatique.

    Partager l’article :

Charger plus Tous les Articles sont chargés