L’enquête des Communes sur la montée du contenu nuisible sur les réseaux sociaux devrait également convoquer les dirigeants de Meta et TikTokLes députés doivent convoquer Elon Musk pour témoigner sur le rôle de X dans la propagation de la désinformation, dans le cadre d’une enquête parlementaire sur les émeutes au Royaume-Uni et l’augmentation du contenu IA faux et nuisible, a appris le Guardian.Des dirigeants de haut niveau de Meta, qui gère Facebook et Instagram, ainsi que de TikTok devraient également être appelés à répondre à des questions dans le cadre d’une enquête de la commission des sciences et de la technologie des Communes sur les réseaux sociaux. Continue reading…
Image : Strava Strava a récemment informé ses utilisateurs et partenaires que de nouveaux termes pour son API restreignent les données que les applications tierces peuvent afficher, s'abstiennent de répliquer l'apparence de Strava et interdisent l'utilisation des données "pour tout entraînement de modèle lié à l'intelligence artificielle, à l'apprentissage automatique ou à des applications similaires."La politique est effective à partir du 11 novembre, même si le post de Strava lui-même au sujet du changement est daté du 15 novembre.À compter du 11 novembre, l'accord API mis à jour introduit trois changements clés qui offrent aux utilisateurs de Strava un meilleur contrôle, une plus grande sécurité et une expérience cohérente :Normes de confidentialité renforcées : Les applications tierces ne peuvent désormais afficher les données d'activité Strava d'un utilisateur qu'à cet utilisateur spécifique. Les utilisateurs continueront d'avoir accès à leurs données personnelles Strava à travers les applications connectées à notre plateforme, bien qu'il puisse y avoir des différences dans la manière dont ces données apparaissent.Limitations d'utilisation des données : Nos termes interdisent désormais explicitement aux tiers d'utiliser des données obtenues via l'API de Strava dans des modèles d'intelligence artificielle ou des applications similaires.Protection de l'expérience Strava : Des termes supplémentaires ont été ajoutés pour protéger l'apparence, la sensation et la fonctionnalité uniques de Strava, aidant les utilisateurs à distinguer facilement entre Strava et les plateformes tierces.Ray Maker, alias DCRainmaker, souligne que Strava a largement servi d'intermédiaire pour transmettre les données collectées par les dispositifs portables à d'autres applications et services. Selon Maker, "chaque partenaire unique avec qui j'ai parlé au cours des dernières 24 heures a été complètement pris au dépourvu par ce changement", leur seule notification arrivant par un email vendredi donnant un préavis de 30 jours pour apporter des ajustements.Maintenant, des services comme VeloViewer et Final Surge pourraient devoir trouver...
Photo par Sam Byford / The Verge Niantic a annoncé qu'il construisait un nouveau "Grand Modèle Géospatial" (LGM) qui combine des millions de scans pris depuis les smartphones des joueurs de Pokémon Go et d'autres produits Niantic. Ce modèle d'IA pourrait permettre aux ordinateurs et aux robots de comprendre et d'interagir avec le monde de nouvelles manières, a déclaré l'entreprise dans un article de blog repéré par Garbage Day.L'"intelligence spatiale" du LGM est construite sur les réseaux neuronaux développés dans le cadre du Système de Positionnement Visuel de Niantic. L'article de blog explique que "Au cours des cinq dernières années, Niantic s'est concentré sur la construction de notre Système de Positionnement Visuel (VPS), qui utilise une seule image d'un téléphone pour déterminer sa position et son orientation à l'aide d'une carte 3D créée à partir des scans de lieux intéressants dans nos jeux et Scaniverse," et "Ces données sont uniques parce qu'elles sont prises d'une perspective piétonne et incluent des endroits inaccessibles aux voitures."Le scientifique en chef de Niantic, Victor Prisacariu, a été plus explicite lors d'une session de questions-réponses en 2022, en disant : "En utilisant les données que nos utilisateurs téléchargent en jouant à des jeux comme Ingress et Pokémon Go, nous avons construit des cartes 3D de haute fidélité du monde, qui incluent à la fois la géométrie 3D (ou la forme des choses) et la compréhension sémantique (ce que sont les éléments de la carte, comme le sol, le ciel, les arbres, etc.)."Comme le souligne 404 Media, personne n'ayant téléchargé Pokémon Go en 2016 n'aurait pu prédire que leurs données alimenteraient "un jour ce type de produit d'IA."
La wiki a rendu hommage au phénomène “Sexyman de Tumblr”. Après que le site hôte Fandom l’ait supprimé, les fans se sont empressés de collecter son archive et de trouver un nouveau foyer.
Google Gemini a maintenant la capacité de “se souvenir” de certains éléments vous concernant, comme vos centres d’intérêt et vos préférences personnelles. Ce développement est actuellement déployé pour les utilisateurs ayant accès à Gemini Advanced, et il permettra au chatbot AI d’ajuster ses réponses en fonction de vos besoins, selon les dernières notes de mise à jour de Gemini. Comme l’a mentionné Google, vous pouvez communiquer vos intérêts, ainsi que des informations sur votre travail, vos loisirs ou vos ambitions, lors de vos discussions avec Gemini. Vous avez également la possibilité de saisir des informations pertinentes sur vous-même sur la page “Informations enregistrées” du bot, comme lui faire savoir de n’émettre que des suggestions de recettes végétariennes ou que vous exercez en tant que comptable. Vous avez également la possibilité de consulter, modifier ou effacer les données que Gemini a rassemblées à partir de la page “Informations enregistrées”. Gemini indiquera lorsque vos informations seront utilisées dans ses réponses. L’accès à Gemini Advanced peut se faire via un abonnement à Google One AI Premium, et il est actuellement disponible uniquement en anglais. OpenAI a d’abord mis en place sa fonction Mémoire pour les abonnés ChatGPT Plus en avril. Tout comme avec Gemini, ChatGPT est capable de se souvenir d’informations que vous avez partagées dans des échanges précédents, comme votre plat préféré ou les animaux que vous possédez.
Tout comme Midjourney qui peine à reproduire les doigts, la grande majorité des IA génératives de vidéos, y compris Sora AI d’OpenAI, présentent des limitations qu’il est crucial de prendre en compte. Certes, elles réussissent à créer des vidéos de qualité remarquable. Cependant, ces modèles, selon les chercheurs, manquent de la capacité à saisir les lois de la physique.
Ce qui fait qu’en dépit des ambitions des entreprises, il est toujours ardu pour leurs modèles de reproduire le monde réel.
Cependant, une question émerge. Est-ce que cette faiblesse est liée à la qualité des données d’entraînement des modèles d’IA génératives de vidéos ?
Ou s’agit-il principalement de l’incapacité des modèles à assimiler et à comprendre les règles universelles ?
Les générateurs de vidéos IA ne peuvent pas restituer le monde réel
Après avoir effectué des analyses sur les modèles de génération vidéo par IA, les chercheurs ont conclu que même les plus avancés ne saisissent pas les lois de la physique.
En réalité, ils se contentent de reproduire les modèles présents dans les données d’entraînement, en se basant sur leurs caractéristiques superficielles.
Tous les modèles affichent effectivement le même schéma. Ils suivent une organisation dans le processus de création des vidéos.
<pCela dit, des modèles comme Sora AI, Dream Machine, HeyGen et Kling peuvent générer des vidéos réalistes si les prompts contiennent des données qui leur sont familières.
À l’inverse, lorsqu’ils sont confrontés à des situations non familières, les résultats obtenus sont plutôt médiocres.
La vidéo de démonstration de Sora AI illustre bien cette hypothèse
Pour démontrer l’hallucination des modèles de génération de vidéos par IA, Bingyi Kang, chercheur scientifique chez TikTok, a publié une vidéo de démonstration sur X.
Lors de leur expérimentation, Kang et son équipe ont exposé Sora AI à un entraînement avec des projectiles se déplaçant horizontalement, dans les deux directions.
Lors des tests avec des balles à vitesse réduite, ils ont noté un comportement inattendu du modèle, qui anticipait des changements brusques de trajectoire après seulement quelques images.
Peut-on réellement résoudre ces problèmes d’hallucinations et dépasser les limites actuelles des IA génératives de vidéos ?
Bien sûr que oui, mais pas en élargissant le modèle. Cela signifie que l’accroissement des données d’entraînement ne suffit pas à améliorer sa capacité de compréhension.
Or, c’est précisément ce qu’ont réalisé OpenAI et Google avec leurs modèles Orion et Gemini. Toutefois, cette stratégie n’autorise pas aux IA génératives de vidéos de reproduire des scénarios n’appartenant pas à leurs données d’entraînement.
Ainsi, ces systèmes limités ne peuvent pas revendiquer le statut de modèles du monde réel.
La véritable nature d’un tel modèle dépend de sa capacité de généralisation. Une compétence qui dépasse les données ayant été utilisées pour son apprentissage.
Étant donné l’impossibilité concrète de capturer toutes les nuances du monde ou de l’univers dans la constitution des données d’apprentissage, un modèle de génération de vidéos par IA doit être en mesure de comprendre et d’appliquer des principes fondamentaux, plutôt que de se limiter à la simple mémorisation de configurations établies.
De toute façon, personnellement, je suis impatient de pouvoir enfin essayer Sora AI après tant de bruit médiatique.
Une alternative cultivée en laboratoire au foie de canard engraissé offre un avenir controversé pour l’industrie de la viande cultivée : comme un produit de luxe pour quelques-uns.