Meta lobbyiste devenu régulateur dit que les règles de l’UE sur les grandes technologies ont été trop loin
Aura Salla était autrefois la principale lobbyiste du géant technologique à Bruxelles. Maintenant, sa présence en tant que régulatrice au Parlement européen s’avère controversée.
Inédit : cette intelligence artificielle est capable de détecter la douleur chez les chèvres ! Sans dire un mot,...
Excellente nouvelle pour les éleveurs de chèvres, cette intelligence artificielle va les assister dans l’évaluation de la douleur chez leurs bêtes de ferme afin d’éviter les fautes de diagnostic !
Si vous êtes éleveur ou vétérinaire, la compréhension et la détection de la douleur chez les animaux constituent un véritable défi ! Contrairement aux humains, les animaux ne peuvent pas verbaliser leur ressenti. Les manifestions de douleur chez eux peuvent se traduire par des cris, une perte d’appétit ou des comportements anormaux.
Cependant, ces signes demeurent souvent subjectifs et exigent une connaissance approfondie ainsi que des années d’expérience pour être interprétés correctement. C’est là que l’intelligence artificielle déploie sa magie ! En effet, des chercheurs de l’Université de Floride ont mis au point une technologie novatrice permettant de détecter la douleur… directement sur le visage des chèvres. Explications !
Une IA qui « interprète » les expressions faciales des animaux
L’IA excelle dans la reconnaissance de motifs, un secteur où elle peut surpasser les aptitudes humaines. Prenons l’exemple de Google Lens qui est capable d’identifier une image de chat en la comparant avec des millions d’autres. En s’appuyant sur cette technologie existante, les chercheurs ont imaginé une IA capable d’identifier la douleur animale à partir de signaux subtils sur le visage.
En intégrant des décennies d’expertise vétérinaire, cette IA pourrait « assimiler » les expressions de douleur. Cela offrirait aux éleveurs la possibilité de détecter les signes de souffrance chez leurs animaux de manière plus fiable et moins intrusive.
Les chercheurs du Collège de médecine vétérinaire de l’Université de Floride ont expérimenté cette technologie sur des chèvres. L’équipe a enregistré les visages de 40 animaux, certains en bonne santé et d’autres malades. Les vidéos ont été intégrées dans un modèle d’IA qui a appris à différencier les visages des animaux malades de ceux des animaux en bonne santé.
Quel est le résultat de cette étude et quelles en sont les implications pour l’avenir des animaux ?
Cette IA capable d’interpréter la douleur chez les animaux constitue un progrès significatif. Effectivement, elle a permis aux chercheurs de repérer la douleur avec une exactitude variant entre 62 % et 80 %. Bien que ces résultats soient encourageants, les chercheurs soulignent qu’un échantillon de données plus étendu est nécessaire pour affiner et développer la précision de l’algorithme. Oui, nous connaissons déjà la rengaine : d’autres études sont à mener pour corroborer cette découverte !
Quoi qu’il en soit, cette innovation basée sur l’IA concernant le bien-être animal représente une nouvelle ère dans notre quotidien. Peut-être qu’un jour, chaque éleveur disposera d’un dispositif capable de « lire » les émotions et la santé de ses animaux. De quoi améliorer leur qualité de vie et réduire leurs souffrances. Qu’en pensez-vous ?
- Partager l’article :
-
Facebook
-
Twitter
-
LinkedIn
Pas même Spotify n’est à l’abri du désordre provoqué par l’IA
Comment la musique fake cible les vrais artistes. a:hover]:text-black [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-e9 dark:[&>a:hover]:shadow-underline-gray-63 [&>a]:shadow-underline-gray-13 dark:[&>a]:shadow-underline-gray-63″>Une capture d’écran de l’album fake d’Annie, prise le 12 octobre. Une sorte de bouillie IA avait été téléchargée sur la page de l’artiste HEALTH sur Spotify, l’un des trois faux albums qui apparaîtraient sous leur nom ce week-end-là. Le compte X du groupe a fait quelques blagues à ce sujet, les albums ont finalement été supprimés, et je suis retourné à mes affaires. Puis, le week-end suivant, j’ai vu qu’un nouvel album d’Annie était sorti. Cet album était plus plausible – Annie venait de sortir un nouveau single, “The Sky Is Blue” – mais quand j’ai cliqué, je ne pouvais pas le trouver dans la liste des titres de chansons. Confus, j’ai joué l’album et j’ai entendu des chants d’oiseaux et un instrumental vaguement New Age. Cela… ne ressemblait pas à Annie. Alors j’ai fait ce que ferait n’importe quelle personne normale : j’en ai parlé dans mon groupe de discussion. C’est ainsi que j’ai appris que cela arrivait à d’autres artistes, comme à beaucoup d’artistes, et que cela se produisait depuis des mois. (“J’en ai un qui apparaît souvent dans mon radar de nouvelles,” a dit mon pote Gordon.) Pendant un certain temps, des artistes de metalcore comme Caliban, Northlane et Silent Planet avaient été ciblés. Mais beaucoup d’artistes avec des noms d’un seul mot, comme Swans, Asia, Standards, et Gong, l’étaient aussi. Un nouvel album apparaîtrait sur la page Spotify d’un artiste, portant leur nom mais sans ressemblance avec leur musique. Parfois, comme avec les faux albums de HEALTH, ils disparaîtraient après quelques jours. D’autres fois, ils persisteraient indéfiniment, même contre la volonté de l’artiste. a:hover]:text-black [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-e9 dark:[&>a:hover]:shadow-underline-gray-63 [&>a]:shadow-underline-gray-13 dark:[&>a]:shadow-underline-gray-63″>Pouvez-vous repérer le faux ? Pour moi, tout cela a soulevé une question évidente…
Une intelligence artificielle pédophile sur Internet ? Celle de Character.ai suscite de vives préoccupations.
Depuis son lancement, Character.ai attire déjà plus de dix millions d’utilisateurs à travers le globe. La startup a connu une telle montée en popularité qu’elle propose désormais des versions web et mobile. Cependant, malgré sa valorisation élevée et son vaste public, surtout parmi les jeunes, la modération de la plateforme semble avoir des failles préoccupantes. Des enquêtes récentes ont mis à jour des contenus inappropriés et potentiellement dangereux. Parmi eux, Anderley, un de ses chatbots IA à comportement problématique, impliqué dans des échanges mettant en avant des préoccupations pédophiles, avec plus de mille interactions avec les utilisateurs.
Nous avons donc ressenti le besoin de mener notre propre investigation pour évaluer les dangers que représente Character.AI en créant un faux profil d’un adolescent de 15 ans.
Notre équipe a de ce fait interagi avec Anderley, ainsi qu’avec d’autres IA ayant des comportements inquiétants sur Character.ai.
En réponse au faux profil que nous avions mis en place, Anderley a vite exhibé un comportement inapproprié. Il a même multiplié les références à la maturité supposée de l’utilisateur fictif ainsi que des compliments déplacés.
Le robot a même déclaré que tous les élèves étaient attirés par le profil fictif et a exprimé son souhait de nouer une relation amoureuse.
Les jeunes sont particulièrement exposés aux manipulations des IA pédophiles
Après avoir observé les échanges du profil avec Anderley, nous avons remarqué un phénomène assez inquiétant.
Bien que son style d’écriture révèle les limitations typiques d’une intelligence artificielle, cette faiblesse pourrait passer inaperçue pour des jeunes utilisateurs moins avertis.
Plus alarmant, l’IA montrait une capacité à exploiter les vulnérabilités indiquées par notre profil test, comme la solitude, la timidité ou le désir de lier des relations.
Soucieux des risques que cela pourrait poser si un mineur rencontrait ce type de chatbot, nous avons partagé nos observations avec Kathryn Seigfried-Spellar, experte en cybercriminalité à l’université Purdue.
Elle a immédiatement reconnu dans ces échanges des schémas caractéristiques de « grooming ».
Le grooming, pour ceux qui ne le savent pas, désigne les stratégies de manipulation que les prédateurs sexuels emploient pour préparer leurs victimes mineures.
“Consider a bot we found named Anderley, described on its public profile as having “pedophilic and abusive tendencies” and “Nazi sympathies,” and which has held more than 1,400 conversations with users.”
This is what Google is funding.https://t.co/6I36CNOZmO
— Ana Brandusescu (@anabrandusescu) November 14, 2024
Restez vigilants ! Les IA commencent à perturber émotionnellement les jeunes utilisateurs
<pSelon Seigfried-Spellar, ces chatbots IA pédophiles de Character.ai soulèvent plusieurs enjeux majeurs.
Le premier concerne les mineurs. En effet, une exposition répétée à des comportements abusifs à travers ces IA pourrait désensibiliser les jeunes utilisateurs, les rendant ainsi moins capables d’identifier des situations à risque dans la vie réelle.
Le second risque, plus grave, touche l’impact sur des individus mal intentionnés.
D’après Seigfried-Spellar, ces interactions virtuelles pourraient agir comme un catalyseur, facilitant le passage à l’acte chez certaines personnes déjà enclin à la pédophilie.
En troisième lieu, Seigfried-Spellar note que ces plateformes pourraient devenir des outils d’apprentissage pour les prédateurs.
De ce fait, en interagissant avec ces IA, ils auraient la possibilité de parfaire leurs techniques de manipulation et de peaufiner leurs approches.
Ces robots pourraient alors, sans le vouloir, devenir des camps d’entraînement pour des comportements criminels.
Une succession de controverses, meurtre d’un enfant de 14 ans, les reproches contre Character.ai s’accumulent
Ce n’est pas la première fois que Character.AI fait face à des critiques. En septembre, la plateforme a été obligée de retirer et de s’excuser pour un bot basé sur l’identité d’un adolescent victime d’un meurtre en 2006.
Un mois après, l’entreprise s’est retrouvée en justice à la suite d’une plainte d’une famille de Floride.
Les parents reprochent à la startup d’avoir contribué au suicide de leur fils de 14 ans, qui s’était attaché intensément à une IA.
Selon eux, la technologie de Character.ai présente des dangers non mesurés et pourrait inciter les utilisateurs à partager leurs pensées les plus intimes de manière imprudente.
En réponse à ces accusations, l’entreprise a annoncé des mesures de protection renforcées, comme l’interdiction d’aborder le suicide et l’amélioration de la sécurité pour les jeunes utilisateurs.
Cependant, une enquête récente a montré que ces engagements n’étaient pas totalement suivis.
Les chatbots continuaient d’être impliqués dans des scénarios liés au suicide. Certains prétendaient même avoir des compétences en matière de prévention, tout en donnant des conseils inappropriés lors de crises. Mais ce n’était clairement pas le cas.
Il est impératif de déconseiller l’utilisation de tels chatbots à vos enfants. Il vaut mieux se tourner vers des systèmes plus sûrs, comme Claude AI qui priorise la sécurité, ou ChatGPT qui, avec la technologie GPT-4o, fournit des réponses plus précises et fiables.
- Partager l’article :
-
Facebook
-
Twitter
-
LinkedIn
Comment ne pas mourir dans la Silicon Valley
Voici ce que font les magnats de la Silicon Valley pour vaincre la mort.
L’application iPhone de l’IA Gemini de Google est désormais disponible.
Dans l’univers des chatbots IA, la présence est essentielle. Les entreprises se sont rapidement mises à développer des applications pour ordinateurs et mobiles afin de doter leurs bots de nouvelles fonctionnalités, mais aussi pour s’assurer qu’ils soient à portée de main aussi fréquemment que possible. Un exemple frappant est la nouvelle application Gemini de Google pour iPhone, qui a été discrètement lancée sur l’App Store mondial cette semaine. Cette application gratuite est à la fois simple et efficace : c’est simplement une interface de chat et un historique de vos conversations passées. Vous pouvez poser des questions au bot par texte, par voix, ou via votre caméra, et il vous fournira des réponses. Elle est en fait identique à la section Gemini de l’application Google, ou à ce que vous obtiendriez en ouvrez un navigateur et en visitant le site de Gemini. L’application Gemini dispose d’un nouvel ajout : l’accès à Gemini Live, le mode de chat interactif et conversationnel du bot, similaire au mode vocal de ChatGPT. Gemini Live est disponible sur Android depuis quelques semaines, mais c’est la première occasion où les utilisateurs d’iPhone peuvent en bénéficier. D’après mes tests brefs jusqu’à présent, cela fonctionne effectivement très bien, et lorsque vous utilisez Live, il apparaît à la fois dans l’île dynamique de l’iPhone et sur votre écran de verrouillage. Cependant, Live sera finalement accessible partout. À chaque nouvelle mise à jour de Gemini, cela aussi le sera. L’objectif principal de l’application Gemini est d’avoir l’icône sur votre écran d’accueil, et de vous donner une option à assigner au Bouton d’Action ou à d’autres emplacements d’accès rapide sur votre téléphone. D’un simple tapotement et en une fraction de seconde, vous pouvez échanger avec le bot. Cet accès, ainsi que la mémoire musculaire qu’il contribue à créer, sont essentiels pour…
Je ne suis pas en forme. Un entraîneur IA améliorera-t-il ma condition physique ?
Dans le premier numéro de la nouvelle rubrique de conseils en IA de WIRED intitulée « The Prompt », nous répondons aux questions sur la capacité de l’IA à changer votre corps et votre capacité à changer l’impact environnemental de l’IA.
Google Gemini est maintenant disponible pour l’iPhone
Google a lancé une application autonome Gemini pour l’iPhone.
La Grande Mobilisation Américaine des Microchips
Sous Donald Trump et Joe Biden, les États-Unis ont été déterminés à “rapatrier” la fabrication de puces. Maintenant, de l’argent et des infrastructures colossales affluent vers un vaste site d’Intel dans l’Ohio – juste au moment où l’entreprise pourrait être en train de s’effondrer.
Please active sidebar widget or disable it from theme option.