Cette mamie IA met les arnaqueurs sur les nerfs et leur fait perdre leur temps.
Les escrocs ont découvert une nouvelle adversaire, et elle ressemble à une grand-mère affectueuse.
Daisy, la grand-mère de l’IA développée par O2, piège les fraudeurs dans des échanges sans fin. Son objectif ? Leur faire perdre un maximum de temps, pour restreindre leurs chances de tromper de véritables victimes.
Daisy n’est pas une intelligence artificielle ordinaire. Elle a été soigneusement élaborée, avec des données anonymisées provenant de véritables interactions avec des arnaqueurs. O2 a collaboré avec Jim Browning, connu pour sa chaîne YouTube « Tech Support Scams », pour entraîner cette IA. Daisy sait tirer parti des stéréotypes selon lesquels les personnes âgées sont mal à l’aise avec la technologie, ce qui rend ses échanges encore plus convaincants et efficaces.
Lorsque un escroc passe un appel, Daisy se comporte comme une personne réelle. Elle emploie des expressions courantes et des pauses caractéristiques. Elle feint la confusion en posant des questions répétitives qui agacent les escrocs. Par exemple, elle demande quelle touche appuyer ou fait semblant de ne pas comprendre une URL. Ces discussions s’éternisent et rendent les arnaqueurs de plus en plus frustrés, sans jamais obtenir les informations qu’ils recherchent.
Daisy ne peut pas être téléchargée sur votre téléphone personnel. O2 a inscrit le numéro de Daisy sur des listes de cibles en ligne, souvent utilisées par les escrocs. Cela veut dire que Daisy est prête à intervenir à tout moment, 24 heures sur 24 et 7 jours sur 7. Plus elle occupe les arnaqueurs, moins ils peuvent s’en prendre aux personnes vulnérables.
Une initiative applaudie par Virgin Media O2
Murray Mackenzie, responsable de la fraude chez Virgin Media O2, a mis en avant l’importance de cette initiative. « Nous sommes déterminés à jouer notre rôle pour stopper les escrocs, » a-t-il déclaré. Virgin Media O2 investit dans diverses technologies, telles que les pare-feu pour empêcher les SMS frauduleux. Daisy est un rappel que les arnaqueurs ne sont pas toujours ceux qu’ils prétendent être. La grand-mère IA souligne l’importance de rester attentif.
Selon une étude réalisée par O2, 71 % des Britanniques souhaitent se venger des arnaqueurs. L’idée de se faire du temps pour contrecarrer les fraudeurs n’est pas très attrayante, mais Daisy propose une alternative judicieuse. Ce chatbot efficace sert de bouclier permettant aux gens de se protéger sans effort contre les menaces d’escroquerie.
- Partager l’article :
-
Facebook
-
Twitter
-
LinkedIn
Sept modèles de montres intelligentes Garmin affichent des prix record à l’approche du Black Friday.
Plusieurs montres connectées Garmin sont en vente à des prix historiquement bas avant le Black Friday, y compris la Venu 3, la Vivoactive 5 et la Fenix 7 Pro Solar.
IA générative : le mythe du « plus c’est grand, mieux c’est » s’écroule
La quête incessante de modèles d’IA de plus en plus volumineux touche à ses limites : l’industrie réévalue ses méthodes pour maintenir son efficacité.
Depuis l’apparition de ChatGPT, la dimension des modèles est devenue un sujet central pour l’IA. Par conséquent, OpenAI et d’autres acteurs de l’IA générative ont intensifié leurs efforts pour développer des modèles plus performants.
Orion, le futur modèle d’OpenAI, pourrait ne pas satisfaire les attentes élevées. Annoncé par The Verge pour décembre 2024, puis démenti par Sam Altman, Orion ne devrait pas constituer un saut spectaculaire. Contrairement à la progression notable entre GPT-3 et GPT-4, ce modèle ne garantit pas d’améliorations significatives, surtout pour des tâches complexes telles que la génération de code. Cela soulève des questions sur les célèbres « lois d’échelle » qui ont orienté le développement des modèles.
Les limites des lois d’échelle
Les lois d’échelle stipulent que plus un modèle est volumineux, plus sa performance est élevée. Cependant, Orion semble contredire cette assertion. Tadao Nagasaki, dirigeant d’OpenAI au Japon, a récemment mis en avant ces lois pour illustrer la progression continue des modèles. À présent, même certains chercheurs d’OpenAI reconnaissent que cette croissance exponentielle n’apporte pas les résultats escomptés.
Des ressources textuelles de moins en moins accessibles
Les sociétés d’IA générative semblent avoir épuisé les ressources textuelles de qualité existantes. Cela complique leur mission de perfectionnement continu de leurs modèles. L’entraînement de modèles colossaux requiert de grandes quantités de données, mais les sources commencent à s’épuiser. Cette raréfaction entraîne des choix difficiles et accroît la dépense énergétique ainsi que les coûts associés. La stratégie du « toujours plus gros » paraît de moins en moins viable à long terme.
Face à ces restrictions, les entreprises explorent d’autres alternatives. OpenAI, par exemple, expérimente avec de nouvelles approches pour améliorer ses modèles. Des chercheurs de Google et de l’université de Berkeley ont examiné des techniques d’optimisation pendant l’inférence, lorsque l’IA interagit avec les utilisateurs. OpenAI a ainsi perfectionné GPT-4o en s’appuyant sur ces études. Cela démontre une volonté de privilégier l’efficacité plutôt que la simple taille.
Les sparse autoencoders
OpenAI a recours aux sparse autoencoders pour détecter les éléments essentiels dans ses modèles. Cette méthode permet de diminuer l’utilisation des ressources tout en conservant la performance. L’objectif est d’optimiser les réponses sans s’appuyer sur des modèles très volumineux. Toutefois, cette approche nécessite encore de nombreux réglages et des investigations continues pour relever le défi de l’efficacité.
NVIDIA et sa puissance de calcul
Cette transformation soulève des interrogations quant au rôle de NVIDIA dans le secteur de l’IA. Le fabricant de GPU a prospéré en raison de la demande en capacité de calcul. Mais si les modèles cessent d’évoluer, la demande pourrait atteindre un plateau. Cela pourrait décevoir certains investisseurs qui anticipent une croissance illimitée des besoins en puissance de calcul. L’industrie pourrait être contrainte de s’adapter rapidement à cette nouvelle réalité.
La compétition pour la taille semblerait atteindre un plafond et oblige l’industrie à se réinventer. L’époque du « plus c’est grand, mieux c’est » pourrait toucher à sa fin. Les entreprises doivent s’orienter vers des optimisations astucieuses pour demeurer compétitives. L’avenir de l’IA générative dépendra de leur aptitude à innover au-delà de la simple élévation de la taille des modèles.
- Partager l’article :
-
Facebook
-
Twitter
-
LinkedIn
La course pour créer le pneu électrique parfait
Avec des milliards vendus chaque année, la bataille est lancée pour fabriquer le pneu de voiture électrique idéal—celui qui offre la sainte trinité d’une autonomie accrue, de credentials écologiques et de moins de bruit. Les résultats pourraient bénéficier à chaque véhicule sur la planète.
Meta lobbyiste devenu régulateur dit que les règles de l’UE sur les grandes technologies ont été trop loin
Aura Salla était autrefois la principale lobbyiste du géant technologique à Bruxelles. Maintenant, sa présence en tant que régulatrice au Parlement européen s’avère controversée.
L’établissement scolaire souffrant de l’évaluationnite
L’évaluation représente un aspect fondamental de l’enseignement. C’est un moyen pour les éducateurs d’ajuster et de réguler leur pratique, et c’est un feed-back essentiel tant pour eux que pour leurs élèves.
Cependant, une forme spéciale d’évaluation a pris une ampleur considérable ces dernières années : les évaluations nationales. Initiées en CE2 en 1989 et élargies à partir de la rentrée 2018, elles ont continué à se développer et impliquent désormais les niveaux de CP, CE1, CE2, CM1, CM2, 6e, 4e, 2nde et la première année de CAP.
Ainsi, 2024 sera une année record pour l’Education nationale en matière d’évaluations ! Plus de 6 millions d’élèves ont effectué des tests standardisés au début de l’année scolaire. Quel est l’objectif de cette évaluation inutile ? Quels sont les rôles de ces tests et quels sont les effets indésirables que critiquent les syndicats d’enseignants qui s’y opposent ? Que révèle cette évaluation incessante sur l’évolution de l’école et de la profession enseignante ?
La newsletter d’Alternatives Économiques
Chaque dimanche à 17h, notre analyse de l’actualité de la semaine
Considérons le cas du CP. Selon les informations fournies sur le site du ministère, en septembre, les élèves ont passé trois tests de dix minutes en français, et deux de onze minutes en mathématiques. Ensuite, à la fin janvier, en français, il y aura deux sessions d’évaluation de dix minutes et deux épreuves individuelles d’une minute chacune (si vous avez 25 élèves, il faudra s’organiser pour occuper les autres en attendant !). Enfin, en mathématiques, un test de huit minutes et un autre de treize minutes.
Il faut envisager les élèves de CP, qui n’ont eu en septembre qu’une seule semaine de cours depuis la rentrée : ils ont changé d’établissement, de rythme, sont assis plus longtemps qu’en maternelle, ont leur cartable et leurs affaires à gérer… et ils se retrouvent déjà en situation d’évaluation.
Des évaluations dissociées des apprentissages
Ce que la présentation officielle omet de mentionner, c’est le temps d’explication nécessaire pour des élèves un peu stressés et désorientés, les soucis d’organisation matérielle, le simulacre du chronométrage… Après la passation, il y a également la saisie des résultats par l’enseignant (il serait intéressant de discuter des applications et logiciels utilisés dans l’Education nationale et de l’obsolescence du matériel…), sans oublier leur traitement ultérieur.
Ce mélange entraîne le stress des examens, la surcharge de travail des enseignants et la perte de temps qui nuit aux apprentissages. En effet, ces tests sont principalement effectués au début de l’année, période où les élèves commencent à établir quelques repères et habitudes de travail… qu’ils perdent en raison de ces évaluations gourmandes en temps et déstabilisantes.
Nombreux sont les enseignants qui déplorent la perte du plaisir d’apprendre et de la motivation sous la pression de la performance et des risques d’échec. Il est important de noter que ces évaluations sont critiquées depuis leur introduction par les enseignants, car elles ne reflètent pas ce qui se passe en classe.
Souvent, des connaissances non encore abordées sont évaluées. Ces examens imposent des standards aux niveaux de classe, alors que l’éducation est organisée par cycles, qui englobent plusieurs niveaux (CP/CE1/CE2 pour le cycle 2, CM1/CM2/6e pour le cycle 3), permettant normalement des apprentissages prolongés.
« Peser un cochon ne l’a jamais fait grossir », selon un proverbe rural. Le temps consacré à ces tests, qui ne sont pas en lien avec le travail des enseignants, ne contribue que très peu à la remédiation et encore moins aux apprentissages. Ces activités envahissent le temps sans réelle efficacité pédagogique.
Rappelons que l’évaluation en soi n’est pas problématique. Tous les enseignants testent leurs élèves et proposent des évaluations diagnostiques (avant les apprentissages), formatives (pendant) et sommatives (après). Tous cherchent à déterminer le niveau des enfants qui leur sont confiés. Mais pas de cette manière !
Qui est évalué : les élèves ou les enseignants ?
Alors, quelles sont réellement les fonctions de ces évaluations nationales ? Pour répondre à cette question, il est essentiel de remonter à leur origine. Historiquement, il y a toujours eu des dispositifs pour évaluer la performance du système éducatif. Toutefois, pour cela, il n’est pas nécessaire de faire passer des tests à tous les élèves, un échantillon pourrait suffire (comme pour Pisa).
Jean-Michel Blanquer, ministre de l’Education de 2017 à 2021, a eu une influence significative dans l’adoption généralisée des évaluations. Elles se sont intensifiées avec l’expérimentation des dédoublements dans les classes de CP et CE1 dans les réseaux d’éducation prioritaire (REP).
Le ministre considérait qu’il était nécessaire que ces dispositifs soient mesurables. « Il doit y avoir une hausse des évaluations, non pas pour le plaisir d’évaluer, mais parce que c’est un levier indiscutable d’amélioration », affirmait-il en 2018.
Cependant, bien qu’elles soient présentées comme un outil d’évaluation des politiques publiques, elles fonctionnent avant tout comme un outil de pilotage. Au final, elles servent également et surtout à évaluer et contrôler les enseignants.
Comme nous l’avons constaté, cela entraîne effectivement une certaine standardisation des pratiques des enseignants. C’est l’évaluation (l’aval) qui conditionne l’approche pédagogique (l’amont). C’est ce qu’on appelle le « teaching to test ». Si l’on se concentre uniquement sur les « fondamentaux », on risque de n’enseigner que ces éléments.
Ce pilotage et cette normalisation se manifestent tant au primaire qu’au secondaire. Et, au collège, ils se combinent avec une dynamique de sélection, illustrée par les fameux « groupes de niveaux ».
D’une certaine manière, nous assistons à une dépossession du métier d’enseignant qui remet en question la liberté pédagogique. L’école ne doit ni devenir ni être une institution avec des pratiques uniformisées, éloignées des besoins des élèves.
Quantophrénie
Au-delà des évaluations nationales, l’Education nationale souffre d’un mal qui touche de nombreux autres organismes et services publics : la quantophrénie. Ce terme spécifique, introduit par le sociologue américain Pitrim Sorokin, désigne « la maladie qui vous pousse à tout mesurer et à tout quantifier ».
Le sociologue Vincent de Gaulejac l’évoque pour parler de « l’idéologie managériale » dans son ouvrage La Société malade de la gestion. Cela rejoint l’affirmation du célèbre auteur de management Peter Drucker, qui disait que « vous ne pouvez pas gérer ce que vous ne pouvez pas mesurer » : là où le qualitatif serait nécessairement subjectif, le quantitatif offrirait l’objectivité.
Les directeurs d’école et les personnels de direction des établissements secondaires peuvent en témoigner. Une partie de leur travail consiste à compléter des tableaux Excel pour le niveau supérieur.
Les évaluations nationales ne sont qu’une extension de la mesure aux enseignants et aux élèves, illustrant une idéologie managériale appliquée aux services publics. Mais peut-on réduire l’acte éducatif à des tests standardisés et des statistiques ? Bien qu’il soit essentiel d’évaluer, laissons aux enseignants le soin de le faire à leur rythme et selon leur méthode ! C’est leur profession et leur expertise.
IA et protection des données : optez pour les données générées.
Étant donné que l’intelligence artificielle (IA) modifie les dynamiques des entreprises, la sauvegarde des données demeure un défi considérable. Les données synthétiques se présentent comme une réponse innovante pour allier progression et protection. Elles ouvrent de nouvelles avenues.
La confidentialité comme frein essentiel à l’IA
Le développement de l’IA transforme les méthodes de travail au sein des entreprises, mais cela entraîne également des risques en matière de sécurité. Pour optimiser les modèles d’IA, les organisations accumulent d’importantes quantités de données sensibles. Même en prenant des précautions, le partage interne de ces données peut rendre l’entreprise vulnérable aux fuites ou aux cyberattaques ciblées. Cela pourrait engendrer des répercussions juridiques ou altérer la confiance. En outre, des techniques telles que les « reconstruction attacks » exploitent les modèles d’IA pour extraire des données confidentielles, accentuant ainsi les risques.
L’usage inconsidéré de solutions d’IA générative par le personnel constitue un autre défi. Ces plateformes, en l’absence de directives sécurisées, pourraient exposer des données stratégiques à des entités externes. Simultanément, la pseudonymisation des données, souvent perçue comme une protection adéquate, révèle des faiblesses notables. Grâce au croisement de différents ensembles de données, des informations sensibles peuvent être récupérées, illustrant ainsi les limites de cette méthode.
Les données synthétiques, une alternative prometteuse
Face à ces enjeux, les données synthétiques se révèlent être une solution efficace. Produites par des algorithmes à partir de données réelles, elles conservent les caractéristiques statistiques cruciales sans compromettre la confidentialité. Cette approche garantit une anonymisation totale, préservant les informations d’origine tout en favorisant l’innovation. Les avantages de cette méthode sont nombreux. Puisqu’elle permet un partage sécurisé des données, elle promeut la coopération entre entreprises et l’optimisation des modèles d’IA. Une autre force des données synthétiques réside dans leur potentiel à réduire les biais.
Les entreprises peuvent ainsi élaborer des modèles d’IA plus justes et diversifiés, accroissant ainsi leur fiabilité et leur pertinence. En plus d’entraîner les modèles, ces données artificielles sont également très utiles pour tester et développer des systèmes informatiques. Les développeurs peuvent travailler dans des environnements proches de la réalité sans les dangers liés aux informations sensibles, cela permet d’optimiser l’efficacité des cycles de développement.
IA durable et éthique grâce aux données synthétiques
Adopter une méthode durable pour l’IA nécessite plus qu’une simple gestion des données. Une préoccupation clé est la dette technique. Des solutions IA, qu’elles soient sur mesure ou open source, peuvent sembler avantageuses, mais peuvent engendrer des frais de maintenance considérables si elles ne sont pas conçues pour l’industrialisation dès le départ.
La dimension écologique est tout aussi cruciale. L’entraînement de modèles exige beaucoup d’énergie, entraînant une empreinte carbone notable. Rationaliser les modèles pour une efficacité énergétique améliorée est donc essentiel, tant pour diminuer les coûts que pour répondre aux préoccupations environnementales. L’indépendance technologique est également un aspect indispensable : éviter le verrouillage fournisseur et privilégier des solutions ouvertes permet une plus grande flexibilité pour l’avenir. Les entreprises doivent également aborder les cas d’hallucination des modèles d’IA, où des informations erronées peuvent être générées. La mise en place de mécanismes de surveillance et de validation rigoureux est nécessaire pour assurer la fiabilité des résultats.
Article basé sur un communiqué de presse reçu par la rédaction.
- Partager l’article :
-
Facebook
-
Twitter
-
LinkedIn
OpenAI établit une coalition mondiale pour faire concurrence à la Chine dans le domaine de l’IA.
Dernières informations, OpenAI a lancé un projet visant à créer une coalition internationale pour faire concurrence à la Chine dans le domaine de l’intelligence artificielle. Comme le rapporte Bloomberg, OpenAI prévoit de placer les États-Unis en tête de ce pacte.
L’annonce a été révélée mercredi dernier lors d’un événement organisé par le Centre stratégique et international.
OpenAI a déclaré que cette alliance commencera avec les États-Unis et ses voisins.
Cependant, l’initiative s’étendra ultérieurement aux autres pays amis des Américains. Néanmoins, OpenAI n’a pas encore précisé quels pays seraient concernés.
Toujours un déficit de puissance de calcul à surmonter pour OpenAI
D’après le rapport, ce projet d’OpenAI se focaliserait principalement sur les ressources requises pour le développement de l’IA, incluant les compétences, le financement et les chaînes d’approvisionnement.
En outre, l’initiative politique d’OpenAI suggère que les États-Unis financent des projets d’infrastructures énergétiques.
Ils devront également faciliter la relance des réacteurs nucléaires, tout en appelant à la marine américaine pour subvenir aux besoins énergétiques de l’IA.
NOUVEAU : Le “plan directeur” officiel d’OpenAI pour l’infrastructure IA américaine comprend des zones économiques basées sur l’IA, tirant parti de l’expérience nucléaire de la marine américaine et des projets gouvernementaux financés par le secteur privé, selon un document examiné par CNBC, qu’OpenAI prévoit de présenter aujourd’hui à D.C. https://t.co/ol8xQ5U7PJ
— Hayden Field (@haydenfield) November 13, 2024
De son côté, le PDG d’OpenAI, Sam Altman, a déclaré le 31 octobre dernier que le manque de pouvoir de calcul freine le lancement des produits de sa société.
Il a également expliqué que la complexité croissante des modèles d’IA les a confrontés à des limitations et à des choix difficiles en matière d’allocation de la puissance de calcul.
Plus de 10 milliards de dollars investis dans l’infrastructure IA américaine grâce à l’alliance OpenAI
Pour réaliser son projet, OpenAI prévoit de rassembler des investisseurs internationaux afin de d’investir des dizaines de milliards de dollars dans l’infrastructure d’IA aux États-Unis, notamment pour des centres de données, des turbines de refroidissement, des générateurs et la production de semi-conducteurs.
De plus, Sam Altman aurait mentionné que résoudre le problème de la pénurie de puces d’IA nécessaires pour entraîner de grands modèles linguistiques pourrait exiger entre 5 000 et 7 000 milliards de dollars, alors que le marché mondial des semi-conducteurs devrait atteindre 1 000 milliards de dollars d’ici la fin de la décennie.
Je me demande si la France va, elle aussi, s’imposer comme un acteur majeur de l’IA. Si c’est le cas, peut-on envisager une collaboration entre les principaux acteurs du marché français ? Notamment Kyutai et Mistral.
- Partager l’article :
-
Facebook
-
Twitter
-
LinkedIn
Le copilote terrestre d’IA de la NASA sera à votre disposition pour répondre à vos interrogations concernant...
La NASA collabore avec Microsoft pour développer un chatbot basé sur l’IA afin de simplifier l’accès et la compréhension des données scientifiques concernant la Terre. Cet outil, nommé Earth Copilot, sera en mesure de répondre à des interrogations sur notre planète en résumant la vaste gamme d’informations géospatiales fournies par la NASA en réponses facilement compréhensibles. Pour mettre en place cet outil, la NASA intègre l’intelligence artificielle dans son dépôt de données, permettant à Earth Copilot de se référer à ces données lors de la réponse à des questions comme « Quel était l’impact de l’ouragan Ian sur l’île de Sanibel ? » ou « De quelle manière la pandémie de COVID-19 a-t-elle influencé la qualité de l’air aux États-Unis ? » La NASA a pour objectif de « démocratiser » l’accès aux données scientifiques grâce au lancement d’Earth Copilot, car accéder et comprendre les renseignements contenus dans la base de données de la NASA est actuellement plus complexe pour les individus qui ne sont ni chercheurs ni scientifiques. « Pour de nombreuses personnes, localiser et extraire des renseignements implique de parcourir des interfaces techniques, de saisir des formats de données et de comprendre les subtilités de l’analyse géospatiale – des compétences pointues que peu d’utilisateurs non spécialisés possèdent », a déclaré Tyler Bryson, vice-président des secteurs publics et de la santé chez Microsoft, dans le communiqué. « L’IA pourrait optimiser ce processus, réduisant la durée nécessaire pour obtenir des informations à partir des données terrestres à quelques secondes. Actuellement, Earth Copilot n’est accessible qu’aux scientifiques et aux chercheurs de la NASA, qui vont évaluer les capacités de cet outil. Ils examineront par la suite son intégration dans la plateforme d’analyse, de visualisation et d’exploration de données (VEDA) de la NASA, qui permet déjà d’accéder à certaines données de l’agence.
Please active sidebar widget or disable it from theme option.