“Wicked” et “Gladiator II” offrent des affrontements nostalgiques et à moitié satisfaisants
Avec un retour musical à Oz et une épopée sanglante de la Rome antique, les studios hollywoodiens parient sur le spectacle à gros budget.
Saint-Denis (Seine-Saint-Denis).– Les avenues autour du stade de France ont retrouvé la présence policière d’époque olympique. Sans les supporters ni l’ambiance festive. Cette fois, la nuit est tombée, le froid s’est installé et surtout, l’atmosphère est pesante. L’équipe nationale de football de France est sur le point de jouer contre l’équipe israélienne dans moins d’une heure, mais rien ne semble familier.
Le développement de l’intelligence artificielle dans le secteur militaire suscite des inquiétudes parmi de nombreux experts en sécurité. Alex Stamos, expert en cybersécurité, met en garde contre les risques liés à la délégation des décisions létales à l’IA.
Lors du Forum de Paris dédié à la paix, qui s’est tenu les 11 et 12 novembre, les discussions autour de l’IA se sont tenues dans un climat tendu. Les conflits en Europe et au Moyen-Orient mettent en lumière l’utilisation croissante de technologies avancées. Les chaînes Telegram sont pleines de vidéos de drones. Ces derniers ciblent des objectifs avant de mener des frappes. En effet, Israël aurait eu recours à des systèmes d’IA pour sélectionner des objectifs à Gaza.
Nous nous trouvons à un moment crucial de l’histoire militaire. La guerre pourrait évoluer d’opérations humaines assistées par l’IA à des opérations entièrement pilotées par l’IA, avec un soutien humain minimisé. Envisagez des machines autonomes prenant des décisions de vie ou de mort. Cette réalité soulève des inquiétudes quant à la possibilité de crimes de guerre inimaginables.
Les systèmes d’IA présentent une efficacité impressionnante. Cependant, retirer l’humain du processus décisionnel élimine la possibilité de contester les ordres. Ainsi, les tueries de civils ou les exécutions de combattants non armés pourraient devenir des occurrences plus courantes. Le droit international serait gravement compromis, faute d’individus pour modérer les actions des machines.
Les systèmes d’IA avancent rapidement, rendant la situation encore plus périlleuse. Une simple erreur de programmation pourrait causer des pertes humaines considérables. En outre, une défaillance non détectée pourrait faire escalader des conflits mineurs de manière insoupçonnée. Ces erreurs se produiraient avant même que des superviseurs humains ne puissent intervenir.
Les dangers de l’IA ne se limitent pas aux théâtres d’opération. Les cyberarmes autonomes constituent une menace croissante. Certains États ont déjà recours à des malwares automatisés pour mener des cyberattaques ravageuses. Par exemple, le virus Stuxnet, conçu par les États-Unis, a immobilisé le programme nucléaire iranien. Toutefois, ces outils nécessitaient des renseignements humains approfondis pour atteindre leurs cibles.
Les virus autonomes comme Stuxnet illustrent la complexité des cyberattaques contemporaines. De plus, des cyberarmes telles que NotPetya et WannaCry, lancées par la Russie et la Corée du Nord, ont produit des effets désastreux. Ces attaques se sont diffusées de manière incontrôlable, causant d’énormes dommages économiques à l’échelle mondiale.
Stamos appelle la France à assumer un rôle de leader face à ces menaces. Il souligne l’importance de réguler l’utilisation militaire de l’IA. Les armes autonomes pourraient transformer le rapport de force entre les nations, engendrant ainsi une course à l’armement incontrôlable. Reste à savoir si les dirigeants politiques réagiront à cet appel et entreprendront des actions concrètes.
Alors qu’une famine “imminente” se profile, le parlement israélien a voté pour interdire la principale agence humanitaire de l’ONU pour les Palestiniens.
{{ excerpt | truncatewords: 55 }}
{% endif %}