El Museo del Barrio propose une triennale opportune d’art latino
L’histoire unique de El Museo lui a permis d’être à l’avant-garde de ce qui est désormais plus largement accepté comme la raison d’être des musées.
L’histoire unique de El Museo lui a permis d’être à l’avant-garde de ce qui est désormais plus largement accepté comme la raison d’être des musées.
Douze kilomètres d’autoroute suspendus entre 20 et 30 mètres au-dessus de l’océan Indien. Voici l’aspect de la nouvelle route littorale de la Réunion, qui est actuellement en construction dans la région nord-ouest de l’île Bourbon. Son but : alléger le trafic de la route côtière existante, bâtie au bord de la mer sur un flanc de falaise. Cette dernière est maintenant surchargée en raison d’un fort flot de voitures circulant entre Saint-Denis, la préfecture, et la commune de la Possession. De plus, elle est devenue trop dangereuse à cause de l’érosion des roches environnantes d’un côté et de la montée des eaux de l’autre.
Cependant, tout ne s’est pas déroulé comme anticipé. Bien que partiellement ouverte à la circulation durant l’été 2022, sur une première section reliant Saint-Denis à Grande-Chaloupe grâce à un viaduc, le coût de cette route a déjà été considérablement revu à la hausse : la dernière estimation (2,4 milliards d’euros) de 2021 s’éloigne dangereusement des 1,66 proposés initialement, a souligné la Cour des comptes réunionnaise dans un rapport publié à la mi-2022. 2,4 milliards d’euros pour 12 kilomètres ? Cela a suffi pour que certains détracteurs surnomment la NLR la « route la plus onéreuse du monde ».
Et il se pourrait que le dépassement des coûts ne fasse que débuter. Car les géants de la construction, Vinci et Bouygues, demandent plus de 900 millions d’euros de compensation à la région Réunion en raison des imprévus et des retards qui auraient entraîné des surcoûts à leur charge.
Ils reprochent notamment à la collectivité une mise à disposition tardive de la zone de chantier du port, des difficultés à obtenir suffisamment de roches pour les besoins du chantier, ainsi que des insuffisances dans les données géotechniques fournies. Ce dernier point, estiment-ils, les aurait contraints à ajuster tardivement les plans de la barge « Zourite », qui était chargée de transporter en mer les 48 piliers du viaduc.
Les premières décisions de justice concernant ces réclamations, émanant du tribunal administratif de la Réunion les 8 et 22 octobre 2024, ont donné raison à la région sur presque tous les comptes.
La problématique principale concerne l’approvisionnement en roches massives. Le chantier nécessite plusieurs millions de tonnes, mais l’île dispose de ressources limitées. Les importations sont également compliquées en raison de sa situation géographique.
Les constructeurs reprochent à la région de ne pas avoir pris toutes les mesures possibles pour ouvrir de nouvelles carrières sur l’île. Un projet à Bois Blanc, sur la commune de Saint-Leu, a été finalement abandonné après plusieurs recours juridiques.
« Son impact aurait été majeur en raison de la proximité d’écosystèmes sensibles et de nombreuses habitations », résume Elodie Marais, porte-parole du collectif Touch pa nout roche (« touche pas à notre roche » en créole).
Il est difficile de disculper les grandes entreprises de construction de leur part de responsabilité dans cette problématique d’approvisionnement, estime la région. Ces dernières possèdent en effet « dans leurs filiales, d’importants carriers [spécialistes de l’extraction, NDLR] dont c’est précisément le métier et le domaine d’expertise », a-t-elle pointé dès la fin 2022. « Lorsque aucune initiative n’aboutit, cela constitue manifestement un échec, et il est alors tentant d’essayer de faire supporter les conséquences par un partenaire public ». Ce sera finalement aux entrepreneurs d’en assumer la responsabilité, a décidé la justice.
Néanmoins, cette problématique d’approvisionnement a modifié les plans de la région. Sa présidente, la communiste Huguette Bello (précédemment pressentie comme candidate à Matignon du Nouveau Front populaire), a révisé le projet pour la construction de la seconde section de la route.
La digue, initialement prévue par la région Réunion sous la présidence de Didier Robert (Les Républicains), sera ainsi remplacée par un viaduc, plus économe en matériaux. Le choix à l’époque avait été motivé par des considérations économiques, cette option mixte étant jugée 10 % moins coûteuse que la solution « tout viaduc ». Mais cela a été fait au détriment des considérations environnementales, a noté la Cour des comptes.
« Quelle que soit sa conception, le chantier aura un impact environnemental, rappelle Bernadette Le Bihan Ardon, ancienne présidente de la Société réunionnaise pour l’étude et la protection de l’environnement (SREPEN). Mais l’option du tout-viaduc, bien qu’elle nécessite du béton pour les piliers, a moins d’impact écologique que celle de la digue, qui aurait empiété sur plusieurs kilomètres de mer avec des roches. Et en l’occurrence, dans un milieu marin sensible avec une grande diversité de coraux. »
Cela dit, la bataille des roches n’est pas encore terminée à la Réunion. Lors de la révision du schéma régional des carrières, à la fois l’État et les carriers ont récemment réévoqué l’ouverture de Bois Blanc. Cependant, ce projet ne peut plus être justifié « par des besoins en roches massives pour le chantier de la nouvelle route littorale », estime la région, représentée par sa vice-présidente Karine Nabéséna, qui a réaffirmé son opposition au projet. « Mais, en dehors des roches massives, les exploitants cherchent également des granulats pour le bâtiment traditionnel », souligne Elodie Marais.
La justice doit encore trancher, d’ici la fin de l’année, sur la principale demande soumise par Bouygues et Vinci. Les deux grands, en plus des 900 millions d’euros de dédommagements exigés en raison des retards du chantier, réclament 675 millions supplémentaires suite à la décision de ne pas construire la digue sur la deuxième partie du projet.
Le “nivau divin de trolling” de Trump sur l’Amérique a déjà commencé.
La Composite AI représente une méthodologie conçue pour maximiser les bénéfices tirés de l’intelligence artificielle. Ce n’est pas une invention technologique récente, mais plutôt une idée qui combine des techniques préexistantes afin d’atteindre des résultats supérieurs.
À l’heure actuelle, une grande partie des entreprises intègre l’intelligence artificielle de diverses manières pour accroître leur efficacité ou demeurer compétitives. Il existe un éventail de techniques destinées à répondre à divers enjeux. Le principe de Composite AI désigne leur intégration dans le but de maximiser les résultats.
La Composite AI a été incluse dans les innovations du Hype Cycle for Emerging Technologies de Gartner en 2020. En termes simples, cela se définit comme une « assemblage de différentes techniques d’IA » visant à offrir le meilleur résultat.
Cependant, commençons doucement par le terme « intelligence artificielle » qui peut prêter à confusion. Souvent, le public évoque l’IA lorsqu’il parle de machine learning ou de réseaux de neurones artificiels, qui ne sont que des sous-ensembles de l’IA englobant un concept beaucoup plus vaste.
Les entreprises modernes déploient des solutions d’intelligence artificielle pour transformer leur structure organisationnelle. La question centrale reste de déterminer quelle technique est la mieux placée pour résoudre chaque problème spécifique. La Composite AI consiste à fusionner plusieurs approches pour aborder les défis les plus complexes.
Pour mieux appréhender le concept de Composite AI, faisons d’abord un rappel des diverses techniques d’intelligence artificielle susceptibles de contribuer à cette approche.
Cette première catégorie d’IA se concentre sur le développement de logiciels capables d’exploiter des ensembles de données afin d’apprendre de manière autonome. Le but du machine learning est de permettre aux ordinateurs d’apprendre sans intervention humaine et d’adapter leurs actions d’eux-mêmes. En fait, on l’appelle aussi apprentissage automatique. Contrairement aux analystes humains, le machine learning a la capacité d’analyser d’énormes volumes de données plus rapidement et de produire des résultats plus précis.
Il s’agit d’une spécificité du machine learning. Cette méthode se penche davantage sur le principe fondamental de l’IA, qui est d’imiter le fonctionnement du cerveau humain. Le deep learning est utilisé pour analyser des données et élaborer des modèles qui améliorent les décisions. Les algorithmes de deep learning peuvent également apprendre sans supervision en exploitant des données organisées ou non, afin de résoudre des problèmes complexes.
Un graphe de connaissance est une collection de représentations d’entités interconnectées. Cela peut inclure des objets, des événements ou des idées. En d’autres termes, il s’agit d’une base de connaissance sous forme de graphe de données. Les graphes de connaissances contextualisent l’information par le biais de métadonnées sémantiques et de relations. Ils offrent un socle pour l’intégration, l’analyse, le partage et l’unification des données.
Ce volet de l’intelligence artificielle fait référence à l’aptitude des machines à comprendre le langage humain, qu’il soit oral ou écrit. Le processus lié au NLP comprend le prétraitement des données et l’élaboration d’algorithmes. Pour simplifier, le traitement du langage naturel prépare les données en les traduisant en codes exploitables par les machines grâce aux algorithmes de machine learning.
Une intelligence artificielle conversationnelle établit un lien de communication naturel entre les humains et les ordinateurs. Cela peut inclure, entre autres, des systèmes de messagerie automatique (comme des chatbots alimentés par l’IA) et des applications vocales (assistants vocaux). Une IA conversationnelle peut donc interpréter des textes ou des commandes vocales et répondre dans la même langue.
Pour concevoir un système de Composite AI, il est nécessaire de disposer d’une « architecture composite », qui est un cadre adapté à l’entreprise fonctionnant sur un tissu de données flexible permettant aux utilisateurs de s’ajuster aux systèmes et aux exigences changeants.
Le premier pas consiste à identifier le défi à relever. Ensuite, les scientifiques des données et les experts en IA doivent déterminer quels ensembles de données sont nécessaires pour appuyer la résolution de ce défi. Ils pourront ainsi choisir et appliquer une combinaison des techniques d’IA les plus adéquates en fonction des types de données.
Pour un commerce de détail, le problème à résoudre peut être l’optimisation des stratégies de tarification et de promotion. Les données pertinentes pour apporter une solution incluent les transactions, les prix en place et ceux des concurrents, le niveau des stocks ainsi que les caractéristiques des clients. Ici, l’utilisation simultanée de plusieurs techniques de machine learning peut aider à évaluer l’impact des modifications de prix. En outre, cela permettrait de tester et d’ajuster selon les réactions clients.
Dans le domaine de la médecine, des technologies telles que la computer vision, la visualisation de données et le machine learning peuvent se révéler déterminantes. Elles sont capables d’évaluer l’efficacité des traitements médicaux pour des maladies telles que le cancer. Cette synthèse offre aux médecins l’aptitude de visualiser la réponse à un traitement face à l’évolution d’une maladie qui peut être difficile à percevoir visuellement dans certains cas.
La Composite AI peut également soutenir le secteur financier dans la réalisation des contrôles de conformité, en utilisant le NLP pour extraire des informations des documents commerciaux.
Après avoir choisi les meilleures techniques d’IA, on peut exploiter des pipelines de machine learning pour élaborer des modèles. Les principes d’une entreprise qualifiée de composable incluent l’amélioration continue, l’efficacité, la modularité et l’adoption d’innovations.
Au final, l’essence de la Composite AI réside dans une approche interdisciplinaire de l’intelligence artificielle. Plutôt que de se concentrer sur une seule méthode, cette stratégie s’adapte aux problèmes à résoudre. En d’autres termes, cette approche permet de répondre à une vaste gamme de problèmes complexes.
L’IA composite propose aux entreprises une vision complète pour aborder des problématiques complexes. Cette synergie favorise une analyse approfondie des données, menant à des décisions plus éclairées et à une personnalisation accrue des services. Par exemple, dans le secteur santé, l’IA composite peut améliorer le diagnostic en intégrant des images médicales avec des dossiers patients, offrant ainsi une perception plus intégrale de la santé des individus.
En outre, cette méthodologie encourage l’innovation en permettant aux entreprises d’élaborer des solutions sur mesure pour des défis spécifiques, renforçant ainsi leur position compétitive sur le marché. En résumé, l’IA composite constitue un levier stratégique pour les entreprises cherchant à tirer pleinement parti des capacités de l’intelligence artificielle.
Le déploiement de l’IA composite implique divers défis pour les entreprises. La complexité technique est évidente, nécessitant une intégration fluide de plusieurs technologies d’IA, ce qui peut requérir des compétences spécialisées et des ressources considérables.
La qualité et la diversité des données sont d’une importance capitale ; des données incomplètes ou biaisées peuvent affecter l’efficacité des modèles. De plus, des enjeux éthiques et réglementaires émergent, notamment concernant la confidentialité et la transparence des algorithmes.
Ainsi, les entreprises doivent établir des cadres de gouvernance solides pour garantir une utilisation responsable de l’IA composite. Enfin, la résistance au changement au sein des organisations peut entraver leur adoption, soulignant la nécessité de former et de sensibiliser les équipes aux avantages et aux implications de cette technologie.
Aucune décision ne révèle plus clairement le mépris de Donald Trump pour les forces armées de son pays que sa sélection de l’animateur de télévision comme son secrétaire à la Défense.
La création musicale assistée par IA annonce-t-elle la fin des artistes ? Quel sera l’effet de ces outils d’IA sur le secteur ? Tentons de décoder ce phénomène qui gagne en ampleur dans ce qui suit !
Qu’il s’agisse de notre bien-être, de nos maisons intelligentes, de nos habitudes alimentaires ou même de la qualité de notre sommeil, tous les aspects de notre vie quotidienne sont désormais influencés par l’IA. Parmi les secteurs récemment touchés par cette technologie, il convient de souligner l’industrie musicale.
Certainement, la composition assistée par ordinateur existe depuis les années 70. Toutefois, les progrès récents en matière d’IA, notamment avec l’arrivée de ChatGPT, suscitent des interrogations. Comment l’industrie musicale de demain réagira-t-elle face aux générateurs de musique par IA ? Est-ce une paranoïa ou une inquiétude légitime ? Analysons cette tendance dans les lignes suivantes !
Bien que l’on considère que la création musicale par IA est récente, il est important de noter qu’aux années 80, des précurseurs comme Brian Eno avaient déjà fait appel à des algorithmes pour concevoir des musiques ambiantes.
Il a néanmoins fallu attendre 2009 pour découvrir la musique générée par ordinateur. Pourquoi donc les artistes sont-ils si inquiets vis-à-vis de l’IA dans le secteur musical ? Simplement parce que l’intelligence artificielle utilisée pour composer des morceaux transcende le cadre des algorithmes traditionnels.
Des systèmes comme Google’s MusicLM, formés sur 280 000 heures de musique, peuvent aujourd’hui produire des compositions entières à partir de simples instructions textuelles. Cette accessibilité a explosé avec l’émergence de l’IA générative destinées au grand public.
Désormais, imaginez l’ampleur de l’impact de cela sur l’univers musical. Nous faisons face à des machines capables de créer des mélodies envoûtantes en un rien de temps. La création musicale via l’IA est à présent à la portée de tous, même de ceux qui n’ont pas reçu de formation musicale…
Interviewée par des journalistes, la compositrice Caitlin Yeo a exprimé ses craintes concernant l’avenir des musiciens. Pour elle, le développement de l’IA musicale pourrait entraîner la disparition de métiers musicaux fondés sur des années d’expérience et de formation. Mais ce n’est pas seulement la question de l’emploi qui préoccupent les créateurs. L’IA pourrait standardiser les œuvres, mettant en péril la diversité culturelle et personnelle qui enrichit la musique.
Yeo mentionne son propre projet pour le film New Gold Mountain, où elle a utilisé des instruments traditionnels occidentaux pour dépeindre des scènes du point de vue chinois, une décision artistique significative que l’IA ne serait pas en mesure de comprendre ni de répliquer.
Le manque de discernement de l’IA face aux distinctions culturelles et émotionnelles pourrait transformer la musique en « un produit uniforme », voire entraîner des malentendus culturels. Pour certains compositeurs, la richesse musicale repose sur la subjectivité de l’artiste, ses émotions et ses vécus. Ces facteurs échappent néanmoins aux algorithmes d’apprentissage automatique.
Je pense que l’intégration de l’IA dans la création musicale n’est pas une fatalité. Cependant, l’avenir de cette technologie dépendra des décisions que prendra la communauté musicale.
Il est beaucoup plus facile de demander à ChatGPT d’expliquer les principes des racines carrées en mathématiques, mais la génération musicale par IA devra être encadrée.
Cela permettra, entre autres, de sauvegarder les œuvres humaines et d’encourager une transparence éthique. Je suis convaincu que l’IA pourrait agir comme un outil d’assistance, plutôt qu’un substitut nuisible pour les compositeurs. C’est à la communauté musicale de s’assurer que cette technologie enrichisse la diversité musicale au lieu de l’uniformiser. Qu’en pensez-vous ?
Sous Trump, une nouvelle vision de la politique familiale conservatrice est en pleine ascension.
Être entouré de livres n’immunise pas contre les fluctuations économiques. Depuis le printemps passé, Emilie Grieu, créatrice de la librairie Les Pipelettes à Romainville (Seine-Saint-Denis), a « souvent été à découvert dès le dix de chaque mois », partage-t-elle. « C’est inédit », précise cette quadragénaire dynamique.
Pour les environ 3 700 librairies indépendantes présentes en France (au sein de 25 000 points de vente de livres au total, y compris hypermarchés et stations-service, selon le ministère de la Culture), l’année 2024 s’annonce comme un challenge. Après l’enthousiasme des lecteurs et lectrices pour leur librairie de quartier, qualifiée de « commerce essentiel » durant la crise de la Covid, les ventes stagnent.
Selon l’Observatoire de la librairie française, les ventes reculent même pour les livres, hors papeterie (- 0,9 % de janvier à septembre 2024 par rapport aux neuf premiers mois de l’an passé).
Pour les plus petites librairies, celles dont le chiffre d’affaires annuel ne dépasse pas 500 000 euros, comme Les Pipelettes, la condition devient alarmante. D’après une analyse du cabinet Xerfi, de nombreux commerces pourraient faire face à la faillite dès l’année prochaine. Unique au monde grâce à la densité de son réseau, essentielle pour le lien social et le tissu territorial autant que pour l’échange d’idées, cette industrie se retrouve prise dans un redoutable effet ciseau.
D’une part, les coûts ont fortement grimpé depuis 2021. L’énergie en tête. Les plus grandes librairies indépendantes, parmi les plus coûteuses à chauffer, ont enregistré une hausse de 150 % de leur facture d’électricité.
Contrairement aux boulangers, d’autres commerçants « essentiels », les libraires n’ont pas bénéficié de tarifs plafonnés. Résultat ? Comme beaucoup de patrons de PME, certains libraires expriment parfois le sentiment de « travailler pour Engie », confie Amanda Spiegel, à la tête de Folie d’encre à Montreuil (Seine-Saint-Denis) et vice-présidente du Syndicat de la librairie française (SLF).
En outre, la flambée des prix des carburants impacte également les frais de transport (+13 % depuis 2021) que supportent les libraires : ils doivent financer l’acheminement des livres commandés et le retour des invendus au distributeur.
Ce n’est pas tout. Les commerces indépendants, généralement situés en centre-ville, doivent aussi gérer la hausse des loyers, un important poste de dépenses. Dans le quartier populaire en transformation de Romainville, Emilie Grieu doit débourser 3 000 euros par mois pour 70 mètres carrés de surface de vente en rez-de-chaussée et un sous-sol de 30 mètres carrés.
Concernant le personnel, souvent mal rémunéré, il a fallu augmenter les salaires (+10 % de masse salariale) pour faire face à l’inflation, atteignant en 2024 un salaire moyen de 1 720 euros nets, somme modeste pour des diplômés engagés et cultivés.
Dans les librairies indépendantes, la masse salariale représente une part plus conséquente du budget (environ 20 % contre 14 % à la Fnac, 10 % en grande surface, 5 % sur Amazon). C’est logique : conseiller les clients, valoriser des titres méconnus et inviter des auteurs requiert du temps et des compétences. « C’est vital », résume Emilie Grieu, qui emploie Cécile, libraire expérimentée en CDI, et un stagiaire, Alexis, apprenti libraire et passionné de sciences humaines.
À l’opposé, les prix ne suivent pas. Fixés par les éditeurs selon la loi Lang de 1981 sur le « prix unique du livre », ils n’ont crû que de 2,2 % en moyenne en 2024. Cette législation a le mérite de protéger l’écosystème des librairies indépendantes de la concurrence des grandes surfaces, sauvegardant ainsi la pluralité éditoriale.
Le souci, c’est que les remises accordées par les éditeurs aux libraires, d’environ un tiers du prix de vente, ne suffisent plus : « Il faudrait obtenir 38 % à 40 % », estime Emilie Grieu. En conséquence, les marges des librairies se resserrent. Cette année, elles ne dépassent pas 1 % de leur chiffre d’affaires moyen, l’un des taux de marge les plus bas dans le commerce de détail, « avec les fleuristes », nous informe-t-on.
Les livres deviendraient-ils jetables ? En termes logistiques, c’est certain. Toutes catégories confondues, du manuel scolaire au livre de cuisine en passant par le roman, environ 75 000 publications voient le jour chaque année, soit trois fois plus que dans les années 1990. Et ce, alors même que la population n’a augmenté que de 20 % et que les Français ne lisent pas davantage.
Bien que cette richesse puisse illustrer une diversité bienvenue dans l’offre de lecture, il en résulte qu’à peine arrivées en rayon, les nouveautés doivent céder la place à des titres encore plus récents. « Nous passons notre temps à décharger et à remplir des cartons », témoigne Anne Martelle. La production éditoriale pousse les cadences à un rythme insoutenable :
« On n’a plus le temps de lire ! s’écrie sa collègue Amanda Spiegel. Dans ces conditions, on ne parvient plus à faire découvrir les livres, on perd l’essence même du métier. »
Cette précipitation impacte également l’empreinte carbone de la filière : l’écologie était l’un des thèmes majeurs des rencontres nationales de la librairie, tenues à Strasbourg en juin dernier. Au début de l’année, l’association de libraires indépendants Pour l’écologie du livre a lancé une « trêve des nouveautés », sous l’égide de sa cofondatrice Anaïs Massola, libraire au Rideau rouge, à Paris.
Ingénieux, les participants ont refusé certains ouvrages selon des critères délibérément surprenants (comme la couleur de la couverture…). Cette initiative incitera-t-elle les éditeurs à réduire leur production (un peu) ? Les libraires auraient tout à y gagner, car le rythme élevé des commandes et des retours pèse sur leur budget.
Et après ? « Déjà sur le fil, écrivent les spécialistes de Xerfi, la situation financière des librairies (indépendantes, NDLR.) pourrait encore se détériorer dans les années à venir ». Dès 2025, précisent-ils, les plus petites pourraient encaisser des « pertes considérables » et des fermetures.
Cette vulnérabilité menace la pluralité de l’offre culturelle en France et soulève également une question politique. Dans un contexte économique délicat, les libraires se trouvent en effet exposés aux manœuvres de riches entrepreneurs d’idées, souvent proches de l’extrême droite. En septembre 2023, Vivendi, le groupe dirigé par Vincent Bolloré, a acquis l’Écume des pages, célèbre enseigne parisienne située à Saint-Germain-des-Prés.
Cet automne, un autre milliardaire « patriote » (sic) s’intéresse aux librairies indépendantes : Pierre-Edouard Stérin, leader du fonds Otium Capital, finance le projet nommé « Périclès » à hauteur de 150 millions d’euros pour « l’enracinement, l’identité » et « l’anthropologie chrétienne ».
Après avoir échoué l’an passé à acquérir le groupe Editis (Belfond, Julliard, Robert Laffont…) puis, en août dernier, le magazine Marianne, il a publié une annonce. Il recherche « un entrepreneur » afin de constituer d’ici cinq ans « un réseau de 300 librairies indépendantes dans les régions françaises » qui organiseraient « plus de 5 000 événements culturels locaux ». L’objectif ? « Réinventer le concept de librairie multi-activités avec une offre culturelle au service des familles ». Une bataille culturelle est en cours.
Au cœur de Roubaix, des agences dédiées à l’intelligence artificielle générative se développent pour stimuler l’innovation dans les domaines créatifs et technologiques. Avec une expertise distinctive, ces agences offrent des solutions personnalisées pour satisfaire une clientèle avide de nouveauté. Apprenez comment ces acteurs exploitent leurs compétences pour transformer le paysage numérique, en se concentrant sur l’intégration, la formation et l’optimisation des processus grâce à l’IA générative.
La génération d’IA est essentielle à la transformation numérique d’aujourd’hui. À Roubaix, des agences comme Distilia s’emploient à maximiser l’efficacité et l’innovation des entreprises en développant des produits adaptés et en améliorant les processus en place. Grâce à une approche intégrée, elles soutiennent les entreprises dans l’adoption de l’IA pour réussir leur transformation numérique. Découvrez leur philosophie dans cette présentation de l’agence Ideine.
Les agences de Roubaix vont au-delà de l’intégration de l’IA. Elles offrent également des formations personnalisées pour guider les entreprises dans cette révolution technologique. Par exemple, l’agence Smartforge fournit des formations d’initiation à l’intelligence artificielle, explorant des techniques avancées comme ChatGPT et l’automatisation des tâches. Ces sessions permettent aux entreprises de maîtriser les outils d’IA générative pour en maximiser l’utilisation au quotidien.
Roubaix est un environnement fertile pour l’innovation, soutenu par un écosystème énergique composé de ses entreprises technologiques. L’établissement d’ovhCloud témoigne de cet intérêt pour l’IA, investissant constamment dans le secteur de l’intelligence artificielle générative. Découvrez les contributions notables de Roubaix dans ce domaine d’avenir sur Digitad.
Des agences bien établies, telles que JUST AI, et des entrants récents, comme NetDevices, s’attachent à développer l’IA générative. Ces spécialistes locaux, comme Logitourisme, proposent des solutions innovantes à Roubaix. La variété des services offerts reflète l’évolution continue du secteur, qui s’efforce de répondre de plus en plus précisément aux besoins des clients.
Les agences de Roubaix investissent également dans des outils génératifs pour l’image et le contenu visuel. Des générateurs d’images IA prévus pour 2024 dévoilent un potentiel créatif énorme. Ces outils permettent de réaliser des visuels captivants qui enrichissent le contenu des marques. Pour en savoir plus, consultez les meilleurs générateurs d’images par IA.
Dans une approche proactive, des entreprises comme Gestia Solidaire illustrent la capacité de Roubaix à attirer des financements et à multiplier les opportunités de développement local. En se concentrant sur la formation, la recherche et l’innovation, Roubaix s’affirme comme un centre névralgique dans le domaine de l’IA générative.
Les grandes discussions internationales concernant l’environnement suivent la même logique : l’argent est la clé du succès. La 16e conférence des parties de la Convention sur la diversité biologique (CDB), connue sous le nom de « COP16 biodiversité », en a fait une nouvelle démonstration.
Les 196 pays signataires de cette CDB se sont rassemblés à Cali, en Colombie, du 21 octobre au 2 novembre, deux ans après la précédente « COP biodiversité » de Montréal, qui avait abouti à la signature de l’accord de Kunming-Montréal, aussi mémorable qu’imparfait.
Mémorable, car ce document offrait à la communauté internationale un nouveau cadre pour freiner le déclin de la biodiversité. En effet, après avoir échoué à atteindre l’ensemble des « objectifs d’Aichi » fixés en 2010 lors de la « COP10 biodiversité », les États parties de la CDB se sont donné, à travers ce nouveau cadre, 23 objectifs à réaliser d’ici 2030. Parmi eux, on trouve la restauration de 30 % des écosystèmes dégradés dans le monde, la protection de 30 % des terres et des mers de la planète, ainsi que la réduction de moitié du danger global associé aux pesticides.
Ce cadre mondial de Kunming-Montréal présente toutefois des lacunes, car il lui fait défaut de deux éléments essentiels, qui étaient au cœur des débats à Cali : un mécanisme de suivi des engagements permettant d’évaluer les progrès de chaque pays vis-à-vis des 23 objectifs ; et un mécanisme garantissant le transfert de financements des pays du Nord vers ceux du Sud pour qu’ils investissent dans la protection de la biodiversité.
Sur ces deux questions cruciales, la COP16 de Cali n’est pas parvenue à un accord. Cet échec souligne que le suivi des engagements nationaux et la question des financements Nord-Sud restent les deux points récurrents problématiques des COP, qu’elles soient axées sur la biodiversité ou le climat.
De cette manière, la 29e « COP climat », qui se déroule du 11 au 22 novembre à Bakou, en Azerbaïdjan, s’annonce riche en débats difficiles concernant la solidarité Nord-Sud. Dans un contexte où les engagements nationaux sur le climat ne permettent toujours pas de respecter l’accord de Paris (maintenir le réchauffement « nettement » en dessous de 2°C), comme l’a récemment évalué le Programme des Nations unies pour l’environnement (PNUE).
Ces mêmes problématiques appliquées à la biodiversité se sont également manifestées à Cali. En premier lieu, disposer d’un mécanisme de suivi et d’évaluation des engagements nationaux, pour s’assurer qu’ils soient en phase avec les objectifs mondiaux, est crucial. C’était l’une des priorités clairement exprimées par la France.
« Il est effectivement indispensable de préserver la crédibilité [du cadre mondial pour la biodiversité (CMB) de Kunming-Montréal], qui repose d’une part sur sa capacité à encourager des actions significatives et appropriées pour la biodiversité, et d’autre part sur les résultats concrets issus de l’accumulation de ces actions pour l’amélioration de l’état de la biodiversité », résumait Juliette Landry.
La chercheuse, experte en gouvernance de la biodiversité à l’Institut du développement durable et des relations internationales (Iddri), s’exprimait ainsi dans une note diffusée avant la COP16.
En pratique, le nouveau cadre mondial adopté en 2022 exige que chaque pays soumette ses « stratégies et plans d’action nationaux pour la biodiversité » (ou SPANB) destinés à démontrer comment ils atteindront les 23 objectifs d’ici 2030.
Cependant, à l’été 2024, seulement 20 pays avaient publié ces documents, et 63 avaient présenté des engagements partiels. Ce chiffre est largement insuffisant, surtout qu’une analyse du WWF indiquait à l’époque que ces feuilles de route n’étaient pas complètement en accord avec les objectifs globaux du CMB.
Certes, la situation s’est quelque peu améliorée à la fin de la COP : 44 pays avaient rendu leur stratégie nationale et 119 avaient formulé des engagements partiels. Néanmoins, les questions d’ambition et de cohérence demeurent. La COP16 devait notamment convenir d’une « revue mondiale » des engagements nationaux et des moyens mis en œuvre par les États, qui aurait dû être finalisée d’ici la COP17 de 2026 en Arménie. Ce mécanisme reste donc en attente.
La réalisation du CMB dépend également de la capacité des pays du Sud à financer des initiatives pour la biodiversité, ce qui nécessite un mécanisme pour mobiliser les fonds des pays du Nord. Ainsi, la COP16 avait pour mission d’établir une stratégie financière pour combler le déficit de financement en faveur de la biodiversité, évalué à 700 milliards de dollars annuellement.
Pour cela, l’une des 23 cibles du CMB est de mobiliser au moins 200 milliards de dollars par an d’ici 2030 pour la biodiversité (provenant de « toutes les sources », publiques comme privées), dont 30 milliards de dollars par an de transferts des pays développés vers les pays en développement, avec un palier de 20 milliards de dollars par an d’ici 2025.
Lors de la COP15 de Montréal, un accord avait été réalisé pour créer un fonds à cet effet : le Global Biodiversity Framework Fund (GBFF). Cependant, son lancement est laborieux.
Premièrement, sa dotation est insuffisante, avec seulement 400 millions de dollars collectés, dont 163 millions lors de la COP16 (la France ayant contribué 5 millions). Deuxièmement, les pays du Sud, notamment ceux du groupe des pays africains, soulignent l’accès difficile aux fonds et critiquent sa gouvernance.
L’Afrique du Sud et le Zimbabwe ont donc, au nom des pays en développement, proposé la mise en place d’un nouveau fonds, mais ont été fermement opposés par les pays développés (UE, Suisse, Norvège, Canada, Japon). Ces derniers estiment qu’un nouveau fonds serait une perte de temps et d’énergie qui ne traiterait pas le problème structurel du volume global des financements Nord-Sud.
« Ce signal négatif aura des répercussions sur d’autres négociations environnementales d’ici la fin de l’année (climat, plastiques, désertification), car il met en évidence un profond désaccord sur la faisabilité politique et technique des transferts Nord-Sud d’une manière complètement différente de ce qui a été fait jusqu’à présent », analyse Sébastien Treyer, directeur général de l’Iddri. Une fois de plus, les discussions sont remises à plus tard.
Un seul motif d’espoir concernant le financement : même sans mécanisme multilatéral, d’autres circuits existent et se développent. Selon un rapport de l’OCDE de septembre, les fonds alloués aux pays du Sud pour la biodiversité ont augmenté, passant de 11,1 milliards de dollars en 2021 à 15,4 milliards en 2022, se rapprochant de l’objectif 2025 de 25 milliards par an.
En outre, la COP16 a enregistré plusieurs succès. Tout d’abord, les peuples autochtones, représentant 6,2 % de la population mondiale mais occupant 22 % des terres mondiales abritant plus de 80 % de la biodiversité, seront désormais membres d’un groupe permanent de la CDB.
Une autre victoire : les discussions sur le partage des bénéfices issus de l’utilisation commerciale des séquences génétiques d’animaux ou de plantes. Les grandes entreprises profitant de ces connaissances (dans les domaines pharmaceutique, cosmétique, agro-industriel) devront verser 0,1 % de leurs revenus ou 1 % de leurs bénéfices dans un nouveau « fonds Cali », destiné aux peuples autochtones et aux États d’origine des ressources.
En l’absence d’un cadre global pour gérer les engagements et les financements, ces succès demeurent limités. La représentation permanente des peuples autochtones et les maigres ressources provenant des entreprises exploitant le patrimoine génétique – quelques milliards de dollars par an espérés – ne garantissent en rien d’inverser la tendance à la perte de biodiversité mondiale.
Pour Sébastien Treyer, bien qu’il soit nécessaire d’« arrêter de penser que chaque COP doit aboutir à un accord global, à un deal sur tous les sujets », cette COP16 laisse « une forte impression d’inachevé ».
Please active sidebar widget or disable it from theme option.
{{ excerpt | truncatewords: 55 }}
{% endif %}