L’art élégiaque de Robert Frank
Aussi : Rachel Syme teste des calendriers de l’avent opulents, Helen Shaw critique “Tammy Faye” et “A Wonderful World”, “Emilia Pérez” est en streaming, et plus encore.
Aussi : Rachel Syme teste des calendriers de l’avent opulents, Helen Shaw critique “Tammy Faye” et “A Wonderful World”, “Emilia Pérez” est en streaming, et plus encore.
Aura Salla était autrefois la principale lobbyiste du géant technologique à Bruxelles. Maintenant, sa présence en tant que régulatrice au Parlement européen s’avère controversée.
« Répondre aux besoins présents sans compromettre la capacité des générations futures à satisfaire les leurs » : telle était la définition de la durabilité donnée par les Nations unies en 1987. En ce qui concerne la pêche, il est clair que le système de gestion actuel échoue à relever ce défi.
Au contraire, l’IPBES, la plateforme scientifique intergouvernementale sur la biodiversité, identifie cette gestion comme la première cause de dégradation des océans. De 1974 à 2021, la proportion de stocks de poissons exploitée selon des pratiques durables a chuté de 90 % à 62 % au niveau mondial.
De plus, « de nombreux produits de la mer présentés comme durables ne le sont pas », avertissent les auteurs d’un article récent appelant à une redéfinition de la pêche durable. Paru dans une revue de Nature, ce texte est le résultat de deux ans de recherches menées par un groupe d’une trentaine de scientifiques.
Sous l’égide de l’association Bloom, ces chercheurs, experts en sciences halieutiques, écologie marine, biodiversité ou économie marine, ont été réunis lors de plusieurs ateliers ayant conduit à cette publication, dirigée par Callum Roberts, professeur de conservation marine à l’université d’Exeter.
« Le modèle actuel de “pêche durable” employé par les gouvernements et les acteurs privés depuis l’après-guerre est désormais obsolète sur le plan scientifique », déclare-t-il.
Les chercheurs analysent ainsi les limites du concept de rendement maximal durable, également appelé RMD. Ce paramètre est défini comme la quantité maximale théorique qu’il est possible de prélever d’un stock de poissons sans entraver son renouvellement. La gestion au RMD vise donc à établir des taux de capture permettant une exploitation soutenable des ressources. Depuis 2013, l’Union européenne en fait un objectif central de sa politique de pêche commune.
Cependant, le RMD repose sur une « approche monospécifique », ignorant les effets de la pêche sur les habitats marins, les interactions inter-espèces et les contributions écologiques de ces espèces. Par exemple, la pêche intensive de poissons « fourrages », tels que les anchois, affecte l’ensemble des niveaux trophiques supérieurs.
Le RMD néglige aussi la question des prises accessoires, c’est-à-dire les espèces capturées de manière accidentelle, favorisées par certaines méthodes de pêche.
De plus, alors que le RMD est fréquemment présenté comme un but à atteindre pour optimiser la productivité de la pêche, les chercheurs insistent sur l’importance de considérer l’incertitude provoquée par la dégradation de la biodiversité et le changement climatique, en fixant des taux d’exploitation plus prudents.
Les auteurs suggèrent un ensemble de onze mesures pour parvenir à une gestion véritablement durable des ressources, articulées autour de deux principes fondamentaux : « Pour chaque poisson pêché, il convient de minimiser l’impact écologique et de maximiser les bénéfices sociaux.&em> »
Les chercheurs recommandent surtout d’interdire les engins et techniques de pêche responsables de fortes quantités de prises accessoires ou de destruction des habitats marins, comme le chalutage de fond – dont l’interdiction envisagée dans certaines zones rencontre déjà une vive opposition en Europe. Ils préconisent également de limiter la taille des navires et d’interdire la pêche dans les zones les plus vulnérables, comme les grands fonds.
Leurs recommandations touchent également les dimensions humaines et sociales de la pêche. « Pour tirer le meilleur parti de la richesse de la vie marine, les poissons devraient être réservés à une consommation humaine directe, localement, via des circuits courts », précisent-ils.
Ils soulignent la nécessité de réformer les systèmes de gestion de la pêche pour assurer une distribution équitable et transparente des bénéfices et respecter le droit à la sécurité alimentaire des petits pêcheurs et des communautés autochtones.
« La question est de savoir si les bénéfices économiques de la pêche doivent être accaparés par quelques grands armateurs ou partagés de manière équitable à l’ensemble de la société grâce à une petite pêche côtière, avec des emplois en amont et en aval… », résume Didier Gascuel, professeur en écologie marine à l’Institut agro de Rennes-Angers et co-auteur de l’article.
Les signataires insistent sur l’importance de poursuivre les recherches afin d’adapter leurs propositions aux contextes locaux, tout en rappelant que de nombreuses initiatives similaires sont déjà mises en place ici et là.
Par exemple, au Canada, la pêche au homard à casier est proscrite dans les zones d’alimentation des baleines protégées lorsqu’elles y sont présentes. En Namibie, les prises accessoires des pêcheurs leur sont facturées. En Indonésie, des avancées dans la lutte contre la pêche destructrice s’appuient sur la mobilisation des communautés locales.
Ces exemples pourraient inspirer de nouvelles orientations dans les politiques de gestion des pêches, alors que la France accueillera en juin la troisième conférence des Nations unies sur les océans.
Étant donné que l’intelligence artificielle (IA) modifie les dynamiques des entreprises, la sauvegarde des données demeure un défi considérable. Les données synthétiques se présentent comme une réponse innovante pour allier progression et protection. Elles ouvrent de nouvelles avenues.
Le développement de l’IA transforme les méthodes de travail au sein des entreprises, mais cela entraîne également des risques en matière de sécurité. Pour optimiser les modèles d’IA, les organisations accumulent d’importantes quantités de données sensibles. Même en prenant des précautions, le partage interne de ces données peut rendre l’entreprise vulnérable aux fuites ou aux cyberattaques ciblées. Cela pourrait engendrer des répercussions juridiques ou altérer la confiance. En outre, des techniques telles que les « reconstruction attacks » exploitent les modèles d’IA pour extraire des données confidentielles, accentuant ainsi les risques.
L’usage inconsidéré de solutions d’IA générative par le personnel constitue un autre défi. Ces plateformes, en l’absence de directives sécurisées, pourraient exposer des données stratégiques à des entités externes. Simultanément, la pseudonymisation des données, souvent perçue comme une protection adéquate, révèle des faiblesses notables. Grâce au croisement de différents ensembles de données, des informations sensibles peuvent être récupérées, illustrant ainsi les limites de cette méthode.
Face à ces enjeux, les données synthétiques se révèlent être une solution efficace. Produites par des algorithmes à partir de données réelles, elles conservent les caractéristiques statistiques cruciales sans compromettre la confidentialité. Cette approche garantit une anonymisation totale, préservant les informations d’origine tout en favorisant l’innovation. Les avantages de cette méthode sont nombreux. Puisqu’elle permet un partage sécurisé des données, elle promeut la coopération entre entreprises et l’optimisation des modèles d’IA. Une autre force des données synthétiques réside dans leur potentiel à réduire les biais.
Les entreprises peuvent ainsi élaborer des modèles d’IA plus justes et diversifiés, accroissant ainsi leur fiabilité et leur pertinence. En plus d’entraîner les modèles, ces données artificielles sont également très utiles pour tester et développer des systèmes informatiques. Les développeurs peuvent travailler dans des environnements proches de la réalité sans les dangers liés aux informations sensibles, cela permet d’optimiser l’efficacité des cycles de développement.
Adopter une méthode durable pour l’IA nécessite plus qu’une simple gestion des données. Une préoccupation clé est la dette technique. Des solutions IA, qu’elles soient sur mesure ou open source, peuvent sembler avantageuses, mais peuvent engendrer des frais de maintenance considérables si elles ne sont pas conçues pour l’industrialisation dès le départ.
La dimension écologique est tout aussi cruciale. L’entraînement de modèles exige beaucoup d’énergie, entraînant une empreinte carbone notable. Rationaliser les modèles pour une efficacité énergétique améliorée est donc essentiel, tant pour diminuer les coûts que pour répondre aux préoccupations environnementales. L’indépendance technologique est également un aspect indispensable : éviter le verrouillage fournisseur et privilégier des solutions ouvertes permet une plus grande flexibilité pour l’avenir. Les entreprises doivent également aborder les cas d’hallucination des modèles d’IA, où des informations erronées peuvent être générées. La mise en place de mécanismes de surveillance et de validation rigoureux est nécessaire pour assurer la fiabilité des résultats.
Article basé sur un communiqué de presse reçu par la rédaction.
Les Halles de Béziers font leur retour ce midi après neuf mois de rénovation. L’entreprise Biltoki est désormais en charge de la gestion de ces Halles, qui abritent une vingtaine de commerçants.
Les Halles de Béziers avaient été fermées en février pour des travaux de réhabilitation. Elles vont rouvrir en grande cérémonie ce vendredi midi avec de nouvelles têtes.
Biltoki, le gestionnaire actuel des Halles, a engagé une vingtaine de commerçants, dont un tiers provient de l’ancienne équipe du marché. L’entreprise a reconsidéré le “parcours client”, c’est-à-dire la configuration des stands à l’intérieur du marché. De plus, trois jours de festivités sont prévus, incluant des concerts, des dégustations et des animations pour faire connaître ces nouvelles Halles aux visiteurs.
Dernières informations, OpenAI a lancé un projet visant à créer une coalition internationale pour faire concurrence à la Chine dans le domaine de l’intelligence artificielle. Comme le rapporte Bloomberg, OpenAI prévoit de placer les États-Unis en tête de ce pacte.
L’annonce a été révélée mercredi dernier lors d’un événement organisé par le Centre stratégique et international.
OpenAI a déclaré que cette alliance commencera avec les États-Unis et ses voisins.
Cependant, l’initiative s’étendra ultérieurement aux autres pays amis des Américains. Néanmoins, OpenAI n’a pas encore précisé quels pays seraient concernés.
D’après le rapport, ce projet d’OpenAI se focaliserait principalement sur les ressources requises pour le développement de l’IA, incluant les compétences, le financement et les chaînes d’approvisionnement.
En outre, l’initiative politique d’OpenAI suggère que les États-Unis financent des projets d’infrastructures énergétiques.
Ils devront également faciliter la relance des réacteurs nucléaires, tout en appelant à la marine américaine pour subvenir aux besoins énergétiques de l’IA.
NOUVEAU : Le “plan directeur” officiel d’OpenAI pour l’infrastructure IA américaine comprend des zones économiques basées sur l’IA, tirant parti de l’expérience nucléaire de la marine américaine et des projets gouvernementaux financés par le secteur privé, selon un document examiné par CNBC, qu’OpenAI prévoit de présenter aujourd’hui à D.C. https://t.co/ol8xQ5U7PJ
— Hayden Field (@haydenfield) November 13, 2024
De son côté, le PDG d’OpenAI, Sam Altman, a déclaré le 31 octobre dernier que le manque de pouvoir de calcul freine le lancement des produits de sa société.
Il a également expliqué que la complexité croissante des modèles d’IA les a confrontés à des limitations et à des choix difficiles en matière d’allocation de la puissance de calcul.
Pour réaliser son projet, OpenAI prévoit de rassembler des investisseurs internationaux afin de d’investir des dizaines de milliards de dollars dans l’infrastructure d’IA aux États-Unis, notamment pour des centres de données, des turbines de refroidissement, des générateurs et la production de semi-conducteurs.
De plus, Sam Altman aurait mentionné que résoudre le problème de la pénurie de puces d’IA nécessaires pour entraîner de grands modèles linguistiques pourrait exiger entre 5 000 et 7 000 milliards de dollars, alors que le marché mondial des semi-conducteurs devrait atteindre 1 000 milliards de dollars d’ici la fin de la décennie.
Je me demande si la France va, elle aussi, s’imposer comme un acteur majeur de l’IA. Si c’est le cas, peut-on envisager une collaboration entre les principaux acteurs du marché français ? Notamment Kyutai et Mistral.
Le “nivau divin de trolling” de Trump sur l’Amérique a déjà commencé.
Alors qu’une famine “imminente” se profile, le parlement israélien a voté pour interdire la principale agence humanitaire de l’ONU pour les Palestiniens.
Comment la musique fake cible les vrais artistes. a:hover]:text-black [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-e9 dark:[&>a:hover]:shadow-underline-gray-63 [&>a]:shadow-underline-gray-13 dark:[&>a]:shadow-underline-gray-63″>Une capture d’écran de l’album fake d’Annie, prise le 12 octobre. Une sorte de bouillie IA avait été téléchargée sur la page de l’artiste HEALTH sur Spotify, l’un des trois faux albums qui apparaîtraient sous leur nom ce week-end-là. Le compte X du groupe a fait quelques blagues à ce sujet, les albums ont finalement été supprimés, et je suis retourné à mes affaires. Puis, le week-end suivant, j’ai vu qu’un nouvel album d’Annie était sorti. Cet album était plus plausible – Annie venait de sortir un nouveau single, “The Sky Is Blue” – mais quand j’ai cliqué, je ne pouvais pas le trouver dans la liste des titres de chansons. Confus, j’ai joué l’album et j’ai entendu des chants d’oiseaux et un instrumental vaguement New Age. Cela… ne ressemblait pas à Annie. Alors j’ai fait ce que ferait n’importe quelle personne normale : j’en ai parlé dans mon groupe de discussion. C’est ainsi que j’ai appris que cela arrivait à d’autres artistes, comme à beaucoup d’artistes, et que cela se produisait depuis des mois. (“J’en ai un qui apparaît souvent dans mon radar de nouvelles,” a dit mon pote Gordon.) Pendant un certain temps, des artistes de metalcore comme Caliban, Northlane et Silent Planet avaient été ciblés. Mais beaucoup d’artistes avec des noms d’un seul mot, comme Swans, Asia, Standards, et Gong, l’étaient aussi. Un nouvel album apparaîtrait sur la page Spotify d’un artiste, portant leur nom mais sans ressemblance avec leur musique. Parfois, comme avec les faux albums de HEALTH, ils disparaîtraient après quelques jours. D’autres fois, ils persisteraient indéfiniment, même contre la volonté de l’artiste. a:hover]:text-black [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-e9 dark:[&>a:hover]:shadow-underline-gray-63 [&>a]:shadow-underline-gray-13 dark:[&>a]:shadow-underline-gray-63″>Pouvez-vous repérer le faux ? Pour moi, tout cela a soulevé une question évidente…
Please active sidebar widget or disable it from theme option.
{{ excerpt | truncatewords: 55 }}
{% endif %}