Share this post

Si vous achetez quelque chose en utilisant les liens dans nos articles, nous pouvons toucher une commission. Cela aide à soutenir notre journalisme. En savoir plus. Merci de considérer également de vous abonner à WIRED.

Sam Altman est le roi de l’intelligence artificielle générative. Mais est-il la personne à qui nous devrions faire confiance pour guider nos explorations dans l’IA ? Cette semaine, nous plongeons profondément dans la vie de Sam Altman, de ses racines dans le Midwest à ses débuts dans les startups, son temps dans le capital-risque, et sa montée, sa chute, puis sa nouvelle montée chez OpenAI.

Vous pouvez suivre Michael Calore sur Mastodon à @snackfight, Lauren Goode sur Threads à @laurengoode, et Zoë Schiffer sur Threads à @reporterzoe. Écrivez-nous à uncannyvalley@wired.com.

Comment écouter

Vous pouvez toujours écouter le podcast de cette semaine via le lecteur audio sur cette page, mais si vous voulez vous abonner gratuitement pour recevoir chaque épisode, voici comment :

Si vous êtes sur un iPhone ou un iPad, ouvrez l’application appelée Podcasts, ou cliquez simplement sur ce lien. Vous pouvez également télécharger une application comme Overcast ou Pocket Casts et rechercher « Uncanny Valley ». Nous sommes également sur Spotify.

Transcription

Remarque : Ceci est une transcription automatisée, qui peut contenir des erreurs.

Sam Altman : Nous avons été une organisation mal comprise et ridiculisée pendant longtemps. Quand nous avons commencé et dit que nous allions travailler sur une AGI, les gens pensaient que nous étions complètement fous.

Michael Calore : Sam Altman est le PDG et l’un des fondateurs d’OpenAI, l’entreprise d’IA générative qui a lancé ChatGPT il y a environ deux ans, et qui a essentiellement ouvert la voie à une nouvelle ère d’intelligence artificielle. Voici Uncanny Valley de WIRED, une émission sur les personnes, le pouvoir et l’influence de la Silicon Valley. Aujourd’hui dans l’émission, nous plongeons profondément dans la vie de Sam Altman, de ses racines dans le Midwest à ses débuts dans les startups, son temps en tant que capital-risqueur, et sa montée, sa chute, puis sa nouvelle montée chez OpenAI. Nous allons tout examiner en nous demandant, est-ce cet homme à qui nous devrions faire confiance pour guider nos explorations dans l’intelligence artificielle, et avons-nous même le choix ? Je suis Michael Calore, directeur des technologies de consommation et de la culture ici chez WIRED.

Lauren Goode : Je suis Lauren Goode. Je suis rédactrice senior chez WIRED.

Zoë Schiffer : Je suis Zoë Schiffer, directrice des affaires et de l’industrie chez WIRED.

Michael Calore : D’accord. Je veux commencer aujourd’hui en revenant d’un an en arrière, novembre 2023, à un événement que nous appelons le blip.

Lauren Goode : Le blip. Nous ne nous contentons pas de l’appeler le blip. C’est en fait la phrase interne utilisée chez OpenAI pour décrire quelques-uns des jours les plus chaotiques de l’histoire de cette entreprise.

: L’entreprise OpenAI, l’un des principaux acteurs de l’intelligence artificielle, plongée dans le désarroi.

: Une des plus spectaculaires ruptures d’entreprise.

: Les nouvelles de Wall Street aujourd’hui impliquent des développements stupéfiants dans le monde de l’intelligence artificielle.

Zoë Schiffer : Tout a vraiment commencé le 17 novembre, ce vendredi après-midi, lorsque Sam Altman, le PDG de l’entreprise, reçoit ce qu’il dit être la nouvelle la plus surprenante, choquante et difficile de sa carrière professionnelle.

: Le choc du licenciement de l’ancien patron, Sam Altman.

: Son licenciement a envoyé des ondes de choc à travers la Silicon Valley.

Zoë Schiffer : Le conseil d’administration d’OpenAI, qui à l’époque était une organisation à but non lucratif, a perdu confiance en lui, dit-il. Malgré le fait que l’entreprise se porte incroyablement bien selon tous les critères, il est éjecté. Il ne va plus diriger l’entreprise.

Michael Calore : Il est effectivement licencié de l’entreprise qu’il a cofondée.

Zoë Schiffer : Oui. Cela déclenche immédiatement une réaction en chaîne d’événements. Son cofondateur et président de l’entreprise, Greg Brockman, démissionne en signe de solidarité. Le PDG de Microsoft, Satya Nadella, annonce que Sam Altman va en fait rejoindre Microsoft et diriger une équipe de recherche en IA avancée là-bas. Puis nous voyons presque la totalité des employés d’OpenAI signer une lettre disant : « Attendez, attendez, attendez. Si Sam part, nous partons aussi. »

: Environ 500 de ces 700 employés—

:menaçant de démissionner en raison du licenciement brusque du PDG populaire d’OpenAI, Sam Altman.

Zoë Schiffer : Finalement, il y a cette négociation tendue entre Sam Altman et le conseil d’administration, et finalement le conseil d’administration nomme Mira Murati, la CTO, comme PDG par intérim. Peu après, Sam parvient à un accord avec le conseil et il revient en tant que PDG, et le conseil a instantanément un aspect différent, avec Brett Taylor et Larry Summers rejoignant, Adam D’Angelo restant, et le reste du conseil partant.

Michael Calore : Tout cela s’est produit pendant un week-end, dans les premiers jours de la semaine suivante. Cela a ruiné beaucoup de nos week-ends en tant que journalistes technologiques. Je suis sûr que cela a également gâché beaucoup de week-ends pour tout le monde dans l’industrie de l’IA générative, mais pour beaucoup de gens qui ne suivent pas ces choses, c’était la première fois qu’ils entendaient parler de Sam Altman, la première fois peut-être qu’ils entendaient parler d’OpenAI. Pourquoi cela était-il important ?

Zoë Schiffer : Oui. C’était un moment si intéressant, car cela m’a surprise. Lauren, je suis curieuse de savoir si cela t’a surprise que cette histoire ait percé à une échelle nationale. Les gens sont passés d’une méconnaissance totale de qui était Sam Altman à être choqués et troublés qu’il ait été licencié de sa propre entreprise.

Lauren Goode : Je pense qu’à ce moment-là, tout le monde entendait parler de l’IA générative et comment cela allait changer nos vies. Sam était maintenant officiellement le visage de cela, et cela a nécessité ce chaos, ce drame de la Silicon Valley pour le mettre au premier plan, car ensuite, en essayant de comprendre ce qui se passait avec la mutinerie, on a eu un aperçu des personnes ayant des camps différents en matière d’IA. Certains croient à une intelligence artificielle générale, pensant qu’elle finira par prendre complètement le contrôle de nos vies. D’autres font partie du camp des accélérationnistes qui croient que l’IA devrait simplement se développer aussi vite que possible, sans entrave. D’autres sont un peu plus prudents et estiment qu’il devrait y avoir des mesures de sécurité et des garde-fous autour de l’IA. Toutes ces choses se sont cristallisées à travers ce long et chaotique week-end.

Michael Calore : Nous allons parler beaucoup de Sam dans cet épisode, et je veux m’assurer que nous avons une idée de qui il est en tant que personne. Comment le connaissons-nous ? Comment le comprenons-nous en tant que personne ? Quelle est son ambiance ?

Zoë Schiffer : Eh bien, je pense que Lauren pourrait être la seule à l’avoir réellement rencontré. C’est vrai ?

Lauren Goode : Oui. Je l’ai rencontré quelques fois, et ma première interaction avec Sam remonte à environ une décennie. Il avait environ 29 ans, et il est le président de Y Combinator, qui est un incubateur de startups très connu ici dans la Silicon Valley. L’idée est que toutes ces startups présentent leurs idées et reçoivent un très petit montant de financement initial, mais obtiennent également beaucoup de coaching et de mentorat. La personne qui dirige YC est vraiment un conseiller de camp glorifié pour la Silicon Valley, et c’était Sam à l’époque. Je me souviens lui avoir parlé brièvement lors d’un de leurs jours de démonstration YC à Mountain View. Il dégageait beaucoup d’énergie. C’est clairement un gars intelligent. Il paraît amical et ouvert. Les personnes qui le connaissent bien diront qu’il est vraiment l’une des personnes les plus ambitieuses qu’ils connaissent. Mais à première vue, on ne penserait pas nécessairement qu’il est l’homme, dix ans plus tard, à rencontrer des premiers ministres et des chefs d’État du monde entier pour leur parler de sa grande vision de l’intelligence artificielle, et quelqu’un qui se positionne réellement comme un homme de pouvoir dans l’intelligence artificielle.

Zoë Schiffer : Oui. Je pense que l’une des choses intéressantes à propos de Sam est qu’il semble être une telle énigme. Les gens ont vraiment du mal, moi y compris, à mettre le doigt sur ce qu’il représente. Devons-nous faire confiance à ce gars ? Je pense qu’il y a d’autres PDG et dirigeants dans la Vallée qui ont des personnalités si bruyantes, comme Elon Musk, Marc Andreessen, que l’on ressent instantanément une certaine opinion à leur sujet. Soit vous les aimez beaucoup, soit vous êtes vraiment rebutés par eux, et Sam est quelque part au milieu. Il semble un peu plus calme, un peu plus réfléchi, un peu plus geek. Mais il y a ce sentiment, comme Lauren l’a dit, d’un appétit pour le pouvoir qui vous fait réfléchir et penser : « Attendez. De quoi s’agit-il exactement pour ce gars ? Quels en sont les enjeux pour lui ? »

Lauren Goode : C’est vrai. Il porte aussi beaucoup de chemises Henley. Maintenant, je sais que ce n’est pas un défilé de mode. Les personnes qui écoutent notre tout premier épisode—

Zoë Schiffer : Mais ce n’est pas rien.

Lauren Goode : … pourraient se dire : « Vont-ils juste parler de sweatshirts à capuche à chaque épisode ? » Mais il porte beaucoup de Henleys, de jeans et de belles baskets, sauf lorsqu’il rencontre des chefs d’État, où il s’habille de manière appropriée.

Zoë Schiffer : Sam, nous avons des notes sur les tenues si tu en veux, donc appelle-nous.

Michael Calore : Eh bien, Zoé, pour rebondir sur ton point, Paul Graham, qui était autrefois le responsable de Y Combinator, l’incubateur dont Lauren parlait, a décrit Sam comme extrêmement doué pour devenir puissant. Il semble être quelqu’un qui peut lire la situation et le contexte et déterminer où aller ensuite avant que les autres ne puissent le comprendre. Beaucoup de gens établissent des parallèles entre Sam Altman et Steve Jobs. Je pense que Steve Jobs était quelqu’un qui avait une vision pour l’avenir et savait communiquer pourquoi elle était importante, et il avait un produit de consommation qui enthousiasmait les gens. Sam Altman est également quelqu’un qui a une vision pour l’avenir, est capable de communiquer pourquoi cela est important pour nous tous, et a un produit qui excite tout le monde, ChatGPT. Je pense que c’est là que le parallèle s’arrête.

Lauren Goode : Je pense que la question de savoir si Sam Altman est le Steve Jobs de notre époque est vraiment pertinente. Vous avez raison de dire qu’ils étaient tous deux essentiellement les vendeurs de produits que d’autres personnes avaient créés. Ils sont en un sens des marketeurs. Jobs a commercialisé le smartphone, qui a littéralement changé le monde. Sam a aidé à productiser l’IA, cette nouvelle forme d’IA générative via ChatGPT. C’est une similitude. Ils étaient tous deux extrêmement ambitieux, énigmatiques, comme Zoe l’a dit, et prétendument impatients. Ils ont des employés prêts à les suivre jusqu’au bout de la terre et d’autres qui ont fui par peur. Ils ont tous deux été évincés d’entreprises qu’ils dirigeaient avant de revenir. Bien que l’absence de Sam ait été infiniment plus courte que le retour de Steve Jobs chez Apple. Je pense qu’il y a des différences clés cependant. Une est que nous avons l’avantage du recul avec Jobs. Nous savons ce qu’il a accompli et nous n’avons pas encore vu si Altman va vraiment être un personnage déterminant de l’IA pour les 10, 20 ou 30 prochaines années. La seconde chose est que, bien que Jobs ait eu des particularités de personnalité et des complexes très réels selon tous les comptes, je tends à le voir comme étant placé dans cette position messianique par ses acolytes. Alors que Sam semble vraiment, vraiment vouloir s’élever à cette position, et il y a certaines personnes qui restent très sceptiques à ce sujet.

Zoë Schiffer : C’est vraiment intéressant. Juste pour approfondir, comme disent les gens de la tech, l’analogie du vendeur peut sembler réductrice, mais je pense réellement que c’est un point très important, car de grands modèles de langage existent. L’IA existe d’une certaine manière. Mais si les gens, les utilisateurs ordinaires ne savent pas comment utiliser ces produits ou interagir avec eux, est-ce qu’ils vont réellement s’imposer et changer le monde de la manière dont des gens comme Sam Wollman pensent qu’ils le feront ? Je dirais non. Son rôle dans le lancement de ChatGPT, qui n’est pas, selon moi, un outil incroyablement utile, mais qui indique les futurs usages de l’IA et ce qu’ils pourraient être et comment cela pourrait interagir avec la vie quotidienne des gens. C’est un changement vraiment important et un impact significatif qu’il a eu.

Michael Calore : Oui. Lauren a également abordé ce point. Nous ne savons pas quel sera l’impact. Nous n’avons pas l’avantage du recul ici, et nous ne savons pas si ces promesses sur la façon dont l’intelligence artificielle va transformer toutes nos vies, comment cela va se jouer. Il y a beaucoup de gens qui sont très sceptiques à propos de l’IA, en particulier les artistes et les créatifs, mais aussi des personnes qui travaillent dans la surveillance, la sécurité et l’armée ont peur et un scepticisme sain à propos de l’IA. Nous regardons cette figure comme la personne qui va nous mener dans le futur où cette technologie deviendrait celle qui définit ce futur, donc la question devient, pouvons-nous faire confiance à cette personne ?

Lauren Goode : Je pense que la réponse de Sam à cela serait : « Non. Vous ne devriez pas me faire confiance, et vous ne devriez pas avoir à le faire. » Il a déjà dit dans des interviews qu’il essaie de mettre en place l’entreprise de manière à ne pas avoir autant de pouvoir. Il n’a pas un contrôle total de cette manière. Il a définitivement laissé entendre qu’il pense que beaucoup de décisions régissant l’IA devraient être démocratiques. Je pense que c’est encore une fois, cette question de savoir si nous faisons confiance à ces déclarations ou si nous faisons plus confiance à ce qu’il fait, qui est de consolider le pouvoir et de diriger une entreprise à but lucratif, ce qui était auparavant une organisation à but non lucratif.

Michael Calore : Oui. Nous devrions souligner qu’il encourage toujours un débat sain. Il encourage un dialogue ouvert sur les limites que l’IA devrait avoir, mais cela ne semble toujours pas satisfaire les personnes qui doutent de cela.

Lauren Goode : Oui. Je pense qu’il est également important de faire la distinction entre les personnes qui doutent de cela et celles qui en ont peur aussi. Il y a des gens qui sont sceptiques quant à la technologie elle-même. Il y a des gens qui doutent que Sam Altman puisse être le figurehead dont nous avons besoin ici. Puis il y a la peur de la technologie chez certaines personnes qui croient réellement en son potentiel à révolutionner le monde, et la peur est que cela pourrait ne pas se passer nécessairement de la bonne manière. Peut-être que quelqu’un utilisera l’IA pour le bioterrorisme. Peut-être que quelqu’un utilisera l’IA pour lancer des bombes nucléaires. Peut-être que l’IA elle-même deviendra tellement omnisciente et puissante qu’elle deviendra violente envers les humains. Ce sont des peurs réelles que les chercheurs et les décideurs politiques ont. Les questions sur la fiabilité de Sam ne proviennent pas seulement, disons-le, d’une perspective de capital. Ce qui se passe en termes de savoir si OpenAI est une organisation à but non lucratif ou à but lucratif, ou pouvons-nous faire confiance à cet homme avec des milliards de dollars de financement ? C’est littéralement de savoir si nous pouvons lui faire confiance en quelque sorte avec nos vies ?

Zoë Schiffer : D’accord. Le degré auquel nous devrions nous inquiéter de Sam Altman est le degré auquel vous croyez personnellement que l’intelligence artificielle générale est une réelle préoccupation ou que l’IA pourrait changer significativement le monde d’une manière potentiellement catastrophique.

Lauren Goode : Altman a été cité dans un profil du New York magazine à son sujet en disant que l’IA n’est pas une histoire claire uniquement bénéfique. Des choses vont être perdues ici en cours de développement. Il est tout à fait compréhensible et naturel pour les gens d’avoir une aversion à la perte. Ils ne veulent pas entendre des histoires où ils sont les victimes.

Michael Calore : Nous avons un figurehead autoproclamé que cela nous plaise ou non, et nous devons prendre des décisions pour savoir si cette personne mérite notre confiance. Mais avant d’en arriver là, nous devrions parler de la façon dont Sam est arrivé là où il est aujourd’hui. Que savons-nous de Sam Altman, l’homme, avant qu’il ne devienne Sam Altman, le fondateur de technologie ?

Lauren Goode : Eh bien, il est l’aîné de quatre enfants. Il vient d’une famille juive du Midwest. Il a grandi à St. Louis. Sa famille, selon les dires, il a eu une enfance plutôt bonne, je crois. Ils passaient du temps ensemble. Ils jouaient à des jeux. Je pense que son frère a dit que Sam avait toujours besoin de gagner à ces jeux. Au lycée, il fait son coming out en tant que gay, ce qui était assez inhabituel à l’époque. Il a dit que son lycée était en fait assez intolérant envers les homosexuels. À un moment donné, il monte sur scène dans son école, selon ce profil du New York Magazine, et fait un discours sur l’importance d’avoir une société ouverte. Ce que j’en retire, c’est qu’il était disposé dès son jeune âge à être différent des autres et à rejeter l’idéologie dominante. Il y avait aussi cette section vraiment drôle dans le profil où ils disaient qu’il était un enfant génie, et qu’à 3 ans, il réparait le magnétoscope familial. En tant que maman d’un enfant de 3 ans, j’étais comme, mais qu’est-ce que c’est ?

Michael Calore : Je réinitialisais l’horloge du magnétoscope familial à 11 ans, et je veux juste dire que je suis aussi un enfant génie.

Lauren Goode : C’est drôle avec les profils de certains de ces fondateurs, car je sens qu’il y a cette tendance hagiographique à dire : « Bien sûr, ils étaient aussi des enfants génies. » Personne n’est jamais ordinaire pendant son enfance et ne finit par devenir milliardaire. Il y a toujours quelque chose de spécial.

Michael Calore : C’est vrai. Eh bien, il y avait quelque chose de spécial à propos de Sam, c’est sûr.

Lauren Goode : Oui. Il commence à Stanford en 2003. C’est la période où d’autres jeunes et ambitieux commencent des entreprises comme Facebook et LinkedIn. Je pense que si vous étiez intelligent et ambitieux, comme Sam l’était clairement, vous n’alliez pas vous lancer dans les secteurs traditionnels du droit ou de la médecine. Vous alliez essayer de créer une entreprise, ce qu’il fait.

Zoë Schiffer : Oui. Il démarre cette entreprise appelée Looped. Il est étudiant en deuxième année à Stanford. Il s’associe à son petit ami de l’époque et ils créent ce qui ressemble à un Foursquare précoce. C’est alors que Sam s’engage avec Y Combinator pour la première fois. Lui et son cofondateur reçoivent un investissement de 6 000 $. Ils sont acceptés dans un programme d’été pour fondateurs de Y Combinator, et c’est là qu’ils passent quelques mois à incuber leur application avec du mentorat. Ils sont avec d’autres nerds. Il y a ce détail incroyable sur la façon dont Sam travaillait tellement à cette époque qu’il a eu le scorbut.

Lauren Goode : Oh mon Dieu. Cela semble également mythologiser.

Zoë Schiffer : Ça l’est vraiment. Avancez quelques années, nous sommes en 2012. Looped a levé environ 30 millions de dollars en capital-risque, et l’entreprise annonce qu’elle sera acquise par une autre entreprise pour environ 43 millions de dollars. Cela semble beaucoup d’argent pour les personnes qui ne créent pas d’applications et ne vendent pas leurs entreprises, mais selon les normes de la Silicon Valley, cela n’est pas vraiment considéré comme un succès. Sam est à l’aise. Il peut voyager un peu à travers le monde, se trouver, réfléchir à ce qu’il veut faire ensuite, mais il y a encore beaucoup d’ambition, et nous n’avons pas encore vu le vrai Sam Altman.

Lauren Goode : L’argent semble-t-il être une force motivante pour lui, ou que recherche-t-il pendant cette période ?

Zoë Schiffer : Oui. C’est une très bonne question, et cela je pense est peut-être emblématique de sa personnalité, car il ne s’arrête pas là. Il continue de réfléchir à beaucoup de choses. Il pense toujours beaucoup à la technologie. Puis en 2014, il est recruté par Paul Graham pour être président de Y Combinator, donc il s’immerge dans un tas d’autres technologues avec toutes ces nouvelles idées. Environ en 2015, alors qu’il pense à toutes ces choses, c’est vraiment là que nous avons les graines d’OpenAI.

Michael Calore : Parlons d’OpenAI. Qui sont les cofondateurs ? À quoi ressemblent les premiers jours de l’entreprise, et quelle est sa mission lorsqu’elle décolle ?

Lauren Goode : À l’origine, OpenAI est fondée comme un groupe de chercheurs qui se réunissent pour explorer l’intelligence artificielle générale. Un groupe de cofondateurs, y compris Sam et Elon Musk, crée OpenAI en tant qu’organisation à but non lucratif. Ils n’ont pas vraiment une idée de l’avoir une composante commerciale ou une application destinée aux consommateurs. Cela a vraiment l’air d’une organisation de recherche à ce moment-là, mais Elon Musk, dans son style classique, veut retirer plus de contrôle aux autres cofondateurs. Il essaie de prendre le contrôle à plusieurs reprises et propose l’idée que Tesla pourrait acquérir OpenAI, et le reste des fondateurs rejette cette idée, apparemment, et donc finalement Musk s’éloigne et Sam Altman prend le contrôle de l’entreprise.

Michael Calore : Je pense qu’il est également important de faire la distinction qu’il y avait beaucoup d’entreprises travaillant sur l’intelligence artificielle à ce moment-là, il y a environ huit ou neuf ans, et OpenAI se voyait comme les gentils du groupe.

Lauren Goode : C’est l’ouverture.

Michael Calore : Oui. En gros, si vous construisez des outils d’intelligence artificielle, ils peuvent être utilisés par des militaires. Ils peuvent être utilisés par de mauvaises personnes. Ils peuvent devenir dangereux, comme certains des dangers dont Lauren parlait plus tôt, et ils se voyaient comme les gens qui allaient le faire de la bonne manière. Ils voulaient que l’IA soit bénéfique pour la société et non nuisible à celle-ci. Ils voulaient rendre leurs outils disponibles gratuitement pour un maximum de personnes possible, et ils voulaient vraiment s’assurer que cela ne devienne pas simplement une boîte fermée qui finirait par faire gagner beaucoup d’argent à quelques personnes pendant que tout le monde reste à l’extérieur.

Lauren Goode : C’était ainsi qu’ils concevaient être de bons. C’était le facteur de démocratisation plus que le facteur de confiance et de sécurité. Est-ce juste ? Étaient-ils assis autour à se dire : « Nous allons vraiment étudier les dangers, tous les usages potentiels abusifs ? » Ou était-ce plus comme : « Nous allons remettre cela entre les mains des gens et voir ce qu’ils en font ? »

Zoë Schiffer : C’est une bonne question. Je pense qu’ils se voyaient comme « alignés sur les valeurs ».

Michael Calore : Oui. C’est un terme qu’ils utilisent tous.

Zoë Schiffer : Oui. En 2012, il y avait quelque chose appelé AlexNet qui était ce réseau de neurones convolutionnel. Il était capable d’identifier et de classifier des images d’une manière qui n’avait pas été faite auparavant par l’IA. Cela a époustouflé les gens. Vous pouvez entendre le PDG de Nvidia, Jensen Huang, parler de la façon dont cela l’a convaincu de changer la direction de l’entreprise vers l’IA, un moment clé. Ensuite, en 2017, des chercheurs de Google ont travaillé sur cet article, connu maintenant sous le nom d’article d’attention, qui a essentiellement défini les transformateurs modernes qui constituent le T de ChatGPT. Vous avez raison, Mike, ces groupes et entreprises ont copié le train, et OpenAI depuis le début était comme : « Nous voulons absolument être dans ce train, mais nous pensons que nous sommes plus alignés sur les valeurs que les autres. »

Michael Calore : Ils ont vite réalisé que si vous construisez des modèles d’intelligence artificielle, vous avez besoin de quantités massives de puissance de calcul, et ils n’avaient pas l’argent pour acheter cette puissance. Cela a créé un changement.

Lauren Goode : Ils se sont tournés vers Microsoft.

Zoë Schiffer : Eh bien, ils essaient de lever des fonds en tant qu’organisation à but non lucratif, et Sam dit que cela n’est tout simplement pas réussi, et donc ils sont contraints à adopter un autre modèle, et l’organisation à but non lucratif commence à se transformer en une autre chose qui a une filiale à but lucratif. OpenAI commence à paraître étrange et Frankenstein même dans ses premières années.

Lauren Goode : Oui. Au début des années 2020, Sam avait quitté Y Combinator. OpenAI était sa priorité à plein temps. Ils avaient créé ce bras à but lucratif, et cela leur a permis de contacter Microsoft, et de lever, je pense, un milliard de dollars au départ.

Michael Calore : Et quel est le parcours de Sam pendant cette période ? Investit-il ? Dirige-t-il simplement cette entreprise ?

Lauren Goode : Il médite.

Michael Calore : Il est très intéressé par la méditation.

Lauren Goode : Juste à méditer.

Zoë Schiffer : Dans un style de fondateur, capital-risqueur classique, il investit dans un tas d’autres entreprises. Il a investi 375 millions de dollars dans Helion Energy, qui est une entreprise spéculative sur la fusion nucléaire. Il a mis 180 millions dans Retro Biosciences, qui examine la longévité et comment les gens peuvent vivre plus longtemps. Il a levé 115 millions de dollars pour WorldCoin, dont Lauren, tu es allée à un autre événement récemment, n’est-ce pas ?

Lauren Goode : Oui. WorldCoin est une entreprise assez fascinante, et je pense qu’elle est en quelque sorte emblématique de l’approche, de l’ambition, de la personnalité de Sam, car ce qu’ils créent, eh bien, il y a une application, mais il y a aussi une orbe. Une orbe physique comme une balle dans laquelle vous êtes censé regarder, et cela capture vos iris, puis cela se transforme en un jeton d’identité qui le met sur la blockchain. L’idée que Sam a exprimée, c’est que, « Regardez, dans un avenir pas si lointain, il y aura tellement de fausses informations dans le monde à cause de l’IA, et les gens pourront très facilement usurper votre identité grâce à l’IA que je construis. Par conséquent, j’ai une solution pour vous ». Sa solution est cette WorldCoin, maintenant juste appelée produit World. Voici l’homme qui accélère le développement de l’IA et dit : « Voici les dangers potentiels, mais aussi j’ai la solution, les amis. »

Zoë Schiffer : Je suis pour tout ce qui me permet de ne pas me souvenir de mes nombreuses, nombreuses mots de passe, donc tu peux scanner mon iris, Sam.

Lauren Goode : Quoi d’autre investit-il ?

Zoë Schiffer : Pendant cette période, il devient également riche. Il achète des voitures de luxe. Il fait la course avec ces voitures de luxe. Il se marie. Il dit qu’il veut avoir des enfants bientôt. Il achète une maison de 27 millions de dollars à San Francisco, puis il consacre énormément d’énergie à OpenAI et en particulier au lancement de ChatGPT, qui va être le visage commercial de ce qui était auparavant une organisation à but non lucratif.

Lauren Goode : Oui. C’est vraiment un moment décisif. C’est la fin de 2022, et tout d’un coup les gens ont une interface utilisateur. Ce n’est pas juste un LLM que les gens ne comprennent pas pleinement et qui fonctionne en coulisse. C’est quelque chose auquel ils peuvent accéder sur leur ordinateur portable ou leur téléphone, taper et avoir cette expérience de recherche qui se sent très conversationnelle et différente de l’expérience de recherche que nous avons connue et comprise pendant les 20 dernières années. Sam est le visage de cela. Les événements produits que OpenAI commence à organiser par intermittence commencent à ressembler un peu à des événements Apple dans la façon dont les gens, nous, journalistes tech, les couvons. Puis l’année suivante, en 2023, avant le blip, Sam part en tournée mondiale. Il rencontre des premiers ministres et des chefs d’État, et ce qu’il fait, c’est qu’il appelle à un type très spécifique d’agence réglementaire pour l’IA. Il a décidé que si l’IA continue de croître en influence et en pouvoir, elle sera réglementée à un moment donné potentiellement, et qu’il veut faire partie de cette conversation. Pas seulement faire partie de cette conversation. Il veut avoir le contrôle de l’apparence de ce cadre.

Zoë Schiffer : D’accord. Vous le mentionniez tout à l’heure, mais il y a ce débat en cours sur l’intelligence artificielle générale et l’idée que l’IA deviendra consciente à un moment donné et peut-être même échappera au contrôle et se retournera contre nous, les humains. Sam a récemment déclaré que ce n’était pas vraiment sa principale préoccupation, ce qui je pense est un peu inquiétant. Mais il a dit quelque chose de sage, à mon avis, qui était qu’il y a beaucoup de dommages qui peuvent être causés sans atteindre l’AGI, comme la désinformation et les usages politiques abusifs de l’IA. Ils n’ont pas besoin d’être si intelligents pour être très, très destructeurs.

Michael Calore : Oui. La perte d’emploi. Nous devrions également mentionner l’impact de l’IA sur le travail, car de nombreuses entreprises sont désireuses de réduire les coûts et investissent dans un système d’IA qui automatise certains des travaux qu’elles faisaient auparavant faire par des humains. Ces humains perdent leur emploi. L’entreprise se rend compte que peut-être l’outil d’IA sur lequel elle compte n’est pas aussi bon que les humains. Peut-être qu’il fait effectivement le travail mieux.

Zoë Schiffer : Nous le voyons déjà quelque peu. J’ai l’impression que Duolingo a licencié un bon nombre de ses traducteurs et investit beaucoup d’argent dans l’IA en ce moment.

Lauren Goode : C’est vraiment dommage, car je pensais que ma prochaine carrière serait traductrice pour Duolingo.

Zoë Schiffer : C’est dommage, car je regarde le hibou de Duolingo juste derrière ta tête, donc nous savons que tu es en relation avec Duolingo.

Lauren Goode : Il y en a vraiment un dans le studio ici. Duolingo m’a envoyé quelques têtes de hibou. J’adore Duolingo.

Michael Calore : Vous savez qui aime Duolingo ?

Lauren Goode : Qui ? Qui ? C’était une blague sur les hiboux, les amis. Ce podcast est terminé. Oh, j’adore ça tellement. Retour à Sam Altman. Tu as raison, Zoe. L’un des aspects les plus intéressants du fait que Sam voyage à travers le monde en parlant aux politiciens et chefs d’État de la manière de réguler l’IA est qu’il y a cette hypothèse selon laquelle il n’y a qu’une seule solution globale sur la manière de le réguler, au lieu de voir ce qui surgit et les différents besoins que nous avons dans différents espaces sur comment la technologie va réellement fonctionner.

Zoë Schiffer : C’est une critique qu’il a reçue de gens comme Mark Andreessen qui disent qu’il vise une capture réglementaire. Ils sont très méfiants envers ses efforts pour faire partie de la poussée réglementaire de l’IA, car évidemment, il est investi pour que cette réglementation prenne une certaine forme. Une autre chose qu’il dit, ce qui je pense est assez intéressant et un peu intéressé, c’est que certaines des choses qui semblent séparées, ou comme disent les technophiles, orthogonales à la sécurité de l’IA sont en fait très étroitement liées à la sécurité de l’IA. Lorsque nous examinons le renforcement humain des modèles, c’est-à-dire que vous obtenez deux réponses différentes à votre demande et vous, en tant qu’humain, votez sur laquelle était la plus utile. Cela peut rendre le modèle beaucoup plus intelligent, beaucoup plus rapidement, mais cela peut également rendre le modèle plus aligné avec nos valeurs sociétales en théorie.

Michael Calore : Cela nous ramène pratiquement à la scène que nous avons esquissée au début, le blip lorsque Sam a été licencié, puis quatre ou cinq jours plus tard, il a récupéré son poste. Eh bien, maintenant que Sam Altman est de retour à la tête d’OpenAI depuis environ un an, cela a été une année riche en événements, et une partie de cela est le fait que tous les regards sont braqués sur l’entreprise. Nous prêtons une attention particulière à tout ce qu’elle fait, mais c’est aussi dû au fait que cette entreprise développe une technologie d’impact massif qui touche tant de choses différentes dans notre monde. Passons très rapidement en revue comment s’est passé la dernière année avec Sam de retour sur le devant de la scène.

Zoë Schiffer : Oui. Ce n’est même pas, je dirais que tous les regards sont rivés sur l’entreprise et qu’ils construisent ces produits d’une ampleur considérable. C’est aussi qu’OpenAI est une entreprise désordonnée. Ses dirigeants partent constamment. Ils commencent constamment d’autres entreprises qui sont encore plus en théorie axées sur la sécurité qu’OpenAI.

Lauren Goode : Ils ont ces noms vraiment drôles, les personnes qui partent. Ils disent : « Je lance une nouvelle startup. C’est tout nouveau. Ça s’appelle la société OpenAI sur les mesures d’alignement de la sécurité que OpenAI n’a jamais prises. »

Zoë Schiffer : La super, super, super, super entreprise de sécurité non-OpenAI. Juste pour commencer par certaines des réclamations de droits d’auteur, l’un des principaux points de friction avec ce que construit Sam et ce que construisent les entreprises d’IA est que, pour entraîner un grand modèle de langage, vous avez besoin d’une tonne de données. Beaucoup de ces entreprises, soi-disant, extraient ces données du web ouvert. Ils prennent le travail des artistes sans leur permission. Ils extraient YouTube d’une manière qui pourrait être illégale. Ils utilisent tout cela pour entraîner leurs modèles, et ils ne créditent souvent pas les sources. Lorsque ChatGPT 4.0 est sorti, il a une voix qui ressemble remarquablement à celle de Scarlett Johansson dans le film Heart. Scarlett Johansson est très contrariée par cela, et elle menace presque de poursuivre l’entreprise. Elle dit que Sam Altman est venu directement la voir et lui a demandé de participer à ce projet pour enregistrer sa voix et être la voix de Sky, qui est la voix de ChatGPT 4.0, et elle a dit non. Elle y a réfléchi et puis elle ne s’est pas sentie à l’aise de le faire. Elle a estimé que l’entreprise avait utilisé sa voix sans permission. Il est apparu que ce n’était pas vraiment le cas. Il semble qu’ils aient simplement engagé un acteur qui ressemblait remarquablement à elle, mais encore une fois, c’est désordonné. Désordonné, désordonné, désordonné.

Michael Calore : D’accord. Prenons une autre pause et nous reviendrons tout de suite. Bienvenue de retour. D’un côté, nous avons tout ce désordre. Nous avons la FTC qui enquête sur des violations des lois de protection des consommateurs. Nous avons des poursuites et des accords signés entre des entreprises de médias et d’autres personnes qui publient des œuvres protégées par des droits d’auteur.

Lauren Goode : Est-ce ici que nous faisons la mise en garde ?

Michael Calore : Oh, oui. Y compris Conde Nast.

Lauren Goode : Y compris Conde Nast, notre maison mère.

Michael Calore : Notre maison mère a signé un accord avec OpenAI, un accord de licence afin que notre travail publié puisse être utilisé pour entraîner ses modèles. Il y a des préoccupations de sécurité et culturelles. Il y a le fait qu’ils sont rapides et peu prudents avec les impressions de célébrités. Puis de l’autre côté, nous avons une entreprise qui développe une technologie importante que de nombreux acteurs de l’industrie soutiennent avec des tonnes d’argent et des tonnes d’accords afin de l’accompagner et de s’assurer qu’elle s’accélère le plus rapidement possible. Nous sommes dans cette position en tant qu’utilisateurs où nous devons nous demander, faisons-nous confiance à cette entreprise ? Faisons-nous confiance à Sam Altman pour avoir notre meilleur futur en tête lorsque ces choses sont mises sur le marché ?

Lauren Goode : En sachant bien que ce podcast sera utilisé pour entraîner un futur bot vocal chez OpenAI.

Michael Calore : Il ressemblera à nous trois mélangés ensemble.

Lauren Goode : Désolée pour la voix cassée.

Zoë Schiffer : J’écouterais ça.

Lauren Goode : En ce moment, il y a cette équation qui est faite alors que nous n’utilisons pas seulement ChatGPT, pas juste aller sur ChatGPT et taper une requête et entraîner le modèle de cette manière. Juste nos données étant sur Internet sont utilisées pour entraîner ces modèles dans de nombreux cas sans le consentement d’aucun, et cela semble juste être ce moment. Cela nécessite tellement de gymnastique intellectuelle ou existentielle de vivre une vie en ligne en ce moment pour penser à savoir si ce que vous obtenez de cette technologie est vraiment aussi bon que ce que vous avez à y mettre, ce que vous y mettez. Personnellement, je n’ai pas obtenu beaucoup d’avantages en utilisant des applications comme ChatGPT ou Gemini ou d’autres. Cela pourrait changer. Cela pourrait absolument changer. Il y a beaucoup d’exemples d’IA que j’utilise dans ma vie quotidienne en ce moment, intégrées à mon application de messagerie et à mon téléphone et tout ça qui sont en fait vraiment géniales, m’ont absolument bénéficié. Ces nouveaux modèles d’outils d’IA générative, c’est toujours un énorme TBD, et pourtant je sais que j’ai déjà donné plus à ces machines. Sam Altman est-il la seule personne à qui je peux faire confiance pour que cela, pour résoudre cette équation pour moi ? Non.

Michael Calore : Non. Et vous, Zoe ?

Zoë Schiffer : Je dirais non, je ne pense pas qu’il se soit prouvé comme particulièrement digne de confiance. Si les personnes qui travaillent étroitement avec lui partent et lancent leurs propres projets qu’ils disent être plus dignes de confiance, alors je pense que cela parle de quelque chose dont nous devrions être un peu préoccupés. En même temps, je ne sais pas s’il y a une personne unique en qui je ferais confiance ici. C’est beaucoup de pouvoir et beaucoup de responsabilités à mettre entre les mains d’un seul être humain faillible.

Lauren Goode : Pourtant, j’ai certainement rencontré et reporté sur des entrepreneurs technologiques qui je pense ont une boussole morale relativement droite, qui réfléchissent bien à ce qu’ils construisent, qui ont été réfléchis à propos de ce qu’ils construisent. Je ne dis pas que c’est comme : « Oh, le tech bro est mauvais. » Il n’est définitivement pas ce gars-là. Il peut émerger en tant que cette personne, mais en ce moment, non.

Zoë Schiffer : Oui. Je dirais qu’il a l’air très réfléchi. Il ne semble pas être un Elon Musk dans le sens où il prend juste des décisions impulsives. Il semble vraiment réfléchir aux choses et prendre le pouvoir et la responsabilité qu’il a très au sérieux.

Lauren Goode : Il a réussi à lever 6,6 milliards de dollars auprès d’investisseurs il y a environ un mois, donc il est clair qu’il y a beaucoup de gens dans l’industrie qui ont un certain niveau de foi en lui. Cela ne signifie pas qu’ils ont confiance qu’il va gérer toutes ces données de la meilleure façon possible, mais cela signifie certainement qu’ils ont confiance qu’il va gagner beaucoup d’argent grâce à ChatGPT.

Zoë Schiffer : Ou ils sont juste vraiment inquiets de rater quelque chose.

Lauren Goode : Ils ont beaucoup de FOMO. Ils regardent les chiffres d’abonnés de ChatGPT, mais ils voient aussi beaucoup de potentiel de croissance dans l’entreprise, la manière dont ChatGPT va licencier son API ou travailler avec d’autres entreprises afin que ces entreprises puissent créer tous ces différents plugins dans leurs applications quotidiennes et rendre leurs travailleurs plus productifs, etc. Il y a beaucoup de potentiel là, et je pense que c’est ce sur quoi les investisseurs se concentrent en ce moment.

Michael Calore : C’est normalement à ce moment-là dans le podcast où, en tant que troisième personne dans la chambre, je fournis une perspective équilibrée en empruntant un chemin différent de vous deux. Mais je vais jeter ça par la fenêtre parce que je ne pense pas non plus que nous devrions faire confiance à Sam Altman ou OpenAI à bras ouverts. Maintenant, il y a des choses que l’entreprise fait que je pense sont très bonnes, comme l’idée d’un outil de productivité ou une suite d’outils de productivité qui peuvent aider les gens à mieux faire leur travail. Cela peut vous aider à étudier. Cela peut vous aider à comprendre des concepts complexes. Cela peut vous aider à faire des achats en ligne. Tout cela est intéressant. Je suis particulièrement curieux de voir ce qu’ils vont faire avec la recherche lorsque leur outil de recherche deviendra plus mature, et nous pourrons vraiment voir si cela remet en question ce paradigme de recherche qui existe depuis presque 20 ans à ce stade. Grosse capital G. Google. Au-delà de cela, je ne pense pas que leurs outils vont avoir un impact sur la société qui serait positif dans l’ensemble. Je pense qu’il y aura suffisamment de souffrances liées à la perte d’emplois, au vol de travaux protégés par des droits d’auteur, ainsi qu’à l’utilisation d’énergie et d’eau nécessaires pour faire fonctionner tous ces modèles complexes dans les centres de données de cloud computing. Puis bien sûr, la désinformation et les faux en profondeur, qui sont maintenant assez faciles à repérer et deviennent de plus en plus difficiles à déceler, et dans quelques années, cela sera indistinguable de véritables images et actualités. Je pense qu’en tant qu’êtres humains sur Internet, nous allons en faire les frais pour ces mauvaises choses à venir. À votre point, Lauren, en tant que journalistes, nous allons subir des dommages collatéraux dans cette course pour voir qui peut créer le modèle qui fait notre travail le mieux, et OpenAI est le leader là-dedans. Cette quête de profit sans vraiment regarder ces problèmes de front semble dangereuse pour moi. Nous avons parlé plus tôt dans l’épisode, Sam Altman a dit qu’il encourageait le débat ouvert et il nous encourage, en tant que société, à décider quelles devraient être les limites de cette technologie. Mais je pense que nous avançons beaucoup trop vite et que le débat se déroule beaucoup trop lentement. Cela semble être une position d’évitement de dire : « Oh, ne vous inquiétez pas. Nous allons le résoudre en tant que collectif. » Alors que, dans le même temps, vous appuyez à fond sur l’accélérateur autant que possible et dépensez autant d’argent que possible. Ces choses semblent désynchronisées.

Zoë Schiffer : Oui. Il parle très généralement quand il évoque la nécessité que tout le monde ait une voix dans ces décisions concernant la façon dont l’IA est construite et comment elle est gouvernée. Une chose, lorsque vous avez mentionné la perte d’emplois, cela m’a fait penser, et nous en avons déjà parlé dans un précédent épisode de podcast, c’est que Sam Altman est impliqué dans des expériences de revenu de base universel. L’idée est de donner aux gens une somme d’argent fixe chaque mois, et, espérons-le, cela atténue les pertes d’emplois qui sont impliquées dans vos autres projets.

Lauren Goode : Je pense que nous sommes dans un moment où la technologie et la société, nous pourrions être contraints de laisser tomber certaines des institutions sur lesquelles nous avons compté depuis quelques décennies. Les technologues sont souvent les premières personnes à sauter là-dessus et à dire : « Nous avons une meilleure idée. Nous avons une meilleure solution. Nous avons une meilleure idée pour le gouvernement. Nous avons une meilleure idée pour savoir comment les gens devraient être payés et gagner de l’argent. Nous avons une meilleure idée de la façon dont vous devriez faire votre travail et ce qui peut vous rendre plus productif. Nous avons toutes ces idées. » Elles ne sont pas toujours de mauvaises idées, et à un moment donné, nous devons laisser tomber. Le changement arrive. C’est inévitable. Quelle est l’assertion ? Ce n’est pas la mort et les impôts. C’est le changement et les impôts. C’est inévitable. Aussi, la mort.

Zoë Schiffer : Lauren fait partie de la commission DOGE et elle s’en prend à votre institution.

Lauren Goode : Oui. Mais ensuite, vous devez également identifier les bonnes personnes pour affecter ce changement. C’est, je pense, la question que nous posons. Nous ne demandons pas si ce sont de mauvaises idées ? Nous demandons qui est Sam Altman ? Est-ce la personne qui devrait diriger ce changement, et si ce n’est pas lui, alors qui ?

Zoë Schiffer : Mais Lauren, juste pour contredire cela, c’est lui la personne. À un certain moment, nous vivons dans une fantaisie si nous, trois journalistes techniques, sommes juste assis ici à parler, devrait-ce être Sam ? Ne devrait-il pas ? Eh bien, il le fait et il n’a pas l’air de partir de sitôt, car le conseil ne semblait pas pouvoir réellement le pousser à sortir malgré le fait qu’il ait légalement ce droit. Il est toujours PDG.

Lauren Goode : Oui. Il est enraciné à ce stade, et l’entreprise est enracinée simplement en raison de la quantité d’argent qui y est investie. Il y a beaucoup de parties prenantes qui vont absolument s’assurer que cette entreprise réussisse, sans aucun doute. Mais aussi, si nous sommes à un stade encore précoce de l’IA générative de la manière dont d’autres technologies transformantes ont eu leurs premiers stades, et parfois il y a d’autres personnes et entreprises qui émergent et finissent par faire plus.

Michael Calore : Ce que nous espérons, ce sont des forces correctives.

Lauren Goode : Peut-être. Nous verrons.

Zoë Schiffer : D’accord. Je me corrige alors. Je pense qu’il vaut peut-être la peine de discuter de qui devrait diriger cela. Nous sommes encore à un stade précoce, j’ai l’impression. Parfois, je perds de vue cela.

Lauren Goode : C’est d’accord. Tu as peut-être raison.

Zoë Schiffer : Parce qu’il semble qu’il soit le joueur dominant.

Michael Calore : C’est le meilleur aspect du reportage sur la technologie, c’est que nous sommes toujours au début de quelque chose.

Lauren Goode : Je suppose que oui.

Michael Calore : D’accord. Eh bien, cela semble être un bon endroit pour finir. Nous avons résolu cela. Nous ne devrions pas faire confiance à Sam Altman, mais nous devrions faire confiance à l’industrie de l’IA pour se corriger.

Zoë Schiffer : Oui. Je pense à cette citation que Sam a écrite sur son blog il y a de nombreuses années, et il a dit : « Un grand secret est que vous pouvez plier le monde à votre volonté une surprenante partie du temps, et la plupart des gens n’essaient même pas. Ils acceptent simplement les choses telles qu’elles sont. » Je pense que cela en dit long sur lui. Cela me fait aussi penser, Lauren, à ton point, que j’ai accepté que, eh bien, Sam Altman est juste aux commandes, et c’est juste la réalité. Eh bien, peut-être que le monde a besoin de plier les choses un peu à notre volonté de manière démocratique, de ne pas le laisser simplement conduire le nouvel avenir.

Lauren Goode : Ne jamais se soumettre à l’inévitabilité.

Michael Calore : Maintenant, c’est vraiment un bon endroit pour finir. C’est notre émission pour aujourd’hui. Nous serons de retour la semaine prochaine avec un épisode sur la question de savoir s’il est temps de se retirer des réseaux sociaux. Merci d’avoir écouté Uncanny Valley. Si vous aimez ce que vous avez entendu aujourd’hui, assurez-vous de suivre notre émission et de lui donner une note sur votre application de podcast préférée. Si vous souhaitez nous contacter pour poser des questions, laisser des commentaires, nous donner des suggestions d’émission, vous pouvez nous écrire à uncannyvalley@WIRED.com. L’émission d’aujourd’hui est produite par Kyana Moghadam. Amar Lal de Macro Sound a mixé cet épisode. Jordan Bell est notre producteur exécutif. Le responsable audio mondial de Conde Nast est Chris Bannon.


En savoir plus sur L'ABESTIT

Subscribe to get the latest posts sent to your email.

Articles similaires

26 DéCEMBRE 2024

Crise du Secteur Automobile en Allemagne : Pourquoi les Jeunes S’inquiètent de l’Avenir.

Les nuages s'accumulent sur le paysage automobile allemand, où plusieurs constructeurs ont annoncé leur intention de supprimer des dizaines de milliers d'emplois. Ces annonces alimentent les...

0

26 DéCEMBRE 2024

Hiroshi Okuyama, le Visionnaire Derrière ‘My Sunshine’ : Découvrez Son Inspiration pour un Conte...

Dans son film "My Sunshine", sorti en salles le 25 décembre, le jeune cinéaste japonais Hiroshi Okuyama aborde avec délicatesse les ambivalences de l'adolescence, sur fond de paysages enneigés de...

0

26 DéCEMBRE 2024

“Pourquoi Partir Peut Vous Aider à Mieux Revenir : Découvrez les Bienfaits de l’Évasion”

Sur le site indien Homegrown, une journaliste a recueilli les témoignages de plusieurs jeunes ayant vécu une expérience à l'étranger. Elle a exploré les effets de cette expatriation sur leur...

0

26 DéCEMBRE 2024

“Actualités de la Nuit : Syrie, Mozambique, Ukraine, Israël et les Dernières Déclarations du Pape”

Souvenirs achetés dans un souk de Damas, le 25 décembre 2024.<div class="media_block"><a...

0

26 DéCEMBRE 2024

“Vol J2-8243 : Oiseaux ou Frappe Russe ? Découvrez la Véritable Cause de l’Accident !”

Le crash, survenu au Kazakhstan le matin de Noël, a causé la mort de trente-huit personnes. Vingt-neuf personnes ont survécu, mais certaines sont grièvement blessées.<div class="media_block"><a...

0

26 DéCEMBRE 2024

“Découvrez l’Horoscope de Rob Brezsny : Prévisions Astrologiques du 26 Décembre 2024 au 1er Janvier...

Chaque semaine, "Courrier international" vous présente l'horoscope poétique de Rob Brezsny, l'un des astrologues les plus atypiques au monde. Cette semaine, c'est le signe du Capricorne qui est à...

0

En savoir plus sur L'ABESTIT

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture