Aller au contenu
AIR-DEFENSE.NET

Wallaby

Members
  • Compteur de contenus

    21 730
  • Inscription

  • Dernière visite

  • Jours gagnés

    66

Tout ce qui a été posté par Wallaby

  1. https://openai.com/blog/planning-for-agi-and-beyond (24 février 2023) La première intelligence artificielle générale (AGI) ne sera qu'un point sur le continuum de l'intelligence. Nous pensons qu'il est probable que les progrès se poursuivront à partir de là, et qu'il sera possible de maintenir pendant une longue période le rythme de progression que nous avons observé au cours de la dernière décennie. Si c'est le cas, le monde pourrait devenir extrêmement différent de ce qu'il est aujourd'hui, et les risques pourraient être extraordinaires. Une AGI superintelligente mal alignée pourrait causer de graves dommages au monde ; un régime autocratique doté d'une superintelligence décisive pourrait également le faire. L'IA capable d'accélérer la science est un cas particulier qui mérite réflexion et qui a peut-être plus d'impact que tout le reste. Il est possible qu'une IA suffisamment capable d'accélérer ses propres progrès entraîne des changements majeurs à une vitesse surprenante (et même si la transition commence lentement, nous nous attendons à ce qu'elle se produise assez rapidement dans les phases finales). Nous pensons qu'un décollage plus lent est plus facile à sécuriser, et la coordination des efforts de l'AGI pour ralentir à des moments critiques sera probablement importante (même dans un monde où nous n'avons pas besoin de le faire pour résoudre des problèmes d'alignement technique, il peut être important de ralentir pour donner à la société suffisamment de temps pour s'adapter). Réussir la transition vers un monde doté d'une superintelligence est peut-être le projet le plus important, le plus prometteur et le plus effrayant de l'histoire de l'humanité. Sam Altman
  2. https://www.lemonde.fr/planete/video/2023/03/19/retirer-le-co2-de-l-atmosphere-sauvera-t-il-le-climat_6166115_3244.html Séduit, le géant européen de l’aéronautique Airbus, a déjà acheté à Oxy l’équivalent de 400 000 tonnes de CO2 retirées de l’atmosphère pour compenser ses propres émissions. Grâce à des documents inédits, notre enquête montre comment, contrairement à ce qu’il affirme, le pétrolier n’est pas engagé dans cette transition.
  3. https://www.lemonde.fr/economie/article/2023/03/26/mort-de-gordon-moore-entrepreneur-par-accident-et-cofondateur-d-intel_6167037_3234.html Mort de Gordon Moore, entrepreneur « par accident » et cofondateur d’Intel. Personnage-clé dans l’invention du microprocesseur, ce chimiste de formation devenu milliardaire est mort chez lui, à Hawaï. Il avait 94 ans. Dans son article de 1994, Moore révèle même n’avoir pas vu l’intérêt du PC : « Bien avant Apple, un de nos ingénieurs m’a suggéré de construire un ordinateur destiné à la maison. Je lui ai demandé : “Mais pourquoi quiconque voudrait-il un ordinateur pour sa maison ?” »
  4. Les tensions entre les Etats-Unis et la Chine sont de plus en plus vives et pourtant, le niveau de commerce entre les deux pays, malgré les différentes mesures prises par l’administration Trump, maintenues et amplifiées par Joe Biden, reste toujours très élevé. source : https://www.unjourenamerique.fr/tendance-du-commerce-etats-unis-chine/
  5. https://www.lemonde.fr/idees/article/2023/03/22/le-solutionnisme-technologique-cette-foi-en-l-innovation-qui-evite-de-penser-le-changement_6166463_3232.html La notion de solutionnisme technologique s’est imposée en 2014 dans le débat public, sous la plume du chercheur américain d’origine biélorusse Evgeny Morozov. Dans son ouvrage Pour tout résoudre, cliquez ici (FYP éditions, 2014), l’auteur met en lumière les impensés des projets prométhéens des entrepreneurs californiens du numérique qui ambitionnent de « réparer tous les problèmes de monde », selon les mots de l’ex-dirigeant de Google Eric Schmidt, en 2012.
  6. https://www.lebigdata.fr/stanford-copie-chatgpt-tout-savoir (23 mars 2023) Stanford a développé une IA nommée Alpaca qui a montré des résultats identiques à ceux du modèle de langage ChatGPT. Toutefois, Alpaca a été développé à partir d’un modèle d’algorithme libre. Par conséquent, sa création a coûté moins de 600 dollars. https://www.theregister.com/2023/03/21/stanford_ai_alpaca_taken_offline/ La démo web d'Alpaca, un petit modèle de langage basé sur le système LLaMA de Meta, a été mise hors ligne par des chercheurs de l'université de Stanford pour des raisons de sécurité et de coût. L'accès aux grands modèles de langage contenant des centaines ou des dizaines de milliards de paramètres est souvent réservé aux entreprises qui disposent des ressources nécessaires pour les former et les faire fonctionner. Meta prévoyait de partager le code de son système LLaMA avec des chercheurs sélectionnés afin de stimuler la recherche sur les raisons pour lesquelles les modèles de langage génèrent des textes toxiques et faux. Meta espérait pouvoir le faire sans exiger des chercheurs qu'ils acquièrent d'énormes systèmes matériels. Un groupe d'informaticiens de l'université de Stanford a peaufiné LLaMA pour développer Alpaca, un modèle open-source de sept milliards de paramètres dont la construction aurait coûté moins de 600 dollars. Le code a été publié la semaine dernière et a attiré l'attention des développeurs après que certains aient réussi à le faire fonctionner sur des ordinateurs Raspberry Pi et même sur un smartphone Pixel 6.
  7. https://www.usine-digitale.fr/article/stanford-lance-detectgpt-un-outil-dedie-a-l-enseignement-superieur-vraiment-utile.N2094741 (30 janvier 2023) Une équipe de chercheurs de l’Université américaine Stanford ont mis au point un nouveau système appelé DetectGPT, permettant de déterminer si un texte (en totalité ou en partie) a été généré par ChatGPT. L’outil est destiné aux professeurs. ChatGPT a en effet du succès auprès des étudiants. À Lyon, le 10 janvier, le Progrès dévoilait que plus de 50% d’une classe avait utilisé le robot conversationnel dans un devoir. Les textes de la moitié des élèves présentaient des "similitudes troublantes" et étaient construits exactement de la même manière. L’enseignant en handicapologie, démuni, leur avait tout de même attribué la note de 11,75 sur 20. Face à cette problématique, certains établissements interdisent l’utilisation de l’outil, à l’instar de l’ensemble des écoles publiques new-yorkaises. En France, c’est l'Institut d'études politiques (IEP) de Paris, Sciences Po, qui a ouvert la voie en annonçant cette nouvelle règle vendredi, dans une lettre adressée aux étudiants. Début janvier, Edward Tian, un étudiant en informatique de l’Université de Princeton, avait lui aussi mis en ligne un outil dédié à identifier l’utilisation de ChatGPT dans un texte, baptisé GPTZero.
  8. Cela fait écho au besoin d'une recherche publique forte, capable de publier ses propres analyses, indépendament des acteurs à but lucratif : - https://hai.stanford.edu/policy/national-ai-research-resource Tout au long de l'année 2020, Stanford HAI ("Human-Centered Artificial Intelligence") a mené des efforts avec 22 universités d'informatique de premier plan, ainsi qu'avec un groupe bipartisan et bicaméral de législateurs proposant une législation pour faire aboutir le National Research Cloud. Le 1er janvier 2021, le Congrès américain a autorisé le National AI Research Resource Task Force Act dans le cadre de la National Defense Authorization Act for Fiscal Year 2021. Cette loi prévoit la création d'un groupe de travail fédéral chargé d'étudier et de fournir une voie de mise en œuvre pour créer des ressources informatiques de classe mondiale et des ensembles de données gouvernementales robustes pour les chercheurs de tout le pays sous la forme d'une ressource nationale de recherche sur l'IA. https://www.whitehouse.gov/ostp/news-updates/2023/01/24/national-artificial-intelligence-research-resource-task-force-releases-final-report/ La semaine dernière, le groupe de travail NAIRR (National AI Research Resource) a publié son rapport final et sa feuille de route pour la mise en place d'une infrastructure nationale d'IA comprenant des ressources informatiques, des données de haute qualité, des outils éducatifs et un soutien aux utilisateurs. Le rapport a été commandé par la loi sur l'initiative nationale en matière d'IA de 2020 (adoptée en 2021). La feuille de route prévoit de dépenser 2,6 milliards de dollars sur six ans pour créer NAIRR.
  9. https://www.lemonde.fr/economie/article/2023/03/29/alibaba-geant-chinois-de-la-tech-se-scinde-en-six-pour-esperer-meilleure-fortune_6167407_3234.html Revenu en Chine d’un exil de plusieurs mois au Japon, le fondateur d’Alibaba, Jack Ma, était réapparu en public, lundi 27 mars, lors de la visite d’une école près de Shanghaï. Quelques heures plus tard, son successeur à la tête du géant chinois de l’Internet, Daniel Zhang, annonçait une restructuration sans précédent du groupe depuis sa création en 1999, un découpage en six sociétés indépendantes coiffées par une holding. Seul le très populaire site de vente en ligne Taobao reste propriété à 100 % d’Alibaba.
  10. https://www.theguardian.com/lifeandstyle/2023/mar/29/it-would-survive-nuclear-armageddon-the-rise-and-fall-of-plastic-lawns Les pelouses artificielles détruisent les habitats naturels et les sols ; elles contribuent aux émissions de carbone lors de leur fabrication et de leur transport, alors que l'herbe véritable absorbe le CO2 ; elles surchauffent en été et contribuent aux îlots de chaleur urbains ; elles provoquent des inondations car elles absorbent moins de 50 % de la pluie qui tombe sur elles ; ils polluent les cours d'eau, car avec le temps, le plastique se décompose en microplastiques, qui sont entraînés dans nos égouts et rejetés dans les rivières et la mer ; ils ne sont ni biodégradables ni recyclables, et après leur cycle de vie (généralement jusqu'à environ 15 ans), ils sont mis en décharge, où ils continueront à polluer. "On ne trouve plus de sac en plastique, mais on peut recouvrir son jardin de plastique", dit Marcus. "Il me semble qu'il devrait y avoir quelque chose d'illégal à ce sujet.
  11. Les différents arguments en présence : https://en.wikipedia.org/wiki/Holodomor_genocide_question
  12. Puisqu'on a parlé hier de l'holodomor, voilà ce qu'en dit, ou plutôt ce que n'en dit pas Stephen Kotkin, professeur à Stanford, durant une présentation du tome 1 de son livre sur Staline qui se termine en 1928 : 18 mars 2015 - 22:42 : Le livre se poursuit jusqu'à la décision de collectiviser l'agriculture. Comme la plupart d'entre vous le savent, en 1929, ils ont lancé une violente collectivisation forcée de l'agriculture, et ils ont fini par éliminer l'agriculture privée ou individuelle des ménages paysans en les forçant à se regrouper dans ces fermes collectives. Lorsqu'il n'y a plus de fermes collectives, ils créent des fermes d'État, ce qui signifie qu'il n'y avait pas de fermes auparavant. Les fermes collectives se trouvent là où il y avait des fermes individuelles auparavant, et elles les forcent à se regrouper en une ferme collective. 23:23 Le livre est construit autour de cette décision qui est le crime principal de ce régime, à savoir l'asservissement de la paysannerie, qui perd plus de 50 % de son bétail, 5 à 7 millions de personnes meurent dans la famine, et la dictature de Staline elle-même est déstabilisée à la suite de cet épisode. Je vais essayer d'expliquer dans le livre d'où vient le pouvoir de mettre en œuvre la collectivisation et d'où vient la logique, d'où vient la prise de décision : la pensée que c'est bon ou nécessaire de le faire. Il y a donc une deuxième révolution qui se produit à côté de la révolution bolchevique. Il y a une révolution urbaine, les communistes prennent le pouvoir, construisent le socialisme et finissent par vous amener au communisme. Mais il y a aussi une révolution paysanne où ils s'emparent de la terre des propriétaires terriens, et ils le font eux-mêmes, puis ils en ont terminé lorsqu'ils se sont emparés de la terre. Ils ne veulent pas faire partie de la révolution urbaine bolchevique. Ces deux révolutions sont donc parallèles. Elles sont séparées. Le régime est incapable de contrôler la paysannerie, incapable de gouverner la paysannerie, et concède un quasi-marché, connu sous le nom de Nouvelle politique économique. 24:36 Cela se produit, en fait, au début de 1920, avant même d'être annoncé, et en 1921, 1922, 1923, ils continuent à publier des décrets, légalisant le comportement du marché, parce qu'ils se cassent les dents sur la révolution paysanne qu'ils ne peuvent pas dominer. Au fil des années 1920, Staline décide de plus en plus qu'il faut s'attaquer à la campagne, au marché paysan, au capitalisme et au comportement du marché dans les campagnes, car il s'agit d'un régime communiste explicite, qui construit le socialisme vers le communisme. 25:19 Mais les autres membres du régime pensent qu'ils ne peuvent pas faire cela. Vous voyez, parce qu'en 1928, 1% des terres arables sont collectivisées : c'est la collectivisation volontaire, et ce sont tous les agriculteurs qui ne peuvent pas réussir par eux-mêmes. Et ils ont rejoint ces fermes collectives, mais tous les agriculteurs qui peuvent se débrouiller ne rejoignent pas les fermes collectives. Ainsi, l'effectif moyen des fermes collectives est d'environ 16 ou 17 personnes, c'est la productivité la plus faible, et c'est 1% des terres arables. 25:56 Ils se livrent donc à une lutte acharnée dans les coulisses, tous les documents secrets que nous possédons aujourd'hui relatent cette lutte, et Staline dit : sommes-nous communistes ou non ? Allons-nous vivre avec le marché ? La révolution et la guerre civile ont-elles eu lieu pour produire des koulaks ou de riches fermiers ? Allons-nous autoriser l'esclavage salarié ? C'est-à-dire que les agriculteurs les plus riches embauchent les autres agriculteurs ? Ou allons-nous rester fidèles à nos idéaux et aller de l'avant avec la collectivisation ? Et il y a ce grand personnage qu'est Alexei Rykov, et Alexei Rykov est la deuxième personne la plus puissante du régime. Lénine est mort en janvier 1924. Et Alexei Rykov dit : Vous savez, je n'aime pas les paysans, je suis communiste aussi, mais si vous essayez cette chose, cette agriculture coercitive, cette collectivisation coercitive, cela va échouer. Cela va être catastrophique. Cela ne marchera pas. Et nous allons ruiner la récupération de la nouvelle politique économique. 27:00 Et c'est un moment très dramatique à l'intérieur du régime. Staline a construit une dictature personnelle, mais il n'a rien de proche d'une majorité de partisans au sommet, et encore moins à la base, pour collectiviser cette agriculture. Et donc, qu'est-ce qu'il va faire ? Ils vont et viennent, Rykov disant non pas que la collectivisation est mauvaise, mais qu'elle échouera. Et que c'est une mauvaise chose à faire en ce moment. Il n'y a pas de bolchevik au sommet du régime qui dise que les marchés ne sont pas un problème, que la propriété privée n'est pas un problème, que ce n'est pas un problème que les paysans possèdent leur propre terre. Aucun d'entre eux ne le dit. Ils sont tous communistes. 27:49 Ce qu'ils disent en revanche, c'est : nous ne pouvons pas le faire. Nous ne pouvons pas réussir. Nous ne pouvons pas tout ruiner, tout détruire. Et donc Staline le fait quand même, et c'est là que se termine le livre : il annonce, dans une salle à peu près moitié grande comme celle-ci, et ce sont les chefs du parti du régime en Sibérie où ils font pousser beaucoup de céréales : il leur dit : vous savez, nous devons nous moderniser, nous avons besoin de plus de céréales, il nous faut de meilleures moissons, mais nous ne pouvons pas le faire avec des koulaks ou des fermes privées, comme ils font en Amérique, parce que nous sommes un pays socialiste. Donc nous allons devoir collectiviser, moderniser dès maintenant. Et l'assistance est sous le choc. Ils n'en croient pas leurs oreilles. Parce qu'aucun d'entre eux ne pense que ce soit possible. Il leur fait avaler comme une couleuvre. Il rentre à Moscou. Il déclenche un formidable état d'urgence dans tout le pays et il promulgue sa collectivisation. Il déclenche ce processus. 28:55 Et qui a raison ? Rykov a raison. Le type qui a dit que ce serait catastrophique a raison. La famine, la mort de 50 à 70% du cheptel. 5 à 7 millions de victimes de la famine, mais 40 millions de personnes ont été affamées et ont survécu. La propre dictature personnelle de Staline est déstabilisée, parce que maintenant il y a de l'opposition contre lui à l'intérieur du régime, faisant circuler des documents secrets appelant à le faire démissionner ou à le démettre. Est-ce qu'il s'arrête ? Est-ce qu'il dit : vous savez, je me suis trompé, c'est Rykov qui avait raison, nous ne pouvons pas le faire ? Non. Il va jusqu'au bout, à travers la famine, à travers la décimation du cheptel, à travers la déstabilisation du régime, jusqu'à ce que la collectivisation soit réalisée à 100%. Il ne grimace pas, il ne flanche pas. Il leur interdit d'admettre qu'il y a une famine, et la raison n'est pas qu'il essaie de tuer des hommes et des femmes intentionnellement, ou qu'il soit intrinsèquement sadique : c'est parce qu'il croit à la construction du communisme. Et il le fait pour une idée. Et ils sont tous d'accord avec cette idée. Simplement, ils ne pensent pas que ce soit le bon moment pour la mettre en oeuvre. Mais il n'y a pas de désaccord sur l'idée. Il la poursuit jusqu'au bout, quand bien même c'est terrible. Il a la volonté - de style tragique - qu'aucun d'autre n'a. 30:34 Voilà quelqu'un qui a construit un pouvoir pour lui-même, puis il utilise ce pouvoir pour faire cette folle, mais à ses yeux nécessaire et juste destruction du capitalisme, destruction des marchés, destruction de la propriété privée, en construisant des fermes collectives dans les campagnes. Plus de cent millions de personnes sont mises en esclavage dans ce processus. Prenez la mesure de l'échelle de ce dont il s'agit : on est en 1928 quand la décision est prise. Lénine n'est mort qu'en janvier 1924, Staline n'est secrétaire général du parti que depuis le printemps 1922. On est six ans plus tard. C'est juste colossal, incroyable... Vous pouvez vous arracher les cheveux quand au fait qu'il a simplement essayé de le faire, indépendamment du fait qu'il l'a mis en oeuvre jusqu'au bout. 31:32 Donc dans l'histoire, il y a des personnages qui sont juste plus forts que les larges forces structurales qui sont en jeu. Il y a de rares personnages, et Staline en fait partie, qui peuvent conduire l'histoire dans une direction où elle n'allait pas spontanément, en utilisant une force de volonté formidable, et en galvanisant des forces dans la société. Vous voyez qu'à aucun moment il n'évoque la nationalité ukrainienne des victimes. C'est à dire qu'en première approximation, l'hypothèse qui donne un rôle à la nationalité des victimes, est éliminée par le rasoir d'Ockham, et n'entre pas dans le faisceau de causalités principal expliquant la tragédie. Pas plus qu'il n'emploie le terme cryptique d'« holodomor » qui ne fait pas partie de la langue anglaise et qui ajoute une couche de mystère lorsque le rôle du chercheur est au contraire de décrypter et de dévoiler la réalité de ce qui s'est passé.
  13. https://www.wired.com/story/plaintext-how-to-start-an-ai-panic/ (10 mars 2023) La semaine dernière, le Center for Humane Technology a convoqué plus de 100 dirigeants du monde de la finance, de la philanthropie, de l'industrie, du gouvernement et des médias dans la salle Kissinger du Paley Center for Media, à New York, pour entendre comment l'intelligence artificielle pourrait anéantir l'humanité. Les deux orateurs, Tristan Harris et Aza Raskin, ont commencé leur présentation catastrophiste par une diapositive : "Ce que les armes nucléaires sont pour le monde physique, l'intelligence artificielle l'est pour tout le reste. On nous a dit que ce rassemblement était historique, que nous nous en souviendrions dans les années à venir, car les quatre cavaliers de l'apocalypse, sous la forme de chatbots de Bing, allaient vraisemblablement venir remplacer notre intelligence par la leur. Cela évoquait la scène des vieux films de science-fiction - ou la farce plus récente Don't Look Up - où des scientifiques découvrent une menace et tentent de secouer une population assoupie en lui expliquant que cette menace mortelle se dirige droit sur nous, et que nous mourrons si vous ne faites rien MAINTENANT. C'est du moins ce que Harris et Raskin semblent avoir conclu après que, selon leur récit, certaines personnes travaillant au sein d'entreprises développant l'IA ont approché le Centre pour lui faire part de leurs inquiétudes quant à la dangerosité phénoménale des produits qu'elles étaient en train de créer, affirmant qu'une force extérieure était nécessaire pour éviter la catastrophe. Les cofondateurs du Centre ont cité à plusieurs reprises une statistique tirée d'une enquête selon laquelle la moitié des chercheurs en IA estiment qu'il y a au moins 10 % de chances que l'IA entraîne l'extinction de l'homme. Ils ne prédisent pas l'apparition de robots malveillants doués de sensibilité. Ils mettent plutôt en garde contre un monde où l'utilisation de l'IA de mille façons différentes provoquera le chaos en permettant la désinformation automatisée, en jetant des gens au chômage et en donnant de vastes pouvoirs à pratiquement tous ceux qui veulent en abuser. Prenons, par exemple, l'une des nombreuses diapositives que Harris et Raskin ont présentées sur les dommages potentiels de l'IA. Cette diapositive est tirée d'une étude surprenante dans laquelle des chercheurs ont appliqué des techniques avancées d'apprentissage automatique à des données provenant de scanners cérébraux. Avec l'aide de l'IA, les chercheurs ont pu déterminer, à partir des seuls scanners cérébraux, les objets que les sujets regardaient. Le message semblait clair : dans le monde dystopique de l'IA à venir, les autorités regarderont à l'intérieur de nos têtes ! C'est quelque chose que Bob Dylan n'avait probablement pas anticipé il y a 50 ans lorsqu'il a écrit : "Si mes rêves pouvaient être vus / ils mettraient probablement ma tête dans une guillotine". Jay pose la question suivante : "Voyez-vous un contrecoup culturel important aux produits d'IA (comme le passage de la musique numérique à la musique en vinyle) ? Les produits qui privilégient l'humain par rapport à la machine gagneront-ils en notoriété et en parts de marché ? Bonne question, Jay. L'une des mesures envisagées pour réglementer l'IA est une règle de vérité dans l'étiquetage qui précise quand un contenu est produit par une machine. (Comme nous le faisons chez WIRED !) Cela semble être un droit fondamental de le savoir. (Nous devons toutefois garder à l'esprit que ce n'est pas parce qu'un humain a généré quelque chose que cela signifie que ce contenu est exact, exempt de préjugés ou original). Mais sur une longue période, alors que l'IA devient de plus en plus courante et qu'un grand nombre de choses que nous lisons, écoutons ou regardons seront le résultat d'une collaboration entre des humains et des robots, ces étiquettes pourraient ne plus avoir de sens. Je pense toutefois que nous pouvons chérir un label indiquant qu'une personne en chair et en os a produit quelque chose. Pensez à l'une de ces appellations protégées indiquant qu'un vin français a été cultivé et récolté dans une région de premier choix. L'IA devenant de plus en plus performante, les produits fabriqués par les humains pourraient bien être techniquement inférieurs à ceux de nos Shakespeare et Picasso robotisés. Mais tout comme nous apprécions l'art populaire, les vêtements amusants cousus à la main et la cuisine faite maison, le marquage des médias produits par l'homo sapiens pourrait avoir une valeur en soi. Mais comme le vinyle, son prix sera probablement élevé et il sera relégué à un marché de niche.
  14. https://www.lemonde.fr/economie/article/2023/03/29/elon-musk-et-des-centaines-d-experts-reclament-une-pause-dans-le-developpement-de-l-ia_6167461_3234.html Elon Musk et des centaines d’experts réclament une « pause » dans le développement de l’IA Une lettre ouverte demande de suspendre pour six mois les recherches sur les systèmes d’intelligence artificielle plus puissants que GPT-4, le successeur du modèle sur lequel s’appuie ChatGPT. Parmi les signataires, on trouve l’un des pères de l’intelligence artificielle moderne, Yoshua Bengio, de l’université de Montréal. Mais aussi des figures d’entreprises de la « tech » : le PDG de StabilityAI Emad Mostaque, ainsi que trois chercheurs de Deepmind, filiale de Google, ou des cofondateurs d’Apple, Pinterest ou Skype. https://www.theguardian.com/technology/2023/mar/29/elon-musk-joins-call-for-pause-in-creation-of-giant-ai-digital-minds Plus d'un millier d'experts de l'intelligence artificielle appellent à un report jusqu'à ce que le monde ait la certitude que "les effets seront positifs et les risques gérables". Cette demande est formulée dans une lettre ouverte signée par des acteurs majeurs de l'IA, dont : Elon Musk, cofondateur d'OpenAI, le laboratoire de recherche à l'origine de ChatGPT et GPT-4 ; Emad Mostaque, fondateur de Stability AI, basé à Londres ; et Steve Wozniak, cofondateur d'Apple. L'appel à une réglementation stricte contraste fortement avec le livre blanc du gouvernement britannique sur la réglementation de l'IA, publié mercredi, qui ne contient absolument aucun nouveau pouvoir. https://www.wired.com/story/chatgpt-pause-ai-experiments-open-letter/ (29 mars 2023) Parmi les signataires figurent l'historien Yuval Noah Harari et le cofondateur de Skype, Jaan Tallinn. [La lettre] met en garde contre le fait que les modèles de langage tels que GPT-4 peuvent déjà rivaliser avec les humains dans un nombre croissant de tâches et pourraient être utilisés pour automatiser des emplois et diffuser des informations erronées. La lettre évoque également la perspective lointaine de systèmes d'IA qui pourraient remplacer les humains et refonder la civilisation. La lettre, rédigée par le Future of Life Institute, une organisation qui se concentre sur les risques technologiques pour l'humanité, ajoute que la pause devrait être "publique et vérifiable" et qu'elle devrait concerner tous ceux qui travaillent sur des modèles d'IA avancés comme le GPT-4. La lettre n'indique pas comment l'arrêt du développement pourrait être vérifié, mais ajoute que "si une telle pause ne peut être adoptée rapidement, les gouvernements devraient intervenir et instaurer un moratoire", ce qui semble peu probable dans un délai de six mois. Hannah Wong, porte-parole d'OpenAI, explique que l'entreprise a passé plus de six mois à travailler sur la sécurité et l'alignement de GPT-4 après avoir entraîné le modèle. Elle ajoute qu'OpenAI n'est pas en train d'entraîner le modèle GPT-5. Les signataires de la lettre s'inquiètent notamment du fait qu'OpenAI, Microsoft et Google se sont lancés dans une course au profit pour développer et publier de nouveaux modèles d'IA le plus rapidement possible. Selon la lettre, à ce rythme, les développements se produisent plus rapidement que la société et les régulateurs ne peuvent l'accepter. Un ingénieur d'une grande entreprise technologique qui a signé la lettre et qui a demandé à ne pas être nommé parce qu'il n'était pas autorisé à parler aux médias, dit qu'il utilise le GPT-4 depuis sa sortie. L'ingénieur considère que cette technologie représente un changement majeur, mais qu'elle suscite également de vives inquiétudes. "Je ne sais pas si six mois suffisent, mais nous avons besoin de ce temps pour réfléchir aux politiques à mettre en place", explique-t-il. Pour beaucoup, les progrès récents de l'IA sont à la fois stupéfiants et inquiétants. "Je trouve les développements récents très excitants", déclare Ken Holstein, professeur adjoint d'interaction homme-machine à l'université Carnegie Mellon, qui est également l'un des signataires de la lettre. Mais il ajoute une mise en garde. "Je crains que nous ne soyons dans une phase où « l'on va vite et où l'on casse tout » [l'ancien slogan de Facebook]", dit-il, ajoutant que le rythme pourrait être trop rapide pour que les régulateurs puissent suivre de manière significative. "J'aime à penser qu'en 2023, nous saurons collectivement faire mieux que cela.
  15. Question à 1000 € : à quelle occasion la reine Élisabeth II a-t-elle prononcé cette phrase énigmatique : « C'est une étrange couleur pour un cheval. Et ce serait mon père ? »
  16. Pour les gens qui ne connaissent pas : https://www.sciencespo.fr/mass-violence-war-massacre-resistance/fr.html Encyclopédie des violences de masse
  17. Je ne sais pas s'il y avait une "culture russe" à l'époque soviétique, mais c'était partout dans l'idéologie et la culture sovétique, et dans la propagande soviétique appelant le monde entier à rejoindre la famille des peuples socialistes, jusqu'à Gorbatchev inclus : https://www.latribune.fr/opinions/tribunes/mikhail-gorbatchev-figure-emblematique-et-tragique-de-la-fin-de-l-urss-929020.html (1er septembre 2022) Pourtant, sa foi dans un progrès éclairé et sa volonté de prendre des risques pour y parvenir contrastent fortement avec la caricature à laquelle ressemble la Russie d'aujourd'hui.
  18. 1) Donc en fait, en adhérant à l'idée de progrès et à Karl Marx, l'Union Soviétique était un régime parfaitement occidental et non russe ! 2) Gogol est ukrainien. Il parle de "Rus" et non de "Rossiya". Donc ce que dit Gogol s'applique non seulement à la Russie mais aussi à l'Ukraine et à la Biélorussie.
  19. « Celui qui a le contrôle du passé a le contrôle du futur. Celui qui a le contrôle du présent a le contrôle du passé » George Orwell
  20. Lors d'un voyage à New York, M. Altman est passé à mon appartement un samedi pour discuter de la façon dont la technologie transformait notre vision de notre identité. Recroquevillé sur le canapé, les genoux au menton, il a déclaré : "Je me souviens avoir pensé, lorsque Deep Blue a battu Garry Kasparov, en 1997, "Pourquoi quelqu'un s'intéresse-t-il encore aux échecs ?". Et maintenant, je suis très triste que nous ayons perdu contre AlphaGo de DeepMind", qui a récemment battu un champion du monde de go. "Je fais partie de l'équipe humaine. Je n'ai pas de bonne raison logique pour expliquer ma tristesse, si ce n'est que la catégorie des choses pour lesquelles les humains sont meilleurs continue de se réduire." Après un moment, il a ajouté : "Mélancolie" est un meilleur mot que "triste". " Pour M. Altman, le danger ne vient pas de nos éventuels créateurs, mais de nos propres créations. "Ces téléphones nous contrôlent déjà", m'a-t-il dit en fronçant les sourcils devant son iPhone SE. "La fusion a commencé, et la fusion est notre meilleur scénario. Toute version sans fusion sera conflictuelle : nous asservissons l'IA ou elle nous asservit. La version la plus folle de la fusion est celle où nos cerveaux sont téléchargés dans le cloud. J'adorerais cela", a-t-il déclaré. "Nous devons améliorer le niveau des humains, car nos descendants vont soit conquérir la galaxie, soit éteindre la conscience dans l'univers pour toujours. Quelle époque pour être en vie ! L'obsolescence humaine ? Il envisage de créer un groupe pour préparer notre éventuel successeur, qu'il s'agisse d'une I.A. ou d'une version améliorée de l'Homo sapiens. L'idée serait de rassembler des penseurs de la robotique, de la cybernétique, de l'informatique quantique, de l'I.A., de la biologie synthétique, de la génomique et des voyages spatiaux, ainsi que des philosophes, pour discuter de la technologie et de l'éthique du remplacement de l'homme. Pour l'instant, les leaders de ces domaines se réunissent semi-régulièrement dans la maison d'Altman ; le groupe s'appelle lui-même, en plaisantant, le Covenant (Alliance divine). Le problème immédiat est que les ordinateurs pourraient mettre la plupart d'entre nous au chômage. La solution d'Altman est le projet de revenu de base de YC Research, une étude sur cinq ans, qui devrait commencer en 2017, d'une vieille idée qui est soudainement en vogue : donner à chacun suffisamment d'argent pour vivre. Développant des essais antérieurs dans des endroits tels que le Manitoba et l'Ouganda, YC donnera à un millier de personnes à Oakland une somme annuelle, probablement comprise entre douze mille et vingt-quatre mille dollars. "Le coût d'une vie agréable diminue considérablement. Si la fusion nous permet de travailler et que l'électricité est gratuite, les transports sont nettement moins chers et le coût de l'électricité se répercute sur l'eau et la nourriture. Aujourd'hui, les gens paient cher pour avoir une bonne éducation, mais il suffit de regarder son téléphone pour devenir un expert dans la plupart des domaines. Ainsi, si une famille américaine de quatre personnes a aujourd'hui besoin de soixante-dix mille dollars pour être heureuse, ce qui est le chiffre que l'on entend le plus souvent, dans dix ou vingt ans, cela pourrait être un ordre de grandeur moins cher". Lorsque l'I.A. remodèlera l'économie, m'a-t-il dit, "nous aurons une richesse illimitée et un grand nombre de déplacements d'emplois, de sorte que le revenu de base prend tout son sens. De plus, l'allocation libérera cette personne sur un million qui pourra créer le prochain Apple". Il a insisté sur le fait qu'il ne s'agissait que d'une idée, mais qu'il était déjà en train d'étudier des sites potentiels. On pourrait imaginer cette métropole comme une cité-état post-humaine exemplaire, gérée par l'I.A. - une Athènes du XXIe siècle - ou comme une communauté fermée pour l'élite, une forteresse contre le chaos à venir. Pour Altman, la meilleure façon de découvrir l'avenir qui s'annonce est de le créer. M. Altman a raconté tous les obstacles que M. Rickover a surmontés pour construire la marine américaine dotée de l'arme nucléaire. "Incroyable", a-t-il déclaré. Mais, après une pause, il a ajouté : "À la fin de sa vie, alors qu'il était peut-être un peu sénile, il a aussi dit qu'il fallait tout couler au fond de l'océan. Il y a là quelque chose qui mérite réflexion".
  21. Altman a aidé à persuader Kyle Vogt, le PDG de la société de voitures autonomes Cruise, de faire YC en 2014 ; par la suite, lorsque Cruise a eu du mal à trouver des financements, il a investi trois millions de dollars dans l'entreprise. En mars, General Motors a racheté Cruise pour 1,25 milliard de dollars. Alors que le groupe discutait des progrès de l'intelligence artificielle, Altman a reconnu, m'a-t-il dit, qu'"il n'y a absolument aucune raison de croire que, dans environ treize ans, nous n'aurons pas de matériel capable de reproduire mon cerveau". Oui, certaines choses restent particulièrement humaines - la créativité, les éclairs d'inspiration venus de nulle part, la capacité de se sentir heureux et triste en même temps - mais les ordinateurs auront leurs propres désirs et leurs propres systèmes d'objectifs. Quand j'ai réalisé que l'intelligence pouvait être simulée, j'ai laissé tomber l'idée de notre unicité, et cela n'a pas été aussi traumatisant que je le pensais." Il regarde au loin. "Il y a certains avantages à être une machine. Nous, les humains, sommes limités par notre vitesse d'entrée-sortie - nous n'apprenons que deux bits par seconde, donc nous en perdons beaucoup. Pour une machine, nous devons ressembler à des chants de baleine ralentis." OpenAI, l'organisation à but non lucratif que M. Altman a fondée avec Elon Musk, est un pari sur la fin de la prédominance humaine, une sorte d'initiative de défense stratégique visant à nous protéger de nos propres créations. L'OpenAI est née de la conviction de Musk qu'une IA pourrait nous anéantir par accident. Le problème de la gestion de systèmes puissants dépourvus de valeurs humaines est illustré par le "maximiseur de trombones", un scénario évoqué par le philosophe suédois Nick Bostrom en 2003. Si vous dites à une IA omnicompétente de fabriquer autant de trombones que possible, et que vous ne lui donnez aucune autre directive, elle pourrait exploiter toutes les ressources de la Terre pour fabriquer des trombones, y compris les atomes de notre corps - à condition qu'elle ne nous tue pas carrément pour s'assurer que nous ne l'empêchions pas de fabriquer davantage de trombones. L'OpenAI était particulièrement préoccupée par le fait que la division DeepMind Technologies de Google cherchait à créer une IA suprême capable de surveiller le monde en visant ses concurrents. Musk m'a dit : "Si l'IA qu'ils développent tourne mal, nous risquons d'avoir un dictateur immortel et surpuissant pour toujours". Il a ajouté : "Assassiner tous les chercheurs concurrents de l'I.A. comme première action me semble être un peu un défaut de caractère." "Il y a vingt à trente personnes dans le domaine, y compris Nick Bostrom et l'article de Wikipedia", a déclaré Amodei, "qui disent que le but d'OpenAI est de construire une I.A. amicale et de publier ensuite son code source dans le monde". "Nous n'avons pas l'intention de publier l'intégralité de notre code source", a déclaré M. Altman. "Mais n'essayons pas de corriger cela. Cela ne fait généralement qu'empirer les choses. "Mais quel est l'objectif ? a demandé M. Amodei. M. Brockman a répondu : "Notre objectif actuel est de faire ce qu'il y a de mieux. C'est un peu vague". Y Combinator a même commencé à utiliser un robot d'IA, Hal9000, pour l'aider à trier les demandes d'admission : le réseau neuronal du robot s'entraîne en évaluant les demandes précédentes et les résultats de ces entreprises. "Que cherche-t-il ? ai-je demandé à M. Altman. "Je n'en ai aucune idée", a-t-il répondu. "C'est ce qui est troublant avec les réseaux neuronaux : vous n'avez aucune idée de ce qu'ils font et ils ne peuvent pas vous le dire. Les objectifs immédiats de l'OpenAI, annoncés en juin, comprennent un robot ménager capable de mettre et de débarrasser une table. L'un des objectifs à plus long terme est de construire un système d'IA général capable de passer le test de Turing, c'est-à-dire de convaincre les gens, par sa façon de raisonner et de réagir, qu'il s'agit d'un être humain. Cependant, M. Altman estime qu'une véritable I.A. générale devrait faire plus que tromper ; elle devrait créer, découvrir une propriété de la physique quantique ou concevoir une nouvelle forme d'art simplement pour satisfaire sa propre soif de savoir et de faire. [Altman] a lu les notes de James Madison sur la Convention constitutionnelle pour se guider dans la gestion de la transition. "Nous prévoyons un moyen de permettre à de larges pans du monde d'élire des représentants au sein d'un nouveau conseil d'administration", a-t-il déclaré. "Parce que si je n'étais pas impliqué, je me demanderais pourquoi ces enfoirés décident de ce qui m'arrive". Ce printemps, M. Altman a rencontré Ashton Carter, le secrétaire à la défense, dans une salle privée d'un salon professionnel de San Francisco. M. Altman portait sa seule veste de costume, une veste grise bouffante que son assistante lui avait fait mesurer lors d'un voyage à Hong Kong. Carter, en costume à rayures, est entré dans le vif du sujet. "Ecoutez, beaucoup de gens ici pensent que nous sommes gros et encombrants. Et il y a aussi le problème du surplomb de Snowden", a-t-il déclaré, en référence au traitement réservé par le gouvernement à Edward Snowden. "Mais nous voulons travailler avec vous dans la vallée, tirer parti de votre expertise. "Évidemment, ce serait formidable", a répondu M. Altman. "Vous êtes probablement le plus gros client au monde. Les dépenses de recherche et développement proposées par le ministère de la défense pour l'année prochaine représentent plus du double de celles d'Apple, de Google et d'Intel réunis. "Mais beaucoup de startups sont frustrées par le fait qu'il faille un an pour obtenir une réponse de votre part. Carter a pointé son index sur sa tempe comme un pistolet et a appuyé sur la gâchette. Si vous pouviez mettre en place un point de contact unique et prendre des décisions sur le lancement de programmes pilotes avec des entreprises YC dans un délai de deux semaines, cela aiderait beaucoup", a poursuivi M. Altman. Le budget militaire américain de 2017 alloue trois milliards de dollars à des collaborations homme-machine connues sous le nom de Centaur Warfighting, et un missile à longue portée qui prendra des décisions de ciblage autonomes est en préparation pour l'année suivante. Lynch [responsable du numérique au Pentagone] m'a dit plus tard qu'un système OpenAI serait une solution naturelle. M. Altman était partagé quant à l'idée de remettre les produits OpenAI à M. Lynch et à M. Carter. "J'aime sincèrement ce pays, qui est le meilleur du monde", a-t-il déclaré. À Stanford, il a travaillé sur un projet de la DARPA portant sur des hélicoptères équipés de drones. "Mais il y a des choses que nous ne ferons jamais avec le ministère de la défense. Il ajoute : "Un de mes amis dit : "Ce qui nous sauve du ministère de la défense, c'est que, bien qu'ils aient beaucoup d'argent, ils ne sont pas très compétents". Mais je me sens en conflit, parce qu'ils ont le meilleur commandement cybernétique du monde". Altman, qui a l'habitude de nettoyer les dégâts, voulait contribuer à renforcer notre armée, puis à défendre le monde contre sa nouvelle force.
  22. https://www.newyorker.com/magazine/2016/10/10/sam-altmans-manifest-destiny Sam Altman, portraituré en 2016 Il ne s'intéresse guère aux spécificités des applications produites par de nombreuses entreprises de Y Combinator (accélérateur de startups) ; ce qui l'intrigue, c'est l'effet potentiel qu'elles peuvent avoir sur le monde. "Je peux comprendre pourquoi [ce blogueur] pense que [je suis Asperger]. Je m'assois de façon bizarre" - il se replie comme un parapluie cassé - "je m'intéresse étroitement à la technologie, je n'ai aucune patience pour les choses qui ne m'intéressent pas : les fêtes, la plupart des gens. Lorsque quelqu'un examine une photo et dit : "Oh, il ressent ceci et cela", toutes ces émotions subtiles, je les regarde comme un extra-terrestre". Les grandes forces d'Altman sont la clarté de sa pensée et sa compréhension intuitive des systèmes complexes. Sa grande faiblesse est son manque total d'intérêt pour les personnes inefficaces, ce qui inclut malheureusement la plupart d'entre nous. J'ai d'abord trouvé son assiduité inquiétante, puis progressivement attachante. Lorsque j'ai fait remarquer, après quelques longues journées passées ensemble, qu'il ne semblait jamais se rendre aux toilettes, il m'a répondu : "Je vais m'entraîner à aller aux toilettes plus souvent pour que vous, les humains, ne réalisiez pas que je suis une I.A.". " YC a en quelque sorte la possibilité d'orienter le cours de la technologie ", a-t-il déclaré. En fin de compte, ce sont les consommateurs qui décident, mais suffisamment de gens considèrent YC comme important pour que, si nous disons "Nous sommes très enthousiastes à propos de la réalité virtuelle", les étudiants de l'université commencent à l'étudier. M. Altman a également cofondé, avec Elon Musk, PDG de Tesla et SpaceX, une organisation à but non lucratif appelée OpenAI, dont l'objectif est d'empêcher l'intelligence artificielle d'anéantir accidentellement l'humanité. Paul Graham, qui partait peu après le dîner pour une année sabbatique en Angleterre, m'a dit qu'Altman, en précipitant les progrès dans "la guérison du cancer, la fusion, les avions de ligne supersoniques, l'I.A.", essayait de réviser globalement notre mode de vie : "Je pense que son objectif est de créer le futur tout entier". Altman : "La démocratie ne fonctionne que dans une économie en croissance. Sans un retour à la croissance économique, l'expérience démocratique échouera. Et je dois penser que YC est extrêmement important pour cette croissance". Graham a calculé que les hackers intelligents d'une startup pourraient accomplir 36 fois plus de travail que l'employé de bureau moyen - et qu'ils finiraient donc par faire exploser l'emploi tel que nous le connaissons. YC offre une entrée instantanée dans la Silicon Valley - une communauté qui, malgré sa rhétorique méritocratique, nécessite généralement une "introduction chaleureuse" de la part d'un collègue, qui est généralement un homme blanc. [Quels sont vos hobbies ?] "J'aime les voitures de course", répond M. Altman. "J'en ai cinq, dont deux McLaren et une vieille Tesla. J'aime piloter des avions de location dans toute la Californie. Oh, et une chose étrange : je me prépare à la survie". "Mon problème, c'est que lorsque mes amis sont ivres, ils parlent de la façon dont le monde va finir. Après qu'un laboratoire néerlandais a modifié le virus H5N1 de la grippe aviaire, il y a cinq ans, le rendant super contagieux, la probabilité qu'un virus synthétique mortel soit libéré dans les vingt prochaines années est devenue, eh bien, non nulle. Les autres scénarios les plus populaires seraient une I.A. qui nous attaque et des nations qui se battent avec des armes nucléaires pour des ressources limitées". En cas de pandémie, le plan de secours d'Altman consiste à s'envoler avec son ami Peter Thiel, l'investisseur milliardaire en capital-risque, vers la maison de ce dernier en Nouvelle-Zélande. Il a fréquenté l'université de Stanford, où il a passé deux ans à étudier l'informatique, jusqu'à ce qu'il abandonne avec deux camarades de classe pour travailler à plein temps sur Loopt, une application mobile qui indiquait à vos amis où vous vous trouviez. Loopt a été admis dans le premier groupe de Y Combinator. Les consommateurs, eux, n'ont jamais adhéré à cette idée. "Nous étions optimistes quant à l'importance de la localisation", a déclaré M. Altman. "La vision pessimiste était que les gens s'allongeraient sur leur canapé et se contenteraient de consommer du contenu, et c'est ce qui s'est passé.
  23. https://www.politico.eu/article/russia-diplomatic-clash-europe-flares-estonia-ukraine-war/ (26 mars 2023) Le mois dernier, l'Estonie a expulsé 21 membres du personnel de l'ambassade russe, déclarant qu'elle n'accueillerait plus que huit fonctionnaires diplomatiques sur son territoire, ce qui correspond à la taille de l'équipe de Tallinn à Moscou. Le Kremlin a réagi en expulsant l'ambassadeur estonien Margus Laidre de Russie. Il s'agit de la première expulsion d'un ambassadeur du pays depuis que la Russie a lancé son invasion à grande échelle de l'Ukraine. Tallinn a ensuite mis fin au mandat de l'ambassadeur russe Vladimir Lipayev sur la rue Pikk. Le 24 mars, l'Estonie a suivi en expulsant un diplomate russe identifié comme le conseiller Alexander Savinov, accusé de diffuser de la propagande justifiant l'action militaire de la Russie et de "provoquer des divisions dans la société estonienne". La Lettonie a retiré son ambassadeur de Moscou par solidarité avec l'Estonie, tandis que la Lituanie a volontairement retiré son principal diplomate basé à Moscou l'année dernière, en raison des preuves des atrocités commises par les Russes dans la ville ukrainienne de Bucha. Mais les principaux acteurs de ce groupe, tels que l'Allemagne, la France et le Royaume-Uni, se sont abstenus d'exercer de nouvelles pressions, comme l'expulsion d'ambassadeurs russes, si cela impliquait le déclassement de leurs propres missions à Moscou. Cela pourrait s'expliquer en partie par le fait que les gouvernements occidentaux accordent actuellement une importance particulière aux efforts de collecte de renseignements à Moscou, la guerre en Ukraine faisant toujours rage, et qu'ils sont susceptibles de se méfier de toute mesure susceptible de nuire à ces efforts.
  24. https://www.liberation.fr/environnement/ressources-en-eau-lespagne-envisage-de-vivre-sans-retenues-20230326_XZ2ICZZRCZABVK7EY5BR7XGS4Y/ (26 mars 2023) En 2021, dans le cadre d’une «stratégie nationale de restauration des fleuves», 108 de ces barrages ont été détruits, sur un total de 239 dans l’Union européenne. L’objectif essentiel est de réhabiliter une faune fluviale en butte aux parois en béton des barrages. Mais une colère se fait depuis entendre, de la part de syndicats agricoles et de petits agriculteurs qui en vivaient. Ces jours-ci, l’ensemble des embalses sont à 51,7 % de leur capacité, selon le Plan hydrologique national, contre 62,7 % en moyenne au cours de la décennie passée. Dans le sud, la région du Guadalquivir est tombée à 25,7 % de sa capacité, et seuls les bassins du nord s’en tirent bien. Le ministère de Transition écologique manifeste son inquiétude concernant les réserves disponibles pour les centrales hydroélectriques, deuxième source d’énergie renouvelable derrière l’éolien dans un pays où 43,6 % de l’énergie est produite de manière décarbonée. La nouvelle religion de toute l’Espagne littorale en manque d’eau : les usines de dessalement. On en compte actuellement 765, dont 99 de grande dimension.
  25. https://www.lejdd.fr/international/nucleaire-la-france-essuie-un-nouveau-revers-bruxelles-134045 (25 mars 2023) La France essuie un nouveau revers à Bruxelles Alors que le plan « Net Zero Industry Act » de la Commission européenne se précise, la filière de l’énergie nucléaire en demeure exclue. Ce qui la priverait des subventions de Bruxelles. « C’est Allemagne 2 - France 0 »
×
×
  • Créer...