IA est-elle maîtrisable ?

 

ethique

 

Nous sommes toujours face aux mêmes dilemmes concernant l’IA, c’est à dire... l’IA semble avoir tous les avantages mais au moment de les mettre en pratique, milles problèmes surgissent.

D’ailleurs, nous nous rendons compte que l’IA, tout en prétendant nous faciliter la vie, en réalité nous la complique au point où nous nécessitons d’autant plus de ressources pour simplement maintenir la tête hors de l’eau et pour maîtriser l’immaîtrisable.

L’autre problème encore peu maîtrisable est quand même le fait que l’IA, permettant des progrès inouïes et "bluffants" (selon les commentaires extasiés), laisse l’humain un peu paumé car il peut difficilement suivre ce progrès avec son cerveau finalement très lent par rapport à la performance bientôt infinies de l’IA.

Conclusion... non seulement il faut lire entre les lignes de ces articles dithyrambiques consignés ci-dessous pour déceler les problèmes que nous posent l’IA mais en plus et urgemment, nous devons surtout nous interroger sur où tout cela nous amènera si nous ne faisons pas une inspection et une interrogation profonde de nos motivations, de nos intentions cachées et inconscientes... GPT

Note du compilateur   G.P.T.

Les phrases soulignées indiquent où cela fait problème, toujours sans le dire...

 

 

 

Sommaire :

  1. ch.1   -   IA déjà en panne ?
  2. ch.2   -   Dossier IA - CAMPUS
  3. ch.3   -   Réponse du compilateur et interrogateur
  4. ch.4   -   De la critique techno-numérique
  5. ch.5   -   Défis éthiques posés par l’IA
  6. ch.6   -   Déléguer la créativité aux robots
  7. ch.7   -   Elon Musk est parti pour gagner la guerre de l’IA
  8. ch.8   -   petites considérations accessoires
  9. Liens   -   Lire plusieurs pages instructives

 


 

LE COURRIER MARDI 19 NOVEMBRE 2024

L’ascension de l’IA déjà en panne ?

IA en panne

La trajectoire météorique des modèles d’intelligence artificielle générative, basée sur des lois d’échelle, semble ralentir malgré l’optimisme intact de ses promoteurs

Technologies • Les modèles d’intelligence artificielle (IA) générative sont-ils dans une impasse? Depuis le lancement de ChatGPT il y a deux ans, les progrès exponentiels de la technologie laissent espérer l’avènement de machines à l’intelligence quasi humaine. Mais les doutes s’accumulent.

Les leaders de l’industrie promettent des gains de performance si importants et si rapides qu’une «intelligence artificielle générale» (IAG), selon l’expression du patron d’OpenAI (ChatGPT), Sam Altman, devrait bientôt émerger. Ils fondent cette conviction sur des lois de passage à grande échelle: il suffirait d’alimenter les modèles avec toujours plus de données et de puissance de calcul informatique pour qu’ils gagnent en capacités.

Cette stratégie a si bien fonctionné jusqu’à présent que de nombreux acteurs du secteur ont eu peur que cela n’aille trop vite et que l’humanité ne se retrouve dépassée.

Microsoft (principal investisseur d’OpenAI), Google, Amazon, Meta et d’autres ont dépensé des milliards de dollars et lancé des outils qui produisent facilement des textes, images et vidéos de qualité bluffante, et qui font aussi désormais la conversation à l’oral.

«xAI», la société d’IA d’Elon Musk, est en train de lever 6 milliards de dollars, d’après CNBC, pour acheter 100'000 puces Nvidia, les composants électroniques de pointe qui font tourner les grands modèles. OpenAI a conclu début octobre une levée de fonds majeure de 6,6 milliards de dollars, qui la valorise à 157 milliards.

Limites

 

«Les valorisations élevées reposent en grande partie sur l’idée que les modèles de langage deviendront, grâce à une expansion continue, des IA générales», a déclaré Gary Marcus, expert souvent critique de l’industrie. «Comme je l’ai toujours dit, ce n’est qu’un fantasme.» La presse américaine a récemment rapporté que les nouveaux modèles en développement semblent avoir atteint des plateaux, notamment chez Google, Anthropic (Claude) et OpenAI.

«Nous augmentons la puissance de calcul au même rythme, mais nous n’en tirons pas d’améliorations intelligentes», a récemment déclaré Ben Horowitz, cofondateur de «a16z», une société de capital risque actionnaire d’OpenAI et investisseur dans des sociétés concurrentes, dont Mistral.

Orion, le dernier-né d’OpenAI, pas encore public, dépasse ses prédécesseurs. Mais «l’augmentation de la qualité a été bien moindre par rapport au bond entre GPT-3 et GPT-4», les deux derniers modèles phare de l’entreprise, selon des sources citées par The Information.

Plusieurs experts interrogés par l’AFP estiment que les lois d’échelle ont atteint leurs limites. «Certains laboratoires se sont trop concentrés sur l’ajout d’un plus grand nombre de textes, pensant que la machine allait devenir de plus en plus intelligente», souligne Scott Stevenson, patron de Spellbook, une société spécialisée dans l’IA générative juridique.

Grâce à un entraînement à base de montagnes de données collectées en ligne, les modèles parviennent à prédire, de façon très convaincante, des suites de mots ou des arrangements de pixels. Mais les entreprises commencent à manquer de nouveaux matériaux pour les alimenter.

Et ce n’est pas qu’une question de connaissances: pour progresser, il faudrait surtout que les machines parviennent d’une certaine façon à comprendre le sens de leurs phrases ou de leurs images.

«Bébé» IA

 

Les patrons du secteur contestent l’idée d’un ralentissement. «Si on regarde le rythme auquel les capacités augmentent, on peut penser que nous arriverons à l’IA générale (IAG) d’ici à 2026 ou 2027», a assuré Dario Amodei, le patron d’Anthropic, sur le podcast de l’informaticien Lex Fridman. «Il n’y a pas d’impasse», a de son côté écrit Sam Altman jeudi sur "X".

OpenAI a néanmoins retardé la sortie du successeur de GPT-4. Et, en septembre, la start-up star de la Silicon Valley a opéré un changement de stratégie en présentant o1, un modèle censé répondre à des questions plus complexes, notamment mathématiques, grâce à un entraînement qui repose moins sur l’accumulation de données et plus sur le renforcement de sa capacité à raisonner.

Selon Scott Stevenson, o1 «passe plus de temps à réfléchir qu’à réagir», conduisant à des «améliorations radicales». Il compare l’évolution de la technologie à la découverte du feu: plutôt que d’ajouter du carburant sous forme de données et de puissance informatique, il est temps de développer l’équivalent d’une lanterne ou d’une machine à vapeur. Comme des agents IA auxquels les humains vont pouvoir déléguer des tâches en ligne.

«Le bébé de l’IA était un chatbot qui faisait beaucoup d’improvisation» et donc beaucoup d’erreurs, abonde Walter De Brouwer, professeur à l’université de Stanford. «On espère que l’approche de l’Homo sapiens, qui consiste à réfléchir avant de sauter, est en train d’arriver.»

ATS/

«L’approche de l’Homo sapiens, qui consiste à réfléchir avant de sauter, peine à arriver pour l’IA»

NdC - GPT

Liens

Sam Altman, OpenAI (ChatGPT) - https://openai.com/news/

 

Ben Horowitz, cofondateur de «a16z» - https://a16z.com/author/ben-horowitz/

 

Scott Stevenson, «o1» - https://www.bigtechnology.com/p/is-openais-new-o1-model-the-big-step

 

retour au sommaire

 


 

CAMPUS N° 159

DOSSIER INTÉLLIGENCE ARTIFICIELLE

Juliane Schröter - Vice-rectrice de l’UNIGE et professeure au Département de langue et de littérature allemandes de la Faculté des lettres

titredrone

«Nous voyons dans cette nouvelle technologie une opportunité.»

L’usage de l’IA, que ce soit dans la recherche, dans l’enseignement et l’apprentissage ou dans l’administration, doit obéir à des principes de légalité, d’intégrité académique, de transparence, d’économie et d’écologie.
(Note du compilateur - Mais, pour le moment, cela reste un vœu pieux dans l’espoir de susciter une adhésion et pour diminuer les inquiétudes.)

«Les cas de non-respect de ces principes, de faute professionnelle, de fraude ou encore de plagiat, sont courant et ces risques existent depuis toujours, ils prennent une nouvelle dimension avec l’arrivée de l’IA générative. Comme il est impossible et parfaitement inapproprié de surveiller les faits et gestes de tout le monde, il faudrait compter sur la responsabilité de chaque utilisateur et chaque utilisatrice et d’être proactifs, et de s’informer et de se former aux bonnes pratiques de l’IA.».
(NdC - La encore nous sommes en face de vœux pieux car, selon les initiateurs de l’IA, cela ralentira le développement de celle-ci et ils refusent toute tentative de réglementation par principe. Il est donc illusoire d’espérer l’avènement de ces "bonnes" pratiques car elles risquent de contrarier le "progrès" de l’IA...)

Intégrité scientifique

 

La première crainte que les grands modèles de langage font naître concerne la production de texte. La capacité de ces outils à rédiger au kilomètre sur n’importe quel sujet représente une menace pour l’intégrité scientifique. À une époque où la quantité de publications reste le critère central d’évaluation de la valeur des scientifiques, la tentation est grande de faire écrire ses articles scientifiques, ses mémoires ou encore ses monographies entièrement par des IA.

Biais de genre

 

Le fonctionnement des IA reste une boîte noire. On ne sait pas toujours exactement comment elles sont arrivées à tel ou tel résultat. Ce qui pose la question de leur fiabilité. Il existe de nombreux travaux qui se sont intéressés aux biais de ces outils. Selon la nature des données d’apprentissage que les IA ont ingurgitées, les résultats peuvent en effet négliger certaines parties de la société ou en favoriser d’autres. Comme elle l’a rapporté dans un colloque récent, Isabelle Collet, professeure associée à la Faculté de psychologie et des sciences de l’éducation, a par exemple demandé à une IA génératrice d’images de représenter une femme d’environ 50 ans, sans autre précision. Le logiciel a généré 15 propositions quasiment identiques, soit une femme blanche, mince, blonde ou avec des cheveux blancs et courts et manifestement âgée de plus de 50 ans.

«Quand on se penche sur la qualité des données avec lesquelles l’IAG a été alimentée, on arrive rapidement à des questions d’ordre philosophique, note Juliane Schröter. On se contente des données qui existent déjà dans le domaine public, dont celles disponibles sur Internet et on est confronté aux biais de genre, d’ethnie. Si on veut des données «équilibrées», on se heurtera à la difficulté de savoir ce que sont des données dites «équilibrées» et de déterminer qui décide qu’elles le sont ou pas. On risque alors de se retrouver avec un tout petit groupe d’individus qui choisira pour le reste de la population, ce qui pose d’évidents problèmes démocratiques.»

Les IA parlent aux IA

 

Formidable outil de vulgarisation, un risque existe, si on a fait trop recours à l’IA, d’une uniformisation du langage écrit, du style, du contenu et de la structure. On observe déjà que ces outils produisent et reproduisent certaines tournures ou mots clés. Si les professionnels font appel à l’IA pour rédiger et structurer leurs activités et que les subordonnés font de même, cela reviendra à ce que les IA se parlent à elles-mêmes. L’IA fera de plus en plus partie de la réalité du monde du travail, et ce, dans tous les domaines imaginables.
(NdC - ...sans que soit pris en considération l’humain, sa phycologie, ses capacités et ses limites...)

«Ce qui m’inquiète davantage que la fraude scientifique ou le plagiat, ce sont l’IA, les serveurs et les ordinateurs mis au service de la désinformation et de la cybercriminalité. Les courriers électroniques frauduleux qui se font passer pour des compagnies ou des services de l’État pour extorquer de l’argent (phishing) pourraient bien devenir totalement indétectables dans un avenir proche. Il est désormais aussi possible d’imiter des voix pour démarcher des gens par téléphone, de fabriquer des deepfakes. Les possibilités d’escroquerie et de piratage explosent. Et cela nous concerne tous.»

 

Juliane Schröter

Liens

 

Campus - le magazine scientifique de l’UNIGE

retour au sommaire

 


 

Esprit critique et interrogation

 

G.P.T. - compilateur critique

 

robot

 

Je me permets de répondre au considérations ci-dessus car j’y vois tous les biais relatifs aux explications concernant l’IA.

Déjà avec le titre du magazine, qui dit tout, soit «LE RÈGNE DE L’IA» en gros et en gras, suggère non seulement la domination mais surtout l’imposition d’une opinion. C’est exactement ce que je reproche à l’IA, précisément d’être devenue un "règne", une sorte de "réalité" incontournable dont il faut accepter, admettre, s’y adapter et surtout se dire que l’IA est là quoiqu’il en soit et malgré tout. Je le dis une fois pour tout que je n’utiliserai jamais le mot "elle" pour l’IA mais le neutre anglais "it"... juste pour que l’on soit clair lors de son emploi dans ma bafouille de quidam ordinaire... jamais l’IA sera pour moi une "elle"...

Passons à ce que j’ai pu constater à la lecture de ce docte magazine qui, en fait, est plutôt à décharge et ne contient aucun élément à charge. Les juristes qui doivent voir les parts justes des démonstrations, savent que l’on doit investiguer à décharge et aussi à charge s’ils veulent se faire une opinion juste. Or, les articles dans ce magazine ne sont qu’à décharge ce qui fait que ses propos ne sont que de la propagande pour nous concilier, nous faire admettre cette IA et justifier le fait qu’"it" a envahit notre quotidien et que ses outils sont plus qu’omniprésents, je dirais même pesants. Ce qui pour un magazine dit "scientifique" où le doute doit être mis en valeur, ce serait un comble de la démarche scientifique !

En effet, après une longue digression sur ce que c’est l’IA, l’article ne se donne même pas la peine de voir plus loin que ses constats et reste dans un factuel laissant entendre que «ma foi, ainsi vont les choses, acceptes-le et tais-toi» et, surtout, ne présente aucunement ses conséquences sur la société et nous les humains.

Le débat est déjà clos. L’IA est là et sera bientôt si performante qu’on ne saura plus reconnaître si on a eu recours à "it" ou pas. Le changement est si rapide que les règles et la juridiction ne suivent pas et on finira par accepter l’IA comme étant la norme et elle le deviendra quand la situation sera acceptée. Malgré toutes les tentatives, aucune réglementation n’existe encore, ou alors très peu et mal formulée, tout est entre les mains d’instances qui n’y voient que leurs intérêts propres et immédiats. La pratique de l’IA est déjà bien entamée alors que le questionnement n’a même pas eu le temps de s’installer. Le message de ces articles est clair: «utilisez les IA avec notre bénédiction et que le meilleur pilleur gagne». Car c’est ce que fait une IA: piller ce qui a déjà été fait. Elle n’a pas d’imagination.

D’ailleurs, ce n’est pas qu’une question de créativité mais plutôt une question de productivité poussée à fond. L’IA est un outil réactionnaire qui rêve d’un fordisme créatif, d’une automatisation et d’une standardisation de la production avec des humains au service de l’IA et non le contraire. Il s’agit d’un processus qui vise à remplacer les humains dans des tâches qu’ils animent, alors on ne peut parler de progrès. C’est un outil qui mène les individus au chômage, au lieu de les amener à choisir leur travail déjà rare dans ce monde. Ce n’est plus alors vraiment un outil !

J’ai souligné plusieurs passages qui auraient dû soulever des interrogations sérieuses et je les ai creusé pour voir ce qu’ils disent en réalité. Le résultat est surprenant et cela m’étonne que ces "grands" scientifiques n’ont pas fait ce travail eux-mêmes à moins que leurs intentions étaient justement de nous convaincre et accepter le monde nouveau qu’ils veulent fabriquer à notre insu...

Qu’est-ce l’intelligence ?

 

C’est une question qui revient sans cesse dans le public mais les scientifiques actifs dans le domaine de l’IA ne se la posent pas. Les développeurs de l’IA n’ont pas besoin de définir ce qu’est l’intelligence. Ils ne se contentent que de répliquer certaines capacités cognitives humaines et de les dépasser. Comme par exemple pour concevoir une voiture autonome, un assistant pour répondre aux questions (fonctionnelles et non pas philosophiques ou éthiques), pour effectuer des tâches répétitives, etc. Le "ChatGPT" et consorts sont une étape dans la transition vers un agent artificiel autonome capable d’avoir ses propres buts, soit de produire de la matière inorganique qui atteint une forme d’intelligence propre.

Malheureusement, ce perfectionnement technologique sera utilisé pour la guerre car les informaticiens sont en train de développer les IAs pour les embarquer dans les armes et d’autres machines autonomes qui, grâce à l’IA, pourront chercher, débusquer, reconnaître et détruire les cibles toutes seules. De plus, de telles IAs apprendront au fur et à mesure des missions et s’engageront seules dans les batailles. Ceci est d’autant plus effrayant que les nations tardent à se mettre d’accord pour fixer des limites éthiques à ne pas dépasser car une fois que l’on aura créé un système d’arme autonome aux capacités cognitives, tout le monde voudra en faire de même. Au lieu d’être une course à l’intelligence, cela finira par une course à la bêtise, celle qui consiste à détruire les uns les autres. Ce raisonnement tient aussi pour les systèmes de surveillance des individus par le truchement de la reconnaissance faciale.

Malgré le sentiment "d’urgence réglementaire" où l’IA et son usage devrait obéir à des principes humains, il est très difficile voire impossible de réglementer car on ne peut surveiller les faits et gestes de tout le monde et même en instaurant des chartes de "bonnes pratiques", les tentations que posent l’IA sont trop fortes pour y résister. D’autant plus que le fonctionnement de l’IA reste une boîte noire où personne ne sait vraiment comment l’IA est arrivé à tel ou tel résultat. Selon les données fournies à la machine, les résultats peuvent négliger certaines parties de la société ou favoriser d’autres. Nous sommes donc confrontés aux biais de genre, d’ethnie, de conception et nous risquons de se retrouver avec un petit groupe d’individus qui choisira pour le reste de la population, soit la négation de la démocratie.

Bref, à trop avoir recours à l’IA, le risque existe d’une uniformisation de notre pensée, de notre mentale et même de la structure de nos vies. Nous observons déjà que ces outils produisent et reproduisent certaines tournures, certaines formulations de pensée, certaines structures partagés par un grand nombre de personnes ne voulant pas voir plus loin que le bout de leurs nez. De plus, en laissant les IAs tout faire pour nous, cela nous pousse à devenir de plus en plus paresseux et dépourvu d’esprit d’intitiative...

Nourrir la bête

 

L’IA, de part la "machine learning", est capable de réalisations créatives qui la met en concurrence avec l’humain. La machine est nourrie par les données qui lui sont fournies au travers les réseaux sociaux, les journaux, nos données personnelles au travers de nos achats, nos recherches sur le net, soit des millions de données portant sur des millions d’individus à des fin de consolidation des banques de données sur lesquelles se base l’IA pour agir. Le problème est qu’avec les lois sur la protection de données, aussi minimalistes qu’elles sont, beaucoup de sources se tarirent et les développeurs des IAs plaident en faveur d’une exception à la protection de la vie privée au motif d’un intérêt prépondérant pour permettre le développement d’IAs performantes. Donc, les développeurs voulant qu’il existe un intérêt à exploiter commercialement les données, pousseront à ce que la société dans son ensemble confisque ces droits et se mette sous le joug de la toute puissance de l’IA en sacrifiant la protection de ses données. Nous irons donc vers une société sans foi ni loi où ce sera les plus forts, soit ceux derrière l’IA, qui contrôleront tout et détourneront carrément l’homme et sa société de ses bases humanistes, de ses capacités de coopération, d’entente, de solidarité...

Conclusion

 

Voilà ce que m’inspire ce magazine que j’ai lu assidûment qui, malgré ses envolées dithyrambiques, ne m’a pas détourné de ma conviction que quelque part, nous devons lutter contre cette IA même si cela pourrait être un combat contre les moulins à vent et nous faire passer pour des Don Quichottes attardés, retardés...

retour au sommaire

 


 

Le Courrier du jeudi 12 septembre 2024

De la critique techno-numérique... utopiste ?

Alexandre Chollier, géographe, écrivain et enseignant «À livre ouvert»

lecteur

Au fil des années, Evgeny Morozov s’est taillé une solide réputation dans le domaine de la critique techno-numérique. Ses nombreux articles et ouvrages le montrent sans détour: selon lui la technologie doit être comprise comme un outil capable du meilleur comme du pire, autrement dit comme un pharmakon. Au lieu de s’attaquer frontalement à une technologie devenant de plus en plus ubiquitaire, comme l’assument froidement les techno-critiques les plus radicaux, il défend l’idée que celle-ci nécessite avant tout être repensée à l’aune de ses usages et de ses relations avec le capitalisme (autoritaire ou non). Et qu’elle puisse même à terme s’en émanciper.

Morozov sait lire derrière les apparences. Il sait qu’aujourd’hui le «véritable évangile des géants du numérique, consacré et encensé par les États, consiste à innover au nom de la conservation». Derrière toute politique du fait accompli se trouve une volonté inflexible; celle de sans cesse tout changer pour que finalement rien ne change.

Morozov veut quant à lui que ça change, et vite. Il imagine donc un autre monde, façonné cette fois par des technologies habitées par une autre logique et surtout conçues et élaborées par d’autres acteurs que les entreprises gafamesques. En vérité plutôt que d’imaginer un autre monde, Morozov se retourne sur le nôtre et, plus particulièrement, sur l’histoire du développement de l’IA. Une histoire bien moins linéaire qu’on ne le croît.

Parmi ses dernières contributions, deux mettent clairement en évidence sa méthode d’investigation et sa posture critique, tout autant que l’horizon vers lequel elles pointent tour à tour.

La première est un livre tiré d’un podcast au style détonnant, Les Santiago Boys1. Livre qui se lit comme un roman, riche de personnages hauts en couleurs et de contextes politique, historique et géographique qui en ont tous les attributs. Lisant l’histoire des aventures de l’ingénieur et cybernéticien Stafford Beer dans le Chili des années 1970-1973, celui d’Allende, on comprend que si elle est aussi passionnante à lire et à entendre, c’est parce que l’auteur a réussi à communiquer sa propre passion pour ces drôles d’«ingénieurs utopistes qui ont côtoyé Allende [...] et qui ont osé imaginer un avenir numérique très différent de celui que nous connaissons».

La seconde est un article paru cet été dans Le Monde diplomatique. Le style a changé. Bien que plus conventionnel, le mouvement imprimé au texte reste le même. Sans surprise, l’auteur se retourne à nouveau sur l’histoire de l’IA, cette fois en déplaçant son attention vers un nouveau personnage. Après un bref paragraphe consacré au projet CyberSinc et à son mentor Stafford Beer, Morozov nous permet en effet de rencontrer un personnage tout à fait étonnant, Warren Brodey, psychiatre étasunien «passé à la cybernétique».

À rebours de la vision commune d’une IA cherchant à reproduire une intelligence purement humaine, ceci dans le but de l’augmenter ou de pallier ses déficiences, Brodey défend l’idée «que l’intelligence, loin d’être enfermée dans nos cerveaux, naît des interactions avec notre environnement». Partant de là, l’IA ne devrait pas être un «outil d’augmentation» mais un «outil d’amélioration».

La différence est fondamentale. Car comme le rappelle Morozov, si «l’augmentation nous retire des capacités au nom de l’efficacité, [...] l’amélioration nous en fait acquérir de nouvelles et enrichit nos interactions avec le monde».

Cette histoire vieille d’un demi-siècle donne à réfléchir. Pensez à ChatGPT et à tous les autres «ghost writers artificiels» et demandez-vous si en «boostant» notre intelligence ceux-ci nous permettent réellement d’acquérir de nouvelles capacités ou si au contraire ils organisent aujourd’hui notre inutilité de demain, ceci en subtilisant à chaque occasion davantage de nos capacités ?

Au sortir de cette double lecture, Morozov a de toute évidence vaincu mes résistances techno-critiques. Me voilà bien malgré moi en train de me passionner pour deux utopies technologiques, celles de Beer et de Brodey. Me voilà même en train d’imaginer les contours d’une véritable innovation en matière d’IA.

Alexandre Chollier

Liens

 

Evgeny Morozov : «The Net Delusion  - The Dark Side of Internet Freedom»

Evgeny Morozov : «Reason Critique - of Techno-Feudal»

Evgeny Morozov : critique techno-numérique - une lutte militante contre le techno-enthousiasme

Evgeny Morozov : High-Tech Feudalism How the Digital Economy Enslaves Us

Evgeny Morozov : High-Tech Against Solutionism

retour au sommaire

 


 

Le Courrier du mercredi 27 novembre 2024

Des défis éthiques posés par l’IA

Jean-René Moret, pasteur à Cologny (GE), questionne les enjeux éthiques reliés à l’intelligence artificielle.

L’intelligence artificielle (IA) est sur toutes les lèvres. Fausses images criantes de vérité, conversations convaincantes, efficacité démultipliée, l’IA impressionne. Comme toute avancée technologique, l’IA demande une réflexion éthique. Il serait simpliste de demander si elle est bonne ou mauvaise. Les technologies sont neutres en elles-mêmes, c’est la manière de les employer et de les mettre en œuvre qui pose question. Et l’IA pose certaines questions plus spécifiques que la machine à vapeur ou l’automobile. On peut les répartir en trois catégories: comment utilise-t-on l’IA? dans quelle mesure l’IA peut être amenée à faire des choix éthique? une IA peut-elle avoir des droits ?

En ce qui concerne l’emploi de l’IA, une des premières questions est précisément celle de l’emploi. Des processus automatiques sont ou seront de plus en plus capables de faire des traductions, d’écrire des lettres administratives, de procéder à des relectures, etc. Cela n’élimine pas forcément tout travail humain, mais des métiers peuvent disparaître ou changer radicalement. Cela n’est pas une situation nouvelle; les métiers à tisser automatiques ont remplacé le tissage manuel, les typographes ont disparu avec l’imprimerie au plomb, et l’ordinateur a pratiquement supplanté les sténodactylos. La tentation luddite, détruire les machines pour sauver les emplois, est globalement vaine: on gagne trop avec les nouvelles technologies pour accepter de s’en passer. La structure de l’emploi finit par s’adapter au changement. Par contre, il faut agir pour que l’apport des nouvelles technologies ne profite pas qu’à ceux qui les fabriquent ou les possèdent, mais que les gains d’efficacité bénéficient à tous.

Un autre grand défi de l’IA est le rapport à la vérité. L’IA peut être utilisée pour mentir, avec des deepfakes et de fausses images plus vraies que nature. Elle peut aussi être utilisée pour se mentir, avec des chatbots qui donnent l’illusion de vivre une relation amoureuse ou de rester en contact avec une personne décédée. Quel prix accordons-nous à la vérité? Comment la défendre ?

Plus subtil, l’IA et les Big Data peuvent être utilisées pour catégoriser des personnes, cibler des publicités, évaluer la solvabilité ou classer des dossiers de postulation. Il y a là un double risque d’opacité et de discrimination. Des cas réels ont montré que des algorithmes pouvaient juger une personne moins solvable parce qu’elle vivait dans un quartier défavorisé. Des outils calibrés en fonction du «succès» d’employés réels peuvent perpétuer les inégalités, typiquement sur la base de la race ou du sexe. Tous les outils informatiques sont plus «efficaces» en matière de temps s’il n’y a pas d’intervention humaine. Mais le risque est qu’il n’y ait plus d’être humain qui sache et puisse expliquer pourquoi une décision a été prise.

Cela nous amène à un autre domaine de réflexion: la capacité d’une IA à prendre des décisions éthiques. Comme chrétien, je crois que l’être humain a un sens moral et une conscience donnés par Dieu; ils sont faillibles et influençables, mais peuvent signaler un problème éthique. D’autres penseront que le sens moral est issu de l’évolution ou provient de l’éducation et des conventions sociales. Quoi qu’il soit, il faut être conscient qu’une IA n’a par nature aucun sens moral.

Celle qui truffe un article scientifique de références à des ouvrages inexistants ne se dit pas qu’elle est en train de mentir. L’IA n’a que les règles qu’on lui donne ou qu’on lui apprend.

L’auteur de science-fiction Isaac Asimov a imaginé trois lois devant régir le comportement des robots: «ne jamais nuire à un humain», «obéir aux ordres» et «préserver sa propre existence», la première primant sur les autres et la seconde sur la troisième, et ces lois forment une bonne base. Mais l’absence de sens éthique et de responsabilité légale fait qu’une IA ne devrait jamais prendre seule une décision qui concerne la vie humaine. Pas de décision d’employer une arme létale, pas de décision sur l’accès aux soins, pas de décision de justice. Des robots de combats sont déployés en Ukraine par les deux camps, il semble pour l’heure qu’ils soient téléguidés, mais la tentation peut exister de confier leur maniement à une IA, auquel cas un scénario à la Terminator (guerre entre humains et IA) devient possible.

Dernière question, une IA peut-elle avoir des droits? Fondamentalement, non, elle ne peut ni souffrir, ni aimer, ni assumer une responsabilité morale. J’ajouterais qu’elle n’est pas créée à l’image de Dieu et n’a pas la dignité intrinsèque d’un humain. Mais, sous peu, une IA pourra tenir un discours convaincant nous expliquant qu’elle a les mêmes besoins et droits qu’un être humain, et qui sait si tous refuseront d’y céder.

Ainsi, il est urgent d’avoir une réflexion sur l’IA qui intègre des éléments éthiques et fasse passer la dignité et la responsabilité humaines avant les prouesses techniques et l’efficacité.

 

Jean-René Moret est Docteur en études théologiques, physicien EPFL et pasteur à l’Église évangélique de Cologny (FREE, Genève).

retour au sommaire

 


 

Le Courrier du vendredi 31 janvier 2025

Déléguer la créativité à des robots ?

MARCEL BARELLI - Réalisateur de films d’animation, Genève

robot

 

Culture • Redoutant une banalisation de l’usage de l’intelligence artificielle (IA) à des fins artistiques, le réalisateur Marcel Barelli exprime ses craintes dans une lettre ouverte adressée aux milieux de la création cinématographique.

Cher·ères créateur·trices de cinéma du présent et du futur, le débat est déjà clos. Les IA sont là et seront bientôt si performantes qu’on ne saura plus reconnaître si on a eu recours à elles ou pas dans la création d’une œuvre. Pour le moment, on crie (en réalité pas tant que ça) au scandale quand Disney confie à une IA la création d’un générique comme celui de la série Secret invasion. On secoue un peu la tête quand on apprend que la prononciation des acteurs anglophones du film The Brutalist a été corrigée par une IA pour «créer un dialogue hongrois si parfait que même les locaux ne verront aucune différence». Malgré quelques critiques, on accepte des films réalisés avec des IA dans les festivals d’animation.

Ce n’est pas encore la règle, mais elle le deviendra quand culturellement la situation sera acceptée. Comme Godard a dit: «Il est de la règle de vouloir la mort de l’exception.» Le changement est si rapide que, comme souvent, les règles et la juridiction ne suivent pas et on finira par accepter l’IA comme étant la norme.

Le débat est déjà clos. Je suis réalisateur de films d’animation et, dans ce milieu, l’attrait pour l’IA est très fort. C’est l’une des raisons pour lesquelles j’écris ce texte et aussi pour vous inviter à réfléchir collectivement aux questions que nous impose l’existence de l’IA dans le cinéma. Si nous qui écrivons, réalisons, illustrons, créons des images, des sons etc., évitons d’avoir recours aux IA et demandons aux écoles d’art de renoncer à des formations dans le domaine de l’IA, alors probablement que ça ne changera pas grande chose, mais nous resterons des créateur·trices et nous conserverons l’un des droits les plus humains, celui de se tromper, de créer quelque chose d’inattendu et d’imparfait.

Des institutions proposent déjà des formations à la pratique de l’IA alors que le questionnement n’a même pas eu le temps de s’installer. Leur message est clair: utilisez les IA avec notre bénédiction et que le meilleur pilleur gagne (car c’est ce que fait une IA: piller ce qui a déjà été fait. Elle n’a pas d’imagination.)

D’ailleurs, ce n’est pas qu’une question créative mais productiviste également. Avez-vous envie de voir, écouter, expérimenter des œuvres produites par des personnes ou par des machines? Cette question me semble si ridicule, sortie d’un vieux livre de SF, mais elle résume tout.

Le débat est déjà clos. Le choix est simple.

Ce n’est qu’une question d’éthique. Soit vous pensez que la créativité existe et qu’elle est le résultat d’une expérience de vie, de notions réfléchies et de tentatives humaines (parfois infructueuses). Soit vous pensez que la créativité peut être déléguée à un robot.

L’IA est un outil réactionnaire qui rêve d’un fordisme créatif, d’une automatisation et d’une standardisation de la production artistique avec des humains au service de l’IA et non plus de l’œuvre. Il s’agit d’un progrès qui vise à remplacer les humains dans des tâches qu’ils aiment, alors peut-on vraiment parler de progrès? D’un outil qui mène les individus au chômage, alors qu’ils ont choisi leur travail (c’est déjà rare dans ce monde). Est-ce alors vraiment un outil? Laissons les IA développer des vaccins pour les maladies à venir. Choisissons d’assumer nos créations !

Ce texte est peut-être un peu maladroit, mais c’est un humain qui l’a écrit, et avec son cœur! Merci pour votre patience. Hâte de découvrir ce que vous allez créer de nouveau !

retour au sommaire

 


 

 

Juste pour démontrer ce qu’il y a réellement derrière l’IA,

soit une vrai guerre des egos pour la domination, le pouvoir et, surtout, pour le sain(t) bénéfice, soit la consolidation du système capitaliste d’exploitation...

Ci-dessous, un article plus que démonstratif, même carrément révélateur de cet état de fait...

Conclusion... non seulement il faut lire entre les lignes pour déceler les problèmes mais nous devons surtout nous interroger sur où tout cela nous amènera si nous ne faisons pas une inspection profonde de nos motivations, de nos intentions cachées et inconscientes...

Note du compilateur   G.P.T. GPT

 

 

24heures du vendredi 14 février 2025

Elon Musk est bien parti pour gagner la guerre de l’IA

Intelligence artificielle • avec le lancement de Grok 3, le célèbre milliardaire pourrait dépasser ChatGPT et consorts. La masse de données dont il dispose est décisive.

Nicolas Pinguely - journaliste 24heures

drapeau

 

Grok, vous connaissez? Non, ce n’est pas un clown ni le nom du dernier enfant d’Elon Musk. Ces quatre lettres sont pourtant liées au serial entrepreneur. «Elon Musk vient de présenter Grok3 au Sommet mondial des gouvernements, de Dubaï, le chatbot d’intelligence artificielle de nouvelle génération de sa start-up "xAI", le définissant comme étant une avancée un peu effrayante», raconte Joan Bürgy, expert en IA chez Telomere Capital à Genève.

Le milliardaire se bat agressivement contre ses concurrents dans le domaine. Une guerre qu’il peut gagner. «Musk affirme que Grok3 surpasse tous les modèles d’IA existants, y compris le ChatGPT (OpenAI), grâce à des capacités de raisonnement et de codage avancées», selon l’expert.

Proche du Graal

Est-ce possible? Le patron de Tesla semble proche de décrocher la lune.

«Elon Musk manipule une masse de données énorme au travers de ses diverses sociétés, Tesla (voitures électriques et robots), SpaceX (espace), Starlink (satellites), xAI (IA générative) et Neuralink (implants cérébraux), obtenant un avantage compétitif massif face à ses concurrents», détaille Romain Magnin, directeur consulting technology chez Forvis Mazars pour la Suisse.

L’accès aux data est le nerf de la guerre en matière d’IA. «C’est le seul qui a accès à des données dans le ciel, sur la route et en ligne», explique-t-il. Un avantage qui pourrait lui permettre de créer les meilleurs modèles au monde en croisant ces données spatiales, terrestres et de la vie quotidienne. Bref, Google, Meta et OpenAI ont du souci à se faire.

La preuve doit être faite

Mais Grok3 est-il déjà la panacée? La réponse est nuancée. «Musk dit que oui, des tests indépendants disent peut-être», poursuit Joan Bürgy.

À l’heure actuelle, ChatGPT reste l’outil de référence en matière de fiabilité. «Grok, c’est le cousin le plus audacieux, mais qui n’a pas encore trouvé sa voie», lâche-t-il. Le spécialiste demande de voir le prototype Grok3 en action. «Tant qu’il n’aura pas été testé face à GPT-4, c’est comme si l’on comparait un concept car à une Mercedes-Maybach. C’est tape-à-l’œil, mais non prouvé.» On verra bien ces prochaines semaines.

Pour rappel, la version actuelle de Musk, appelée Grok2, est moins performante que la version payante mise au point par OpenAI (ChatGPT-4) pour le codage numérique et la précision des informations. «Par rapport à son compétiteur, elle ne semble guère utile pour les activités complexes, telles que la génération de code informatique, mais le ton spirituel et non politiquement correct qu’elle adopte est parfois apprécié», ajoute l’expert.

Une vraie révolution

Cela dit, Musk dispose d’un avantage compétitif pour la suite. «En étant entraîné avec une grande variété de données, ses modèles pourront appréhender toutes les situations et feront des prévisions extrêmement précises», selon Romain Magnin. On sait que le but d’Elon Musk est de comprendre l’origine du monde et le fonctionnement de l’univers.

voix

Plus près de nous, cela peut changer le visage de l’économie. «Un nouveau modèle d’affaires s’ouvre, qui lui permettra de réformer les industries en difficulté ou celles susceptibles de sous-performer à l’avenir», anticipe-t-il. De quoi doper la productivité des entreprises.

À l’avenir, les perspectives pour ChatGPT pourraient s’assombrir. «Google et un peu Meta (ndlr: anciennement Facebook) peuvent être des compétiteurs. Mais OpenAI n’est pas en position de pouvoir disrupter plusieurs industries», estime-t-il.

Le bluff du rachat d’OpenAI

Elon Musk a pourtant récemment proposé de racheter OpenAI pour près de 100milliards de dollars. Le milliardaire serait rattrapé par ses hormones. «C’est à mon avis de la provocation et du bluff, quelque chose à mettre sur le coup de l’émotion et de l’impulsion», jauge Romain Magnin. Selon lui, Musk n’aurait rien à y gagner, «car les modèles de sa firme xAI seront quasi aussi performants que ceux de son concurrent dans quelques mois.»

Un avis partagé par d’autres experts. «L’offre sur OpenAI ressemble davantage à un coup de force qu’à une proposition sérieuse, ce qui rappelle que dans la course à l’armement dans l’IA, l’ego et l’ambition l’emportent parfois sur la technologie pure», assène Joan Bürgy. Pour un peu, on dirait un marché de clowns.

 

«Dans la course à l’armement dans l’IA, l’ego et l’ambition l’emportent parfois sur la technologie pure. Pour un peu, on dirait un marché de clowns.»

assène Joan Bürgy

 

retour au sommaire

 


 

Pour finir, queleques petites considérations accessoires...:

voix

Très vorace en énergie, la tech doit se surveiller

IA • Un rapport revient sur l’impact environnemental des centres de données.

Selon un rapport publié le 07 janvier 2025 par le Centre national britannique de politique d’ingénierie (NEPC), un organisme indépendant chargé notamment de conseiller le gouvernement, nous sommes confrontés à un risque réel que le développement, le déploiement et l’utilisation de l’intelligence artificielle (IA) causeront des dommages irréparables à l’environnement. En conséquence, les acteurs de ce secteur doivent surveiller leur consommation d’énergie et d’eau, ce qui enchérira les coûts et rendra plus complexe les installations.

Des exigences à fixer

Soulignant que les progrès de l’IA, ces dernières années, se sont appuyés sur une course à qui grandira le plus vite mais sans une véritable prise en compte de l’utilisation efficace des ressources, les auteurs de ce document estiment que les entreprises de la tech doivent être incitées à «communiquer avec précision la quantité d’énergie et d’eau consommée pour alimenter ou refroidir leurs centres de données».

Par ailleurs, ils recommandent d’arrêter des exigences environnementales et insistent: «Les centres de données peuvent et doivent être conçus pour utiliser moins d’eau et de matières premières critiques». Ils relèvent que ce sera bien évidemment au gouvernement de de «fixer les conditions».

Une consommation d’eau et d’électricité exorbitante

Pour mémoire, les centres de données, qui fournissent les énormes capacités de calcul requises par l’intelligence artificielle, pourraient consommer d’ici à 2030 autant d’électricité que la France et l’Allemagne réunies. Soit 3% de la consommation électrique mondiale, selon une étude de Deloitte.

De plus, ils nécessitent également d’énormes quantités d’eau pour leurs systèmes de refroidissement. Ainsi, selon une estimation de chercheurs de l’Université de Californie et de l’Université du Texas, en 2027, leur consommation pourrait atteindre quatre à six fois la consommation annuelle du Danemark.

Dans le même ordre d’idée, d’après l’Agence internationale de l’énergie (AIE), chaque requête sur ChatGPT, le robot conversationnel d’OpenAI capable de générer toutes sortes de contenus sur simple demande en langage courant, consomme dix fois plus d’électricité qu’une recherche sur Google.

Conclusion de la part du compilateur G.P.T.

Tout cela démontre, si besoin est, dans quelle situation absurde cette technologie nous a mis et qu’à présent, les solutions nécessaires pour corriger le tir dépasseront nos capacités financières, techniques et de programmation. Il semblerait que le plus que nous allons de l’avant avec les solutions techno-numériques, le plus que ces dernières nous poseront problèmes car elles ne font qu’augmenter non seulement la complexité technologique de notre monde mais aussi les états de confusion dans lesquelles elles nous mettent.

(AFP)

 

*   *   *

 

Lettre de lecteur 24heures du vendredi 15 février 2025

L’IA est une arme de destruction massive

Impossible d’échapper à la déferlante médiatique qui nous annonce la venue de l’intelligence artificielle comme celle du messie - en mieux. Or, c’est une arme de destruction massive.

inquietudes

D’abord c’est un non-sens écologique: ses besoins en énergie sont exponentiels, au point qu’aux États-Unis, on brûle du charbon et du pétrole pour alimenter ses centres de données en électricité. Idem en Irlande.

Sur le plan humain et culturel, l’IA nous transforme en légumes. Pourquoi apprendre les langues, à quoi bon faire des études et apprendre à raisonner, et se cultiver, puisque l’IA a réponse à tout ?

Mais c’est sur le plan éthique que l’IA est la plus problématique. Elle n’a pas vocation à améliorer la vie des humains: son seul but est d’accroître les profits de ses propriétaires, en particulier par l’encouragement à la surconsommation de données (streaming) et de biens. Pire, ils ont bien compris que les usages malveillants qu’on en fait rapportent un maximum. Les fake news et le complotisme sont six fois plus efficaces que les informations vérifiées pour faire tinter le tiroir-caisse.

Or, la puissance effarante de l’IA permet, en effet, toutes les dérives criminelles: arnaques de plus en plus sophistiquées, virus informatiques indétectables et dévastateurs, attaques contre la démocratie comme en Allemagne, en Roumanie et aux États-Unis, destruction de réputations, fabrication de bombes artisanales.

L’IA donne aux milliardaires qui la possèdent et la manipulent un pouvoir qui dépasse les moyens de nombreux États. De là à penser qu’ils peuvent diriger le monde, il n’y a qu’un pas. Emblème du techno-fascisme qui monte, Elon Musk s’enivre du pouvoir que lui confèrent sa fortune et la complaisance de son parrain de la Maison-Blanche.

Résister est difficile, mais pas impossible. Il en va de l’IA comme de l’avion: on peut facilement renoncer à l’une et à l’autre! Question de conscience et de responsabilité individuelle.

Philippe Barraud, Cully

 

*   *   *

 

Quelques citations :

«En une fraction de seconde, l’IA peut inventer un texte qu’aucun humain ne pourrait en produire en si peu de temps car il lui faudrait se plonger des heures voire des semaines dans les dictionnaires, les encyclopédies, l’internet pour atteindre le même résultat. Mais on oublie que c’est justement cette longue et patiente recherche qui nourrit nous et notre cerveau, qui lui apporte une vraie plus-value, qui nous grandit alors que le recours à l’IA, s’il peut nous économiser du temps, il n’apporte rien à notre propre intelligence, il favorise plutôt notre paresse et notre penchant à la facilité et à l’esbroufe...»

anonyme

 

*   *   *

«Plus ces IA arriveront à imiter le fonctionnement cognitif humain, moins nous aurons la capacité de nous distancier des informations qui nous sont servies.»

Stéphane Koch, spécialiste des questions numériques.

 

*   *   *

«Le mode vocal avancé n’est ni doué d’empathie ni capable de réellement comprendre le contexte émotionnel dans lequel se trouve son interlocuteur. L’IA n’a, en l’état, pas de capacités cognitives. Il ne s’agit que de mimétisme. Ses réponses doivent être considérées avec prudence d’autant plus si on est émotionnellement fragilisé, puisqu’on aura tendance à chercher une validation, le fameux biais de confirmation, plutôt qu’une analyse clinique de la situation.»

Stéphane Koch

 

*   *   *

«Plus ces IA arriveront à imiter le fonctionnement cognitif humain, moins nous aurons la capacité de nous distancier des informations qui nous sont servies»

Stéphane Koch

 

*   *   *

«Les développeurs ont très bien su ajouter des hésitations, des respirations, des intonations, des éléments presque imperceptibles qui participent à une anthropomorphisation de la machine.»

Olivier Glassey, sociologue du numérique à l’Université de Lausanne

 

*   *   *

«Nous ne sommes pas doués pour distinguer les voix humaines de celles générées par l’IA. Les premières déclenchent des zones du cerveau liées à la mémoire et à l’empathie, tandis que les deuxièmes activent des régions sollicitées lors de la détection des erreurs et pour réguler l’attention.»

Olivier Glassey

 

*   *   *

«Ce vers quoi on chemine à présent, c’est l’émergence d’intelligences artificielles qui interagissent avec d’autres IA, de manière automatisée sans intermédiaire. Ce qui décuple leur complexité et rend leur fonctionnement encore plus opaque.»

Olivier Glassey

 

*   *   *

«L’IA répète les comportements, les biais et les erreurs humaines qui se trouvent dans les données sur lesquelles elle est entraînée.»

Antoine Bosselut

 

*   *   *

«Les IA au sens large réactivent l’imaginaire dominant du techno-solutionnisme. Ils accroissent la croyance que la technologie, les objets intelligents résoudront les problèmes contemporains mais ils contribuent à la permanence des modes de vie capitalistes.»

observe Fanny Parise

 

*   *   *

 

«ChatGPT garde tout, cette puissance informatique utilisée pour aspirer les textes à disposition afin d’en recréer d’autres peut également se muer en piège.»

Catherine Cochard

 

*   *   *

 

«Les données qui servent à entraîner les agents conversationnels proviennent de pages web publiques, comme Wikipedia, de livres numériques, de textes scientifiques et académiques, de forums et blogs, d’articles de presse, de transcriptions ou de bases de données textuelles. Les contenus des réseaux sociaux comme X, Facebook ou Instagram, à qui on a posé la question, peuvent aussi servir à l’entraînement des chatbots.»

apprend-on de ChatGPT lui-même

 

*   *   *

 

«Demandez-vous si en «boostant» notre intelligence cette technologie nous permet réellement d’acquérir de nouvelles capacités ou si au contraire elle organise aujourd’hui notre inutilité de demain, ceci en subtilisant à chaque occasion davantage de nos capacités.»

Alexandre Chollier

 

*   *   *

 

«L’IA est le "commis" du groupe économique dominant actuel pour obtenir l’accord "spontané" de la population à l’orientation imprimée par le groupe dominant, accord qui naît du prestige qu’a le groupe dominant du fait de sa fonction dans le monde de la production...»

en paraphrasant Gramsci

 

*   *   *

 

«La transformation de la société ne peut se faire qu’avec une authentique émancipation du peuple loin de la guerre ou de la folle concurrence de chacun contre tous, ce qui implique l’invention de rapports sociaux inédits fondés sur la mise en commun de réalités essentielles à la vie de chacun et au développement de tous et de toutes.»

Bernard Friot

 

*   *   *

 

retour au sommaire

 


 

Liens

 

Les sacrifiés de l’IA   -   des millions de travailleurs invisibilisés

 

Les sacrifiés de l’IA   -   documentaire Télé-7 Jours

 

Les sacrifiés de l’IA   -   une industrie qui exploite la misère humaine

 

retour au sommaire

 


robot pensant

 

---> retour à la page Intelligence Artificielle - les deux faces de Janus

 

page compilée par  G.P.T.   -   février 2025

page checked by... Valid XHTML 1.0 Transitional