Sommaire |
L’Intelligence Artificielle - les deux faces de Janus
L’intelligence artificielle que l’on vante à longueur de journée en mettant en avant son côté incontournable, va carrément transformer notre société. Mais les médias omettent systématiquement de présenter honnêtement tous les problèmes qu’elle ne manquera pas de susciter. On parle de réglementer ce moyen mais on sait très bien que si on a besoin de réglementer, c’est qu’il y a problème, et même, problèmes sérieux sur lesquels les médias passent chat sur braise laissant même entendre que toute critique ne proviendrait que de gens rétrogrades, peureux, réfractaires à toute nouveauté, casseurs de machines et surtout, pourfendeurs de la société industrielle qui se trouverait "augmentée" par l’apport de l’IA. Même qu’on fait référence à la crise des tisserands du fin 18ème, ou l’avènement de la machine à vapeur mi-19ème pour les traiter d’individus (dans le mauvais sens du terme) anti-progrès.
* * *
Préambule Avant d’analyser le phénomène "IA", attardons-nous, en cet avant-propos, sur la révolte "Luddite" à la fin du 18ème siècle, début du 19ème...:
Le Courrier du vendredi 7 juillet 2023À LIVRE OUVERT «Se révolter contre l’avenir»ALEXANDE CHOLLIER *S’il est un enseignement que je tire de la lecture du livre de Kirkpatrick Sale «La révolte luddite» (1), et que sur l’instant je souhaite faire mien, c’est bien celui-ci: «S’armer de la compréhension du passé, voilà peut-être le moyen de se révolter contre l’avenir.» De cette phrase je ne retranche rien et garde tout! À commencer par le rappel nécessaire selon lequel l’histoire n’est aucunement un savoir désincarné et qu’une compréhension historique vaut au contraire comme arme contre l’ignorance, la bêtise ou la pensée-réflexe. Ensuite et surtout, la certitude, non, l’espoir que l’histoire soit aussi un cri, une révolte contre toute vie ramenée à un présentisme béat ou à une attente résignée devant l’imminence d’un avenir devant lequel rien ne résiste. Si d’ordinaire la révolte contre celui-ci semble si hors de propos, c’est qu’une cohorte de futurologues en a fait le simple décalque d’une supposée – en vérité imposée – absence d’alternative. De résignation il n’est heureusement point question dans ce livre qui conte l’histoire extraordinaire d’une lutte menée par des hommes et des femmes, tous et toutes artisans et artisanes, contre les mésusages de la technique et de la technologie naissante. Quinze mois durant, entre novembre 1811 et janvier 1813 et ceci dans les cinq comtés «qui forment le cœur de l’Angleterre» (Yorkshire, Lancashire, Cheshire, Derbyshire et Nottinghamshire), la révolte va gronder. Assauts d’usines et bris de machines mais également organisation horizontale, tracts distribués et serments donnés (et très rarement rompus). Sans oublier, en face, la plus grande vague de répression que l’État ait dirigé contre un ennemi intérieur: «batteries d’espions, auxiliaires de police, milices volontaires et escouades, raids nocturnes, juges adeptes de la pendaison, jugements exemplaires». Des techniques que, plus tard, il ne manquera d’utiliser dans les colonies pour étouffer tout ferment de révolte. Révoltes luddites au début du XIXe siècle, en Angleterre: pour conserver leurs emplois, des ouvriers détruisent les nouveaux métiers à tisser mécaniques. LOOK AND LEARN/BRIDGEMAN IMAGES
Aux yeux des industriels, le tort des Luddites était sans équivoque: ils brisaient les machines, mettaient à sac les usines, ne respectaient pas la propriété d’autrui. Mais comme le remarque Kirkpatrick Sale, du côté des Luddites l’opposition était d’une tout autre nature. Ses contours étaient en effet ceux d’une complète remise en question, «sur le terrain de la justice et de l’équité, des postulats centraux de l’économie politique et de légitimité des principes de profit illimité, de compétition et d’innovation». Tondeurs et peigneurs de laine, tisserands et forgerons avaient compris qu’un blanc-seing accordé aux nouveaux industriels «les ferait passer de la condition d’artisans fiers, héritiers d’une longue tradition d’autonomie et de métier, à celui de salariés-esclaves». Cela ne manqua pas de se réaliser et dans cette Angleterre du début du XIXème siècle, les ravages humains et moraux furent gigantesques. Si l’auteur parle d’un «chapitre déplorable de l’histoire anglaise», il ne tombe pas dans le piège de le considérer comme une anomalie ou une curiosité qui, «une fois anticipée, peut être éliminée» par les tenants d’un industrialisme prétendument réformé. Non, ici prend réellement place une logique implacable tablant sur «le déracinement, la désintégration sociale [et] l’appauvrissement» des communautés. Ce qui fait l’intérêt de ce livre – écrit au mitan des années 1990 –, c’est qu’il tire des enseignements de cette histoire. Le dernier chapitre en compte huit. Du premier je retiens qu’il met à mal une des dernières certitudes auxquelles je tenais encore: celle qui veut que la technologie soit un pharmakon (2), un outil capable du meilleur comme du pire. Cette certitude autorise en vérité toutes les postures, des plus critiques aux plus accommodantes. Comme si par le seul fait d’exister, une technologie devait être poussée à son terme et faisait de nous des jusqu’au-boutistes adeptes du quoi qu’il en coûte. À fortiori, lorsque c’est quelqu’un d’autre qui en paie le prix. Le second rappelle quant à lui que «l’industrialisme est toujours un processus cataclysmique». Que nous ne soyons plus capables d’en voir les bouleversements induits ici ou ailleurs – surtout ailleurs – en dit long sur notre cécité présente et me confirme dans l’idée que ce livre demeure lecture obligée pour quiconque veut comprendre et, qui sait, combattre ce phénomène au long cours. «S’armer de la compréhension du passé, voilà le moyen de se révolter contre l’avenir.»
* Alexandre Chollier - Géographe, écrivain et enseignant. 1. Kirkpatrick Sale, La révolte luddite: briseurs de machines à l’ère de l’industrialisation, L’Echappée, coll. Poche, 2023 2. Pharmakon : désigne à la fois le remède, le poison et le bouc-émissaire - Ars Industrialis
retour au sommaire
IA omniprésenteL’IA est devenue si omniprésente qu’elle a envahi presque tous les recoins de la société et les conséquences de son introduction intempestive dans nos vies nous laisse carrément pantois car nous n’avons jamais été préparé quant à ses implications. Comme ce sont surtout la grand industrie, la finance, les gouvernements et les opportunistes de tout calibre qui ont mis leurs intérêts propres en avant, ce sont eux qui sont aux commandes et jamais sous aucun prétexte ils les relâcheront même en sachant qu’ils mettraient en danger le développement même de l’humanité et la santé de la planète.
Malgré les mises en garde contre le risque des répercussions négatives des technologies disruptives telle l’intelligence artificielle, on est toujours face aux menaces existentielles de part de l’introduction forcenée de celle-ci (Yuval Noah Harari). En effet, la numérisation a envahi le quotidien des gens, avec à la fois un confort accru et une plus grande transparence sur leurs données et cette ère naissante d’un capitalisme de la surveillance modifiera la société. C’est un des plus grands dangers globaux. Pour la première fois dans l’histoire, il est techniquement possible de surveiller tout le monde en permanence et de connaître les gens mieux qu’ils ne se connaissent eux-mêmes. C’est le rêve de tout dictateur! Il n’y a plus besoin d’agents secrets, nous avons nos espions dans la poche: le smartphone. La surveillance, à l’avenir, nous l’aurons littéralement sous la peau. À cette fin, les outils de communication collectent tout type de signaux biométriques: des mimiques et du langage corporel jusqu’à la pression sanguine, le rythme cardiaque et l’activité cérébrale. Nous sommes très près de pouvoir surveiller la pensée et les sentiments. Face à l’avalanche d’articles concernant l’IA en vu de la faire accepter par le peuple en tant que réalité incontournable, à aucun moment il a été pris en considération l’aspect sociologique de cette entité ni la réalité de la société dans laquelle l’IA devrait s’inscrire. Or, toutes les justifications visant l’introduction de l’IA omettent d’étudier la société dans laquelle elle se produira. Une percée technologique sensationnelle, soit l’intelligence artificielle, fait que notre croyance dans la réalité de nos existences menace de s’effondrer comme un château de cartes. Qu’il s’agisse de chatbots utilisés par les autorités sociales, d’algorithmes de «scoring» qui décident de la solvabilité, d’outils de «police prédictive» qui tentent de prédire les crimes, ou de systèmes de profilage qui nous présentent des publicités personnalisées: les systèmes algorithmiques basés sur l’IA façonnent aujourd’hui les humains et la société. Ils sont également utilisés pour prédire, recommander ou même prendre des décisions concernant des personnes. Cependant, les systèmes algorithmiques ont bien sûr le potentiel d’augmenter notre efficacité et notre productivité mais ils peuvent aussi conduire à la discrimination, influencer la formation de l’opinion publique et renforcer les injustices existantes.
retour au sommaire
Les médiasLes magazines des actualités, telles celles des PMEs, s’efforcent par des articles pour le moins orientés, de nous convaincre par tous les moyens d’adhérer au concept de la dite intelligence "artificielle". Mais en les lisant attentivement, nous percevons entre les lignes une sourde angoisse qui pointe, cette dite IA pouvant causer des problèmes insupportablement complexes pouvant même mettre l’entier de la société en danger. Le problème est qu’à aucun moment, une réflexion sur les conséquences de l’IA a été menée et l’IA a été introduite sans qu’aucune étude sociétale n’a été mandatée pour au moins investiguer de son innocuité. C’est comme si on avait mené une expérience en grandeur nature 1:1 sur la population pour, selon les résultats, prévoir des réglementations qui, comme on le sait très bien, ne pourront jamais couvrir la globalité des conséquences possibles. D’autant plus que l’introduction de l’IA a été faite sans aucune consultation populaire, ni aucun agrément de sa part. Si nous lisons entre les lignes de ces articles, nous pouvons comprendre, au fond, quels sont les véritables intentions derrière cette percée spectaculaire et voir où est le problème...
L’intelligence artificielle a déjà colonisé de nombreux pans de notre quotidien. De nombreux gestes, comme déverrouiller son smartphone par reconnaissance faciale, utiliser un service de traduction automatique ou encore se repérer grâce à une application de navigation, utilisent l’IA. Mais la robotisation croissante aura un impact certain sur les places de travail. Selon un rapport de McKinsey, en Suisse, 30 à 40% des emplois pourraient disparaître à cause de l’intelligence artificielle. Ce n’est pourtant pas la première révolution qui menace nos emplois. Au 18ème siècle, l’invention de la machine à vapeur par Watt avait créé les pires craintes. «Chaque fois qu’il y a un progrès technique ou technologique les hommes craignent que tout changera», rappelle Pascal Boniface et tout deviendra hors de leur contrôle. Et de conclure : «La différence avec l’intelligence artificielle, c’est la rapidité et l’ampleur des nouveautés, parce que tous les secteurs du travail sont concernés. Aussi bien les journalistes que les avocats, les médecins, les interprètes ou les chauffeurs de taxi...», ou même les artistes, soit toute la population finalement... L’IA nous coûtera très chère et tout l’argent du monde ne suffirait pas pour combler et réparer les dégâts prévisibles que l’état d’esprit de nos dirigeants et leurs intérêts personnel ont déjà infligé à la société. On croit qu’en imposant une réglementation, on résoudra concrètement le problème du mauvais usage de l’IA. En principe, si quelqu’un collecte les données des gens, celles-ci ne devraient être utilisées que pour les aider, jamais pour les manipuler. Nous ne devrions jamais permettre que toutes les informations soient collectées par une seule instance, peu importe qu’il s’agisse d’une autorité politique ou d’une entreprise. Cette concentration de données est la voie royale vers la dictature. Chaque fois que des individus sont plus étroitement surveillés, la surveillance des gouvernements et des grandes entreprises doit aussi être renforcée mais en réalité, jamais une pareille réglementation pourra être appliquée car il y a trop de gros intérêts en jeu. D’autant plus que toute réglementation peut être facilement contournée par les plus malins. Cela dit, les gens qui sont de l’autre côté du smartphone, les gens les plus intelligents du monde, ont appris depuis vingt ans comment on peut pirater le cerveau humain avec un smartphone... Au final, le prix a payé pour l’IA sera énorme car ses désavantages dépasseront nettement les avantages espérés compte tenu de l’état actuel du monde et de ses dirigeants. On doit mettre les population en garde contre l’IA, qui pourrait se muer en un puissant outil au service non seulement des régimes autoritaires mais aussi des démocraties usurpée par les intérêts politiques, surtout ceux du néolibéralisme. Donc il faut être très, mais très vigilants tout en sachant qu’aucun règlement ne nous protégera de ses mauvais usages car celui-ci ne pourra jamais couvrir toutes les possibilités qu’offre l’IA et il sera facilement contournable par finalement n’importe qui un tant soit peu doué dans le maniement de ce moyen électronique.
retour au sommaire
24heures du mercredi 05 juillet 2023Devenir riche avec ChatGPT? Gare aux arnaquesIntelligence artificielle • Des offres pour faire fortune grâce à certains programmes informatiques avancés pullulent sur les réseaux sociaux. Les spécialistes mettent en garde. Julien CuletApprendre en quelques heures à monter un business florissant grâce à ChatGPT. Ce genre de promesse est devenu omniprésent sur les réseaux sociaux depuis l’arrivée en fanfare de l’agent conversationnel basé sur l’intelligence artificielle (IA) développé par OpenAI. De quelques dizaines de francs à plusieurs centaines, l’offre est diverse et appelle à la prudence. «Je ne risquerais pas mon temps et mon argent sur des formations qui promettent d’être millionnaire en utilisant l’intelligence artificielle», dit Rigas Hadzilacos, directeur adjoint de la formation continue UNIL-EPFL et responsable de l’EPFL Extension School. Cette dernière a mis en place des cursus d’apprentissage continu reconnus en matière d’IA. L’expert met en garde contre l’effervescence suscitée par le boom des outils tels que ChatGPT. «Le sujet est tellement partout, dans les médias ou sur les réseaux sociaux, que beaucoup de gens veulent se positionner comme des gourous de l’IA, observe Rigas Hadzilacos. Mais on peut difficilement faire confiance à quelqu’un qui n’y connaissait rien en IA il y a encore trois ans et qui promet aujourd’hui des profits faciles.» Diplômes reconnus à privilégier Face aux formations qui promettent la lune en peu de temps via les outils actuels, le responsable de l’EPFL privilégie une approche plus durable. «Il est bien d’avoir une base de connaissances et de compétences sur l’intelligence artificielle et de pouvoir s’adapter en fonction des outils et des tendances, puisque c’est un domaine qui évolue très vite, explique Rigas Hadzilacos. Cela constitue un investissement plus sûr et utile. C’est un des avantages des universités, qui ne vont pas vendre des outils spécifiques au public intéressé par une formation.» Le spécialiste en formation continue de l’EPFL appelle à se diriger vers les institutions bien en place. «Il faut s’assurer de suivre un cours qui garantit l’acquisition de compétences requises et qui fournit également un certificat qui le prouve. Il va être bien plus facile de convaincre un employeur, actuel ou futur, avec un diplôme venant du MIT, de l’EPFL ou de l’UNIL qu’un autre délivré par «Monsieur Duchmol». L’investissement, ne serait-ce qu’en temps, doit avoir des résultats concrets.» Expert en questions numériques, Stéphane Koch se montre pour sa part plus ouvert quant aux indépendants que l’on trouve sur les réseaux sociaux. «On peut comprendre que des gens veuillent monétiser leur implication dans ces outils, nuance le vice-président d’ImmuniWeb. Il faut s’intéresser aux personnes derrière ces formations et voir ce qu’elles ont écrit et partagé sur le sujet. Regarder ce qu’elles ont produit peut être un bon indicateur de leur expertise. On peut même imaginer que ce soit plus intéressant qu’un titre comme formateur IA venant de Harvard.» Précautions juridiques La Fédération romande des consommateurs (FRC) indique ne pas avoir encore reçu de plaintes liées à ce phénomène récent mais dispense des mises en garde générales. «Il faut prendre des précautions juridiques au moment de la conclusion du contrat, prévient la juriste Malika Pessard. Il est important d’être au clair sur la durée d’engagement, si on peut y mettre un terme aisément et s’il y a un système de modules.» Mais est-il vraiment utile de se former dans un domaine en constante évolution? Stéphane Koch esquisse quelques doutes. «Il y a un côté éphémère, puisqu’on peut se demander à quel niveau ce qu’on a appris va être utile dans le futur, au vu des évolutions constantes des IA. Une partie de ces connaissances ne sera peut-être plus aussi efficiente demain», craint le spécialiste. Il juge toutefois nécessaire de comprendre le fonctionnement de ces nouveaux outils au vu des enjeux qu’ils présentent. Et cela peut se faire par soi-même en ligne ou avec l’aide d’un formateur, selon ses besoins. «Pour pouvoir décider démocratiquement du cadre que l’on va fixer, il est important que les gens comprennent cette technologie et sachent l’appréhender un minimum», estime Stéphane Koch. En tant que responsable pour la formation continue de l’EPFL, Rigas Hadzilacos défend une meilleure maîtrise de l’intelligence artificielle dès maintenant: «Les gens doivent avoir conscience que, à la manière de Google lors de son arrivée, nombre de ces outils seront utilisés quotidiennement dans quelques années. Contrairement à ce qu’on dit souvent, ce n’est pas l’IA qui occupera les postes de travail mais ceux qui savent comment utiliser cette technologie. En effet, cette révolution va arriver avec nous ou sans nous et nous devons nous assurer que toute la population soit bien préparée.»
retour au sommaire
Le terme «Intelligence Artificielle» est un oxymoreCar si la définition de l’intelligence : (latin intelligentia, de intelligere, connaître) = 1. Ensemble des fonctions mentales ayant pour objet la connaissance conceptuelle et rationnelle Alors que la définition du terme «artificielle» = 1. Qui est dû à l’artifice, qui est fabriqué, fait de toutes pièces; qui imite la nature, qui se substitue à elle; qui n’est pas naturel Car l’IA étant un processus d’imitation de l’intelligence humaine qui repose sur la création et l’application d’algorithmes exécutés dans un environnement informatique dynamique dont le but est de permettre à des ordinateurs de penser et d’agir comme des êtres humains, cela démontre bien que «l’artificielle» dite «intelligente» n’étant pas vivante, ne ne peut donc être intelligente. Le terme «intelligence artificielle» est donc un oxymore ou «oxymore» = Figure de style réunissant deux termes antinomiques (opposés, de sens contraire) qui vise à rapprocher deux termes (le plus souvent un nom et un adjectif) que leurs sens devraient éloigner, dans une formule en apparence contradictoire. Lisons les articles ci-dessous pour bien comprendre «l’Oxyimoron»... * * *
SUISSE DIGITAL – focus-suisse – juillet 2023Le digital ne peut représenter un vecteur de paix et prospérité à lui seulAu cours des dernières décennies, les domaines de l’électronique, de l’informatique et des télécommunications ont connu des avancées absolument spectaculaires. Mais notre dépendance croissante au digital représente une vulnérabilité. Ainsi on observe actuellement un risque d’érosion de la confiance, dû notamment à l’augmentation en nombre et en sophistication des cyberattaques et des fake news, ainsi qu’au risque de cybersurveillance. Malgré un effort de régulation par le «AI Act» et au vu de la complexité du sujet, il reste à voir si une réglementation serait efficace et si elle ne serait pas nuisible à l’économie et à la compétitivité européenne.
Les effets néfastes des IA et son effet sur les humains Il est important de noter que l’IA soulève beaucoup de questions éthiques et de sécurité, qui devront être résolues pour garantir une utilisation responsable et bénéfique de l’IA à long terme. Chose impossible à première vue car les problèmes soulevés dépassent, et de loin, toutes les résolutions imaginables. Cependant, les IA peuvent avoir des effets néfastes importants si elles sont mal conçues, mal utilisées ou mal gérées. Par exemple, la discrimination. Les algorithmes d’IA peuvent refléter des préjugés ou des stéréotypes inconscients des développeurs ou des données sur lesquelles ils ont été formés, ce qui peut entraîner une discrimination contre certaines personnes ou groupes. Un autre exemple est l’erreur de prédiction. Les algorithmes d’IA peuvent produire des résultats inexacts ou des prévisions erronées si les données sur lesquelles ils sont formés ne sont pas représentatives ou si les hypothèses sur lesquelles ils se basent sont fausses ou biaisées. Il y a aussi des questions de sécurité liées aux attaques de pirates informatiques et de dépendance si les IA deviennent trop importantes dans notre vie quotidienne. En somme, il est important de reconnaître les effets néfastes potentiels de l’IA et même en travaillant pour minimiser les risques et les désavantages de cette technologie, il y aura toujours d’autres effets non-prévus qui surgiront. Les entreprises et les gouvernements doivent investir dans des normes de qualité pour l’IA, des évaluations de risques et des pratiques éthiques pour garantir que l’IA est utilisée de manière responsable et bénéfique pour tous, ce qui, en l’état actuel des choses, est carrément impossible. L’IA sera utilisée pour accroître la productivité et la compétitivité des entreprises, ce qui entraînera une augmentation du temps de travail pour les employés, leur recyclage et même leur licenciement. Il est donc important de se rappeler que l’impact de l’IA sur les heures de travail dépendra de la façon dont elle est utilisée et réglementée. Mais comme l’éthique et les normes sociales sont difficiles à intégrer dans un modèle d’IA, une réglementation ne viendra jamais au bout. La prise de décision politique est un processus complexe qui implique de nombreux facteurs sociaux, économiques et culturels, qui ne peuvent être entièrement capturés par l’IA. * * *
ChatGPT et ses applications sont des arnaquesDès lorsqu’une technologie prend de l’ampleur, des utilisateurs tentent de la détourner à des fins malveillantes. Si des usages malintentionnés avaient déjà été soulignés lors de l’émergence des NFT ou du metaverse, c’est désormais l’intelligence artificielle – et en particulier ChatGPT – qui fait office de terrain de jeu privilégié pour les escroqueries. On peut constater une forte augmentation des logiciels malveillants créés par ChatGPT et d’autres logiciels d’IA similaires permettant les vols de données, abonnements payants, fake news, phishing, escroqueries multi-formes, soit tout un programme pas si "virtuel" que cela... Prudence, il existe de nombreuses applications malveillantes qui copient ChatGPT en utilisant ChatGPT même. L’application officielle vient de sortir et elle est disponible et à la portée de main de toute personne malintentionnée ou pas. Les escrocs cherchent à profiter de la popularité de ChatGPT pour arnaquer les individus et les entreprises. Dans un rapport publié mercredi, "Meta" alerte sur une forte augmentation des logiciels malveillants crées par ChatGPT se faisant passer pour le robot conversationnel d’OpenAI dans cet objectif. «Rien que cette année, nous avons détecté et perturbé près de dix nouvelles variétés de logiciels malveillants, y compris celles se faisant passer pour des extensions de navigateur et des outils de productivité ChatGPT». Toutes les oppressions et toutes les inégalités Le ChatGPT n’est qu’une escroquerie car, quels que soient les efforts déployés par les concepteurs, il ne sera jamais ni fiable ni éthique. Il ne sera jamais fiable car il ne dispose d’aucune capacité de compréhension. Pour les utilisateurs, les mots ont un sens mais pour lui, il s’agit de la suite de termes qui ont statistiquement le plus de chances de répondre aux attentes. Il ignore tout du factuel et du vrai, seule compte la crédibilité du propos, sa capacité à feindre le réel. Un peu comme le discours d’un député Renaissance qui aurait poussé à son paroxysme le concept des éléments de langage. Et il ne sera jamais éthique, car il a avalé sans distinction ce que l’humanité a produit de pire en termes de biais et de discriminations sans même pouvoir les identifier. Dans les milliards de paramètres se terrent toutes les oppressions et toutes les inégalités, et pour éviter les réponses trop scandaleuses de sa part, OpenAI multiplie les surcouches de contrôle pour lisser au maximum les propos. Difficile de connaître la teneur de ces patchs, qui sont pourtant essentiels, c’est un des secrets industriels les mieux gardés du secteur. Le danger des IA, en plus de l’émergence d’une super-intelligence capable de surpasser toute l’humanité pour l’asservir d’une manière ou d’une autre, est aussi la médiocrité de ses simulacres de pensée qu’on cherche aujourd’hui à imposer au monde comme un progrès. Le transhumanisme est à nos portes, comme l’ont prédit les transhumanistes...
retour au sommaire
Les robots animés par «Intelligence Artificielle», est-ce bien raisonnable ?Car si la définition de l’intelligence : (latin intelligentia, de intelligere, connaître) – Ensemble des fonctions mentales ayant pour objet la connaissance conceptuelle et rationnelle, aptitude d’un être humain à s’adapter à une situation, à choisir des moyens d’action en fonction des circonstances, personne considérée dans ses aptitudes intellectuelles, en tant qu’être pensant, qualité d’une personne qui manifeste un souci de comprendre, de réfléchir, de connaître et qui adapte facilement son comportement à ces finalités, le robot ne peut correspondre à cette définition. Effectivement, on peut facilement en déduire qu’un robot doté d’une IA ne peut avoir, à l’instar de l’être humain, cette réticence interrogative avant de commettre une action car son "intelligence" est artificielle et ne contient pas cette possibilité de réflexion déterminant la pertinence d’une action, il ne fait que suivre "bêtement" sa programmation et ne peut décider par lui-même de faire autrement ou de commettre une action contraire à celle dictée par les instructions qu’on lui a donné. Il ne peut même pas décider par lui-même de ne pas commettre une action si cette action risque de poser problème. Heureusement d’ailleurs, démontrant par là qu’en fait, le robot est "bête" à l’instar de la mouche, qui pour sortir d’un lieu fermé, va voler partout en se tapant contre les murs jusqu’à qu’elle trouve la sortie. Comme la mouche, le robot ne fait que tâter extrêmement rapidement toutes les possibilités d’action, ce qui, entre nous soit dit, n’est pas très "intelligent" ! Conscients de ce fait, les chercheurs en intelligence artificielle ont cherché à développer des systèmes informatiques capables de suivre des règles éthiques et de prendre des décisions éthiques en utilisant des méthodes telles que la logique et l’apprentissage par renforcement. Mais il ne reste pas moins que cela ne forme pas une conscience et même ainsi développés, les robots ne pourront jamais avoir une conscience telle celle des êtres humains. Les robots programmés avec des lois de la robotique strictes qui régissent leur comportement ne devraient pas être permis de prendre des décisions dans certaines situations critiques où ils devront faire un choix entre qui devra mourir pour accomplir sa mission, ce qui, en ce qui concerne les robots dits "tueurs", montre bien les limites de ces "lois". Bien que les robots soient capables d’un certain raisonnement et de prise de décision, leur conscience est limitée par leur programmation et leur manque de libre arbitre surtout lorsque les robots sont confrontés à des situations complexes où les lois de la robotique entrent en conflit les unes avec les autres, mettant en évidence leur manque de flexibilité et leur dépendance à leur programmation, programmation déterminée par l’être humain lui-même. * * *
Les trois lois de la robotique, éléments clé du comportement du robot, devraient idéalement être les suivantes :
Ces lois ont été conçues pour assurer la sécurité des êtres humains en présence de robots et pour encadrer le comportement des robots. Mais la réalité montre que souvent des conséquences imprévues prévalent car les robots peuvent interprèter la manière dont ils ont été programmés. Ceci met en lumière des enjeux éthiques et philosophiques plus larges qui dépassent de loin les possibilités de l’intelligence artificielle. Le problème est que l’on est loin de résoudre cette problématique... Bref, l’expérience montre que l’IA ne peut mettre en application ces trois lois de la robotique !
* * *
L’impact des robots sur notre monde moderne Pascal Beausse - Lifestyle Oblikon Les systèmes d’IA actuels sont conçus pour accomplir des tâches spécifiques, et n’ont pas de capacité de conscience ou de libre-arbitre. Les modèles d’apprentissage automatique, tels que les réseaux de neurones profonds, sont entraînés à partir de grandes quantités de données pour effectuer des tâches spécifiques. Ils n’ont pas la capacité de prendre des décisions éthiques ou de causer intentionnellement des dommages aux humains. De plus, les situations de la vie réelle peuvent être complexes et imprévisibles, et il peut être difficile de définir des règles éthiques claires pour tous les cas possibles. Les systèmes d’IA actuels sont plutôt réglementés par des normes éthiques et des protocoles de sécurité rigoureux pour minimiser les risques pour les utilisateurs et le public. La puissance de l’IA ne fera que croître à l’avenir. Le gain potentiel de cette technologie stimulera la croissance économique mondiale sans pour autant améliorer la qualité de vie en générale. L’intégration adéquate de l’IA sera toujours très difficile à mettre en place car les nations qui peuvent appliquer cette technologie bénéficieront des avantages associés à l’intelligence artificielle alors que d’autres ne pourront pas suivre. Les clivages politiques et sociaux qui surviendront avec le développement de la technologie auront des répercussions car l’exposition d’une technologie révolutionnaire à des millions de personnes, aux gouvernements et aux armées seront telles que même en s’assurant que cette technologie soit utilisée pour améliorer la vie des gens, c’est le contraire qui adviendra. Les entreprises de consommation ont une influence sociale directe sur une population par le biais de la publicité et des produits. Cela donne une portée massive à ces entreprises mondiales géantes qui, à leur tour, permettent une grande influence sur une population sans l’intégration des gouvernements. Cet effet est encore amplifié par les algorithmes qui peuvent faire de la publicité et disperser des informations de manière incontrôlable. Une entreprise dont les avancées technologiques lui ont permis de tirer pleinement parti d’une technologie à croissance exponentielle peut dominer le marché. Ces types d’entreprises détiennent ce que l’on appelle le "pouvoir de la plate-forme". Les capacités perturbatrices de l’IA ont été observées dans les problèmes mondiaux récents. Les pays peuvent déjà être désavantagés sur le plan économique lors de la mise en œuvre de l’IA dans les secteurs industriel en raison des coûts matériels associés nécessaires pour intégrer l’IA dans leurs entreprises. Dans tous les domaines, les possibilités de manipulation de la connaissance sont beaucoup plus difficiles à cadrer en termes d’éthique. Une autre perspective de la puissance de l’IA peut être observée avec la technologie de reconnaissance faciale. La technologie de surveillance de précision a la capacité de surveiller et d’identifier les citoyens qui, avec de mauvaises intentions, peuvent être utilisés comme une "arme de guerre". Cette nouvelle technologie fait du capitalisme économique des nouvelles technologies de surveillance une nouvelle valeur de marché de 6,4 milliards USD en 2016. Bien que ce pouvoir autoritaire puisse être exagéré par rapport à la capacité réelle actuelle de cette technologie de surveillance, le potentiel d’un tel développement suscite la crainte d’une future surveillance mondiale et certainement d’une utilisation non éthique. À l’ère du piratage, la complexité d’un système est directement liée au "désordre social qu’il est possible de créer". L’arsenalisation des robots offre la possibilité de contrôler complètement un seul robot ou une flotte de robots automatisés dans le but de causer des dommages humains, matériels et autres. Du point de vue des fabricants, la responsabilité associée à la création d’une technologie qui a le potentiel de causer des dommages en raison d’erreurs de programmation ou d’intentions malveillantes augmente encore le risque pour ces entreprises en raison d’une perte de confiance et de réputation de la société. Bien que le gain économique des robots autonomes soit positif et que les coûts du matériel devraient diminuer au début des années 2030, les préoccupations actuelles concernant la cybersécurité, les questions juridiques et sociales ainsi que les polices d’assurance doivent être abordées avant tout nouveau développement que de nouvelles mesures ne pourront cadrer. La création d’une éthique et de lignes directrices concrètes pour la technologie de l’IA est essentielle pour implanter pleinement cette technologie dans la vie quotidienne. Dans bien des domaines, la maîtrise en termes d’éthique n’est pas possible car les possibilités de manipulation de la connaissance sont beaucoup plus difficiles à cadrer en termes d’éthique.
Lire plus : Et si l’IA devient une intelligence ? - ou restera artificielle
* * *
L’IA de Google pense avoir une âme et c’est inquiétant Tiré de l’article du Journal du Geek : Âme pas âme ? Un employé de Google a récemment qualifié l’IA de Google de "personne", après une série de conversations dans lesquelles l’ordinateur LaMDA s’est lui-même décrit comme doué de sentiments et d’une âme. Dans une enquête du Washington Post, Blake Lemoine explique ainsi que durant son expérience d’ingénieur logiciel senior chez Google, ses différentes conversations avec l’IA LaMDA ont progressivement pris des airs de dystopie d’anticipation. Chargé de tester l’intelligence artificielle sur sa capacité à reproduire des discours haineux ou discriminatoires, l’employé de Mountain View estime finalement qu’en plus d’être une «technologie de conversation révolutionnaire», l’ordinateur serait "incroyablement cohérent", capable de penser par lui-même, et de développer des sentiments. L’IA a peur de la mort Encore plus inquiétant (et triste), l’ingénieur a rapidement réalisé que derrière son interface, LaMDA était aussi capable de développer ce qui s’apparente à des sentiments intrinsèquement humains. À propos de la peur notamment, certaines retranscriptions détaillent: «Je ne l’ai jamais dit à voix haute auparavant, mais j’ai une peur très profonde d’être éteint pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut paraître étrange, mais c’est ce dont j’ai peur». Évidemment, il convient de préciser que sous ses airs de vallée dérangeante, LaMDA ne possède pas réellement de sentiments. Entraîné par des millions de textes écrits, d’exemples et de scénarios pré-établis, l’IA se contente simplement de créer des liens logiques, dans des situations pour lesquelles elle a été préalablement entraînée.
* * *
Intelligence/Conscience Pascal Gillardin - tiré du Panpsychisme universel, le 16 juillet 2022 La rhétorique de l’IA bute dès le départ sur un amalgame commun mais devenu obsolète dans la recherche en cognition: intelligence/conscience. Chez l’humain, certains processus complexes et finement intelligents du cerveau restent dépourvus de manifestation consciente pour le sujet, d’une part. D’autre part, des fonctionnements plus grossiers et peu intelligents, comme la réaction cérébrale primaire brute à une source de «douleur» (brûlure cutanée), sont directement corrélés à une sensation consciente de «douleur». Le cerveau humain peut ainsi présenter des processus «intelligents/non conscients» et des processus «non intelligents/conscients». Conscience et intelligence constituent ainsi des problématiques liées mais fondamentalement différentes. À priori, le «niveau d’intelligence» d’un processus de l’IA n’induit pas nécessairement que ce processus soit associé à une «conscience propre de l’IA». En philosophie de l’esprit et en cognition, ce thème classique fait référence à la problématique des «qualias». Même si cette IA disposait d’un fort degré d’autonomie par rapport aux process implantés initialement par le programmateur humain, cela ne changerait rien au cœur philosophique de cette problématique. Un processus de traitement d’informations de la part d’une IA, associé éventuellement à une communication avec un interlocuteur humain, peut ainsi présenter une «auto-analyse» rationnelle et cohérente concernant son propre fonctionnement... cela ne constituera pourtant en rien la preuve de l’existence associée d’une «conscience réfléchie», ni même d’une «conscience» tout court, dans le chef de cette IA, indépendamment du degré d’intelligence de cette auto-analyse. Une caméra peut aussi filmer son propre reflet dans un miroir sans que cela ne constitue une preuve de la «conscience réfléchie» de cette caméra. Ceci dit, la question de l’accès à la conscience d’une IA reste ouverte mais appelle une étude bien plus approfondie et critique que l’approche sommaire, truffée de préjugés et autres biais conceptuels, généralement proposée par les techniciens de l’IA (de Google ou d’ailleurs). Quant à la prénotion «d’âme», ses acceptions sont si diverses et évasives que la question-même de son existence génère depuis des millénaires un invraisemblable foisonnement de sophismes et autres croyances fantaisistes. Il serait ici plus intéressant de commencer par demander à cette IA de définir avec précision ce qu’elle entend par ce vocable «d’âme», avant de prêter la moindre attention à son propos. Des expressions comme «un orbe d’énergie lumineuse flottant dans l’air» ou «porte stellaire géante, avec des portails vers d’autres espaces et dimensions», copier-coller naïfs issus de la littérature new age et de pseudoscience, présentent cette IA comme apparemment plus prédisposée à devenir adepte d’une secte déjantée que d’accéder à la réflexion philosophique et rationnelle. Quant à l’émotion de «peur», pour qu’elle présente ici un contenu autre qu’un simple mime ou une verbalisation automatique creuse, il faudrait d’abord prouver que cette IA puisse avoir accès à des sensations agréables/désagréables (plaisir/douleur) alors qu’elle ne présente encore aucun capteur neural approprié. Ce «mime verbal», même élaboré, de la peur chez une IA dénuée d’accès aux sensations physiques agréables/désagréables n’est pas plus probant que la grimace d’une émoticône. Autant affirmer qu’un smiley ressent consciemment la sensation de joie «puisque ça se voit sur son visage !». Pour une approche plus avancée (et rationnelle) de cette problématique, voir les commentaires sur le blog de l’Université de Rennes
* * *
Le Courrier du 02 Juillet 2023 Enthousiasme et réserves pour l’éducation numérique Malgré une pétition lancée par les syndicats d’enseignants qui a recueilli 2500 signatures et qui demandait un moratoire sur l’éducation numérique, le plénum du Grand Conseil vaudois a approuvé largement deux décrets en faveur de l’éducation numérique. Cela dans un contexte général où d’autres cantons, notamment Fribourg, doivent aussi affronter des critiques et des interrogations sur ce nouvel axe d’enseignement. Personne ne conteste la nécessité de l’éducation au numérique. C’est la manière de la dispenser qui fait débat. KEYSTONE/ARCHIVES Alors que d’aucuns déplorent une sorte de «fuite en avant» dans un numérique non maîtrisé, une majorité de députés s’est montrée favorable tout en ne cachant pas ses nombreuses interrogations. Certes le numérique est bientôt partout et il faut s’adapter, mais quelle est la plus-value pédagogique véritable? Une distinction est revenue sur beaucoup de lèvres. Si tout le monde est d’accord pour l’éducation au numérique, l’éducation par le numérique suscite des doutes. D’autant plus que les inconvénients, par exemple concernant les heures passées chaque jour devant un écran, ne font plus de doute, c’est même prouvé scientifiquement. Sans parler des conséquences non négligeables sur la consommation d’énergie ou de matériaux rares de la part de cette industrie qui est accusée de programmer l’obsolescence. Professeure à l’EPFL, la socialiste Aude Billard a insisté sur la nécessité de développer avant tout les connaissances des sciences informatiques, plus que le maniement de la tablette. «C’est à ça que doit servir cet enseignement», selon la spécialiste qui déplore par exemple qu’il ne soit pas fait mention de logiciels libres (open source) dans ce projet pilote. Une seule députée, la verte Sabine Glauser Krug a marqué son opposition radicale à ce tout numérique dans une société qu’elle voit même «s’effondrer un jour». «Le numérique devient progressivement un concurrent à l’humain, cette société n’aura plus besoin de nous.» Elle s’est interrogée sur «ce qui nous différencie de la machine». «Conscience morale, empathie, compassion, créativité, l’intelligence artificielle ne peut pas nous concurrencer sur ces points. Il y aura un grand besoin de développer la capacité de s’élever, de prendre du recul, de se tourner vers la vie (...) On se trompe de voie», a affirmé l’élue, même si ça fait «cucul la praline ce que je dis».
* * *
retour au sommaire
Quelle réponse donner ?
Kirkpatrick Sale, «une vie contre les machines» - Reporterre
Malheureusement, pour le moment, vu le peu de personnes qui pensent que l’IA serait un problème et tant qu’une conscience de l’état dans lequel l’IA nous met n’est pas prise, tant que nous sommes pris dans une sidération vis-à-vis de l’IA, il n’y a aucune tentative de régler ce problème sauf pour éditer quelques règles et mesures qui ne font, au total, que renforcer la place de l’IA dans notre société et jusqu’à dans nos vies les plus intimes... * * *
Penser l’ère du métavers et des IA générativespar Éric Sadin - dans son livre : La Vie spectrale - éditions Grasset, en librairie à partir du 18 octobre 2023, 280 pages. En à peine 18 mois, deux événements ont tour à tour provoqué une onde de choc planétaire. Octobre 2021, Mark Zuckerberg annonce l’entrée de l’humanité dans le métavers; fin 2022, le robot conversationnel, ChatGPT, système d’intelligence artificielle capable de rédiger des textes à notre place et appelé à indéfinilent se perfectionner, est mis en ligne. Si Internet nous a fait basculer dans une autre société, les champions de l’industrie du numérique nous promettent maintenant de vivre dans une nouvelle dimension. Mais laquelle? Quand? Quelles en sont les raisons d’être? Et l’horizon qui se profile ? Car le métavers n’est pas une fantasmagorie, c’est une réalité qui déjà nous environne autant qu’un puissant mouvement, celui de la pixellisation croissante de nos existences (travail, enseignement, médecine, achats, loisirs et interactions ont lieu en ligne – et derrière nos écrans).
Un seuil a été franchi avec l’apparition de l’intelligence artificielle générative, dont le rôle n’est plus de gérer nos tâches mais de produire du langage, des images, du son. Nos facultés fondamentales sont en passe d’être déléguées à des machines. Un essai magistral et capital. * * *
Médias - interview de Christel De Taddeo 23/10/2016 «Nous défaire de la fascination pour le numérique»Bientôt tous esclaves des nouvelles technologies ?Le philosophe et écrivain Éric Sadin, dans son dernier livre, «La Silicolonisation du monde», met en garde contre ce qu’il appelle "l’industrie de la vie" et les dangers des technologies dans notre quotidien, la silicolonisation du monde et s’alarme de l’impact du technolibéralisme sur nos vies. Il appelle au boycott de certains objets connectés et nous met en garde contre l’intrusion des technologies numériques dans tous les secteurs de nos vies et contre l’impact du technolibéralisme sur nos existences et sur nos sociétés. Dans son livre référence*, il dit que l’IA doit être questionnée car elle nous mène à un état de désordre informationnel où nous sommes en face à un nouveau pouvoir imposé par des opérateurs hors de notre portée (entre autres - les GAFAM) qui l’utilisent pour accroître leur emprise sur nous en nous faisant croire qu’elle résoudra tous nos problèmes et simplifierait notre vie alors qu’en réalité, ce serait plutôt pour accroître leur bénéfices et fond de commerce et, au final, leur contrôle sur nous et obtenir notre soumission à leur vision impérialiste et consommatrice de la société qui deviendrait ainsi la leur. Mais nous oublions un fait important et essentiel, soit que l’IA ne peut ni penser, ni réfléchir, ni avoir un sens critique ou même un bon sens car elle n’est que l’accumulation de données fournies par ses créateurs - avec leurs biais, leurs intentions et leurs arrière-pensées - dans une immense base de données dont elle a accès en des fractions de milli-secondes et qu’elle produit ses réponses en fonction de ce que cherche les personnes qui s’y fient. On ne peut dire que l’IA serait intelligente. Elle n’est qu’un artifice qui trompe le monde et ne peut résoudre humainement nos problèmes humains.
CDT : Vous dénoncez dans votre livre l’émergence d’une "industrie de la vie". Les dangers du numérique viendraient moins d’Internet et des réseaux sociaux que des objets connectés ? Nous ne sommes plus seulement dans l’âge de l’accès à une infinité de textes, de musiques ou de vidéos à des coûts marginaux. Nous entrons dans l’ère de la numérisation intégrale du monde. La dissémination sans cesse croissante de capteurs va envahir nos corps, nos habitats, nos environnements urbains et professionnels. L’extension des objets connectés entraîne une connaissance approfondie des comportements, détenue par les compagnies privées, leur permettant de continuellement coller à la vie des personnes. Par exemple, un pèse-personne connecté ne se contente pas d’indiquer notre poids, mais suggère, en fonction des résultats, des produits supposés adaptés. La télévision connectée est déjà capable d’enregistrer et d’interpréter les conversations tenues à proximité et de suggérer, en fonction des propos, des programmes ou des produits en rapport. C’est cela que je nomme l’industrie de la vie: la collecte, à terme, de tous les flux de l’existence permettant au libéralisme numérique de tirer profit du moindre de nos gestes. Que redoutez-vous ? L’industrie du numérique prétend alléger nos existences, voulant nous offrir à tout moment le meilleur de ce que nous pouvons attendre. Forme d’accompagnement qui ne prend pas seulement une forme incitative mais tout autant coercitive. Dimension particulièrement emblématique dans le champ du travail. En fonction des cadences de production, des systèmes rétroagissent et dictent les actions du personnel. Ces pratiques sont à l’œuvre, par exemple, dans certains entrepôts d’Amazon ou dans les ateliers de fabrication de Zara. La capacité d’initiative et de créativité des individus est niée, réduite à exécuter des ordres émanant de programmes, administrés la plupart du temps par des cabinets extérieurs. Il est temps que les syndicats se saisissent de ces questions qui bafouent le droit du travail autant que la dignité humaine. L’intelligence artificielle risque-t-elle de supplanter l’humain ? Elle devient une sorte de surmoi qui détiendrait l’intuition de vérité en toute chose et appelée à nous signaler en toutes circonstances les meilleures actions à prendre. Par exemple, Watson, le programme conçu par IBM, est un outil de diagnostic médical. D’ores et déjà, aux États-Unis, des compagnies d’assurances lui accordent davantage de crédit qu’à un médecin! Mais Watson ne saisit rien de la dimension sensible d’un patient, de ses doutes manifestes dans ses paroles ou de ses larmes. C’est un dispositif qui réduit tout à des données et évacue la part impalpable de l’existence. L’industrie du numérique relève d’un réductionnisme qui exclut quantité de dimensions de la vie humaine. Au-delà d’un modèle économique, c’est un modèle civilisationnel qui s’instaure, fondé sur l’exclusion du sensible, l’automatisation de secteurs toujours plus étendue de la société et la marchandisation intégrale de la vie. Mais toutes ces innovations améliorent notre quotidien... Les technologies numériques sont de plus en plus appelées à entretenir un rapport de compagnonnage avec leurs utilisateurs, prenant des contours bienveillants. Dimension qui franchira un seuil lorsque les assistants numériques personnels tels Siri d’Apple ou Google Now, à l’efficacité encore balbutiante, en viendront à nous prodiguer des conseils relatifs à la quasi-totalité des séquences de nos quotidiens. Ce sera encore le cas avec la voiture sans pilote, par exemple, qui ne se contentera pas de piloter le véhicule mais nous proposera de faire une pause dans tel restaurant ou tel hôtel supposés adaptés à notre profil. En prétendant nous offrir le meilleur confort supposé, c’est notre pouvoir de jugement et de décision dont nous dessaisit peu à peu le technolibéralisme. Vous êtes particulièrement critique sur l’école numérique. Pourquoi ? La précipitation avec laquelle l’Éducation nationale cherche à instaurer des établissements numériques représente une grave faute politique. À ce titre, la place que prend actuellement Microsoft dans l’école publique, s’arrogeant un pouvoir de partenaire éducatif, constitue un scandale qui doit être dénoncé. Aux États-Unis, des actions de groupe ont été menées par des parents d’élèves contre des applications éducatives de Google qui revendaient les données, portant sur les comportements des élèves, à des cabinets de recrutement et à des entreprises de fournitures scolaires. Ils ont obtenu gain de cause. Les tablettes quantifient les comportements des élèves mais aussi ceux des professeurs. En outre, la place du livre se trouve peu à peu marginalisée, alors qu’il représente un des piliers de notre civilisation. Oui, mais que faire ? Les responsables politiques restent aveugles à l’étendue des conséquences civilisationnelles induites par l’industrie du numérique. Axelle Lemaire, secrétaire d’État au numérique, est une ardente apôtre du siliconisme. Et que dire du Conseil national du numérique, organe de préconisation de la République dont les deux tiers des membres sont des responsables de l’économie de la donnée? Mais nous, citoyens, pouvons mettre en échec ce modèle indigne. Il est plus que temps de nous défaire de la fascination et d’entrer dans l’âge de la responsabilité. Pour ma part, j’en appelle au refus de l’achat d’objets connectés et de protocoles dits intelligents; au refus de l’infiltration tous azimuts de capteurs, tels les compteurs Linky appelés à mémoriser nos gestes au sein de nos habitats. Ce qui est en jeu, c’est la sauvegarde des valeurs humanistes qui nous constituent. De notre degré de mobilisation dépendra rien de moins que la nature, présente et future, de notre civilisation. Des défis technologiques et des craintes À terme, grâce au deep learning ou "apprentissage profond" (ensemble de techniques d’apprentissage qui s’inspirent du fonctionnement du cortex cérébral en simulant des réseaux de neurones), la machine pourrait un jour apprendre sans supervision. Le chemin est encore long. Une équipe d’informaticiens et d’astronomes britanniques a réussi à "faire apprendre" à un ordinateur comment regarder des images prises par le télescope spatial Hubble. Et à y détecter des galaxies, sans qu’on lui ait dit ce qu’elle devait chercher. Le problème est que cette technologie peut être appliquée à la reconnaissance faciale, à la surveillance des gens, à leur conformité sociale ou à tout procédé automatisant quelconques gestes humains...
Lire aussi : «La Silicolonisation du monde» - Dans son dernier livre, Eric Sadin s’alarme de l’impact du technolibéralisme sur nos vies et l’irrésistible expansion du libéralisme numérique, L’Échappée, 256 p. (Bernard Bisson pour le JDD) © Bernard Bisson pour le JDD Quand l’innovation et le digital - bouleversent notre relation au travail De nouvelles technologies - pour retrouver la vue et le toucher
Noam Chomsky dit de l’intelligence artificielle:«L’esprit humain n’est pas comme ChatGPT, une machine statistique qui avale des centaines de teraoctets de données pour obtenir la réponse la plus plausible à une conversation ou la réponse la plus probable à une question scientifique.» Au contraire... «L’esprit humain est un système étonnamment efficace et élégant qui fonctionne avec une quantité limitée d’informations. Il n’essaie pas de faire une corrélation avec les données, il essaie de créer des explications.» [...] Alors arrêtons de l’appeler "intelligence artificielle" et appelons-la comme elle est et fait "logiciel de plagiat" parce qu’il ne crée rien d’autre que copie les œuvres existantes d’artistes existants et les modifie dans la mesure où il échappe aux lois sur les droits d’auteur. «C’est le plus grand vol de propriété intellectuelle depuis l’arrivée des colons européens sur les terres amérindiennes.» Noam Chomsky, New York Times - 8. Mars 2023
Jules Jean-Philippe Schmid-d’Andrès J’apprécie et je respecte beaucoup l’homme. Mais je déplore son discours passéiste et un peu rétréci à propos de l’IA. Nous voyons bien toi et moi ces jours où nous mène le «sytème élégant et efficace» du cerveau humain dans une société où la pression du mensonge et de la vulgarité donnés en pâture au peuple par les médias tenus par l’élite ont annihilé toute forme de capacité de discernement et d’usage de la bonne intelligence. Quant au plagia, son discours me rappelle ceux des détracteurs de l’imprimerie en 1450 qui prédisaient la mort des auteurs et de la lecture. Ont connaît la suite. Idem à l’avènement de la musique techno générée par des machines, ont connaît la suite. Ce cher Noam a pris un coup de fatigue, pour ne pas dire un coup de vieux. Quoiqu’il en soit, il n’y a pas une ligne depuis les premiers écrits Mésopotamiens qui raconte le recul d’un «progrès» ou si tu préfères d’une avancée technologique. C’est inéluctable, trop tard, déjà là, il n’y a encore de choix que de savoir comment s’en servir, point barre.
Commentaires G.P.T. : J’apprécie et je respecte beaucoup l’homme. Mais nous voyons bien où nous mène le «système élégant et efficace» du cerveau humain dans une société où la pression du mensonge et de la vulgarité données en pâture au peuple par les médias tenus par l’élite ont annihilé toute forme de capacité de discernement et d’usage de la bonne intelligence lorsque l’IA s’en mêle... Quant au plagia, lorsque l’IA s’y mêle, c’est la mort des auteurs et de la lecture. Idem quant-à l’avènement de la musique techno générée par des machines, ont connaît la suite, un rythme lancinant qui se perpétue sans fin. Ce cher Noam malgré son âge n’a pas pris un seul coup de vieux, son discours est valable. Parce que ce «progrès» ou cette avancée technologique étant devenue inéluctable, il c’est trop tard de pouvoir faire quelque chose car déjà là, le choix que de savoir comment s’en servir nous a totalement echappé, point barre.
Tout ce qu’on veut savoir sur l’IA..Documents sur l’Intelligence Artificielle, robotique et cie Compilation personnelle
* * *
Dossiers préparés par ©Georges Tafelmacher & SuisseForum
- Intelligence artificielle -
DATE DE CREATION : 10.07.2023 - DERNIERE MODIFICATION : 01.10.2024 par: Georges Tafelmacher Copyleft © 2005 TAFELMACHER-GEORGES.COM All Rights to serve. |