Les dessous de l’IA

 

dessus

 

Note du compilateur   G.P.T.

Lorsqu’un professeur ou autre scientifique viennent essayer de justifier ou de glorifier l’IA, il faut toujours se demander ce qu’ils cherchent à nous dire derrière leurs discours. Notamment lorsqu’ils mettent en avant les craintes de plus en plus audibles émises par le grand public et le monde politique en laissant entendre que se sont des réactions émotionnelles et donc subjectives et même non pertinentes. Puis ils s’efforcent de les opposer aux supposés bienfaits de cette technologie qui, selon eux, va pouvoir résoudre le changement climatique, diagnostiquer les maladies, voire sauver des vies.

En réduisant, les craintes des gens à des phénomènes émotionnelles, ils occultent totalement la véritable portée de cette technologie et même lorsqu’ils admettent qu’il faudrait quelques garde-fous pour assurer un emploi de celle-ci qui ne se retournerait pas contre nous, ils savaient très bien que non seulement «il y a du pain sur la planche» mais qu’en plus, leurs vœux ont quelque chose d’un peu utopique sachant que la nature humaine saura passer au-dessus et par dessus de ces mesures et profiter de tous les avantages de toutes sortes que leur procurera l’IA (ou le «machine learning» comme ils le disent pour ne pas trop mettre en évidence la notion même d’intelligence artificielle).

Le fait le plus troublant est qu’ils admettent candidement que certes «il y a tous ces autres usages de l’IA qui font peur»: de la prolifération de robots tueurs, aux trucages informatiques, soit l’utilisation inapproprié de ces systèmes. Le fait reste que derrière leurs exposées, entre les lignes, transpire une sourde inquiétude que leur textes dithyrambiques ne dissipent pas, au contraire, ils les renforcent.

En espérant qu’une communauté d’éclairés s’efforcerait de garantir le respect de certains principes éthiques dans le domaine de l’IA, ils savent très bien que ce ne sont là que des vœux pieux qui ne verront jamais le jour tant que l’homme restera ce qu’il est... avide, intéressé, profiteur, mu par l’argent, le pouvoir, la puissance et la gloire...

Il ne faut pas compter sur l’IA pour résoudre le problème humain mais nous devons plutôt chercher à changer l’homme qui en l’état, semble une tâche herculéenne et, plus grave, même hors de portée de tous ces scientifiques, politiciens et professeurs bonimenteurs obnubilés et fascinés par cette technologie mirifique et tout-puissante...!!

Lisons donc les articles ci-dessous pour se faire une juste idée de ce qu’on essaie de faire par le truchements d’articles complaisants avec l’IA

Conclusion...
À force d’essayer de nous prouver par des textes dithyrambiques que l’IA nous sauvera la mise, ils finiront par nous convaincre de résister autant que possible à cette intrusion dans nos vies, nos sociétés et notre avenir...GPT

Les phrases soulignées indiquent où cela fait problème, toujours sans le dire...

 

 

 

P32 - Sommaire :

  1. article 1   -   la machine généra le verbe   -   Le Courrier du 25.07.2024
  2. article 2   -   La rébellion ou la survie   -   Le Courrier du 02.06.2019
  3. article 3   -   déni de conscience et d’humanisme
  4. article 4   :   du mauvais usage de l’IA
  5. article 5   l’impact de l’IA sur le psychisme
  6. Liens   -   Lire plusieurs pages instructives

 


 

Le Courrier du jeudi 25 juillet 2024

 

Société

 

Et la machine généra le verbe

 

illustration
Midjourney, IA générative spécialisée dans les images, propose sa vision du poème généré par Chat GPT.
MIDJOURNEY V6

 

François Fleuret, professeur à l’université de Genève, revient sur les grandes questions liées au boom de l’intelligence artificielle ces trente dernières années.

 

Louis Viladent

 

Technologies • Certain·es la voient comme un Golem, cet être de la mythologie juive façonné par l’humain pour l’assister, qui fini par acquérir une conscience propre et fatalement par anéantir son créateur. Nous n’en sommes pas là avec l’intelligence artificielle (IA), mais les craintes émises par le grand public et le monde politique se font de plus en plus audibles ces dernières années.

Craintes sans doutes nourries par les applications parfois dystopiques de ces nouvelles technologies, notamment dans le cadre de conflits meurtriers, de campagnes de deepfakes, ou d’intrusions ciblées dans la sphère privée. Des exemples qui, en occupant le devant de la scène, peuvent aussi occulter les profondes révolutions mathématiques et philosophiques portées par ces outils. Il faut dire que le domaine est pointu et le jargon ardu, mais il se peut toujours que l’on tombe sur un expert pédagogue comme François Fleuret pour nous aider à naviguer. Professeur au département des sciences informatiques de l’université de Genève, il est l’auteur du livre "The Little Book of Deep Learning", en libre accès sur internet.

Dans sa bouche on entend peu le terme intelligence artificielle (IA). Trop vaste, et peut-être trop teinté des imprécisions qui lui hérissent le poil. Il préfère parler de machine learning, ou apprentissage automatique en bon français, que le professeur définit comme «la capacité d’un système informatique à apprendre et à s’améliorer automatiquement en s’adaptant à des exemples, et à finalement être capable de résoudre une tâche sans avoir été explicitement programmé à le faire». C’est sans doute sur ce dernier point que l’apprentissage automatique diffère le plus d’un programme informatique classique. «Dans un programme classique, il faut spécifier exactement chaque étape que la machine doit suivre et quelles conditions doivent être remplies pour qu’elle passe à une prochaine étape dans son calcul». Or, avec l’IA (permettons-nous le barbarisme), «c’est la machine qui détermine elle-même les paramètres qui lui permettent d’obtenir le résultat désiré», explique François Fleuret. Par exemple, à partir de radiographies de poumons, on peut demander au programme de détecter des cas de Covid. Pour ce faire, on lui donne des centaines de milliers d’images de poumons infectés et on l’entraîne à repérer les éléments qui déterminent la positivité à la maladie. «Le miracle, c’est quand la machine continue à détecter l’infection avec des images qu’elle n’a jamais vu auparavant», s’émerveille le spécialiste.

 

«Et la machine généra le verbe, ChatGPT ne fait que placer des mots bout à bout de la manière la plus statistiquement cohérente» François Fleuret

 

Homo ex machina ?

 

Une question brûle les lèvres du journaliste sans doute trop candide. Peut-on imaginer qu’un jour, la machine devienne sentiente, c’est-à-dire qu’elle développe la capacité de percevoir de façon subjective son environnement et ses expériences? «Ces notions sont très mal définies, et on comprend déjà mal les mécanismes neurologiques qui y sont liés chez les humains», répond le professeur. Mais ce n’est pas faute d’avoir essayé, ajoute-t-il. «Dès l’invention des ordinateurs dans les années 1950, il y a eu une volonté d’imiter l’intelligence humaine telle que nous la percevons, c’est-à-dire comme un mécanisme assez formel et structuré. Or il s’avère que la majorité des problèmes complexes que résout un cerveau biologique ont une forme très floue et statistique qui est extrêmement difficile à conceptualiser et à programmer.»

À partir des années 1980, les choses évoluent. Différents groupes de recherche s’inspirent des résultats des neurosciences pour concevoir des «réseaux de neurones artificiels» et aboutissent à la fin des années 1980 à des systèmes très efficaces, capables de reconnaître des motifs et de résoudre des problèmes en ajustant les connexions entre des unités de traitement (neurones) à travers l’expérience et l’entraînement. C’est sur cette architecture ultra complexe que repose notamment ChatGPT, un agent conversationnel qui donne l’impression de s’adresser à un humain. Impression seulement, car «le programme ne fait que placer des mots bout à bout de la manière la plus statistiquement cohérente, afin d’imiter les motifs observés dans des quantités gigantesques de textes donnés en exemple», clarifie François Fleuret. Pour la troisième version de ChatGPT par exemple, les données mis à disposition du programme équivalent à 167 fois l’intégralité de la version anglaise de Wikipédia. Toujours pas de pensées intimes et cachées, donc, qui semblent faire d’un humain un humain.

 

Des impacts bien réels

 

Tout cela ne veut bien évidemment pas dire que les impacts de l’IA ne sont pas réels pour l’homo sapiens. Bien au contraire, semble affirmer notre spécialiste. «On voit par exemple qu’une forte automatisation du travail se profile, surtout de métiers jusqu’à présent épargnés par la révolution industrielle, comme l’analyse de données, le graphisme, l’édition, la rédaction.»

D’un point de vue écologique aussi, difficile de ne pas voir l’impact. Pour donner un ordre de grandeur, l’IA consommerait chaque année l’équivalent de 20 millions de kilomètres parcourus en voiture. «C’est un domaine qui demande beaucoup d’énergie, car on transforme toute la complexité du raisonnement humain en milliards de calculs plus simples.»

Un ordinateur grand public peut effectuer de l’ordre de 15'000 milliards de multiplications par seconde, et cela augmente à plusieurs centaines de milliards pour les unités de calculs spécifiquement conçues pour l’intelligence artificielles. Les data centers construits ces dernières années par des entreprises comme Google ou Microsoft peuvent intégrer des centaines de milliers de telles unités. «La capacité de calcul de ces machines est absolument extraordinaire», commente le professeur de l’université de Genève. Leur consommation énergétique aussi. «En revanche, on peut aussi dire qu’un courriel emploi un millionième de l’énergie d’une lettre envoyée par la poste, et qu’un appel en visio permet d’économiser un trajet en voiture», nuance-t-il. Et l’expert de conclure qu’il s’agit d’un choix de société. «Pour reprendre l’exemple des radiographies pour le Covid, on pourrait imaginer un monde où l’on continue de détecter manuellement chaque cas, ce qui demande un travail humain titanesque.»

 

Une communauté pour l’éthique

 

Et puis, il y a tous ces autres usages de l’IA qui font peur: la prolifération de robots tueurs sur les champs de bataille, le trucage presque indétectable de vidéos pornographiques mettant en scène des célébrités. «Toute technologie a un double usage, soupire François Fleuret. Une invention aussi simple et anodine que le velcro, à la seconde où elle a vu le jour, a été utilisée à des fins militaires, pour faire des meilleures bottes et des meilleures sacoches à munition.» Il cite d’autres exemples comme le moteur à explosion, la poudre, les rayons X ou les lasers. Autant de trouvailles qui ont permis à nos sociétés de faire des progrès énormes, mais aussi de s’entretuer plus facilement. «Ces considérations politiques dépassent mon domaine d’expertise», concède le professeur.

Ce qu’il peut dire, en revanche, c’est qu’ «il existe une communauté qui s’efforce de garantir le respect de certains principes éthiques dans le domaine de l’IA». Des personnes travaillent par exemple à ce que les préjugés racistes, sexistes ou violents présents dans une grande partie des données d’apprentissage ne soient pas intégrés dans les systèmes, et veillent de manière plus générale à ce que ces systèmes ne soient pas utilisés de manière inappropriée. Il y a du pain sur la planche. (sic)

 

Commentaire du compilateur
(parole d’artiste certes amateur mais quand même sensible)   G.P.T.

 

Lorsqu’on regarde la composition créée par IA illustrant cet article, on ne peut que s’apercevoir qu’il y a quelque chose d’essentiel qui manque, soit la patte humaine, l’inspiration de l’œil artistique, le sentiment transmis, l’émotion produite, c’est-à-dire, l’essence même d’une œuvre artistique. L’illustration reproduite est certes parfaite techniquement mais, à part ce choix de couleurs sensé être romantique mais trop «glamour» pour toucher nos sensibilités artistiques, on sent trop le côté technique virtuel génératif où à coup de mots clés, une instance se basant sur les milliards de données reçues, recrache une illustration à laquelle nous devrions être touchés mais, en fait, elle reste en-deçà de l’attente de l’observateur qui ne peut se sentir participatif à cette artificialité.

On pourrait même parler d’appropriation culturelle ou de plagiat puisque l’IA ne fait que de puiser dans sa banque de données où sont collectionnées toutes les œuvres de maintes artistes qu’elle peut utiliser à sa guise pour satisfaire les exigences des demandeurs. Il n’y a pas création au sens propre du terme.

 

Conclusion...
Le propre de l’art est de traduire une émotion et non juste de plaire à l’œil...GPT

 

Les lignes sous-lignées mettent le doigt sur le problème

 


 

Le Courrier du dimanche 2 juin 2019

 

Contrechamp

 

La rébellion ou la survie

 

photo
Evgeny Morozov: «On peut imaginer un autre monde, celui de la "technologie de rébellion", qui ne considère pas que les conditions sociales sont gravées dans le marbre pour qu’on les accepte et qu’on s’y adapte au moyen d’outils dernier cri.»
Photo: Le Faucon millenium, «rebel tech» de l’univers Star Wars.FLICKR/CC/ MARCELO BRAGA

 

Le débat sur les géants du numérique reste cantonné à des questions rebattues – efficacité du marché, évasion fiscale, addiction à Internet. Et les programmes visant la «transformation numérique» ne produisent en réalité que très peu de transformation sociale consciente et orientée; encensés par les États, ils consistent «à innover au nom de la conservation».

 

Evgeny Morozov

 

Technologies

 

Tandis que Facebook confesse ses péchés virtuels, promet de devenir un citoyen du village mondial respectueux de la vie privée et semble à deux doigts d’avouer une sévère addiction aux données, les géants du numérique voient soudain leur hégémonie culturelle ébranlée. Ce n’est ni en Europe ni en Amérique latine que cette faiblesse semble la plus flagrante, mais bien dans le pays de la Silicon Valley.

Malgré l’extrême polarisation politique et les guerres commerciales actuelles (1), la droite nationaliste américaine, personnifiée par Donald Trump et ses sorties contre la censure pratiquée par les réseaux sociaux, rejoint la gauche d’Elizabeth Warren et Bernie Sanders en présentant les géants de la technologie comme la plus grande menace visant les Etats-Unis. (2)

Cependant, les magnats de la Silicon Valley ne semblent pas s’en émouvoir. Le fait que Warren Buffet, un grand investisseur américain des plus conservateurs, ait fini par surmonter sa réticence en acquérant des actions d’Amazon en dit long sur l’avenir proche des géants de la technologie: plus d’introductions en Bourse, plus de liquidités provenant d’Arabie saoudite et plus de promesses d’employer l’intelligence artificielle pour remédier aux problèmes causés par l’intelligence artificielle.

Hélas, plus d’un an après le scandale Cambridge Analytica (3), le débat sur les géants de la technologie reste cantonné à des questions rebattues et déjà présentes à son origine: l’efficacité du marché, l’évasion fiscale, les modèles économiques nuisibles qui engendrent délibérément une addiction à Internet. Malgré l’attrait qu’exercent ces questions sur les électeurs, elles ne permettent en rien d’ébaucher un avenir alternatif dans lequel les citoyens pourraient s’attacher à des institutions sociales autres que l’usine et le supermarché.

En dépit de leur convergence apparente sur le sujet, la gauche et la droite sont loin de s’accorder. À l’exception de la plupart des néolibéraux, qui s’en accommodent parfaitement, les détracteurs des géants du numérique situés à droite de l’échiquier politique restent flous sur la manière dont ils voudraient changer la donne, sans parler des raisons qui motivent leur hostilité. Dans la mesure où ces mouvements prônent un retour à une société conservatrice et corporatiste régie par des forces extérieures aux institutions élues, ils trouvent un allié de circonstance dans la Silicon Valley, dont la vaste infrastructure numérique permet d’exercer une gouvernance douce en permanence.

À l’échelle internationale, cette insistance sur la capacité salvatrice des géants du numérique acquiert une dimension supplémentaire, car il s’agit aussi de défendre le développement national. Ce qui amène certains dirigeants populistes à imaginer leur pays en fiefs gérés avec la plus grande efficience par un seigneur des nouvelles technologies. Ainsi, le gouvernement brésilien de M. Bolsonaro a fièrement annoncé (4) qu’il «rêvait» que Google ou Amazon reprenne les services postaux nationaux, en passe d’être privatisés.

La situation critique du Brésil souligne une autre dimension politique de notre dépendance vis-à-vis des géants de la technologie, tout aussi importante bien que moins perceptible: leur propension à pérenniser le statu quo au moyen de solutions révolutionnaires et disruptives. En témoigne notamment la manière dont les technologies numériques sont utilisées pour gérer les problèmes sociaux les plus brûlants.

Au Brésil, par exemple, la recrudescence de la criminalité a donné lieu à un flot d’innovations dans le domaine très en vogue de la «technologie de survie» (en anglais «Survival tech»). Bien souvent, il ne s’agit que d’un recyclage d’outils déjà existants destinés à surveiller la sécurité de rues et de quartiers précis ou à coordonner une réponse conjointe du voisinage.

Ainsi, Waze, la célèbre application de navigation appartenant à Alphabet, informe (5) les automobilistes lorsqu’ils entrent dans un quartier sensible dans des villes comme São Paulo ou Rio de Janeiro (s’appuyant sur des données d’origine pour le moins douteuse). De même, les habitants inquiets de la criminalité dans leur quartier utilisent des outils (6) comme WhatsApp pour partager des informations sur les activités suspectes aux alentours.

Alors que la situation empire au Brésil comme ailleurs, cette technologie de survie, qui permet aux citoyens de faire face à l’adversité sans aucune ambition de transformation sociale, continuera de prospérer. De fait, le boom technologique qui a suivi la crise financière de 2007-2008 peut s’expliquer à travers ce prisme: les sociétés de capital-risque, suivies par les fonds souverains, ont temporairement financé la production massive de technologies de survie à destination de citoyens dépossédés et désabusés.

Bien sûr, personne n’en a parlé en ces termes. Depuis la crise, les débats portent plutôt sur «l’économie du partage» (qui désigne les start-ups aidant les pauvres à survivre en acceptant des emplois précaires ou en louant leurs biens), les «villes intelligentes» (qui abandonnent leur souveraineté technologique à des géants du numérique en échange de services temporairement gratuits), la «Fin tech» (grâce à laquelle des prêts sur salaire nouvelle génération sont accordés en fonction des données personnelles et présentés comme une révolution dans «l’inclusion financière»), et d’autres termes du même genre.

 

Des technologies pour que rien ne change

 

À moins que la conjoncture économique s’améliore – hypothèse peu probable –, les gouvernements maintiendront leur alliance tacite avec l’industrie technologique. C’est le seul moyen de s’assurer que le peuple, de plus en plus exaspéré par les sacrifices fiscaux et comportementaux que l’on exige de lui (voir les «gilets jaunes» (7) bénéficie d’un minimum de sécurité et de prospérité, aussi provisoire et illusoire soit-il. D’où le paradoxe actuel, où 99% des technologies dites «disruptives» ne servent qu’à faire en sorte que rien d’important ne change. La pathologie persiste, mais on se contente de s’y adapter avec des capteurs, des cartes, de l’intelligence artificielle et même, pourquoi pas, de l’informatique quantique. Le véritable évangile des géants du numérique, consacré et encensé par les Etats, consiste à innover au nom de la conservation. Ce genre de programmes visant la «transformation numérique» produisent en réalité très peu de transformation sociale consciente et orientée. Au contraire, ils reposent sur le principe selon lequel les individus et les institutions doivent se plier au monde technologique qui les entoure, et non le transformer.

Les propositions fétiches des progressistes actuels (démanteler les multinationales du numérique ou redistribuer leurs données) résoudront peut-être une partie des problèmes, mais on voit mal comment elles pourraient déstabiliser la technologie de survie. Car après tout, dans le monde alternatif cher aux opposants à la Silicon Valley, où les technologies seraient à taille humaine, cet équipement virtuel peut parfaitement être fourni par des centaines de start-ups, et non exclusivement par Microsoft, Amazon et compagnie.

En revanche, on peut imaginer un autre monde, celui de la «technologie de rébellion» (en anglais «Rebel tech»), qui ne considère pas que les conditions sociales sont gravées dans le marbre pour qu’on les accepte et qu’on s’y adapte au moyen d’outils dernier cri. Elle déploierait des technologies sur mesure afin de modifier, façonner et même contester les conditions sociales établies. Les distinctions entre la technologie de survie et la technologie de rébellion ne sont ni philosophiques ni éternelles; il suffit de mettre en œuvre des politiques intelligentes pour s’approcher de la seconde et s’éloigner de la première. (8)

Casser le monopole des géants du numérique, lutter contre leurs pratiques d’évasion fiscale, faire meilleur usage des données personnelles sont autant de mesures indispensables, mais il faut aller plus loin si l’on veut opérer une véritable transformation sociale (9). Malheureusement, ces revendications progressistes en apparence viennent souvent d’une perspective très conservatrice: tant que le secteur du numérique accepte de jouer le rôle de successeur consacré de l’industrie automobile, pour devenir dans le meilleur des cas un ressort un peu moins polluant de la croissance économique, nous retrouverons le monde confortable et prospère de la social-démocratie des années 1960 et 1970.

Cette vision, aussi séduisante soit-elle, ne sert qu’à masquer l’absence de pensée stratégique chez les forces progressistes qui la défendent. L’ascension des géants de la technologie est une conséquence, non la cause des crises politiques et économiques latentes et on ne les résoudra pas si l’on se contente de se débarrasser des géants du numérique ou d’entraver leurs opérations.

La technologie à taille humaine peut apporter des solutions. Cependant, sans vision d’ensemble et sans projet concret pour se débarrasser de la technologie de survie au profit d’une technologie de rébellion, les forces progressistes n’auront pas grand-chose à dire sur la technologie et moins encore sur la politique contemporaine. La technologie à petite échelle doit voir grand.

 

«Le boom technologique qui a suivi la crise financière de 2007-2008 peut s’expliquer à travers ce prisme: les sociétés de capital-risque, suivies par les fonds souverains, ont temporairement financé la production massive de technologies de survie à destination de citoyens dépossédés et désabusés.»

 

Article paru dans «Silicon Circus – Les blogs du Diplo», traduit de l’anglais par Métissa André.

 

Tiré du - Le Courrier - «La rebellion ou la survie»

 

Notes

 

  1. M. Bulard, «Chine – États-Unis, où s’arrêtera l’escalade?», Le Monde diplomatique, octobre 2018
  2. Lire aussi E. Klinenberg, «Facebook contre les lieux publics», Le Monde diplomatique, avril 2019
  3. F. Pasquale, «Mettre fin au trafic des données personnelles», Le Monde diplomatique, mai 2018
  4. A. Gois, «Governo sonha em vender Correios para uma gigante como Google ou Amazon», Globo, 19.04.2019
  5. L. Velleda, «Alerta de risco de crime do Waze provoca debate sobre preconceito em São Paulo», RBA, 13.03.2019
  6. G. Amendola, Grupo de moradores - «no WhatsApp vigia bairro na zona leste de SP», Couverture O Estado de São Paulo, 24.04.2019
  7. A. Spire, «Aux sources de la colère contre l’impôt», Le Monde diplomatique, décembre 2018
  8. Lire aussi F. Pasquale, art. déjà cité
  9. Lire E. Morozov, «Critique technologique: reprendre l’initiative», «Silicon Circus – «Les blogs du Diplo», 11 mars 2019

 

retour au sommaire

 


 

Source - Journals Open Edition

 

Diverses Réflexions

 

L’IA : déni de conscience et d’humanisme

 

derape

 

Lise VIEIRA

 

Aujourd’hui plus que jamais, l’intelligence artificielle soulève de vifs débats dus en partie à sa fulgurante extension alors que le concept n’est apparu que depuis une soixantaine d’années.

Tout d’abord destiné à seconder l’Homme dans l’avancée de la recherche et dans les tâches au quotidien, cet ensemble d’inventions prend des formes de plus en plus sophistiquées au point de laisser craindre une supplantation. L’IA est-elle l’expression la plus avancée du génie humain et du progrès ou bien est-elle annonciatrice d’un asservissement imminent de l’Homme aux algorithmes et robots de toutes sortes? Quelle est la place de l’Humanisme dans cette évolution ?

L’IA consiste à élaborer des ensembles d’algorithmes, des programmes informatiques capables de réaliser des actions habituellement effectuées par des humains. L’objectif est de doter une machine, un "robot", de fonctions propres au vivant: la mémoire et la rationalité mais aussi la perception et le raisonnement. En simplifiant notre quotidien dans nos environnements personnels ainsi qu’au travail, l’IA qui n’est pas sujette aux contraintes physiques, qui est disponible en continu, peut stocker de grandes quantités de données et remplacer l’homme dans des tâches pénibles ou dangereuses. C’est donc a priori un bienfait pour l’humanité si cet ensemble d’inventions arrive à alléger la charge de travail, à améliorer les performances, voire à favoriser les relations humaines, l’entraide, le lien social.

Cependant, avec le développement incessant des technologies numériques et l’élaboration de nouveaux programmes et de nouvelles fonctionnalités, le doute arrive à poindre.

 

Le revers de la médaille

 

Les nombreux exemples d’usages de l’IA qui vont à l’encontre des libertés et des droits de l’homme sont légions; la surveillance par algorithmes qui traquent le moindre retards les employés d’usine; l’intelligence artificielle qui se substitue aux dirigeants d’entreprise, ce qui amène ce type d’organisation à un état de profonde déshumanisation; des savants fous qui font une démo de puce connectée à portée médicale sur des truies; etc...

 

L’homme pourrait-il garder la main ?

 

Le transhumanisme continue son cheminement. À l’origine, il s’agit d’accroître les capacités physiques et intellectuelles, souvent dans un contexte médical. C’est le cas la puce Neurolink pour les personnes atteintes de handicap physique ou de maladies neurologiques. Toutefois, le caractère intrusif de cette implantation dans le cerveau peut laisser craindre des dérives et des utilisations moins légitimes visant à prendre le contrôle et à enlever tout libre arbitre aux porteurs de la puce.

Les inconvénients réels et potentiels sont dus au rôle prépondérant des algorithmes qui, constitués d’instructions et d’opérations réalisées sur des données, peuvent être détournés. Le risque de piratage est très prégnant et la perte de contrôle des objets (drone, voiture autonome) ou des systèmes d’IA peuvent avoir de lourdes conséquences notamment lors de conflits.

En outre, le fait de «déléguer» aux algorithmes la sélection d’informations ciblées, de publicités sélectives présente aussi de réels dangers de déviance informationnelle, d’autant que les fausses informations (fake news) ne manquent pas de proliférer par effet de répétition et d’amplification.

Cela nécessite donc la mise en place de mesures de sécurité et de vérifications qui ne sont pas toujours aptes à surmonter ces inconvénients. Mais parmi ces derniers, les plus graves sont certainement que ces programmes automatiques pourtant créés par l’Homme, arrivent à lui échapper, à le dépasser et à entraîner des conséquences désastreuses. Les dilemmes sont certes d’ordre moral mais aussi juridique en particulier en ce qui concerne la détermination de la responsabilité de ces dérives.

Les questions majeures qui se posent alors sont de tenter de discerner si les avantages que l’IA représente ne sont pas au détriment du libre arbitre des humains et si la dangereuse porosité des frontières entre l’Homme et la machine n’amène pas finalement cette dernière à le supplanter.

 

La tentation prométhéenne

 

Depuis les temps les plus reculés, il existe cette propension chez les hommes à vouloir se croire tout puissants (Prométhée). Alors que les évolutions de la science ont toujours été marques de progrès, c’est cette prétention qui pose problème, particulièrement lorsque l’invention arrive à échapper à son créateur. «Ce n’est pas certes le progrès de la science qui est dangereux, mais l’utilisation que l’on en fait. Sous prétexte de liberté de la recherche, certains apprentis-sorciers peuvent mettre en danger l’homme lui-même.» (Quoist, 1997 : 145, n. 2)

Devons nous craindre le syndrome de l’Apprenti sorcier? Tant que l’enjeu est une compétition d’échecs face à un ordinateur, les conséquences restent mineures. Mais lorsque des robots arrivent à dominer, voire à se substituer à l’humain, il y a matière à s’alarmer. En 2019 la presse a fait état d’un générateur automatique de texte très performant au point d’inquiéter ses concepteurs eux-mêmes qui ont pris la décision de ne pas le rendre public. Et pourtant, ils l’ont fait et on voit aujourd’hui les conséquences...

 

Donner un sens à l’intelligence artificielle: pour une stratégie nationale et européenne

 

Il est donc primordial pour les scientifiques, les créateurs, les décideurs, les responsables politiques de rester vigilants à tous les niveaux et de prendre en compte les principes fondamentaux de l’éthique. Dans leur rapport public au Gouvernement, Cédric Villani (2018) et ses co-auteurs, tout en soulignant la dimension stratégique de l’IA ont abordé explicitement la question de l’éthique dans le chapitre intitulé «Comment garder la main ?» Jusqu’à quel point l’intelligence artificielle peut-elle remplacer l’Homme sans qu’elle représente une menace en échappant à son contrôle ?

 

NDC - commentaire - Le manque de célérité à répondre à cette question primordiale donne bien la vision d’un futur où l’IA deviendra incontrôlable et agira de son propre gré et à notre détriment. Il sera alors bien trop tard pour prendre des mesures ou de créer des lois, des régles et des règlements pour nous protéger, d’autant plus que l’IA et ses promoteurs auront toujours une longueur d’avance sur nous...

 

L’imitation de l’être humain

 

Les puces miment les neurones : les recherches de pointe en matière d’intelligence artificielle s’inspirent en effet de la nature. IBM a mis au point un microprocesseur capable de s’adapter lorsqu’il rencontre de nouvelles informations, sur le modèle de fonctionnement des synapses du cerveau humain. Les avancées sont telles que certains scientifiques comme Yann LeCun (2019) sont persuadés que les machines vont arriver à une intelligence de niveau humain. Spécialiste du "Deep learning" il est responsable de la recherche en intelligence artificielle chez Facebook (Tual, 2015). L’apprentissage profond, également connu sous le nom de réseaux convolutifs (Vieira, 2015) est utilisé pour comprendre la voix, reconnaître des sons, des caractères, des langages. Il est fondé sur des réseaux de neurones artificiels.

Deep Face, programme de reconnaissance de visage présenté par Facebook en 2014, est fondé sur le deep learning. L’objectif à l’origine était d’améliorer l’adéquation de l’offre aux usagers. Depuis, avec l’apparition en progression constante des Deepfakes12 et de la cohorte de risques de manipulation et de désinformation qu’ils génèrent, le laboratoire FAIR de Facebook travaille sur un programme de désentification. La CNIL (Commission nationale de l’informatique et des libertés), défend depuis 2019 un projet de mise en place d’un cadre législatif concernant la reconnaissance faciale.

Très récemment, une équipe de chercheurs appartenant à plusieurs laboratoires européens a créé artificiellement un génome humain à l’aide de machine learning. Selon les auteurs (Yelmen &al., 2021), ces génomes artificiels permettraient de générer des données génétiques d’humains imaginaires et d’extrapoler les caractéristiques biologiques qui découlent de cet ADN (visage, corps...). Cette réalisation qui reste partielle, est destinée à être investie dans la recherche biomédicale. Alors qu’elles fourniraient une ressource riche pour l’exploration de données et l’avancement des études génétiques, l’accès aux bases de données génétiques réelles est limité afin de sauvegarder la vie privée des personnes. L’utilisation des données artificielles est présentée par les auteurs comme une solution pour faire avancer la recherche tout en préservant la confidentialité. Ces scientifiques demeurent très évasifs sur les éventuelles implications plus larges d’une telle réalisation en matière d’ingénierie génétique, ce qui peut laisser craindre de possibles dérives.

D’autres spécialistes comme Luc Julia l’inventeur de SIRI, avancent que «l’IA n’existe pas». C’est ce qu’il soutient dans une des nombreuses interviews données lors de la parution de son ouvrage portant ce titre. Ce qui est communément appelé IA consiste en « une masse de données et un peu de statistiques», il s’agit d’une modélisation de données. «L’intelligence artificielle n’est que de la reconnaissance. Nous apprenons des choses aux machines, on leur donne des exemples. Elles s’appuient sur la reconnaissance. L’humain utilise également cela mais il a quelque chose en plus : la connaissance. D’où cela vient, est-ce de l’inné, de l’acquis ?

Je n’en sais rien. Mais l’humain a quelque chose en plus.» (Julia, 2019)

 

Liens

  

Référence électronique - Lise VIEIRA, «L’intelligence artificielle : déni de conscience ou nouvel humanisme ?», Communication, technologies et développement - mis en ligne le 15 février 2022 : URL - journals open edition

Arte   -   Les dessous des images IA  -   entièrement été fabriquées par Sora émission du 23/05/2024

Les revers de ’IA   -   déni de conscience et d’humanisme  -   - journal "Open Editions" 11.2021

 

retour au sommaire

 


 

Mauvais usage de l’IA

 

mauvais usage

 

Les individus ordinaires se sentent anxieux face à l’IA et les experts en la matière expriment également leurs inquiétudes. Il y a un sérieux danger que des machines plus intelligentes que nous puissent avoir de motivations autres et prendre le contrôle.

Ainsi, Geoffrey Hinton, souvent considéré comme le "parrain de l’IA", a fait part de ses propres appréhensions : «Ces choses pourraient devenir plus intelligentes que nous et décider de prendre le contrôle, et nous devons nous préoccuper dès maintenant de la manière dont nous pouvons empêcher que cela se produise. J’ai longtemps pensé que nous étions à 30 ou 50 ans de cela. J’estimait à l’ donc que nous étions loin d’une chose dont l’intelligence générale pourrait être supérieure à celle d’un être humain. Aujourd’hui, je pense que nous en sommes beaucoup plus proches, peut-être seulement dans cinq ans.»

Les systèmes d’IA contemporains deviennent maintenant compétitifs sur le plan humain pour les tâches générales posent problèmes et nous ne devons pas laisser les machines inonder les canaux d’information de propagande et de mensonges. De plus en plus d’emplois deviennent automatisés, y compris ceux qui sont gratifiants. Le développement de machines autonomes sans support humain seront un jour plus nombreux, plus intelligents, nous rendant plus obsolètes et donc nous finira par nous remplacer. Les avancées technologiques risqueront de nous faire perdre le contrôle de notre civilisation. Les décisions ne doivent pas être déléguées à des machines technologique mues par des leaders technophiles non élus. Des systèmes d’IA puissants sont en train d’être développés et nous ne sommes même pas certains que leurs effets seront positifs et que leurs risques seront gérables. Ces craintes sont justifiées et augmenteront avec l’ampleur des développements potentiels des systèmes.

 

Il y a déjà bien des exemples de mauvaise utilisation :

  - En 2018, une voiture autonome autopilotée a heurté et tué un piéton.

  - en 2022, des scientifiques ont reconfiguré un système d’IA initialement conçu pour créer des molécules non toxiques et curatives afin de produire des agents de guerre chimique. En modifiant les paramètres du système pour récompenser la toxicité au lieu de la pénaliser, ils ont pu générer rapidement 40’000 molécules potentielles pour la guerre chimique en seulement six heures.

  - en 2023, des chercheurs ont démontré comment GPT-4 pouvait manipuler un travailleur de TaskRabbit pour qu’il effectue une vérification Captcha. Plus récemment, un incident tragique a été rapporté dans lequel une personne s’est suicidée après une conversation troublante avec un chatbot.

  - en 2023, un citoyen belge s’est suicidé après avoir entamé une conversation pendant près de 6 semaines avec un robot conversationnel.

 

Les systèmes d’intelligence artificielle deviennent de plus en plus puissants et nous ne connaissons pas leurs limites. L’utilisation de systèmes d’IA, quelle que soit leur finalité, peut avoir des conséquences négatives. Ces systèmes peuvent être utilisés à des fins malveillantes.

 

Examinons de plus près les différents risques :

 

retour au sommaire

 


 

Source - Gènéthique - publié le 16 Juillet 2018

 

Impact de l’IA sur le psychisme

 

impact

 

Selon le psychiatre Serge Tisseron, docteur en psychologie, co-fondateur en 2013 de l’Institut pour l’Etude des Relations Homme/Robots (IERHR), et depuis 2015, membre de l’Académie des Technologies, les robots dotés d’intelligence artificielle (IA) vont profondément modifier le psychisme humain. Cette évolution se retrouvera dans quatre domaines : notre capacité à différer la satisfaction de nos désirs, notre rapport à la solitude et au discours intérieur, notre mémoire et notre relation à l’espace.

Notre capacité à attendre la satisfaction de nos désirs a déjà été altérée par des objets de la vie courante comme le téléphone, le courriel. Leur utilisation a entamé notre résistance à l’attente relationnelle. Avec les livraisons à venir par drones, nous allons devenir intolérants à l’attente des objets. Enfin, notre degré ultime d’intolérance sera sans doute celui de nos attentes de reconnaissance, nos robots n’étant pas avares de «quantité de félicitations et gentillesses. Dès lors, serons-nous capables de supporter que la société humaine qui nous entoure soit moins aimable avec nous ? Aurons-nous seulement envie de continuer à la fréquenter ?».

En ce qui concerne le rapport à la solitude et au discours intérieur, «nous allons développer une tendance à nous raconter en permanence». Nos machines entretiendront des conversations dans le but de recueillir nos données personnelles. Elles vont changer notre rapport à la solitude, une compagnie pourra aussi bien être une personne qu’une machine. «Que deviendra la possibilité de se tenir à soi-même un discours intérieur – qui est nécessaire à la bonne santé mentale –, sans interlocuteur, lorsque nous serons habitués à en avoir un virtuel à demeure, prêt à nous écouter aussi longtemps que nous le voudrons ?».

 

La mémoire sera aussi touchée : notre smartphone stockera nos données personnelles et les classera à notre place.

  

Les outils de géolocalisation permettront des déplacements dans l’espace sans que nous puissons avoir une réelle compréhension de notre environnement. Quant à la téléportation, si elle «existe un jour dans le monde réel, le psychisme humain le percevra difficilement».

Serge Tisseron explique : «Dans toutes les technologies inventées jusqu’alors, les objets étaient à mon service : je les mettais en route quand j’en avais besoin, comme un chef d’orchestre. Ce qui sera nouveau avec les objets dotés d’IA, c’est qu’ils pourront m’interpeller et me proposer leurs services comme des partenaires à part entière» et c’est précisément là le problème, immixtion de la machine dans le processus mental.

Jusqu’ici, notre santé mentale était bonne selon certains critères : un bon réseau social, une sexualité satisfaisante, un travail à peu près stable... Voilà qu’on a rajouté (sans que nous l’ayons demandé d’ailleurs) notre relation aux objets virtuels comme nouvel élément d’évaluation. Avec la prise en compte «d’une dépendance affective peu saine aux objets». On a déjà détecté des dépendances pathologiques, car «on a beau savoir que ce sont des machines, on ne peut pas s’empêcher de développer avec elles la même relation qu’avec des humains, et croire qu’elles ont des émotions».

Le risque de basculer «de l’anthropomorphisme (je projette mes émotions et mes pensées sur un objet ou un animal, mais je sais qu’il s’agit d’une projection) aux illusions de l’animisme (je prête à l’objet en question des capacités cognitives et émotionnelles identiques aux miennes)» est réel et peut enfermer dans une dépendance affective croissante vis-à-vis de nos robots.

«Il n’y a aucune raison de donner des émotions aux robots, bien au contraire. Si j’étais plus jeune, je créerais un laboratoire d’étude de la psychologie des IA», afin d’étudier la façon dont les «IAs se transformeront au fil des interactions avec les humains et les humains se transformeront au fils des interactions avec les IAs. Et aussi au fil de leurs propres interactions !».

 

Le Monde, Catherine Vincent (13/07/2018), Serge Tisseron : «Les  robots vont modifier la psychologie humaine»

 

*   *   *   *

  

Impact de l’IA sur le psychisme

 

Note du compilateur   G.P.T.

Comment l’IA impacte la santé mentale

La recherche a montré au cours des dernières années que l’IA peut avoir un impact négatif sur la santé mentale en renforçant les systèmes qui tendent à rendre certains consommateurs plus dépendants du produit. De plus, il a été démontré depuis le début de l’IA que les gens peuvent créer des relations très subjectives avec les systèmes.

La réglementation et la normalisation liées à l’application de l’IA en tant qu’algorithme devrait être un premier pas vers la création d’un cadre de protection de la santé mentale. Mais celles-ci, qui sont toujours à l’état de souhaits et de vœux, tardent à être ratifiés par les parlements nationaux et même les instances internationales. De plus, qu’en est-il d’une instance supranationale pour appliquer et renforcer ces règles et ces règles ne seront-elles pas vite dépassées par le progrès fulgurant de la technologie électronique ?

Si l’IA peut faire beaucoup de bonnes choses, on peut aussi en faire un usage malveillant et de la contrôler peut s’avérer très difficile, voire impossible, l’homme étant ce qu’il est. On peut toujours essayer de la réguler mais les différentes conventions déjà mises en place en Europe comme l’«Intelligence Artificial act» – non contraignant – montrent déjà leurs limites.

La recherche va beaucoup plus vite que les politiciens ou la règlementation. Donc, à un moment donné, avant de pondre une Xième réglementation, nous devrions aussi commencer à réfléchir à la direction que l’IA prendra malgré tous les précautions prises et les règlements établis. Pour le moment, on réagit à l’aveugle et les mesures déjà mises en place pour contrer ce qui pourrait se produire à l’avenir seront vite nulles et non avenues car ces mesures auront toujours du retard sur le progrès technologique fulgurant et même totalement non maîtrisé. Ces règlements ne sont que des vœux pieux s’il en est... tout dépend – et de loin – de la bonne volonté des acteurs et surtout de ceux pour qui l’IA représente un intérêt personnel major et qui n’ont aucun intérêt à ce que l’IA soit réglementée.

 

Conclusion...

À force d’essayer de nous prouver par des textes dithyrambiques que l’IA serait notre futur, ils finiront par nous convaincre de résister autant que possible à cette intrusion dans nos vies, nos sociétés et notre avenir...GPT

Les phrases soulignées indiquent où cela fait problème, toujours sans le dire...

 

 

source - Carole Stavart - Mediquality - CLAIRE

 

Comment l’IA impacte la santé mentale ?

 

impact

 

«Nombreuses recherches montrent un lien étroit entre l’addiction aux smartphones, le rétrécissement de la matière grise du cerveau et la démence numérique (1), un terme générique désignant l’apparition de l’anxiété et de la dépression et la détérioration de la mémoire, de la capacité d’attention, de l’estime de soi et du contrôle des impulsions. Ce dernier facteur accroît la dépendance. Un phénomène connu sous le nom de «tick tock brain», explique d’emblée CLAIRE dans une vidéo.

Hannah Lea Dycast, coach systémique, formatrice en pleine conscience et membre de CLAIRE: «La recherche a montré au cours des dernières années que l’IA peut avoir un impact négatif sur la santé mentale en renforçant les systèmes qui tendent à rendre certains consommateurs plus dépendants du produit. De plus, il a été démontré depuis le début de l’IA que les gens peuvent créer des relations très subjectives avec les systèmes», poursuit-elle.

 

Comment les algorithmes de l’IA influencent-ils nos comportements sociaux ?

  

Le système de récompense est un aspect important comme la poussée de dopamine qui l’accompagne, explique la conférencière. «La façon dont nous voulons nous voir représentés ou dont nous voulons obtenir une reconnaissance sociale, puis l’aspect de la reconnaissance physique est quelque chose d’assez important également, comme la façon dont nous nous comparons.»

Nous y sommes également parfois «améliorés», explique Hannah Lea Dycast. «Plusieurs filtres peuvent être appliqués et nous pouvons faire des montages photos. Ce n’est donc pas vraiment réaliste par rapport à la vraie personne. Ces filtres déforment notre personnalité, la façon dont nous nous percevons dans le monde extérieur. Ils créent une sorte de monde parallèle numérique au monde réel. Et cela diminue aussi la façon dont nous nous percevons, notre estime de soi ainsi que notre valeur personnelle. Cela a donc un impact critique sur la façon dont nous nous dépeignons et dont nous nous percevons.»

Ensuite, il y a également la façon dont nous recommandons des produits en ligne, poursuit-elle. «La façon dont nous voyons les produits ou les placements de produits dans le monde numérique et la façon dont nous sommes incités à acheter ces produits et à interagir pour consommer plus. L’impact est donc très large, et il englobe les trois facettes de la récompense, l’aspect de la comparaison sociale et le système de recommandation.»

 

La polarisation est un des autres dangers des algorithmes

  

Elias Fernandez, chercheur en télécommunication et spécialisé en IA (VUB) : «l’objectif des réseaux sociaux est de faire en sorte que les gens s’y investissent le plus possible. Et ils y parviennent de plusieurs manières. L’une d’entre elles consiste à recommander des liens. Nous n’entrons plus en contact uniquement avec des personnes sur la base de nos propres préférences, mais un algorithme nous recommande les personnes avec lesquelles nous devrions nous connecter, ce qui peut en fait créer des liens très uniformes dans ce réseau, des boucles dans lesquelles vous pouvez finir par chercher des informations. Cela crée une polarisation. Vous voyez toujours les mêmes choses et cela peut aussi créer une sorte de réalité parallèle. Cela renforce vos opinions personnelles ou certaines opinions extrêmes. Et cela peut aussi être un peu dangereux.»

Selon Elias Fernandez, il s’agit d’une manipulation très forte. «En particulier en ce qui concerne le type d’information que vous recevez, parce que l’information détermine le comportement, les termes et les opinions. La façon dont les systèmes sont conçus affecte également beaucoup nos choix quotidiens. C’est le cas par exemple dans le choix de la musique si vous utilisez Youtube notamment, mais il existe d’autres situations de la vie dans lesquelles vous donnez un contrôle total. Prenons le cas de Google Maps : du temps où nous choisissions nous-mêmes comment aller quelque part et où nous nous perdions, nous nous arrêtions dans un bar et nous trouvions un nouvel endroit. Aujourd’hui, Google Maps détermine sans que vous n’y pensiez. Vous déléguez complètement. La décision revient à Google Maps. Google peut décider quel itinéraire envoyer aux gens en fonction des entreprises qui ont décidé d’influencer où les gens devraient aller dans une zone précise. Il s’agit d’une manipulation assez forte dont nous sommes complètement inconscients, et je pense que c’est très inquiétant. Il n’y a pas encore beaucoup de recherches sur les façons dont l’IA nous incite à agir», conclut-il.

Il y a quelque temps, un citoyen belge s’est malheureusement suicidé après avoir entamé une conversation pendant près de 6 semaines avec un robot conversationnel. Les chatbots et l’IA générative en général sont-ils vraiment capables de manipuler émotionnellement les utilisateurs de manière délibérée? Et si c’est le cas, quelles sont les préoccupations éthiques autour de cette question ?

Hannah Lea Dykast : «Je pense que les chatbots et ChatGPT peuvent créer un certain désarroi chez certaines personnes qui pourraient imaginer que les développeurs de cette technologie sont plus brillants et plus intelligents qu’eux et donc il faut être assez alertes que pour savoir qu’il ne faut pas laisser une machine penser pour soi.»

«Il faut garder à l’esprit qu’il n’y a pas de véritable compétence derrière tout cela. Tout provient de bases de données, d’exemples dont il s’inspire. Et il n’y a pas de véritable empathie qu’une IA puisse créer, ni de véritables émotions. C’est donc quelque chose que nous devons garder à l’esprit lorsque nous examinons ces systèmes, que nous les comprenons ou que nous interagissons avec eux. Il est important de ne pas humaniser et personnaliser la technologie», insiste-t-elle. «L’IA n’est pas plus qu’un algorithme. Il y a toujours une technologie derrière tout ça, même si d’une certaine manière, elle est mise en œuvre par des humains. Et je pense que la sensibilisation est un aspect très important. Il faut éduquer les gens à ce sujet», conclut-elle.

Carl Mörch, chercheur en psychologie, spécialisé dans l’utilisation de l’IA et des données dans le domaine de la santé mentale et co-président de CLAIRE : «Dans le cas d’Eliza, il est intéressant de noter qu’il s’agit d’un problème relativement nouveau, même si depuis des années, il a été relevé que ces chatbots étaient des outils qui pouvaient être utilisés par des personnes en détresse mentale ou des personnes ayant des vulnérabilités de toutes sortes. Il y a eu en réalité une sorte d’aveuglement volontaire, car la question est très complexe et il n’existe pas de validation clinique de ces systèmes», explique le chercheur.

«D’autre part, il existe une divergence entre les lignes directrices déontologiques très spécifiques que vous devez respecter, et les nouvelles start up qui ne suivent pas forcément les normes strictes sur chaque aspect. Il y a bien des normes ISO, mais dès qu’il s’agit de santé mentale, on voit parfois apparaître des initiatives qui ne respectent pas nécessairement ces normes. Et je pense que cette divergence est réelle et Eliza en est un nouvel exemple», observe-t-il.

Pour Carl Mörch, Il est évident qu’il n’y a pas assez de professionnels de la santé mentale impliqués dans la conception de ces systèmes. «Je pense que c’est parfois par ignorance ou parfois aussi par manque de compréhension de la façon dont ils peuvent contribuer.»

Si l’IA comporte de nombreux dangers en santé mentale, elle représente cependant des avantages dans le domaine de la santé mentale et peut dans de nombreux cas aider les patients et les experts médicaux.

Dr Giovanni Briganti, titulaire de la chaire en IA et Médecine Digitale - UMons : «il existe de nombreuses initiatives qui introduisent l’IA en psychiatrie. Avec celles-ci nous pouvons mieux étudier les troubles mentaux et mieux comprendre ce qu’ils sont.» Il ajoute que «du point de vue de la recherche et de l’enseignement, l’intelligence artificielle a vraiment rationalisé le processus qui permet de passer de la recherche clinique à l’application clinique et aux opportunités commerciales.»

De nombreuses applications permettent de répondre à des besoins, explique le Dr Briganti. "Dans le domaine de la santé mentale, il y a un manque de disponibilité et de main d’œuvre pour la prise en charge des patients. Mais il existe des modèles qui peuvent identifier la bonne voie de traitement pour un patient psychiatrique avec la base de données. Identifier si un patient appartient à l’un ou l’autre phénotype d’un trouble mental lors de son traitement, identifier des modèles personnalisés de l’évolution d’une maladie donnée pour prédire quel sera l’impact d’une variation des symptômes sur l’état mental de celui-ci. C’est bien sûr extrêmement important en psychiatrie, car nous voulons prédire les cas graves, les hospitalisations et l’exclusion de la société dans son ensemble», détaille-t-il.

L’IA permet donc d’’alléger le travail du médecin, explique le Dr Briganti. « De mon côté, je m’efforce de voir mes patients une fois par mois, mais dans les meilleurs cas, je ne peux les voir qu’une fois tous les deux mois. Et pour un patient atteint d’une maladie mentale grave ou même modérée, ce n’est pas suffisant. C’est là que l’IA intervient avec des solutions innovantes, parce qu’elles peuvent m’aider à surveiller la santé de mon patient lorsqu’il n’est pas chez lui, lorsqu’il n’est pas avec moi en consultation ou lorsqu’il n’est pas hospitalisé», poursuit-il. «Nous sommes en train de mettre en place un projet d’horizon complet pour construire un jumeau numérique pour les troubles de la santé mentale.»

«Par ailleurs, nous voyons l’émergence de systèmes qui effectuent par exemple des diagnostics ou des technologies de l’information pouvant indiquer si un patient est susceptible de devenir agressif sur la base de la reconnaissance faciale. Bien entendu, l’éthique de ces systèmes est discutable et doit être examinée», reconnaît-il.

Si une tragédie a eu lieu malheureusement avec Eliza il y a quelques semaines, les applications et les chatbots peuvent dans de nombreux cas aussi aider une personne dans le besoin.

«Combien de personnes peuvent être aidées? Nous ne le saurons jamais», explique le Dr Brigani, «car nous manquons de validation clinique des outils. Cela ne cessera jamais de nous dire que nous avons besoin de toute urgence d’un plan européen pour la validation clinique des solutions d’IA qui arrivent sur le marché et qui traitent les personnes pour la santé mentale.»

«On espère que l’IA pousserait la psychiatrie vers un mieux», conclut Briganti. «Elle devrait nous aider à mieux comprendre les maladies, leur complexité, leur fonctionnement et la façon dont elles se manifestent chez les patients, et à identifier le bon traitement. Tout le monde peut participer à la révolution, mais il faut le faire de la bonne manière et en ciblant les bons cas d’utilisation.» Tout cela est bien beau mais pêche par une certaine naïvété et méconnaissance de la nature même de l’homme, la "bonne manière" des uns étant la "mauvaise manière" des autres...

 

Une réglementation pour cadrer l’IA

 

La réglementation et la normalisation liées à l’application de l’IA en tant qu’algorithme, sont-elles un premier pas vers la création d’un cadre de protection de la santé mentale ?

«Si l’IA peut faire beaucoup de bonnes choses, tout dépend de l’usage que l’on en fait et du contrôle», explique Giovanni Briganti. «Il est donc nécessaire de la réguler et différentes mesures sont déjà mises en place en Europe comme l’Intelligence artificial act» (2).

«Je trouve que la question d’une réglementation de l’IA est difficile», nuance Elias Fernandez, «parce que d’un côté, nous ne voulons pas entraver la recherche. Et il est très difficile de réglementer quelque chose dont nous ne connaissons pas la direction. D’autre part, il est important de mettre en place des freins ou des mécanismes pour empêcher l’utilisation généralisée de certaines applications qui n’ont pas été testées dans un contexte social et qui peuvent avoir un impact néfaste.» Ce discours est contradictoire car on ne peut "freiner ces mécanismes sans entraver la recherche. On pourrait même parler d’un oxymore, soit une contradiction de termes dans une même pensée...!

La recherche va beaucoup plus vite que les politiciens ou la réglementation. Donc, à un moment donné, du point de vue de la réglementation, nous devrions aussi commencer à réfléchir à la direction que cela va prendre, au lieu de réagir, et déjà mettre en place des mesures pour contrer ce qui pourrait se produire à l’avenir sachant que ces mesures auront toujours du retard sur la recherche.
Vœux pieux s’il en est...

 

Notes

 

1. «AI and Mental Health Series» de CLAIRE a eu lieu lors de la semaine européenne de l’Intelligence Artificielle (European AI Week) organisée par le SPF BOSA en collaboration avec les écosystèmes fédéraux (AI4Belgium, Blockchain4Belgium, etc.)

 

2. EU wants to lay down a uniform legal framework for the development, the placing on the market, the putting into service and the use of AI systems in the Union. The problem is the translation in national laws and their enforcement which will be hard to achieve.   Read more here

  

retour au sommaire

 


  

robots humains

 

page compilée par  G.P.T.   -   août 2024

  

page checked by... Valid XHTML 1.0 Transitional