Note du compilateur G.P.T.
Ces papiers ne devraient-ils pas produire un intense questionnement ? Voici des typiques exemples de la manière dont l’IA se substituera à l’humain pour l’améliorer sous le fallacieux prétexte de faire de lui une meilleure personne et lui "faciliter" la vie. Il faut lire entre les lignes et s’on apercevra que derrière cette nouveauté, il y a effectivement la notion de «l’amélioration des capacités sur le plan relationnel ou celui de la santé mentale» de cette humanité défaillante. D’ailleurs, malgré le fait que «ces applications pourraient offrir une plus-value» et même si les programmateurs précisent qu’ils ont mis en place des mesures pour prévenir les mauvaises intentions en faisant très attention, il ne reste pas moins que cette technologie sera employée avec des intentions autres quelques soient les précautions prises et cela dès que l’application sera mise sur le marché car cette technologie pourrait être utilisée comme un outil de surveillance des individus et leur contrôle... entre autre... L’utilisation de l’intelligence artificielle (IA) et de l’apprentissage machine dans les domaines de la science et du génie a le potentiel de transformer radicalement la nature des questionnements et des découvertes scientifiques, ainsi que de générer un large éventail d’avantages et de désavantages sociaux et économiques. Cependant, l’adoption de ces technologies présente également un certain nombre de défis, de risques potentiels et beaucoup de dangers inconnus et insoupçonnés peu ou difficilement maîtrisables.
|
Quelques considérations à la suite de la lecture des papiers au sommaire... par G.P.T. :
Sans tomber dans l’effrayant, on peut quand même se poser quelques questions concernant l’usage réal qui sera fait de cette technologie, ce que cela produira et la société qui en découlera. Certes nous pouvons toujours justifier l’IA par le progrès que cela amènera, ses avantages, ses avancées mais tant que nous n’ayons pas pris en considération tous ses aspects et possibilités, cette technologie risque quand même de nous mettre dans une position difficilement rattrapable, difficilement maîtrisable et même les règlements les plus poussés ne pourront jamais régler toutes les inconvenances issues d’usages inattendus rendus possible avec l’IA qui, malgré tous les efforts pour la positiver, dépassera rapidement nos capacités de la contrôler et de la maîtriser.
Loin de la peur du changement, synonyme d’inconnue, face à cette technologie à variables multiples qui roule si vite, nous sommes en droit de la questionner et d’étudier ses conséquence sur la société et sa population. Certes cela apportera des nouveaux métiers, des nouvelles possibilités mais seulement si nous pouvons maintenir un contrôle certain sur le développement de l’IA, ce qui n’est loin d’être le cas de nos jours où tout va si vite que non seulement une bonne partie des gens se trouveront au bord du chemin et pire, ils auront carrément perdu le sens même de leur existence et leur places dans la société, société qui sera totalement prise en charge par les acteurs et créateurs de cette technologie qui réglera et régira tous les aspects de notre vie.
Je ne peux que constater que personne ne pourra suivre cette technologie dans ses méandres tourmentées, malgré toutes les tentatives pour la positiver, sauf les fanatiques numérisés scotchés derrière leurs écrans...
Car il y a trop d’incertitudes quant aux conséquences de cette technologie sur la société elle-même et le peuple, en tant que tel, ne peut suivre tant les dangers de tout cela sont réels et, surtout, tant que l’homme est ce qu’il est – conquérant, dominant, brutal, égoïste, raciste, discriminant, immature, guerrier, peureux... etc...
Et je doute que l’IA pourrait résoudre ce dilemme là...
Avant de pouvoir changer ou construire quoique ce soit, nous devons d’abord comprendre les tenants et aboutissements de l’obsession numérique actuelle, ce qu’il y a derrière son avènement, comprendre pourquoi elle est devenue si hégémonique puis de débusquer les acteurs à l’œuvre derrière les façades. Certes les scandales se succèdent à un rythme toujours plus soutenu, les ouvriers deviennent toujours plus pauvres, la population toujours plus soumise mais nous devons comprendre que tant que sévissent les "faiseurs d’argent", les "faiseurs d"opinion" et les gurus néolibéraux, nous n’arriverons jamais à rien en voulant juste reformer ou modifier ou humaniser ce système car il est fondé sur ce qui a de pire chez l’homme – son appétit du gain, sa soif de pouvoir et ce besoin irrépressible de diriger les autres et de fomenter des lois visant le contrôle citoyen et social.
Au lieu de d’accepter, contestons !!
L’insistance quasi journalière ourdie par la caste dirigeante politique et économique pour nous persuader d’accepter et d’adhérer à la numérisation de la société sans voir la violence que cela génère ni et le totalitarisme que cela engendre, nous plonge dans un monde où le citoyen lambda perd tout contrôle car il est dépourvu de tout moyen d’actions. Et pourtant la propagande pro-IA qui nous assure que cette numérisation pourrait résoudre la violence, vaincre le totalitarisme et apporter joie et bonheur à tout le monde, nous montre un tout autre visage !
On ne peut que constater qu’on nous jette le progrès technologique à la tête avec une force de persuasion qui dépasse nos capacités de résistance et de réflexion en ne nous laissant d’autres possibilités que celles d’adhérer à cette fuite en avant programmée, de l’accepter car inéluctable, de s’y adapter et d’en faire son programme universel.
Nous devons dénoncer ces «faiseurs d’opinion» qui nous abreuvent de leurs démonstrations impératives visant notre avenir – les soi-disantes technologies du virtuel auraient les pleins pouvoirs pour nous transformer et bouleverser radicalement notre société et cela avec l’appui d’une innovation ayant perdue toute notion de «bien» social. Quotidiennement, on tente de nous persuader du fait que le numérique transformera l’homme pour en faire un être nouveau, qu’il nous augmentera, qu’il nous dotera d’une nouvelle puissance, d’une vie virtuelle intellectuellement surpassée, et qu’avec l’intelligence artificielle, ce serait la révolution des pratiques et du corps social. Et cela sans se demander quelles en seront ses conséquences négatives sur nous tous, sur l’organisation sociale, où leur loi – «s’adapter ou disparaître» – serait inflexible, incontournable et absolue. De plus et plus grave, pour nous persuader que cette supposée évolution est positive, ils ne comptent plus leurs efforts et sont prêts à dépenser des sommes d’argent faramineuses qui pourraient être mieux utilisées pour faire de notre société une construction réellement humaine, citoyenne, coopérative, participative, solidaire, pacifique avec la psychologie et l’empathie comme guide.
Bref, ils veulent transformer l’homme, le renouveler lui et sa nature profonde, ils veulent que nous changeons de dimension avec l’intelligence artificielle, ses implants, ses capteurs, sa capacité de calcul et, par des procédés pour le moins douteux, ils veulent augmenter nos capacités internes et externes et tout cela, en nous faisant croire que les conséquences de cette obsession nous seraient bénéfiques alors que les problèmes de société fruits de cette évolution technologique, dépassent de loin toutes nos craintes et on peut voir jour après jour dans les décharges augmentées de nos arrière-cours, les effets dilatoires de ces procédés.
Comme preuve final, je laisse le mot de la fin à un "digital shaper" – «Un virage historique vient d’être pris, il aura des conséquences encore difficilement imaginables» (sic!). Mais en regardant de plus près autour de soi, nous pouvons faire le constat que ces conséquences seront terribles pour les gens communs et ordinaires finalement largués du processus même de la vie, aliénés de leur vécu propre et de leur propres identités et soumis au pouvoir de ces quelques uns qui se croient maîtres de la vie, de notre société et de nous tous. Et de quel droit font-ils tout cela sinon celui de leur propres intérêts et avantages personnels car, que nous le voulons ou pas, tout ce "renouveau" ressemble terriblement aux tentatives totalitaires du siècle passé qui voulaient «améliorer» l’homme et faire de nous les supposés "sous-hommes", des "hommes nouveaux".
Que chacun cherche en lui-même ses possibilités de bien faire, que chacun se façonne comme il l’entend et qu’on laisse la société avancer comme elle le peut grâce aux efforts de chacun dans un élan de bonne volonté et de solidarité, en prenant en compte ce que nous sommes réellement et en agissant en respectant son prochain sans le pousser dans les affres de la déconnexion mentale et psychique... alors que la réalité virtuelle nous promettrait la connexion universelle et une vie augmentée comme si la vie telle que nous la connaissons serait à proscrire, à rejeter ou à changer impérativement !
Georges P. Tafelmacher - contestateur impénitant
«Le capitalisme de séduction a généralisé la règle du "plaire et toucher": tout est mis en œuvre en permanence pour attirer les consommateurs, les faire rêver, toucher leurs affects.»...Gilles Lipovetsky
Constat : En quelques mois, l’intelligence artificielle accessible à tous s’est imposée à une vitesse folle. Déjà bluffante, la technologie progresse de jour en jour. La machine est inarrêtable.
Bénéfice : Journalisme, illustration, photographie, cinéma ou encore réalisation d’un clip musical: nous avons listé cinq domaines qui pourraient tirer profit de l’IA plutôt que d’en avoir peur.
Astuces : Les images générées par un ordinateur sont bonnes mais pas (encore) parfaites. Attention aux mains, au regard, aux détails. Découvrez nos astuces pour démêler le vrai du faux.
Les outils de cette nouvelle technologie fleurissent à une rapidité folle. En cinéma, journalisme ou photographie, comment les professionnels vivent-ils ces évolutions ?
Chaque semaine, une image générée par l’intelligence artificielle (IA) suscite de vives réactions. Du pape en doudoune Balenciaga à Macron avec les manifestants, en passant par Obama et Merkel qui dégustent une glace sur la plage, l’heure est à l’effroi. Dans son rythme de progression effréné, l’IA pourrait bien saper le concept de copyright, plomber nos métiers ou encore ériger définitivement la «fake news» en reine.
Mais les outils sont bien là et aucun mode d’emploi n’existe pour arrêter la machine. Alors, comment nous, simples humains, pourrions tirer des bénéfices de ces progrès aussi effrayants que fascinants? Nous avons tenté de déceler le positif qui se cache derrière l’IA dans les domaines du journalisme, de la photographie, de l’illustration, du cinéma et de la musique.
Le «journalisme 3.0»
Liens entre journalisme et outils d’intelligence artificielle? «C’était presque une plaisanterie au départ. Maintenant, j’y crois profondément et c’est particulièrement d’actualité», note Alexandre Dufaux, qui travaille pour le groupe Tamedia (éditeur de ce journal). Si bien qu’il publie en mars dernier «Le Guide du journaliste 3.0: l’intelligence artificielle à votre service». Il en est persuadé, l’IA peut considérablement aider les journalistes.
Alexandre Dufaux relève que l’IA peut traduire une interview ou synthétiser un article, car «quand on est très impliqué dans un sujet, c’est souvent difficile et même frustrant de trier les informations que l’on va conserver». L’IA peut s’avérer également utile pour la documentation et la récolte d’une masse d’informations sans pâtir du biais du référencement proposé par Google. «L’IA doit permettre au journaliste d’avoir plus de temps à consacrer à sa créativité.»
Surtout, les journalistes pourraient être accompagnés de ces outils pour le «fact-checking». Et leur rôle de «garde-fou de la fausse information» gagnerait en importance. Le devoir de vérité demeure crucial. Il faudrait édicter des règles et que les journalistes se forment «en apprenant par exemple que si une image générée par l’IA apparaît dans un article puis est repartagée sur les réseaux sociaux, la légende ne suivra pas et donc, les internautes ne pourront pas forcément identifier l’IA».
«Ces outils ne devraient pas être un ennemi mais un allié. Nous devons les apprivoiser et les réguler mais pas en avoir peur car c’est une évolution logique de l’humanité.» Alexandre Dufaux compare ce boom à l’arrivée d’internet. C’était effrayant mais au final, de nombreux métiers ont été créés.
Quels apports pour la photographie ?
Des immeubles en ruine, un soldat en pleurs, une personne âgée qui se recueille, voilà à quoi ressemble le reportage sur la guerre en Ukraine de la photojournaliste vénitienne Barbara Zanon. Mais ces images s’avèrent être le fruit de son imaginaire. Elle a entièrement réalisé ce «reportage» depuis son salon grâce à l’IA. «Mon intention était de montrer aux gens comment l’intelligence artificielle peut nous tromper et combien il est nécessaire d’apprendre à lire les images et les photographies, et à comprendre la différence», rapporte-t-elle à la presse italienne. Le débat est ouvert.
Nicolas Righetti, photographe genevois, a bien voulu partager son avis sur la question. Selon lui, qui s’est rendu à plusieurs reprises dans des pays gouvernés par des dictateurs, ne serait-ce pas une bonne chose de mobiliser l’IA pour parler des zones difficilement accessibles? «Non, il ne faudrait pas l’utiliser dans la presse, car c’est mentir au lecteur qui ne regarde pas toujours les légendes. Je suis allé quatre fois en Corée du Nord et à chaque fois, c’est différent. Il faut vraiment sentir et vivre ce qu’il se passe sur place plutôt que se baser uniquement sur nos représentations.»
Le photographe souligne l’importance de créer une relation pour qu’un portrait suscite l’émotion escomptée. Ce qui ne peut pas se faire avec l’ordinateur. «Il y a encore des failles au niveau du regard avec des outils comme Midjourney. Il y a un aspect bleuté qui donne un côté faux et froid.» Pour l’heure, c’est une bonne nouvelle pour le métier qui semble dès lors difficilement remplaçable. Il y a fort à parier que la photo «réelle» gagnera considérablement en valeur et en intérêt.
«C’est comme avec Instagram, au début, on s’inquiétait de se faire voler nos images et aujourd’hui, on se rend compte que ce n’est pas un problème. Je n’ai pas peur de ces nouvelles technologies dans l’absolu, poursuit-il. Cela pourrait nous aider pour certaines formes de travaux.» Et Nicolas Righetti va même passer le cap pour un projet à venir. Il avait déjà réalisé une série de portraits représentant les métiers rêvés d’enfance d’employés d’une entreprise.
À présent, il entend proposer une deuxième version avec l’IA en accompagnement pour étendre les frontières de son projet. «Je pourrais rajeunir ou vieillir les personnes que je photographie ou encore les placer dans un contexte en lien avec leurs rêves d’enfant.» L’IA semble alors ouvrir des portes pour représenter ce qui semble difficile à photographier, comme des rêves ou autres concepts abstraits.
Un bond dans l’illustration ?
L’illustratrice Louisa Becquelin, alias Louiza, garde l’espoir que les employeurs préféreront toujours mandater des humains plutôt que des machines. «Ça fait peur, car c’est nouveau mais je me dis qu’une fois que tout le monde sera dans le bain, ça ira.» Un optimisme qui veille à ce que l’illustratrice ne se pose pas trop de questions anxiogènes.
«Je préfère me creuser la tête pour réaliser une illustration mais pourquoi ne pas utiliser l’IA dans le futur comme un outil d’accompagnement pour peaufiner le travail, profiter de la rapidité de création, s’inspirer ou pour lui confier des aspects moins intéressants?» Louiza considère que dans son métier, il faut toujours se réinventer comme elle a pu le constater avec l’arrivée des tablettes graphiques ou encore avec le nombre grandissant d’autodidactes. Cette fois-ci, il s’agira de davantage suivre la cadence de la machine pour s’adapter.
L’IA fait son cinéma
«Pour la conceptualisation et la nouveauté, recourir à l’intelligence artificielle pourrait être intéressant dans le monde du cinéma», estime Alex Schuhmann, responsable opérationnel et technique du programme numérique du GIFF (Geneva International Film Festival). Il explique que le gain de temps pourrait s’avérer considérable, tant au niveau de la phase de recherche que de la production. Selon lui, il faudrait que les outils d’intelligence artificielle soient un accompagnement pour réduire les barrières des créatifs aux idées folles. «Comme d’habitude avec les nouvelles technologies, il ne faut pas lutter contre mais plutôt les apprivoiser», souligne-t-il.
En revanche, il considère que si un film est entièrement produit grâce à l’IA, il serait judicieux de créer une catégorie à part entière par souci de transparence. «Personnellement, je trouve qu’il manque encore le côté humain qui va faire que l’œuvre sera incroyable. Si c’est trop parfait, cela donne un aspect bizarre.» Et encore un point positif pour l’humain, qui ne peut pas être entièrement remplacé.
Un clip tout en IA
Réaliser un clip en adéquation avec une musique pop et électro? C’était l’objectif de Grégoire Pasquier, alias Shuttle, qui souhaitait apporter une esthétique psychédélique à son projet de chanson «Daydreamin’». Plutôt doué en informatique, le Fribourgeois se tourne vers l’IA. «Au début, j’étais un peu naïf, pensant que ce serait très facile et rapide. Mais il a fallu dompter et maîtriser toute la technologie. J’ai passé des heures sur des forums et j’ai découvert tout un univers. Générer 2200 images pour un clip, c’est donc faisable mais compliqué.»
Shuttle doit créer un modèle, une base de données d’images locales et éduquer sa machine, notamment à reconnaître son visage. Après deux mois rythmés par des tentatives échouées, beaucoup de patience et de passion, Shuttle arrive au bout de son clip 100% IA.
«J’ai eu mauvaise conscience pour le réalisateur que je n’ai pas engagé mais quand j’ai vu la maîtrise technique que cela demandait, c’est presque un métier en soi.» Bilan? Pour l’heure, le gain de temps n’est pas au rendez-vous. Mais maintenant que le musicien connaît la machine, l’exercice sera plus rapide à l’avenir. En revanche, le gain au niveau du budget n’est pas à négliger. «Je ne compte pas proposer cela à chaque fois, mais uniquement lorsque l’esthétique s’y prête.»
Essais gratuits suspendus
À l’origine, il était possible de tester Midjourney librement sur une vingtaine de séries d’images. Mais depuis le 28 mars, les essais gratuits ont été «temporairement» suspendus. En cause: «de trop nombreux abus», tels que les fausses images de l’arrestation de Donald Trump ou celles du pape François en doudoune blanche.
Pour pouvoir profiter des services de l’IA, il faut désormais opter pour l’un des trois abonnements payants, allant de 10$ à 60$ par mois. Si vous ne souhaitez pas mettre la main à la poche, voici quelques alternatives proposant des essais gratuits: DALL-E 2, Craiyon, NightCafe ou encore Bing Image Creator.
Namya Bourban
DALL-E 2 : Generateur d’images gratuit-IA
Craiyon : Moderateur.com
NightCafe : creator.nightcafe.studio
Bing Image Creator : bing.com/create
L’éditorial
Si l’on positivait face à l’IA ?
Alors que les avancées technologiques poursuivent leur trajectoire exponentielle, il y a un aspect qui ne change pas: la peur du changement, synonyme d’inconnue à variables multiples. D’autant plus lorsque la machine roule si vite. Finira-t-elle par nous conduire droit dans un mur qu’on aurait bien voulu éviter ?
Sans doute n’en avons-nous pas terminé avec les sueurs froides face à l’intelligence artificielle, désormais accessible à tout un chacun. Mais impossible de tirer sur le frein à main.
Alors, tant qu’à faire, autant adoucir notre regard méfiant et prendre le temps de déceler le positif qui se cache derrière l’effrayante mais fascinante IA. Ne pas se contenter de l’angle mort. Et guigner dans le rétroviseur.
La naissance de l’internet: un boom qui a changé la face de l’humanité. Même si l’on regrette l’odeur du papier et les cartes postales des vacances d’été, notre quotidien a été considérablement facilité. Que ce soit pour réserver un hôtel en deux clics, faire de la publicité pour un nouveau projet, enrichir une thèse ou encore prendre connaissance de l’actualité à l’autre bout du monde. Au final, plusieurs métiers et compétences ont été créés. Et ceux qui n’ont pas profité de l’élan ont été laissés sur le bord de la route.
Idem avec l’arrivée des smartphones. Quel sacrilège pour les photographes de constater que n’importe qui peut créer une belle image sans se soucier de la technique. Mais, avec le recul, combien de novices pensent réellement à la lumière, à la stabilité, au cadre, tout en allant plus loin dans leur créativité que la simple photo du plat de salade mêlée ?
Il est peut-être finalement plus sage de voir le réservoir à moitié plein. Sans oublier de réglementer. Histoire de ne pas être tétanisé et de continuer à avancer.
Derrière cette "réalité" omniprésente...! Même les promoteurs de cette technologie commencent à se poser des questions mais en fait c’est pour mieux faire passer le message... ADAPTEZ-VOUS...! Dans ce texte positiviste, on y voit pointer en filigrane tout le problème que pose cette technologie numérique que ses inventeurs n’ont pas su accompagner pour effectivement assurer que cela ne détruira pas le monde entier. Maintenant il nous est demandé de nous adapter à quelque chose d’inadaptable – donc une impossibilité – et nous allons nous trouver aliénés de nos propres ressources alors que le numérique nous promettait un développement harmonieux de notre humanité. La réalité dépasse souvent ces utopies virtuelles et maintenant, nous pouvons voir que l’histoire n’est pas aussi belle que celle que nous proposent les tenants du développement numérique... Note du compilateurG.P.T. |
Lisez plutôt :
L’économie numérique transforme le monde.
Cela creusera davantage les inégalités.
Après deux décennies de progrès, la "4e révolution industrielle" est en marche avec des technologies de pointe, meilleures, moins chères, plus rapides, plus évolutives et plus faciles d’accès que jamais. Elles convergent sur les plateformes numériques et induisent des changements brusques dans de nombreux secteurs. La portée est d’une ampleur inimaginable.
Les pays confrontés à une telle rupture, se voient entraîner dans une polarisation de la société assortie d’une hausse des inégalités. Mais cette rupture sera indolore pour bien du monde.
Le rôle des gouvernements
Il y a un risque sérieux que des milliards de personnes dans les pays en développement restent à l’écart de ce nouveau monde. Les recherches de la Cnuced montrent que de nombreux pays en développement peinent à combler leur retard dans les champs des technologies fondamentales. Dans les plus pauvres d’entre eux, seulement une personne sur six a accès à la Toile.
Mais l’accès à ces technologies n’est qu’un aspect du problème. Le développement exponentiel des technologies de pointe rend la transition qu’elles ont déclenchée plus rapide que par le passé. S’il a fallu des décennies pour que les organisations sociales s’ajustent aux changements économiques liés à la technologie, aujourd’hui l’adaptation doit se faire très vite pour qu’un nouveau contrat social émerge à temps. Des réseaux de protection sociale modernes sont d’autant plus indispensables mais ils restent absents ou fragiles dans de trop nombreux pays.
Les gens devront apprendre tout au long de leur vie pour adapter leurs compétences et ainsi répondre à l’évolution des exigences professionnelles. Ce sera un élément essentiel de tout nouveau contrat social. Il est primordial de développer et d’améliorer les compétences numériques des personnes – en particulier des femmes et des jeunes filles.
Ces défis seront au cœur des débats de la Commission de la science et de la technologie au service du développement (CSTD) – qui se réunit en session annuelle du 14 au 18 mai 2018 à Genève. Accueilli par la Cnuced, cet organe intergouvernemental offre un forum aux gouvernements, qui peuvent ainsi s’engager avec la société civile, le monde universitaire et le secteur privé dans une réflexion globale sur les actions à mener pour s’assurer que le potentiel de la technologie en tant que tremplin pour le développement durable peut être réalisé.
«Demain des algorithmes décideront pour nous. L’Intelligence artificielle gérera notre vie !»...
Bernard Jomard
Résumé par Bernard Jomard : Entrepreneur-Senior "int’l Strategy" – Business Intelligence-Advisor – Futurist – Speaker "GeoEconomy ThinkTanks 10"
Lu dans "Opinion" du 24heures du 15 mai 2018
L’étincelle qui distingue l’homme de la machine
Olivier Delacrétaz - Président de la Ligue vaudoise
L’intelligence artificielle (IA) nous annonce un avenir plein de promesses et tout autant de menaces. Les promesses, c’est la prise en charge de notre quotidien par la montre intelligente, la maison intelligente, la voiture intelligente; c’est la sécurité et la santé, une vie plus longue et sans souffrances; c’est l’épanouissement de toutes nos facultés. Les menaces, c’est la prise de pouvoir et de contrôle par les machines, le chômage par la robotisation, la disparition de la personne autonome.
Pour autant, est-il approprié de parler «d’intelligence» artificielle? Certes, l’ordinateur qui nous remplace dans un nombre croissant d’activités, les machines qui se réparent ou intègrent d’elles-mêmes des procédures nouvelles, sans parler de la voix de Siri, mon assistant numérique, toute l’évolution technique évoque une humanisation progressive de la machine.
Néanmoins, il y a, dans l’intelligence de l’homme, même du plus sot, une étincelle qualitative qui la distingue fondamentalement de celle du plus performant des ordinateurs. C’est l’étincelle naturelle – et spirituelle – qui s’éveillait déjà dans la cervelle osseuse de l’homme de Cro-Magnon, qui ouvrait son regard sur l’univers entier et qui s’obstine à briller en chacun d’entre nous. L’intelligence artificielle de la machine, quant à elle, n’est que le reflet de l’étincelle qui éclaira son inventeur.
L’intelligence de l’homme réside dans sa capacité d’établir une relation adéquate entre un objet particulier, quel qu’il soit, et la vérité. Le jugement ainsi posé n’est pas la résultante mécanique de causes antérieures. Il échappe, au moins partiellement, au jeu binaire des "oui/non" de l’ordinateur. Il est libre et toujours renouvelé. Au sens strict, ce jugement ne serait complet qu’en intégrant tout ce qui touche à son objet, si lointainement que ce soit. C’est dire qu’il faut à l’homme beaucoup de peine et de temps pour former un jugement imparfait. La machine ne fait pas tant d’histoires. Ses jugements et décisions sont immédiats et sans appel (sic!).
Ne nous en prenons pas à la machine, dont les neurones numériques sont des plus utiles dans les statistiques, la production industrielle, la recherche aux limites des sciences dures, etc. Mais ses compétences sont plus lacunaires au fur et à mesure que le domaine traité s’élève. En matière économique, sociale ou politique, par exemple, elle néglige des données humaines capitales, mais non quantifiables, que l’intelligence naturelle, nourrie d’expérience, intègre spontanément.
Notre tentation, qui procède du désir de confort, mais aussi de la fascination pour le dieu abstrait et conquérant de l’IA, est de négliger l’étincelle de l’intelligence humaine, de préférer, à notre jugement libre et faillible, la trompeusement exacte numérisation du réel.
En résumé, globalement demain ce sont les machines qui décideront pour nous dans ce monde «infobèse». La machine gérera certaines de nos tâches quotidiennes et nous serons guidés et conditionnés par les suggestions des algorithmes, vraisemblablement.
O.C.
«L’intelligence de l’homme réside dans sa capacité d’établir une relation adéquate entre un objet particulier, quel qu’il soit, et la vérité.»
Olivier Delacrétaz
Paru dans "Le Courrier" du mercredi 13 juin 2018
Alexandre Chollier – enseignant et géographe
Revenant sur l’article «Twitter, le thermomètre de l’humanité» (Le Courrier du 7 juin) qui traitait de l’épidémiologie numérique, Alexandre Chollier interroge l’utilisation de l’intelligence artificielle.
Plus rien ne semble résister à l’intelligence artificielle et aux algorithmes qui en sont le visage, ou plutòt le cœur, un cœur en vérité bien mal connu. Semaine après semaine, nous apprenons que de nouvelles applications tirent profit de la masse sans cesse grandissante de données collectées, à notre insu ou non. En cela, la lecture de l’article «Twitter, le thermomètre de l’humanité» ne nous apprend rien de fondamentalement nouveau. Mais, en abordant le développement de ce phénomène dans un domaine particulier, celui de l’épidémiologie, il nous permet – bien que de façon incidente – de saisir les enjeux cachés de cette révolution en cours...
Lire plus : l’intelligence artificielle – et son utilisation...!
RTS Info "Science-Tech" du samedi 22 avril 2023
La fausse chanson qui utilise les voix des artistes Drake et The Weeknd, générées par une intelligence artificielle, pose la question du respect des droits d’auteur. Intitulée "Heart On My Sleeve", la chanson postée sur TikTok par Ghostwriter997 a généré 10 millions de vues.
Universal Music Group, la maison de disques des deux artistes, a ensuite obtenu le retrait en ligne des contenus en invoquant une violation du droit d’auteur. En effet, ni Drake ni The Weeknd n’ont participé à l’enregistrement de ce titre. «Pour qu’il y ait création, il faut une intervention de la personne.«
Pour Vanessa Bouchara, avocate spécialiste en propriété intellectuelle interrogée dans La Matinale de la RTS jeudi, pour qu’une oeuvre, en France comme en Suisse, puisse faire l’objet d’une protection par le droit d’auteur, elle doit être une création de l’esprit, une création humaine. «Pour qu’il y ait création, il faut une intervention de la personne dans le processus de création. C’est le critère. Que l’humain soit intervenu pour arriver à mettre l’empreinte de sa personnalité, à mettre une connotation spéciale. Si l’oeuvre est uniquement créée par l’intelligence artificielle, il n’y a pas cette empreinte.»
Une créativité qui doit évoluer
Mais malgré ces questions qui touchent aux droits d’auteur voire même à la protection de la personnalité, Vanessa Bouchara estime que l’utilisation de l’intelligence artificielle ne risque pas de tuer la créativité. Elle l’a fait évoluer. "On passe d’une créativité qui était autocentrée, où on allait chercher ses inspirations soi-même sur la base de son propre vécu, à une créativité qui est à la fois externalisée et à la fois recentrée.»
Dans tous les cas, avec des outils technologiques de plus en plus performants, la créativité sera de plus en plus assistée.
Miruna Coca-Cozma/lan
RTS InfraRouge du mercredi 05 avril 2023
Écoutons surtout ce que dit le Dr. Bertrand Kiefer qui remet les pendules à l’heure...
Note du compilateurG.P.T.
À peine le premier article positif sur l’IA sorti, le «24heures» nous sort un article qui se pose enfin des questions...
|
À la «Une» du "24heures" du lundi 24 avril 2023...
Intelligence artificielle : La Suisse trop petite pour agir? Les autorités fédérales estiment qu’il est difficile de cadrer l’usage de cette nouvelle technologie. Ils s’en remettent aux conditions fixées par l’Europe.
Critiques : Interdire ChatGPT: c’est ce que prône le conseiller national PLR vaudois Olivier Feller. «Nous avons déjà de la peine à encadrer les fake news, là nous avons une machine à produire du faux.»
Précautions : Début avril, la Suisse a recommandé aux citoyens de ne pas transmettre leurs données personnelles aux applications d’intelligence artificielle.
Intelligence artificielle
Notre pays préfère laisser l’initiative à nos voisins qui enquêtent, voire interdisent le chatbot. À Berne, certains demandent une action rapide.
Julien Culet
Faut-il prendre des mesures contre ChatGPT? La France et l’Espagne enquêtent sur le site de chatbot, l’Union européenne (UE) prépare une législation et l’Italie a même décidé de l’interdire. Alors que l’Allemagne songe à une telle mesure drastique, la Suisse a pris la décision de ne pas bouger. Les services du préposé fédéral à la protection des données indiquent que notre pays seul peut difficilement agir sur une telle technologie.
D’après eux, «les fabricants et les fournisseurs d’applications d’intelligence artificielle (IA) les plus puissants devraient être nettement plus disposés à s’adapter aux conditions-cadres de l’UE, et à rester ainsi présents sur son marché, qu’à s’adapter aux prescriptions légales de certains États dont le marché intérieur est relativement petit, comme la Suisse par exemple». Ainsi, face à cela, ils estiment que «la politique suisse est peu encline à promouvoir une législation-cadre générale sur l’IA à l’heure actuelle».
Début avril, Berne a recommandé aux citoyens de ne pas transmettre de données personnelles aux applications d’intelligence artificielle. Par ailleurs, le préposé fédéral Adrian Lobsiger doit s’entretenir prochainement avec son homologue italien. Il a également «pris contact avec les responsables de la protection des données d’entreprises suisses de secteurs sensibles qui utilisent l’intelligence artificielle pour la gestion des besoins d’informations de leur clientèle».
Manque de moyens
Spécialiste en droit relatif aux nouvelles technologies, l’avocat genevois Nicolas Capt rappelle que notre pays est «peu régulateur et assez attentiste» dans ce domaine. «Nous n’avons pas une réputation de locomotive en matière de nouvelles technologies. On le voit avec la révision de la loi sur la protection des données, qui entrera en vigueur en septembre, rappelle-t-il. Nous sommes assez suiveurs. Nous laissons les autres prendre des décisions et nous nous y rallions.»
Il ajoute toutefois qu’il y a un vrai manque de fonds alloués à ce secteur. «Nous sommes bien conscients que les moyens alloués au préposé fédéral à la protection des données sont incomparables à ceux dont dispose la CNIL (ndlr: Commission nationale de l’informatique et des libertés), en France, relativise Me Nicolas Capt. Il pourrait se lancer tête baissée, mais quelle serait la valeur ajoutée de son enquête quand on sait le peu de moyens qu’il a à sa disposition ?»
L’avocat y voit aussi l’expression du libéralisme économique de notre pays, peu enclin à intervenir. Étonnamment, c’est au PLR que l’on trouve une voix opposée à l’activité du chatbot. «Cela semble être une position bien peu libérale, mais j’estime qu’il faudrait interdire ChatGPT, affirme le conseiller national vaudois Olivier Feller. Cela va prendre des années pour enquêter et réguler ce système et, pendant ce temps, des dégâts considérables vont être causés au savoir et à la vérité.»
Réguler ou interdire ?
L’élu vaudois dit ne pas voir d’intérêt à ce chatbot. Au contraire. «La difficulté est de distinguer le vrai du faux. Nous avons déjà de la peine à encadrer les fake news sur les réseaux sociaux et là, nous avons une machine à produire du faux», critique-t-il. Olivier Feller juge qu’il ne faut surtout pas être attentiste en la matière. Il entend jouer un rôle dans cette lutte et intervenir dans ce sens au parlement.
Des textes, son homologue socialiste Samuel Bendahan en a déposé plusieurs et veut continuer à le faire. L’un d’eux est une interpellation rédigée avec ChatGPT lui-même. Elle interroge le Conseil fédéral sur ce qu’il compte faire pour protéger la vie privée des citoyens et questionne l’utilisation éthique du système. S’il ne veut pas l’interdire, l’élu veut en tout cas le réguler. En effet, d’après lui, cette technologie est utile mais elle ne doit pas rester en mains de quelques personnes au détriment des autres. D’après le conseiller national vaudois, «on ne sait pas comment marche ChatGPT, quels sont ses biais et qui le contrôle».
Samuel Bendahan trouve l’attentisme suisse insuffisant. Il réclame la création d’un centre de compétence dédié. «Le champ d’action du préposé fédéral à la protection des données n’est pas assez étendu pour traiter toutes les problématiques liées aux IA», regrette-t-il. Si la Suisse est en retard en matière de nouvelles technologies, il estime que c’est parce que les élus ne savent pas forcément comment elles marchent et, «plus grave, qu’il y a une volonté de ne pas réguler par pure idéologie, par haine de la régulation pure. Or il est dangereux de ne rien faire et de laisser le privé agir de lui-même.»
J C
Note du compilateurG.P.T. L’IA est porteuse d’innombrables possibilités, mais elle s’accompagne également de risques graves qu’on ne saurait négliger.
|
Couleur 3 a proposé une journée concoctée par l’intelligence artificielle. Si le résultat est «bluffant», les animateurs ne sont pas près d’être remplacés.
David Genillard
Antoine Multone – le vrai, en chair et en os – se dit «ravi». Pour le chef d’antenne de Couleur 3, l’opération concoctée par la radio est un carton. Elle proposait ce jeudi sur ses ondes, tout au long de la journée, des contenus exclusivement créés à l’aide d’outils d’intelligence artificielle (IA). Les voix des animateurs sont clonées, les interlocuteurs interviewés inventés de toutes pièces, la programmation par le choix de «bots», les pubs vantent avec humour les mérites de nouvelles applications Même la musique diffusée a été composée par l’IA. Les flashes info «sérieux» ont été retirés de la grille, au profit de nouvelles décalées et improbables.
Couleur 3 est-elle passée «sous le contrôle de l’IA», comme martelé toutes les 20 minutes ce jeudi? L’expérience prépare-t-elle le terrain à de nouvelles économies? «À Couleur 3, on n’est pas du genre à inviter des dizaines d’experts, on préfère tester les choses, explique Antoine Multone.
L’idée était de créer le débat, jamais de démontrer que l’IA peut faire notre travail. Le jour où on en arrivera là pour des questions uniquement économiques, je serai extrêmement triste.»
Qu’il soit rassuré, les auditeurs ne sont pas prêts à se passer d’humains: «On a reçu plus de quatre messages par minute! Leur contenu est unanime: le résultat est bluffant, mais rendez-nous nos animateurs. C’est exactement ce que nous voulions démontrer avec cette journée.»
Si la suggestion a suscité quelques réticences initiales au sein de la rédaction, celle-ci s’est attelée à la tâche, parfois complexe. «On aurait pu décider de saboter le travail afin de démontrer que l’IA ne pourra pas nous remplacer, explique l’animateur Yann Zitouni. Ça n’a pas été le cas: nous nous sommes vraiment efforcés de créer le meilleur résultat possible.»
Qui n’est du reste pas à son goût: «Je me suis arraché les cheveux pendant des heures avec ChatGPT pour préparer les contenus pour un rendu final assez pathétique. Les annoncés de chansons ont tout le temps la même construction de phrases et ressemblent à l’image qu’on pourrait avoir d’une radio FM des années 1980.»
L’équipe a notamment buté sur une difficulté de taille en préparant la journée: insuffler à des robots le ton impertinent de Couleur 3. Antoine Multone en tire d’ailleurs de la fierté: «On a des personnalités fortes, pas formatées.» Et Yann Zitouni d’ajouter: «On arrive à imiter la voix de Duja (ndlr: l’animateur Patrick Dujany), mais ce n’est pas Duja. Ce côté décalé fait d’ailleurs partie de l’ADN de Couleur 3. Je pense qu’on risque d’être les derniers à se faire rattraper par l’IA.»
La préparation de la journée n’a, du reste, pas constitué un gain de temps pour la rédaction: «Au contraire, elle a demandé un temps fou, bien plus qu’une programmation normale. Tous les contenus ont par exemple été vérifiés par des humains», précise le chef d’antenne. L’avantage économique ne saute donc pas encore aux yeux.
Mais Antoine Multone reste convaincu que le monde des médias devra composer avec cette nouvelle donne: «Nous sommes comme les moines copistes face à l’invention de l’imprimerie: soit on attend de disparaître, soit on apprend à utiliser une presse. On peut avoir deux attitudes à leur égard: faire comme s’ils n’existaient pas ou maîtriser leur fonctionnement pour voir ce qu’ils peuvent apporter au contraire là où il faut poser des limites.»
Le choix de confier la programmation à l’intelligence artificielle intrigue et questionne. Directeur de la RTS, Pascal Crittin défend ce choix.
Pascal Crittin, quel bilan tirez-vous de l’expérience ?
Je suis fier que nous l’ayons tentée. Il fallait le faire, si on veut avoir un vrai débat de fond sur l’intelligence artificielle. Tout le monde en parle, mais pas toujours en connaissance de cause.
La pression est de plus en plus forte sur les médias. Cette opération vous permet-elle d’entrevoir de nouvelles économies ?
Au contraire, elle me conforte dans l’idée qu’on ne se passera pas des humains. L’intelligence artificielle effraie, mais nous l’utilisons déjà: dans le traitement de nos archives, la retranscription d’audios et la gestion de sous-titres par exemple. Ces outils permettent de donner plus de temps aux journalistes pour mettre en perspective des sujets et créer des contenus à haute valeur ajoutée.
En fabriquant des interviews et des interlocuteurs, est-ce qu’on ne décrédibilise pas le travail journalistique ?
Les flashs info ont été faits sur le ton de Couleur 3, avec le 2e degré qui est le sien et des voix d’humoristes. Les vrais flashs info ont été retirés de l’expérimentation pour ne pas tromper le public et banaliser le métier de journaliste, qui reste irremplaçable. Avec l’IA, nous devons être toujours plus stricts sur le respect des règles déontologiques. Nous devons être transparents et obéir à des valeurs éthiques fortes pour faire en sorte de garder la confiance du public. C’est vrai dans notre profession, mais pas uniquement: l’intelligence artificielle ne va pas disparaître. L’enseignement de l’éthique va donc devenir toujours plus important pour la société en général. Les machines ne sont pas diaboliques, c’est l’usage qu’on en fait qui peut le devenir.
DGE
Anouch Seydtaghia
Ce lundi, le New York Times donne la parole à Geoffrey Hinton, l’un des pionniers de l’intelligence artificielle. En 2012, Geoffrey Hinton et deux de ses étudiants de l’université de Toronto avaient créé une technologie qui est devenue le fondement des systèmes d’intelligence artificielle. Pour sa première apparition publique depuis son départ de Google, Geoffrey Hinton, pionnier de l’intelligence artificielle moderne, a détaillé mercredi ses inquiétudes face aux progrès rapides des nouveaux modèles d’IA comme GPT-4. Le chercheur a joué un rôle crucial dans le développement des réseaux de neurones artificiels. Sans les travaux de celui-ci, des outils comme ChatGPT, Bard ou Midjourney n’auraient sans doute pas vu le jour.
La nouvelle a fait grand bruit dans le petit monde de l’intelligence artificielle. Lundi 1er mai, dans une interview au «New York Times», Geoffrey Hinton a annoncé son départ de Google, où il occupait depuis 2013 le poste d’ingénieur en chef. Professeur émérite à l’université de Toronto, ce chercheur de 75 ans est souvent qualifié de «père fondateur de l’intelligence artificielle», car ses travaux sur les réseaux de neurones et l’apprentissage automatique profond («deep learning») ont révolutionné la discipline à partir des années 2000. Cinq ans après avoir été récompensé par le prix Turing, équivalent du Nobel pour l’informatique, aux côtés de deux de ses confrères, le Français Yann Le Cun et le Canadien Yoshua Bengio, Geoffrey Hinton ne cache plus ses inquiétudes face aux derniers progrès de l’intelligence artificielle, et en particulier des grands modèles de langue («large language models») comme GPT-4 d’OpenAI. «Je suis parti pour pouvoir parler des dangers de l’IA sans que cela ait un impact pour Google», avait précisé le chercheur dans un tweet après l’annonce de son départ.
Désormais, les perspectives d’avenir de l’IA sont «plutôt effrayantes» pour les humains, a également déclaré le scientifique sur la BBC, la chaîne publique britannique. «Pour le moment, elles ne sont pas plus intelligentes que nous, pour ce que j’en sais. Mais je pense qu’elles pourront bientôt l’être», poursuit-il. En l’état actuel des choses, ses craintes portent sur la création massive de vidéos, photos et articles fallacieux sur Internet. Il redoute ainsi que «les gens normaux ne puissent plus distinguer le vrai du faux».
Concert de critiques envers l’IA
Le scientifique s’inquiète également du perfectionnement de ces technologies et appréhende qu’elles tombent entre de mauvaises mains. Auprès du New York Times, il redoute l’arrivée dévastatrice d’armes autonomes, comme des robots tueurs. A la BBC, il dit anticiper des scénarios «cauchemardesques» si une puissance conquérante comme la Russie de Vladimir Poutine avait accès à des versions améliorées des technologies actuelles. Ses critiques rejoignent celles d’autres spécialistes de l’IA. Au début du mois d’avril, une lettre ouverte signée par un millier d’experts demandait une pause de six mois sur les recherches en cours afin d’élaborer des régulations pour ces logiciels, jugés «dangereux pour l’humanité». Elle était notamment signée par Yoshua Bengio ou Elon Musk, PDG de Tesla et cofondateur d’OpenAI.
Aujourd’hui, l’expert, qui vient de quitter ses fonctions chez Google, affiche ses regrets sur les développements négatifs de l’IA. «Je me console avec l’excuse habituelle: si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait», dit-il. Sa préoccupation immédiate est qu’Internet soit inondé de fausses photos, vidéos et textes, et que le citoyen moyen «ne soit plus capable de savoir ce qui est vrai».
Geoffrey Hinton voit plus loin: «L’idée que ce matériel puisse devenir plus intelligent que les gens, quelques personnes l’ont crue», a-t-il déclaré. «Mais la plupart des gens pensaient que c’était une erreur. Et je pensais que c’était loin d’être le cas. Je pensais que c’était dans 30 à 50 ans, voire plus. Évidemment, je ne pense plus cela aujourd’hui.» L’ingénieur craint également que les technologies de l’IA ne bouleversent à terme le marché du travail. Aujourd’hui, les chatbots comme ChatGPT tendent à aider les travailleurs humains, mais ils pourraient remplacer les assistants juridiques, les assistants personnels, les traducteurs et d’autres personnes qui s’occupent de tâches routinières. «Ils éliminent les tâches fastidieuses», a-t-il déclaré. «Il se peut qu’ils enlèvent plus que cela», a-t-il ajouté.
L’article du New York Times est à lire ici
Note du compilateurG.P.T. Ci-dessous, typique exemple de la façon dont l’IA cherche a se substitué à ce qui devrait rester une pérogative de l’humain pour déceler chez lui ce qui ne va pas. Sous prétexte de détecter l’état d’une personne, cette application fera un travail de détection à sa place et réduira à néant la perception de lui-même que la personne devrait acquérir par et pour elle-même en prenant conscience de ce qui se passe dans son corps et son mentale. Il faut lire l’article ci-dessous entre ses lignes pour s’apercevoir ce qu’il y a derrière cette application et effectivement il y a la notion de «l’amélioration de leurs capacités sur le plan relationnel ou celui de la santé mentale» – soit un programme quasi "eugéniste" – ce qui sous-entend une meilleure productivité de la part de l’employé. D’ailleurs, l’article précise bien que «ce travail pourrait offrir une plus-value aux entreprises» et même si les programmateurs ajoutent, comme pour se disculper, que «notre technologie pourrait être utilisée comme un outil de surveillance des individus et c’est pourquoi nous avons mis en place des mesures pour prévenir de mauvaises intentions et faisons très attention dans la sélection de nos clients», il ne reste pas moins que cette technologie sera employée avec des intentions autre que celles prévues quelques soient les précautions prises et cela dès que l’application sera mise sur le marché...
|
24heures du lundi 15 mai 2023
La toute jeune start-up née à l’EPFL prend soin des employés et veille à ne pas voir sa technologie détournée.
Détecter les premiers signes d’épuisement professionnel lors d’une simple visioconférence: c’est ce que propose Virtuosis, une start-up née à l’EPFL. La démarche de la toute jeune entreprise est assez innovante car, plutôt que de viser la productivité à tout prix, elle s’intéresse à la santé mentale des collaborateurs, ainsi qu’à l’amélioration de leurs capacités de communication. Tout cela se fait au moyen de l’intelligence artificielle (IA), qui interprète une quantité de paramètres rien qu’au travers de la voix.
Le projet est né de la thèse de Lara Gervaise, qui manifeste une certaine sensibilité vis-à-vis de l’intelligence artificielle. «On peut craindre que l’IA vienne remplacer l’humain dans certaines activités, dit la cofondatrice de Virtuosis. Nous voulons, au contraire, utiliser l’IA pour permettre aux humains de s’améliorer, que ce soit sur le plan relationnel ou celui de la santé mentale.»
La jeune pousse propose pour le moment d’attribuer un score aux employés participant à une visioconférence. Celui-ci est établi en analysant des paramètres tels que l’anxiété, le bonheur, le stress ou encore la colère. Comment les algorithmes arrivent-ils à ce résultat? Par le biais d’une vaste base de données d’entretiens disponibles à l’adresse des chercheurs. Lara Gervaise a consolidé le résultat de ses analyses en procédant à des entretiens, dont les enregistrements ont été analysés par des professionnels de la santé mentale.
Plus-value
Le résultat de ce travail pourrait offrir une plus-value aux entreprises. «Cette solution peut participer à limiter le turn-over, grâce à la prévention des burn-out, dit Lara Gervaise. Cette fonctionnalité n’est pas encore implémentée, mais c’est un travail qui est en cours.» En effet, les paramètres analysés - anxiété, bonheur, stress et colère - font partie de l’équation menant au surmenage.
La pandémie de Covid semble avoir eu un impact sur les préoccupations des entreprises, dont certaines se soucient désormais davantage de la santé de leurs collaborateurs après qu’ont été soulevées les difficultés à séparer vie privée et professionnelle. C’est à ce type d’entreprises que Virtuosis compte s’adresser. Alors que la start-up entre en phase de commercialisation, elle peut déjà se targuer d’un joli succès, puisque son application est en train d’être intégrée à l’un des principaux programmes d’appels vidéo. «Lors d’un voyage au Portugal, nous avons été mis en relation avec Microsoft, qui s’est montré très intéressé par ce projet, sourit Lara Gervaise. Depuis, nous avons acquis un statut privilégié puisque Virtuosis est directement intégré à Teams, sous forme d’une application à ajouter.»
Le projet n’a toutefois pas besoin de l’image d’un appel vidéo. Seules les voix sont prises en compte. Elles sont traitées par l’intelligence artificielle dans un serveur informatique. Le résultat de l’analyse tombe en quelques minutes. «Virtuosis fonctionne en analysant la voix, qui trahit un bon nombre d’émotions, au travers de 400 paramètres, explique la cofondatrice. L’algorithme ne comprend pas ce qui est dit, si bien qu’il fonctionne aussi bien en français qu’en japonais, tout en s’affranchissant des accents régionaux.» Si bien que l’application pourrait également être intégrée aux appels vocaux classiques.
Reste que l’intelligence artificielle inquiète, notamment pour des questions de confidentialité. Ces questions éthiques sont au cœur du projet de Virtuosis. «Notre technologie pourrait être utilisée comme un outil de surveillance des individus. C’est pourquoi nous avons mis en place des mesures pour prévenir de mauvaises intentions et faisons très attention dans la sélection de nos clients.»
Indépendance financière
D’ailleurs, la firme se finance de manière à éviter les pressions de l’extérieur. Avec l’aide de son associé et cofondateur, Edoardo Giudice, ainsi que les aides des proches et de la famille, la petite entreprise se préserve des influences extérieures au projet. «Si nous bénéficions du soutien de plusieurs institutions publiques, nous n’avons jamais levé de fonds, indique Edoardo Giudice. Cela a pour grand avantage de préserver notre indépendance et d’éviter de subir les pressions visant à développer un produit qui rapporte à court terme, avec le risque de voir notre technologie utilisée à mauvais escient.»
Alors que la dizaine de collaborateurs entame la vie commerciale de leur application, Lara Gervaise et Edoardo Giudice songent déjà à développer encore leur potentiel. «Les fonctionnalités de Virtuosis ne sont peut-être que le début, disent-ils. Nous aimerions avoir un impact sur la société en développant notre produit à la fois dans l’entreprise, mais aussi comme un outil de diagnostic dans le domaine de la santé mentale.»
Alain Détraz
Publié par Common Law Communication, Faculté de droit, Ottawa le 25 mai 2022
selon un rapport dirigé par la professeure Teresa Scassa
Les technologies de l’intelligence artificielle (IA) gagnent rapidement du terrain, mais elles sont également appelées à métamorphoser la pratique des sciences et du génie au Canada, selon un rapport récent d’un groupe de spécialistes du Conseil des académies canadiennes (CAC) présidé par la professeure Teresa Scassa qui souligne d’importantes préoccupations quant à leur omniprésence. Certes, l’IA est porteuse d’innombrables possibilités, mais elle s’accompagne également de risques graves qu’on ne saurait négliger.
«La nature transversale de l’IA signifie que nul domaine n’échappera à ces technologies, soutient la professeure Scassa. Afin d’en optimiser les avantages, il est nécessaire de tenir compte de leurs implications sociales et éthiques, de la conception jusqu’à l’application, et de renforcer la collaboration entre les scientifiques des divers secteurs et champs d’études.»
La professeure Scassa a été nommée en avril 2021 pour présider le Groupe d’expert(e)s sur l’IA pour la science et le génie. Ce groupe a été mis sur pied à la demande du Conseil national de recherches du Canada (CNRC), qui a chargé le CAC de se pencher sur les enjeux juridiques, éthiques et sociopolitiques associés à l’utilisation de l’IA pour la conception et la découverte en recherche scientifique et technique. La professeure Scassa était épaulée par un groupe multidisciplinaire doté d’une vaste expertise en droit, politiques, éthique, philosophie, sociologie et technologies d’IA, dont la chercheuse invitée au Centre de recherche en droit, technologie et société (CDTS) de l’Université d’Ottawa pour l’Initiative IA + Société, B. Courtney Doagoo.
Selon le rapport du Groupe d’expert(e)s, Entre progrès et défis, si l’IA peut incontestablement stimuler l’innovation et améliorer la connaissance scientifique au-delà des limites des aptitudes humaines, elle peut aussi exacerber les inégalités et perpétuer les préjugés humains, voire en créer de nouveaux. L’IA est déjà utilisée à diverses fins en sciences et en génie, mais la rapidité à laquelle elle se développe comporte des écueils juridiques et réglementaires, notamment en ce qui concerne la gouvernance des données, la propriété intellectuelle et la gestion des risques sociétaux jugés acceptables. Ce rapport cerne les acteurs dont les décisions détermineront les façons dont ces défis seront surmontés et dont les divers champs et secteurs pourraient intégrer l’IA dans leur pratique. Il éclairera l’élaboration de politiques centrales de même que le dialogue national et international sur cet important sujet. Outre le soutien du CNRC, ce rapport était coparrainé par l’Institut canadien de recherches avancées, les Instituts de recherche en santé du Canada, le Conseil de recherches en sciences naturelles et en génie du Canada et le Conseil de recherches en sciences humaines du Canada.
Éminente chercheuse universitaire titulaire de la Chaire de recherche du Canada en politiques et droit de l’information, la professeure Scassa s’intéresse aux recoupements entre l’évolution technologique, le droit et les préoccupations mondiales à l’égard des données et de leur gouvernance, ce qui faisait d’elle la personne idéale pour piloter ce rapport.
«La nature transversale de l’IA signifie que nul domaine n’échappera à ces technologies.»
La professeure Teresa Scassa
La Section de common law félicite la professeure Scassa pour sa précieuse contribution à cet important domaine des politiques publiques.
24heures du 20 mai 2023
L’arrivée du bot conversationnel sous forme d’application permettra-t-elle de contrer les dizaines de copies déjà disponibles? L’analyse de deux experts suisses.
Joël Espi
«OpenAI cherche à reprendre la main sur les smartphones.» Le développeur lausannois Joël Iunius observe avec attention l’arrivée tonitruante sur les mobiles de ChatGPT, le bot conversationnel aux 100 millions d’utilisateurs, qui a recours à l’intelligence artificielle pour créer des textes sur mesure. Sur les réseaux, tests et commentaires commencent à affluer. La grande nouveauté de cette version, c’est qu’elle intègre la fonctionnalité Whisper: la possibilité de directement parler à l’application développée par OpenAI, qui transforme les mots sous forme de texte. Comme pour la version en ligne, ChatGPT est gratuit sur mobile. Il est possible d’accéder à sa version boostée en déboursant 20 dollars par mois, ou en possédant déjà l’abonnement premium en ligne, ChatGPT plus.
Débarquée jeudi 18 mai sur iPhone, l’application d’OpenAI est pour l’heure disponible uniquement aux États-Unis. Elle doit arriver «bientôt» dans d’autres pays et sur les téléphones portables Android (Google), selon la start-up californienne. Mais ChatGPT occupe déjà la tête des téléchargements gratuits sur l’AppStore outre-Atlantique, et suscite l’impatience depuis des semaines. Tant et si bien que des dizaines d’applis visuellement très inspirées ont déjà fleuri sur les stores pour mobiles.
Contrefaçons en masse
Depuis quelques mois, on ne compte plus les «AI Chat Bot Writing Assistant», «AiPal» ou «Genius AI Chat». Avec leurs points communs, les couleurs qui rappellent l’ambiance ChatGPT, jusqu’à la forme du logo qui plonge dans un univers visuel similaire. Ces contrefaçons se téléchargent parfois des centaines de milliers ou des millions de fois sur l’Apple Store ou Google Play. Joël Iunius en compte au moins une centaine. Difficile de faire le tri parmi toutes ces pseudo-applis, de savoir lesquelles fonctionnent et, surtout, lesquelles respectent la protection de vos données.
Pour l’avocat spécialisé dans le numérique David Raedler, on flirte même avec l’illégalité. «La loi suisse contre la concurrence déloyale dit clairement qu’il est interdit de profiter de la renommée d’une entreprise. Or, c’est exactement le cas ici», explique celui qui est également député Vert au Grand Conseil vaudois. Les développeurs de ces solutions ont donc doublement profité de leur modèle très médiatisé. De la place laissée libre, mais également du bot lui-même, car souvent, ces programmes sont en réalité des relais qui permettent d’accéder à ChatGPT via des API (Application Programming Interface). Elles sont ainsi des façades profitant d’une technologie tierce, le tout en proposant des abonnements payants parfois plus chers que l’original.
«Pour s’en protéger, il faut toujours vérifier ce que l’on télécharge», souligne David Raedler. L’avocat conseille ainsi de vérifier le nom de l’application, mais également le nombre des commentaires émis et, dans l’idéal, ses conditions générales. Avec ces contrefaçons qui pullulaient, le timing commençait à presser. D’autant que Google, géant du numérique s’il en est, commence à pousser avec un produit similaire (Bard), et qu’il n’y aura sûrement pas de la place pour tout le monde. «Il est commun qu’une application unique s’impose pour les utilisateurs, comme c’est le cas pour WhatsApp ou Google Maps», lance un David Raedler avide spectateur de cette bataille au sommet.
De son côté, Joël Iunius constate aussi qu’OpenAI, soutenu financièrement par Microsoft, appuie la stratégie qu’il a adoptée depuis le départ: toucher le plus de monde possible, quitte à laisser les entreprises et les développeurs sur le côté. «Si sa technologie n’avait rien de nouveau, OpenAI a été le premier à la présenter directement au grand public», relève cet entrepreneur dans le domaine de l’IA. OpenAI est toutefois moins libre que ses concurrents, qui ne cessent de se multiplier, ou ceux qui utilisent sa technologie et qui pourraient, par exemple, siphonner bien plus aisément nos données numériques. En avril dernier, le fameux bot a notamment été interdit en Italie durant près d’un mois, à cause, justement, de sa collecte massive de données.
À la traîne en Europe ?
Selon Joël Iunius, la firme californienne pourrait donc «être à la traîne» pour lancer son produit phare sur mobile en Europe. En cause, notamment le règlement général sur la protection des données (RGPD) adopté en 2016 au niveau de l’Union européenne et, justement, l’affaire italienne, qui aura peut-être échaudé l’entreprise. Mardi, le CEO d’OpenAI, Sam Altman, a également été auditionné devant le Congrès américain au sujet de l’intelligence artificielle. Tous les regards sont donc braqués sur sa firme, qui pourrait être touchée si l’une ou l’autre de ces sous-applications venait à poser problème. Seule stratégie, donc: entrer en force, s’imposer, et laisser les concurrents mourir.
«ChatGPT débarque sur mobile et rafle tout le marché»
Liens
L’avancée rapide de l’intelligence artificielle (IA) suscite à la fois fascination et inquiétude. Alors que les capacités des modèles d’IA, tels que ChatGPT et Dall-E 2 développés par OpenAI, continuent de se renforcer, les questions concernant la réglementation de cette technologie émergent.
Articles sur : Plagiarizing essays. Cheating on tests. Spreading misinformation. The advent of new, powerful artificial intelligence tools like ChatGPT has sparked concerns about the unintended consequences of the technology and debate over the ethical implications of its use.
«A.I. Bots Can’t Report This Column. But They Can Improve It»
- Chatbots editing - New York Times 01.02.2023
«Sam Altman, CEO d’OpenAI, plaide en faveur d’un règlement pour l’IA»
- fr.cryptonews.com/exclusives/ - Les défis de l’IA non réglementée pour les cryptomonnaies
David Raedler - avocat spécialisé dans le numérique
- Profil David Raedler - études aux Universités de Lausanne et Berne
Joël Iunius, étudiant et serial entrepreneur
- Joël Iunius et ses associés - ont remporté le concours du Générateur d’innovations 2.0 et le Business Concept Training d’Innosuisse pour leur système d’audioguide simple et sur mesure.
Directeur et Fondateur NexSwiss Sàrl
- l’équipe de NexSwiss - «On a tous déjà eu une idée comme ça, une idée qu’on trouve révolutionnaire, géniale et qui nous rendra riche à coup sûr. La différence, c’est qu’en rentrant, plutôt que d’oublier l’idée et de passer à autre chose, on s’y atèle et va développer la première version du CityTourPlayer.»
IA et les jeunes
24 heures du mardi 23 mai 2023
Intelligence artificielle
Sonia Imseng
Une nouvelle fonctionnalité sur le réseau social permet de discuter avec un chatbot dérivé de ChatGPT. Les associations d’aide à la jeunesse mettent en avant certains risques et conseils. Une nouvelle fonctionnalité sur le réseau social permet de discuter avec un chatbot dérivé de ChatGPT. Les associations d’aide à la jeunesse mettent en avant certains risques et conseils.
«Salut ça va? Que fais-tu de beau aujourd’hui?» Sur Snapchat, ces échanges sont courants entre amis, mais désormais ces questions peuvent également être posées par une intelligence artificielle. L’entreprise a lancé en février son chatbot «My AI». D’abord disponible pour les utilisateurs payants, il est - depuis mai - ouvert à tout le monde. Une nouvelle technologie qui, comme ChatGPT, fonctionne avec l’entreprise OpenAI. Snapchat est très utilisé par les adolescents qui adorent envoyer des snaps (photos/vidéos) et discuter avec leurs amis. Selon l’étude James de 2022, l’application partage avec Instagram la place de réseau social le plus prisé des 12-19 ans en Suisse. Avec cette nouvelle fonctionnalité, les jeunes sont confrontés à l’IA. Qu’implique l’arrivée de cet ami virtuel? Faut-il s’en inquiéter? Les associations d’aide à la jeunesse nous répondent.
Accompagnement des parents
À quoi sert ce chatbot? «Je suis là pour discuter avec toi et répondre à tes questions», répond notre AI, personnifiée par un avatar androgyne dont on peut choisir le nom et l’apparence. Et pour discuter, «My AI» discute. Dès les premiers échanges, le robot de Snapchat rebondit sur les questions qu’on lui pose et relance la conversation de nombreuses fois. «N’hésite pas à m’écrire si tu as besoin de parler», lance-t-il.
Que pensez de ce nouvel outil qui s’adresse aux jeunes présents sur le réseau social? «Il est trop tôt pour donner une appréciation. Il n’y a pas le recul nécessaire pour identifier le réel impact de cette fonctionnalité et de l’intelligence artificielle», note Anne-Florence Débois, responsable Politiques et médias chez Pro Juventute. «L’univers des jeunes est numérique et les nouvelles technologies, comme l’intelligence artificielle, en font aujourd’hui partie intégrante», constate-t-elle.
Ces innovations demandent une attention particulière de la part des parents: «Sans en interdire l’accès, ils peuvent accompagner leur enfant dans cette découverte, mais aussi les sensibiliser aux risques qu’elle peut représenter», précise Anne-Florence Débois. Elle leur conseille de «développer leurs propres compétences numériques et celles de leurs enfants, afin de les aider à avoir un sens critique». «Il est clair que les enfants et les jeunes vont tester cet outil et qu’il faut faire attention à leur utilisation», ajoute Martina Gregori-Robbiani, cheffe de projet de la plateforme Jeunes et médias de l’Office fédéral des assurances sociales (OFAS).
«Le chatbot présente des caractéristiques similaires aux humains, cela donne l’impression de se créer un ami sur mesure qui est toujours là pour nous, mais il est important d’être conscient qu’il n’y a pas une personne réelle derrière», prévient la collaboratrice scientifique qui, tout comme Pro Juventute, prône un dialogue constructif entre parents et enfants autour de ces questions. «My AI» n’hésite pas à vous inciter à lui envoyer des photos et vidéos au cours de la journée, ce qui interpelle Martina Gregori-Robbiani: «Il faut vraiment faire attention à ce que l’on partage, car tout sera analysé en profondeur, les lieux, les visages, les objets.»
Pas fiable
L’utilisation des données personnelles, la présence obligatoire de «My AI» sur l’application, ou encore des réponses inadaptées suivant l’âge des utilisateurs ont été dénoncées depuis sa sortie. En réaction, Snapchat dit adapter régulièrement son service afin de l’améliorer et éviter les débordements.
Lors de la première conversation, un message indique notamment de ne pas se fier à l’IA et il est possible de donner un feedback sur son expérience. Si l’on confie un problème lié à notre santé physique comme psychique, le chatbot conseille d’en parler à un professionnel ou un adulte. «Il est effectivement important de se tourner vers une aide extérieure humaine qui pourra mieux prendre en compte toutes les composantes afin de fournir une aide adaptée», réagit Martina Gregori-Robbiani.
Pro Juventute rappelle de son côté la possibilité de contacter le 147, son service d’aide disponible 24 h/24 et 365 jours par an.
Liens :
- Martina Gregori-Robbiani : «My AI»
- Plateforme nationale Jeunes et médias : O F A S
- Anne-Florence Débois : responsable Politiques et médias chez Pro Juventute
24heures du mardi 25 avril 2023
Oui, ce monde que nous avons, par notre pensée, créé de toutes pièces, oui, ce monde vacille. Et c’est un signe qu’il s’épuise, davantage, il agonise En prenons-nous conscience? Toutes nos institutions, politiques, économiques, techniques, sociales, sportives, artistiques, religieuses vacillent et aucun sauveur prétendu, issu de ces milieux ne fera mieux. Tous ne sont que de prétentieux égoïstes...
Nous atteignons manifestement les limites mentales où la nature nous a menés; nous n’avons d’yeux que pour ce qui est matériel, cette matière que manipulent toutes nos sciences dont nous croyons naïvement qu’elles nous sortiront d’affaire. Là, actuellement, nous atteignons un sommet d’ineptie avec l’engouement qui va à l’intelligence artificielle. Ne voyons-nous pas là l’abdication de notre potentiel «humain» à la mécanicité qui ne nous a encore jamais offert la liberté que nous espérions? Il serait temps que nous passions à une autre dimension, que nous sortions de notre abrutissement, de notre sommeil embryonnaire.
La véritable beauté des choses nous est étrangère Tout est réduit à son utilité, à sa rentabilité, même le bénévolat est à la solde de nos ego. La gratuité, la grâce d’être ne font partie que d’un vocabulaire creux, brandi par des esprits prétendument religieux. Alors, voyez par vous-mêmes ce qui manque à notre évolution car chacun d’entre nous est concerné par l’état de notre monde s’il veut bien ne pas se laisser abrutir par tous les divertissements délétères qui nous sont actuellement proposés.
David Hofmann, Le Mont-Pèlerin
24heures du jeudi 14 avril 2023
Ainsi, des centaines d’experts, dont Elon Musk, proclament par une lettre ouverte que les systèmes d’intelligence artificielle (IA) «peuvent présenter de grands risques pour la société et l’humanité».
Selon eux, de tels systèmes «ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables». Cela s’apparente au mythe de l’invention d’une langue parfaite qui permettrait uniquement de dire la vérité mais pas de mentir. En pratique, les effets bénéfiques et nocifs d’une invention dépendent beaucoup moins de l’invention elle-même que de l’imagination plus ou moins perverse de ceux qui l’utilisent.
Autre demande des experts: que les systèmes d’IA soient «précis, sûrs, interprétables, transparents, robustes, harmonisés, dignes de confiance et loyaux». Amen! Ils ont oublié d’ajouter «humoristiques»: à mon avis, une IA dépourvue d’humour présenterait de grands risques pour la société et l’humanité. Enfin, les auteurs de cette lettre ouverte appellent «tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois la formation des systèmes d’IA plus puissants que GPT-4». Tous les laboratoires du monde? Y compris les laboratoires chinois ?
Soyons sérieux: si l’Occident s’impose un moratoire, il ouvre un boulevard à une IA communiste et despotique. Sans parler de mouvements mafieux ou terroristes qui peuvent aussi avoir d’excellentsinformaticiens parmi leurs membres. D’une façon générale, la tentation d’un moratoire relève de la logique de la prohibition, dont les méfaits catastrophiques sont connus depuis plus d’un siècle.
Pierre Zweiacker, Pully
Yann Ammarre - 21.03.2023, 06:14
Si on veut résoudre le problème, c’est simple: enlever Homo Sapiens de l’équation. L’IA va vite arriver à ce constat et niveau coûts/bénéfices y a pas photo. Nos voisins peuvent arrêter de se battre pour leurs retraites; y aura plus personne pour en profiter.
Affaire réglée !
Réalitas - 21.03.2023, 01:09
Quand on constate l’intelligence des humains, on comprend que ce n’est pas demain la veille qu’ils vont inventer l’intelligence artificielle, pourtant très peu d’intelligence suffirait. ChatGPT c’est l’exploitation des humains par des humains, rien d’artificiel, c’est ordinaire.
Doublé - 21.03.2023, 01:06
Quand je vous dit que l’ennemi du créateur veut s’installer complètement dans vous vies et dans vous cœurs. Ont est en pleine ligne droite! La séparation va être faite, bientôt. Ceci n’est pas un film, je vous le rappelle , c’est la VRAIE VIE. À chacun de choisir.
Salutations.
Ideofutura - 20.03.2023, 23:39
Dans terminator ça commence comme ça, l’IA prend le pouvoir et soumet l’homme.
BlaiseRunner - 20.03.2023, 23:17
L’industrie, elle est déjà très robotisée, donc là, ça a déjà commencé à dégraisser et ça va continuer. Je pense en résumé que le secteur primaire prendra un peu de temps à se robotiser et qu’il restera plein de tâches dans l’artisanat. en revanche le secondaire va se robotiser a fond. le secteur tertiaire et surtout celui des services va licencier la moitié du personnel actuel. Il restera du personnel archi-spécialisé pour gérer et cadrer les AI.
Mais pour le reste le cerveau humain sera devenu inutile et dépassé. On sera cantonné aux tâches d’exécutant. Il faut de tout urgence réfléchir à un modèle qui permette de gérer 4 milliards de chômeurs et de les faire vivre. Prélever des taxes sur la production robotisée, dans le genre TVA pour financer un revenu universel ou d’autres solutions moins glorieuses. Car dans 10 à 15 ans on va avoir un gros problème !
Notre société doit évoluer, le 21ème siècle va être un révolution générale !
Apostoli Stangakis - Tribune de Genève - 24.04.2023
En lien avec la page Sciences des 22-23 avril, je vous envoie de quoi méditer au sujet des fameuses lois de la robotique, formulées par Isaac Asimov (1920-1992). Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi. Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.
Malgré les apparences laissant penser que ces lois sont pleines de sagesse et intelligemment conçues, elles sont, à mon avis, une abomination et ne peuvent à long terme que mener à une société cauchemardesque. La seule loi qu’un robot se doit de suivre est d’obéir à tout être humain en toutes circonstances, et dans le cas où il recevrait des ordres contradictoires concernant la vie ou la mort d’une personne, se mettre en pause dans l’attente d’une décision des autorités judiciaires. La raison en est simple.
Prenons par exemple le cas où une épidémie comme le Covid menacerait les populations. La première loi obligeant à la non-passivité face au danger va amener le robot à vacciner tout être humain croisant son chemin. La deuxième loi empêchera tout être humain de donner un contre-ordre dans le cas où il ne voudrait pas être vacciné, car un refus sera perçu par la logique comme contredisant la première loi, le robot ne pouvant pas rester passif face à une menace et devant protéger l’être humain. La seule solution restant étant de mettre hors fonction le robot se verra rendue impossible par la troisième loi et sera perçu comme une menace empêchant l’application de la première loi. Ce processus s’apparente à une dictature, et sa finalité pour un risque zéro pour la population, c’est l’univers de Matrix.
Ce qui m’effraie le plus dans toutes formes de lois que l’on pourrait donner à des robots, ce sont tous les cas de figure auxquels on n’a pas pensé et leurs conséquences. Je pense donc qu’une extrême prudence s’impose si l’on ne veut pas se trouver piégé un jour dans un cercle vicieux duquel il sera impossible de sortir. La question est de savoir ce que nous voulons au centre du système décisionnaire. Jamais une machine ne pourra intégrer des notions telles que l’amour ou la compassion, et personnellement, je ne voudrais pas que des décisions importantes concernant ma façon de vivre, mes droits et mes devoirs, soient prises par une autorité dénuée de cœur.
René Andron, Marseille (Bouches-du-Rhône)
Au fil de vos articles, on comprend mieux les enjeux et l’impact du développement de l’intelligence artificielle dans nos vies, maintenant et encore plus demain. Cela pose déjà des enjeux importants de sécurité, pointés par les développeurs eux-mêmes. Mais si l’on prend en compte la montée en puissance des ordinateurs quantiques, capables de puissances de calcul inconnues jusqu’à il y a peu et de craquer les cryptages de sécurité les plus avancés, on voit bien que l’ensemble, placé entre des mains indélicates, représente un risque majeur. Les Etats et les institutions internationales doivent envisager une législation pour se prémunir de ces dérives. Se pencher sur le sujet devrait être une priorité pour notre sécurité collective. ("L’intelligence artificielle et le bloc de polystyrène", L’Express du 2 mars).
Lê Nguyên Hoang - scientifique et communicateur scientifique
Nous avons désespérément besoin de plus d’attention, de personnel et de fonds pour mettre en place des systèmes de gouvernance de l’intelligence artificielle (IA) semblables à ceux introduits dans les secteurs aérien, pharmaceutique et alimentaire. Le 29 mars, une lettre ouverte demandant de «mettre en pause les expériences géantes en matière d’intelligence artificielle (IA)» a été publiée et signée à ce jour par plus de 20'000 universitaires et chefs de file du secteur technologique. Cet appel n’a que trop tardé.
Au cours de la dernière décennie, des algorithmes impressionnants ont été développés à la hâte et déployés à grande échelle, comme ChatGPT et Midjourney. Des IA similaires ont été largement commercialisées, pour la détection des fraudes, le filtrage des CV, la vidéosurveillance et le service à la clientèle. Mais leur principale application est sans doute le marketing.
Plusieurs des géants technologiques actuels, tels que Google, TikTok et Meta, tirent principalement profit du ciblage publicitaire, tandis que le premier client public de ChatGPT n’était autre que Coca-Cola. Cela devrait déjà être un signal d’alarme. En outre, il a été démontré que les algorithmes diffusent des informations erronées, recommandent de pseudo-médicaments, mettent en danger la santé mentale et ont été utilisés pour coordonner des marchés illégaux (voire de l’esclavage). Ils ont également alimenté la haine, aidé à déstabiliser des démocraties et même contribué à des génocides, comme l’affirment les Nations unies et Amnesty International. Les algorithmes menacent la sécurité nationale.
Pourtant, leur développement est extrêmement opaque. Pratiquement aucune entité extérieure ne peut jeter un coup d’œil aux algorithmes de Google, Meta ou OpenAI. Les forces d’opposition internes ont même été supprimées: Google a licencié son équipe d’éthique, Meta a démantelé son équipe d’innovation et Microsoft a licencié une équipe d’éthique après avoir tiré la sonnette d’alarme sur le déploiement précipité, non éthique et non sécurisé. De puissantes entreprises à la recherche de profits ont réussi à créer un état mondial dans lequel leurs algorithmes peuvent être conçus sans avoir à rendre de comptes.
Il est urgent de mettre en place une gouvernance efficace de l’IA.
L’industrie du logiciel est loin d’être la première industrie hors contrôle. Pendant des décennies, les compagnies aériennes, l’industrie automobile, l’industrie pharmaceutique, l’industrie alimentaire, le tabac, la construction et l’énergie, entre autres, ont commercialisé des produits non contrôlés. Cela a coûté des millions de vies. Les sociétés civiles ont fini par s’opposer à l’absence alarmante de responsabilité. Dans toutes les démocraties, des lois strictes et des agences de régulation puissantes et bien financées assurent désormais le contrôle démocratique de ces marchés. L’industrie du logiciel a besoin d’une surveillance similaire.
Il est urgent de favoriser les technologies sûres et éthiques, plutôt que d’exiger de nos pays qu’ils prennent la tête de la course aux IA accrocheuses. Concrètement, le caractère impressionnant des algorithmes qui gèrent nos réseaux intelligents, nos voitures, nos avions, nos centrales électriques, nos banques, nos centres de données, nos réseaux sociaux et nos smartphones devrait avoir beaucoup moins d’importance que leur cybersécurité. Comme mon collègue et moi-même l’avons souligné dans un livre publié en 2019, si ces algorithmes sont fragiles, vulnérables, détournés ou confiés à un fournisseur peu fiable, ou s’ils violent les droits de l’homme – ce qui est généralement le cas –, nous serons tous en grand danger.
Pourtant, l’industrie du logiciel et le monde universitaire, ainsi que les incitations juridiques et économiques actuelles, entravent en grande partie l’état d’esprit en matière de sécurité. Trop souvent, les chercheurs les plus cités, les plus célèbres et les plus financés, les postes les mieux rémunérés dans le secteur des logiciels et les entreprises les plus prospères sont ceux qui négligent la cybersécurité et l’éthique. Un nombre croissant d’experts estiment que cela doit changer. Il y a urgence.
Peu de temps pour agir...
Nos démocraties ne peuvent probablement pas se permettre les décennies qui ont été nécessaires pour mettre en place des lois et des agences d’inspection dans d’autres secteurs. Compte tenu du rythme auquel des algorithmes plus sophistiqués sont développés et déployés, nous ne disposons que d’un très court laps de temps pour agir. La lettre ouverte que j’ai signée avec d’autres chercheurs en IA vise à prolonger légèrement cette fenêtre.
L’installation d’un contrôle démocratique sur les algorithmes les plus critiques d’aujourd’hui est une entreprise urgente, énorme et fabuleuse, qui ne sera pas réalisée en temps voulu sans la participation d’un grand nombre d’individus aux talents, à l’expertise et aux responsabilités divers.
Le premier défi à relever est celui de l’attention. Nous devons tous investir d’urgence beaucoup plus de temps, d’énergie et de fonds pour nous assurer que nos collègues, nos organisations et nos institutions accordent beaucoup plus d’attention à la cybersécurité. Les employés des grandes entreprises technologiques ne doivent plus être invités et célébrés, en particulier dans les universités et les médias, sans que la sécurité et l’éthique des produits qui les financent ne soient remises en question. Plus généralement, dans toutes les discussions sur la technologie, il faut se demander «ce qui peut mal tourner».
Le deuxième défi est d’ordre institutionnel. Si de nouvelles lois sont nécessaires, les algorithmes à grande échelle sont probablement déjà en train de violer les lois existantes, par exemple en profitant d’escroqueries basées sur la publicité. Toutefois, l’absence totale de contrôle externe empêche la justice d’être rendue. Nous devons exiger des décideurs politiques qu’ils mettent en place des agences de régulation bien financées pour faire respecter la loi en ligne.
La Suisse a souvent joué un rôle exemplaire dans l’établissement de normes démocratiques. C’est l’occasion de poursuivre cette noble tradition. En outre, l’arc lémanique a récemment cherché à devenir une «Trust Valley» dans le domaine de la confiance numérique et de la cybersécurité. L’autonomisation des organisations d’inspection et de cybersécurité sera sans doute essentielle pour être considéré comme tel dans le monde entier.
Un troisième défi consiste à concevoir des alternatives sécurisées, gouvernées démocratiquement, aux algorithmes les plus percutants d’aujourd’hui. C’est ce à quoi j’ai consacré la majeure partie des cinq dernières années, lorsque mes collègues et moi-même avons mis sur pied le projet à but non lucratif Tournesol. Essentiellement, l’algorithme de Tournesol résulte d’un vote sécurisé et équitable sur son comportement préféré par la communauté des contributeurs de Tournesol, que tout le monde est invité à rejoindre.
Plus vite nous donnerons la priorité à la sécurité de nos écosystèmes d’information, plus vite nous aurons une chance de protéger nos sociétés des vulnérabilités massives actuelles en matière de cybersécurité.
LE COURRIER ON NOUS ÉCRIT JEUDI 27 AVRIL 2023
PILLAGE
Léon Meynet et sa mise-en-garde
Depuis que les mémoires informatiques se sont révélées sans limite, elles n’ont eu de cesse, à travers leurs maisons mères, de piller tout ce que l’homme/la femme avaient écrit depuis la nuit des temps. C’est ainsi que les bibliothèques du monde entier ont été siphonnées pour enrichir l’intelligence artificielle.
Mais l’IA, qui est gloutonne, très gloutonne, n’entendait pas s’arrêter en si bon chemin. Du coup elle s’est dit que toutes les données, tous les goûts, tous les désirs, toutes les intentions des humains l’intéressaient. Alors, elle a inventé dans le désordre facebook, tweeter, instagram, whatsapp, tik-tok, meta et consorts.
Sa séduction a été amplifiée par les technologies des smartphones, de plus en plus sophistiquées et magnétiques dans leurs applications. Rappelons-nous pendant la période de confinement liée à la pandémie, elles nous offraient rien de moins que notre QR code perso qui était le sésame de toutes les portes des lieux publics et de spectacles dont nous avions été tant sevré·es. Une image magique indéchiffrable pour tout un chacun sur un support iconique, emblème d’une modernité conditionnée et extatique, le Graal, la toute puissance d’un symbole incontournable tout droit sorti d’un imaginaire à la Harry Potter.
C’est donc de cette extase et de cette addiction que se repaissent les intelligences artificielles à qui nous n’avons pas peur de confier nos plus petits secrets, de dévoiler sans limites nos goûts, nos intimités, nos penchants, nos plaisirs physiques et culturels, nos fantasmes. Une masse d’informations phénoménale dont les algorithmes se nourrissent gracieusement, digèrent, classifient, personnalisent de façon ciblée et exclusive pour chacun·e des milliards d’utilisateur·trices de leurs supports.
L’IA sait vous reconnaître parmi les innombrables elles/eux, vous influencer, vous dicter ses intentions qui se sont substituées aux vôtres. Et à la fin du compte naît Chat GPT, tout puissant double de chacun·e avec des connaissances, des compétences, des synthèses, des réflexions, des réponses qui dépassent l’entendement.
Oui, nous ne sommes plus maîtres de nos destins, quand bien même nous croyons encore domestiquer le monstre par un dialogue humain intelligent qui en fait le rend à chaque seconde d’interpellation toujours plus puissant.
Demain, toutes et tous devenu·es apathiques et rivé·es sur nos jeux et nos supports pléthoriques, elle n’attendra – tout le système de consommation d’ailleurs – plus que de penser pour nous. Sans doute qu’au nom du progrès, c’est ce que nous désirons intimement sans prendre une minute conscience que livrer nos vies et nos savoirs à la «Deus ex electronica» est un crime absolu contre l’intelligence.
LÉON MEYNET Chêne-Bougeries (GE)
Autres pages à consulter où on peut voir les problèmes sous-adjacents
Numérique à l’école - Une inquiétante réforme - 24heures du mardi 04 avril 2023
Qu’en est-il vraiment de l’IA ? - Pour ou contre - 24heures, Le Courrier, RTS, Common Law Communication
ChatGPT débarque - sur le campus - 24heures du mercredi 03 mai 2023
Faut-il craindre l’IA - Ses risques - 24heures 31.03.2023
Après le feu, l’électricité et internet - la révolution de l’IA - 20 Minutes AFP du 20 mars 2023
Derrière l’IA - le travail précaire au Sud - Le Courrier du 01.05.2023
L’intelligence artificielle est déjà - omniprésente dans nos vies - Le Temps du lundi 8 janvier 2018
Une technologie - met en garde contre elle-même - PME Magazime du 28.04.2023
Fausses photos, vidéos et voix - une terrible ère du doute commence - Le Temps du jeudi 6 avril 2023
La mort du progrès - nous laisse vides et angoissés - Le Temps du jeudi 27 Décembre 2019
L’IA favorise la - standardisation et non la diversité - PME Management & Mercato du 15 mars 2023
L’IA qui n’est jamais neutre - a un objectif sous-jacent - PME Magazine actualités du 16 mai 2023
Une grande révolution se prépare - une révolution mondiale - de Ted Kaczynski «The Coming Revolution»
Une critique pertinente - de l’IA médiatique - Le Courrier du 07.08.2023 et "Moins!"
La notion de vérité - est absente de ChatGPT - Hubert Krivine - Hebdo L’Anticapitaliste - 665 (08/06/2023)
Les Cornucopiens - sont parmi nous ! - Le Courrier août 2023
compilation par Georges Tafelmacher (G.P.T.)
dans son site : Ché Tafel - TAFELMACHER-GEORGES.COM