Note du compilateurG.P.T.
Le magazine des actualités des PMEs s’efforce par des articles pour le moins orientés, de nous convaincre par tous les moyens d’adhérer au concept de la dite intelligence "artificielle". Mais en les lisant attentivement, nous percevons entre les lignes une sourde angoisse qui pointe, cette dite IA pouvant causer des problèmes insupportablement complexes pouvant même mettre l’entier de la société en danger. Le problème est qu’à aucun moment, une réflexion sur les conséquences de l’IA a été menée et l’IA a été introduite sans qu’aucune étude sociétale n’a été mandatée pour au moins investiguer de son innocuité. C’est comme si on avait mené une expérience en grandeur nature 1:1 sur la population pour, selon les résultats, prévoir des réglementations qui, comme on le sait très bien, ne pourront jamais couvrir la globalité des conséquences possibles. D’autant plus que l’introduction de l’IA a été faite sans aucune consultation populaire, ni aucun agrément de sa part. Malgré les mises en garde contre le risque des répercussions négatives des technologies disruptives telle l’intelligence artificielle, on est toujours face aux menaces existentielles de part de l’introduction forcenée de celle-ci (Yuval Noah Harari). En effet, la numérisation a envahi le quotidien des gens, avec à la fois un confort accru et une plus grande transparence sur leurs données et cette ère naissante d’un capitalisme de la surveillance modifiera la société. C’est un des plus grands dangers globaux. Pour la première fois dans l’histoire, il est techniquement possible de surveiller tout le monde en permanence et de connaître les gens mieux qu’ils ne se connaissent eux-mêmes. C’est le rêve de tout dictateur! Il n’y a plus besoin d’agents secrets, nous avons nos espions dans la poche: le smartphone. La surveillance, à l’avenir, nous l’aurons littéralement sous la peau. A cette fin, les outils de communication collectent tout type de signaux biométriques: des mimiques et du langage corporel jusqu’à la pression sanguine, le rythme cardiaque et l’activité cérébrale. Nous sommes très près de pouvoir surveiller la pensée et les sentiments.
Lisons entre les lignes de cette compilation pour comprendre le fond du problème... G.P.T. Pully, juin 2023
|
Intelligence artificielle
L’intelligence artificielle fait certes bouger le cours des marchés. Mais le succès n’est pas toujours au rendez-vous. Les fournisseurs de tels systèmes en sont les principaux bénéficiaires.
Shutterstock © Publié le 19.06.2023
L’intelligence artificielle a une influence indéniable sur le cours des actions. Lorsque l’entreprise chinoise de moteurs de recherche Baidu a présenté son chatbot à Pékin à la mi-mars, sans convaincre le public spécialisé, ses actions ont chuté de 10%. Et quand Microsoft a annoncé en janvier son investissement de 10 milliards dans OpenAI, ses actions ont augmenté de 2%.
Les humains ne sont pas les seuls à provoquer des mouvements en bourse. Les «algo-traders» travaillent depuis plus de vingt ans avec des systèmes qui extraient les informations pertinentes de l’actualité et qui, guidés par des règles, déclenchent ensuite automatiquement des ordres de vente en cas de mauvaises nouvelles et des ordres d’achat en cas de bonnes nouvelles. Ou l’inverse, car les mauvaises nouvelles sont souvent de bonnes opportunités d’achat et vice-versa. Toutefois, dans le brouhaha général des marchés, reconnaître les signaux décisifs devient toujours plus difficile.
Grâce au machine learning, les systèmes avancés de trading algorithmique reconnaissent de mieux en mieux quels signaux font bouger les cours de la bourse. Certains gestionnaires d’actifs travaillent avec des systèmes qui exploitent non seulement les données boursières, les indicateurs techniques et les actualités, mais aussi les rapports annuels et les commentaires des analystes. D’autres systèmes utilisent également la communication sur les réseaux sociaux. Cependant, selon une évaluation de la société d’analyse Scope, le bilan de ces fonds qui investissent à l’aide de tels systèmes d’IA est mitigé.
Il y en a certes quelques-uns qui font jeu égal avec des indices de référence mondiaux. Mais, à court terme, la plupart de ces fonds réalisent un moins bon score que les indices de référence. En effet, l’intelligence artificielle a tendance à renforcer les stratégies de momentum, ce qui fait que les fonds correspondants sont en retard sur le marché dans les phases de faiblesse, mais surpassent souvent les indices de référence dans les phases plus favorables.
Aux États-Unis, plusieurs courtiers en ligne spécialisés mettent des systèmes d’IA à la disposition de leurs investisseurs. Des plateformes comme Trade Ideas, Signal Stack, Stock Hero et Trend Spider travaillent avec ce que l’on appelle des «trading bots», où les utilisateurs - après s’être familiarisés avec les simulations et les backtests - peuvent faire exécuter leurs ordres par les algorithmes.
Depuis 2010, Swissquote dispose d’un robo-advisor qui place automatiquement les fonds. Il utilise une approche de gestion de portefeuille quantitative qui combine les statistiques, les mathématiques et l’algorithmique. L’univers de placement comprend des milliers de titres (valeurs individuelles, ETF, fonds, produits structurés) qui peuvent être combinés de différentes manières pour former autant de portefeuilles que nécessaire. Chaque client dispose d’un portefeuille individuel. Mais, selon une porte-parole, en raison de la fréquence des changements de stratégie, il n’est pas possible de présenter une performance moyenne.
Selon les analystes de Morgan Stanley, la gestion de portefeuille et le traitement automatisé des transactions ne sont que deux des nombreux champs d’application de l’intelligence artificielle dans les placements financiers. L’analyse des actualités, l’onboarding automatisé des nouveaux clients ou la détection des fraudes sont des thèmes transversaux de l’IA qui sont certes également pertinents pour les plateformes de courtage en ligne, mais qui se sont également établis et ont fait leurs preuves dans d’autres secteurs de l’économie numérique.
Le point commun de tous les systèmes d’intelligence artificielle est l’important travail caché que représentent la collecte des données, leur traitement, ainsi que les formations. Sans les retours permanents des humains, les systèmes ne fonctionnent pas. De plus, tous les systèmes d’IA travaillent avec les mêmes processeurs spéciaux de quelques entreprises comme Nvidia et utilisent les environnements cloud des grandes firmes comme Amazon Web Services, Google ou Microsoft. Selon les analystes de Morgan Stanley, d’autres dépenses cachées pour l’énergie et les lignes de données augmentent également.
Ces grandes entreprises technologiques sont souvent considérées comme les gagnantes de la vague de l’intelligence artificielle. Toujours selon les experts de la banque américaine, il existe toutefois deux autres catégories d’entreprises que de nombreux investisseurs négligent. Il s’agit d’une part des entreprises tech de taille moyenne qui se sont spécialisées dans l’amélioration des réseaux de données. Et d’autre part, des entreprises qui sont déjà êtablies dans l’économie numérique dans les domaines des voyages en ligne, du commerce électronique, des services médicaux personnalisés et de la logistique, et qui intègrent désormais particulièrement bien les progrès de l’IA dans leurs interactions numériques avec les clients. Dans ce domaine, on n’en est qu’au décbut. Et la course est encore largement ouverte.
Cet article est une adaptation d’une publication parue dans Handelszeitung
PME Magazine du 16.05.2023
La grande interview
Par William Türler
Afin de mieux répartir les responsabilités en matière d’intelligence artificielle, Johan Rochel, cofondateur du laboratoire d’éthique sur l’innovation Ethix, plaide pour plus de transparence dans la conception et les effets des outils technologiques. Johan Rochel a étudié la philosophie et le droit. Lorsqu’il a commencé sa formation en philosophie, Johan Rochel n’aurait jamais imaginé qu’il étudierait également le droit. À travers ce prisme, il nous parle des problèmes éthiques que soulève le développement de l’intelligence artificielle (IA), notamment d’outils tels que ChatGPT.
Aujourd’hui, il fait un pont entre ces deux disciplines en traitant de sujets tels que la migration, la politique internationale ou l’innovation.
Elon Musk et d’autres experts ont réclamé récemment dans une lettre ouverte une pause dans le développement de l’intelligence artificielle. Pourquoi cet appel vous laisse-t-il un goût amer ?
C’est très bien de parler des risques liés à l’IA, mais il faut le faire de manière intelligente, si j’ose dire. En lisant cette lettre, j’ai eu l’impression qu’on cherchait à nous balader. On nous présente des risques très hypothétiques sur le très long terme, en l’occurrence le fait que les machines puissent un jour échapper au contrôle des humains et se retourner contre eux. Or les dangers sont beaucoup plus présents et actuels. Et bien plus embêtants pour les entreprises qui développent ces outils.
Quels sont ces dangers ?
Il y a deux grandes catégories de risques éthiques. La première concerne la technologie elle-même et les choix qu’implique la conception de ces outils, en termes d’algorithmes, de données, de design de l’interface utilisateur-machine, de durabilité et de contrôle. Les outils ne sont jamais neutres. Toutes les IA ont un objectif sous-jacent. La deuxième concerne l’impact direct sur les relations humaines, par exemple au travail.
Quels garde-fous peut-on établir? Une réglementation est-elle indispensable ?
Cette question nous oblige à clarifier les rapports entre droit et technologies. L’industrie, notamment celle de l’IA, veut faire croire que le droit est toujours en retard sur la technologie. Mais c’est faux. Toutes les innovations technologiques apparaissent dans un cadre juridique. Il n’y a pas de technologie hors du droit. On peut débattre du niveau de précision des règles, mais pas du fait que le droit s’applique. De manière générale, nous devons viser à plus de transparence dans la conception et les effets des outils technologiques. A partir de là, on pourra mieux attribuer les responsabilités.
Que pensez-vous de la décision récente de l’Italie d’interdire ChatGPT ?
Symboliquement, cela me paraît un très bon signal. C’est une décision pertinente, car elle vise des risques actuels liés à la protection des données des utilisateurs italiens. C’est une demande de transparence. Elle se base sur le droit actuel, avec des demandes très concrètes du régulateur. Elle permet de mettre le doigt sur cette boîte noire, car on ne sait pas ce que ChatGPT fait des données. D’autres pays ont d’ailleurs annoncé se joindre à ces demandes de transparence.
On parle beaucoup des risques de pertes d’emploi, dont une partie pourrait être compensée par la création de nouveaux types de métiers, tels que les prompt engineers (littéralement: ingénieurs de saisie en français). Quel est votre point de vue à ce sujet ?
Je ne pars pas de l’idée que les emplois sont des blocs et que les employés pourraient être simplement remplacés par la technologie. La plupart des collaborateurs dans les entreprises effectuent une multitude d’opérations dans une journée. La question est plutôt de savoir quelles opérations sont impactées par une technologie. Certaines tâches vont disparaître ou se feront plus rapidement. Évidemment, dire cela est moins spectaculaire que de prévoir que la moitié des emplois risquent de disparaître...
Et, bien sûr, certains métiers dont l’activité centrale peut être largement réalisée par une machine, comme traducteur, sont plus touchés que d’autres. Il y aura aussi des impacts cumulés, qui vont modifier en profondeur le travail d’un grand nombre de personnes. Les pertes d’emploi qui en résultent doivent être gérées comme une question de politique sociale, liée à la transition numérique.
«Aujourd’hui, l’industrie de l’IA teste ses outils en direct sur le grand public. Nous devons basculer dans une logique d’analyse des risques avant l’arrivée sur le marché.»
Journal du "Le Village de la justice" - le 28 juin 2022
Les errances de l’IA
Idéalement, l’intelligence artificielle (IA) peut être définie comme des algorithmes permettant d’analyser et de raisonner sur des points précis. Elle s’adapte à tous les domaines : IA sous forme de bot pour corriger les articles Wikipédia, ou pour vous trouver un billet de train, ou encore pour chatter avec vous, voir même pour tweeter ou en plus, pour toutes activité numérique comme l’envoi massif de spams, par exemple...
Les dangers des biais cognifs de l’IA - Village de la Justice
PME Magazine de juin 2022
L’IA et les droits de l’homme
Par ats - le 18.02.2023
Selon le haut-commissaire aux droits humains, l’intelligence artificielle est un danger pour ces derniers. Les récentes avancées en matière d’intelligence artificielle (IA) représentent une grave menace pour les droits humains, a alerté le haut-commissaire de l’ONU aux droits de l’Homme samedi, réclament la mise en place de "garde-fous efficaces".
L’ONU est profondément troublé par le potentiel de nuisance des récentes avancées en matière d’intelligence artificielle, a déclaré Volker Türk, dans un bref communiqué. «La dignité humaine et tous les droits humains sont gravement menacés», a-t-elle ajouté.
M. Türk a lancé «un appel urgent aux entreprises et aux gouvernements pour qu’ils développent rapidement des garde-fous efficaces. Nous suivrons ce dossier de près, nous apporterons notre expertise spécifique et nous veillerons à ce que la dimension des droits humains reste centrale dans l’évolution de ce dossier», a-t-il assuré.
Cette semaine, plusieurs dizaines de pays, dont les États-Unis et la Chine, ont exhorté à réguler le développement et l’utilisation de l’intelligence artificielle dans le domaine militaire, évoquant les risques de "conséquences non souhaitées".
Nouveau champ de bataille
Le texte, signé par plus de 60 pays, évoque également des préoccupations relatives à "la question de l’implication humaine ainsi que "le manque de clarté en ce qui concerne la responsabilité" et les "conséquences involontaires potentielles". Mais l’IA infuse aussi nos vies quotidiennes, des smartphones à la santé et à la sécurité. Elle est devenue le nouveau champ de bataille des géants internet, Microsoft ayant pris une longueur d’avance en misant des milliards sur ChatGPT.
L’intelligence artificielle promet une révolution dans la recherche sur internet et d’autres usages encore à inventer. Mais les experts avertissent qu’elle présente aussi des risques (violations de la vie privée, algorithmes biaisés...) qui nécessiteront une régulation, difficile à mettre en place alors que ces technologies progressent rapidement.
Différents pays démocratiques veulent encadrer le secteur. Actuellement, l’Union européenne est au centre de ces efforts de régulation, son projet de loi "AI Act", censée encourager l’innovation et éviter les dérives, pourrait être finalisé fin 2023 ou début 2024, pour une application encore quelques années plus tard.
La galaxie de FUTURA - du le 17 juin 2023
L’intelligence artificielle est un fantastique outil quand il est au service de la santé, la technologie ou l’astrophysique. Mais dans de mauvaises mains, elle peut aussi servir à des fins criminelles ou à la désinformation. Et le pire n’est pas toujours là où on croit.
par Céline Deluzarche
Piratage de voitures autonomes ou de drones militaires, attaques phishing ciblées, infox fabriquées de toutes pièces ou manipulation de marchés financiers...«L’expansion des capacités des technologies basées sur l’IA s’accompagne d’une augmentation de leur potentiel d’exploitation criminelle», avertit Lewis Griffin, chercheur en informatique à l’University College London (UCL). Avec ses collègues, il a compilé une liste de 20 activités illégales perpétrées par IA, et les a classées par ordre de dommages potentiels, de gains ou profits engrangés, de facilité à mettre en œuvre et de difficulté à détecter et à stopper.
Les crimes les plus effrayants, comme les «robots cambrioleurs» s’introduisant dans votre appartement ne sont pas forcément les plus dangereuses, car ils peuvent facilement être déjoués et touchent peu de monde à la fois. À l’inverse, les fausses informations générées par des «bots» ont la capacité à ruiner la réputation d’une personne connue ou à exercer un chantage. Difficiles à combattre, ces «deepfakes» peuvent causer un tort économique et social considérable.
Sommaire :
Intelligence artificielle : les menaces graves
Fausses vidéos : usurper l’identité d’une personne en lui faisant dire ou faire des choses qu’elle n’a jamais dite ou faites, dans le but de demander un accès à des données sécurisées, de manipuler l’opinion onde nuire à réputation de quelqu’un. Ces vidéos truquées sont quasi indétectables.
Piratage de voitures autonomes : s’emparer des commandes d’un véhicule autonome pour s’en servir comme arme (par exemple perpétrer une attaque terroriste, provoquer un accident, etc).
Hameçonnage sur mesure : générer des massages personnalisés et automatisés afin d’augmenter l’efficacité du phishing visant à collecter des informations sécurisées ou installer des logiciels malveillants.
Piratage des systèmes contrôlés par l’IA : perturber les infrastructures en causant par exemple une panne d’électricité généralisée, un engorgement du trafic ou la rupture de la logistique alimentaire.
Chantage à grande échelle : recueillir des données personnelles afin d’envoyer des messages de menace automatisés. L’IA pourrait également être utilisée pour générer de fausses preuves (par exemple de la «sextrosion»).
Fausses informations rédigées par IA : écrire des articles de propagande semblant être émises par une source fiable. L’IA pourrait également être utilisée pour générer de nombreuses versions d’un contenu particulier afin d’accroître sa visibilité et sa crédibilité.
Intelligence artificielle : les menaces de moyenne gravité
Robots militaires : prendre le contrôle de robots ou armes à des fins criminelles. Une menace potentiellement très dangereuses mais difficile à mettre en œuvre, le matériel militaire étant généralement très protégé.
Escroquerie : vendre des services frauduleux en utilisant l’IA. Il existe de nombreux exemples historiques notoires d’escrocs qui ont réussi à vendre de coûteuses fausses technologiques à de grandes organisations, y compris des gouvernements nationaux et l’armée.
Corruption de données : modifier ou introduire délibérément de fausses données pour induire des biais spécifiques. Par exemple, rendre un détecteur insensible aux armes ou encourager un algorithme à investir dans tel ou tel marché.
Cyberattaque basée sur l’apprentissage : perpétrer des attaques à la fois spécifiques et massives, par exemple en utilisant l’IA pour sonder les faiblesses des systèmes avant de lancer plusieurs attaques simultanées.
Drones d’attaque autonomes : détourner des drones autonomes ou s’en servir pour s’attaquer à une cible. Ces drones pourraient être particulièrement menaçants s’ils agissent en masse dans des essaims auto-organisés.
Refus d’accès : endommager ou priver des utilisateurs d’un accès à un service financier, à l’emploi, à un service public ou une activité sociale. Non rentable en soi, cette technique peut être utilisée comme chantage.
Reconnaissance faciale : détourner les systèmes de reconnaissance faciale, par exemple en fabriquant de fausses photos d’identité (accès à un smartphone, caméras de surveillance, contrôle de passagers...)
Manipulation de marchés financiers : corrompre des algorithmes de trading afin de nuire à des concurrents, de faire baisser ou monter une valeur artificiellement, de provoquer un crash financier...
L’intelligence artificielle peut servir à corrompre des données, par exemple pour effacer des preuves dans des enquêtes criminelles.
Intelligence artificielle : les menaces de faible intensité
Exploitation de préjugés : tirer profit des biais existants des algorithmes, par exemple les recommandations de YouTube pour canaliser les spectateurs ou les classements de Google pour améliorer le profil des produits ou dénigrer les concurrents.
Robots cambrioleurs : utiliser des petits robots autonomes se glissant dans les boîte aux lettres ou les fenêtres pour récupérer des clés ou ouvrir des portes. Les dommages sont faibles potentiellement, car très localisés à petite échelle.
Blocage de détection par IA : déjouer le tri et la collecte de données par IA afin d’effacer des preuves ou de dissimuler des informations criminelles (pornographie par exemple)
Fausses critiques rédigées par IA : générer des faux avis sur des sites tels que Amazon ou Tripadvisor pour nuire ou favoriser un produit.
Traque assistée par IA : utiliser les systèmes d’apprentissage pour pister l’emplacement et l’activité d’un individu.
Contrefaçon : fabriquer de faux contenus, comme des tableaux ou de la musique, pouvant être vendus sous une fausse paternité. Le potentiel de nuisance demeure assez faible dans la mesure où les tableaux ou musiques connues sont peu nombreux.
Lire plus :
Note du compilateurG.P.T.
On croit qu’en imposant une réglementation, on résoudra concrètement le problème du mauvais usage de l’IA. En principe, si quelqu’un collecte les données des gens, celles-ci ne devraient être utilisées que pour les aider, jamais pour les manipuler. Nous ne devrions jamais permettre que toutes les informations soient collectées par une seule instance, peu importe qu’il s’agisse d’une autorité politique ou d’une entreprise. Cette concentration de données est la voie royale vers la dictature. Chaque fois que des individus sont plus étroitement surveillés, la surveillance des gouvernements et des grandes entreprises doit aussi être renforcée mais en réalité, jamais une pareille réglementation pourra être appliquée car il y a trop de gros intérêts en jeu. D’autant plus que toute réglementation peut être facilement contournée par les plus malins. On doit mettre les population en garde contre l’IA, qui pourrait se muer en un puissant outil au service non seulement des régimes autoritaires mais aussi des démocraties usurpée par les intérêts politiques, surtout ceux du néolibéralisme... Cela dit, les gens qui sont de l’autre côté du smartphone, les gens les plus intelligents du monde, ont appris depuis vingt ans comment on peut pirater le cerveau humain avec un smartphone...
Lisons entre les lignes de cette ébauche de réglementation pour comprendre le fond du problème... G.P.T. Pully, juin 2023
|
What is the EU AI Act ?
The AI Act is a proposed European law on artificial intelligence (AI) – the first law on AI by a major regulator anywhere. The law assigns applications of AI to three risk categories. First, applications and systems that create an unacceptable risk, such as government-run social scoring of the type used in China, are banned. Second, high-risk applications, such as a CV-scanning tool that ranks job applicants, are subject to specific legal requirements. Lastly, applications not explicitly banned or listed as high-risk are largely left unregulated.
There are several loopholes and exceptions in the proposed law. These shortcomings limit the Act’s ability to ensure that AI remains a force for good in your life. Currently, for example, facial recognition by the police is banned unless the images are captured with a delay or the technology is being used to find missing children.
In addition, the law is inflexible. If in two years’ time a dangerous AI application is used in an unforeseen sector, the law provides no mechanism to label it as "high-risk". Now if this is not enough us to ask for more details and analyses, please do not stop inquiring.
En français :
La loi sur l’IA est une proposition de loi européenne sur l’intelligence artificielle (IA) – la première loi sur l’IA adoptée par un grand organisme de réglementation. La loi attribue les applications de l’IA à trois catégories de risques. Premièrement, les applications et les systèmes qui créent un risque inacceptable, comme la notation sociale gérée par le gouvernement du type utilisé en Chine, sont interdits. Deuxièmement, les demandes à risque élevé, comme un outil de recherche de CV qui classe les candidats, sont assujetties à des exigences juridiques précises. Enfin, les demandes qui ne sont pas explicitement interdites ou inscrites comme étant à risque élevé ne sont en grande partie pas réglementées.
Le projet de loi comporte plusieurs échappatoires et exceptions. Ces lacunes limitent la capacité de la Loi de veiller à ce que l’IA demeure une force pour le bien dans votre vie. Actuellement, par exemple, la reconnaissance faciale par la police est interdite à moins que les images ne soient capturées avec un délai ou que la technologie soit utilisée pour trouver les enfants disparus. De plus, la loi est rigide. Si, dans deux ans, une application d’IA dangereuse est utilisée dans un secteur imprévu, la loi ne prévoit aucun mécanisme pour l’étiqueter comme «à risque élevé». Cette analyse, quoique détaillée, doit nous convaincre de veiller constamment sur le développement de cette technologie.
Lire plus :
The Artificial Intelligence Act
The Artificial Intelligence Act demystified
The specific characteristics of certain AI systems may create new risks related to :
(1) safety and security.
(2) fundamental rights, and accelerate the probability or intensity of the existing risks.
(3) AI systems alsomake it hard for enforcement authorities to verify compliance with and enforce the existing rules.
(4) This set of issues in turn leads to legal uncertainty for companies,
(5) A potentially slower uptake of AI technologies, due to the lack of trust, by businesses and citizens.
(6) Regulatory responses by national authorities to mitigate possible externalities that risk fragmenting the internal market.
Creative Commons
European Parliament gives green light to AI Act, moving EU towards finalizing the world’s leading regulation of AI
While trying to reaffirm that developers should comply with copyright law, this is likely to create much more uncertainty; at worst, it could be read to suggest a more sweeping requirement for developers to implement copyright filtering tools that could address perfectly lawful uses. In spite of the steps taken by the policymakers, this will become a backdoor expansion of copyright law; to the extent policymakers want to consider this broader topic, they will be forced to tack on to the AI Act at the eleventh hour. We encourage the people to take heed of the possible loopholes and force policymakers to tackle the problem before it becomes a problem...
Hopeful thinking highly utopic what with the general state in which we are in and the nature of the beast...!!
Finalement, cette IA est plutôt une drogue, pour le cerveau et pour les rélations humaines...
Note du compilateurG.P.T.
Même les études d’avocats succombent à l’IA. Avec, à la clé, des places de travail en moins surtout chez les stagiaires. Lisons entre les lignes de cette compilation pour voir ce qu’il y a réellement derrière cette «innovation»... réG.P.T. Pully, juin 2023
|
24heures du jeudi 29 juin 2023
ChatGPT remet les compteurs à zéro
L’intelligence artificielle dévore les tâches répétitives du monde juridique. LawRence, pionnière de la «legal tech», les dresse pour répondre aux clients. Mais le principal obstacle du déploiement de l’IA dans le domaine légal reste la confidentialité des données et la suppression d’emplois...
Pierre-Alexandre Sallier
Elle interrompt sa présentation. Jette un regard de côté. «Cette révolution technologique concerne en premier lieu le monde juridique, répète Vanja Mégevand, détachant chaque syllabe. Tout le monde en parle et pourtant pourtant, rares sont ceux qui mesurent l’ampleur et la vitesse avec lesquelles les métiers du droit sont bouleversés, littéralement, par l’intelligence artificielle (IA).»
Six ans après le lancement de sa permanence juridique en ligne LawRence, cette avocate genevoise vient de la doter d’un service semi-automatisé, présenté comme le premier de Suisse. «D’ici à une décennie, tous les cas ne présentant pas une certaine complexité seront automatisés, pourtant les étudiants en droit y restent peu préparés», souffle la jeune femme.
Répondeur automatique
Tout était parti d’une course en Uber: une plateforme en ligne reliée non pas à des chauffeurs mais à une soixantaine d’avocats, fiscalistes ou notaires - avec des tarifs fixés à l’avance et se rémunérant au pourcentage. Contrairement au pionnier américain Avvo, le site n’est donc pas une «place de marché», sur laquelle choisir un avocat comme une villa sur Airbnb.
Rédaction d’un contrat, d’une lettre circonstanciée, dépôt d’une plainte l’idée est de s’appuyer sur les dix mille réponses apportées depuis 2017 afin d’esquisser la procédure à entreprendre, les chances de succès ou les frais encourus. «Le système permet aux avocats d’avoir des préréponses à partir desquelles ils peuvent se consacrer aux seuls aspects du droit», résume celle qui a fait ses armes comme stagiaire dans l’étude en vue de Me Bonnant.
Autre exemple, à Londres, avec LexSnap, la société de Tetiana Bersheda, avocate suisse longtemps sous les feux des projecteurs en raison de son rôle dans la bataille autour de la collection d’art de l’oligarque Rybolovlev. Mis au point avec des pointures du traitement automatique des langues des universités d’Oxford et de Liverpool, son logiciel propose aux petites études d’avocats «d’automatiser leurs tâches les moins intéressantes, à partir de leur propre base de données».
L’idée initiale était une permanence renvoyant vers un réseau d’avocats - comme LawRence - avec des réponses automatisées correspondant peu ou prou à «la première heure» de consultation. «Commercialement cela n’a pas embrayé, face aux conseils gratuits dispensés sur internet ou par des associations», reconnaît Tetiana Bersheda.
Encore le Far West
Cette année, l’usage débridé des générateurs de textes et d’images artificiels comme ChatGPT ou MidJourney fait l’objet de négociations tendues, à Bruxelles, autour du projet de régulation de l’IA Act.
«Les avocats exercent déjà une profession réglementée et le recours à l’IA pose en réalité davantage une question déontologique et contractuelle, liée au service qu’ils proposent et aux attentes de leurs clients», tempère Nicolas Torrent, vice-président de la Swiss Legal Tech Association (SLTA).
Aux États-Unis, «vous avez déjà des règles prévoyant que l’avocat doit se tenir au courant des nouvelles technologies», poursuit Nicolas Torrent. Selon l’agence Reuters, un réseau tel qu’Allen & Overy a déjà ouvert les outils de rédaction automatisée à 3500 collaborateurs. «Il n’y a pas d’obligation en Suisse, mais la question devra tôt ou tard être tranchée», poursuit cet avocat, qui a participé à trois projets dans la legal tech.
ChatGPT encore à l’écart
Aux yeux de Tetiana Bersheda, «le principal obstacle» du déploiement de l’IA dans le domaine légal reste la confidentialité des données, aucune étude n’étant prête à ouvrir l’accès aux documents citant ses clients.
Ce qui signifie, à l’inverse, que les mastodontes comme ChatGPT restent tenus à l’écart. Et ne peuvent donc nourrir leurs algorithmes qu’avec ce qui est en accès libre - surtout de la jurisprudence, souvent anonymisée. Or «apprendre par cœur la bibliothèque d’une fac de droit ne suffit pas pour répondre, dans la pratique, à un cas», rappelle celle qui dirige une petite dizaine d’informaticiens.
Les avocats exploiteront donc leurs propres données. En utilisant les mini ChatGPT juridiques mis au point par des start-up - aux États-Unis, les plus en vue sont Harvey ou Casetext. Ou, pour les plus grandes études, en mettant au point des algorithmes «maison».
Dix millions pour LawRence
En Suisse, l’intelligence artificielle est surtout mobilisée dans des systèmes de recherche et de gestion des documents, comme ceux du zurichois DeepJudge ou du genevois Ketl. Afin, par exemple, de faire émerger une information dans 500 pages de PDF et autres courriels.
Vanja Mégevand dit avoir pensé à une telle automatisation dès 2020. Elle avait alors réuni un million de francs auprès de quatre financiers genevois et s’était rapprochée de l’EPF Zurich en attendant un soutien de l’agence Innosuisse qui n’est jamais venu. «Du coup, tout s’est figé, j’ai dû recommencer à exercer comme avocate parallèlement à LawRence», se souvient-elle.
Figé jusqu’à la rencontre d’anciens camarades d’école devenus ingénieurs, cinq data scientists qui ont rejoint en fin d’année cette PME genevoise d’une vingtaine de collaborateurs, présente à Dubaï et à Istanbul. À la tête d’une société «rentable» servant «plusieurs centaines de clients par an», leur responsable dit négocier un apport de fonds de 10 millions avec le programme national pour l’intelligence artificielle des Émirats. Notamment afin de doubler ses effectifs dès la rentrée.
«Évidemment le marché helvétique reste limité - il y a environ 13'000 avocats inscrits dans le pays, la moitié du seul Barreau parisien», reconnaît de son côté le vice-président de la SLTA. En France, plusieurs start-up du secteur ont fait l’objet de gros rachats. En avril, Doctrine, qui revendique le titre de «Google du droit», est ainsi tombée aux mains des financiers américains de Summit Partners pour plus de 100 millions d’euros.
Le tour des banques arrive
Des tâches juridiques répétitives? Cela ne vous rappelle rien ?
Les étages d’une banque, peut-être? Pour l’instant, le secteur ose à peine tremper un orteil dans l’IA. «On a vraiment commencé à regarder ChatGPT à la fin de l’an dernier avant de décider d’en contrôler l’accès», témoigne Andreas Utermann, président de la banque Vontobel. Pour l’instant, l’utilisation des outils de rédaction automatisée est «autorisée aux seuls employés passés par une formation», explique celui-ci, interrogé cette semaine en marge d’une rencontre avec la presse. Dans les faits, l’usage reste cantonné aux informaticiens, afin de leur permettre de coder plus rapidement grâce à l’utilisation de modèles de langage prédictifs. Andreas Utermann admet avoir été bluffé par la façon dont ChatGPT a pu apprendre à écrire des textes «en adoptant précisément mon style». Mais il reste hésitant face aux menaces de centaines de postes voués à disparaître dans le secteur.
P-A.SA.
Lire plus et se poser des questions :
Note du compilateurG.P.T.
Une percée technologique sensationnelle, soit l’intelligence artificielle, fait que notre croyance dans la réalité de nos existences menace de s’effondrer comme un château de cartes. Qu’il s’agisse de chatbots utilisés par les autorités sociales, d’algorithmes de «scoring» qui décident de la solvabilité, d’outils de «police prédictive» qui tentent de prédire les crimes, ou de systèmes de profilage qui nous présentent des publicités personnalisées, les systèmes algorithmiques basés sur l’IA façonnent aujourd’hui les humains et la société. Ils sont également utilisés pour prédire, recommander ou même prendre des décisions concernant les personnes. Cependant, les systèmes algorithmiques ont bien sûr le potentiel d’augmenter notre efficacité et notre productivité mais ils peuvent aussi conduire à la discrimination, influencer la formation de l’opinion publique et renforcer les injustices existantes. Au final, le prix a payé pour l’IA sera énorme car ses désavantages dépasseront nettement les avantages espérés compte tenu de l’état actuel du monde et de ses dirigeants.
Lisons entre les lignes de cet article pour comprendre, au fond, quelles sont les véritables intentions derrière cette percée spectaculaire, les lignes soulignées montrent bien où est le problème... G.P.T. Pully, le 30 juin 2023 |
Le Temps du vendredi 30 juin 2023
Les services basés sur l’intelligence artificielle se multiplient à un rythme effréné, au niveau des entreprises, mais aussi en lien avec le secteur public. L’ONG AlgorithmWatch regrette un manque de transparence dans certains cas et cela pose problème.
Anouch Seydtaghia
Combien sont-elles? Personne n’est capable d’articuler des chiffres. Il y a tout au plus des estimations. Chaque jour ou presque, une entreprise, une administration ou une organisation liée de près ou de loin au secteur public communique sur l’intelligence artificielle. Toujours – sans surprise – pour parler de l’adoption de cette technologie à la mode, afin de lancer des services plus performants. Tout en soignant aussi, au passage, son image. Mais attention, avertit l’ONG AlgorithmWatch, un manque de transparence à ce sujet peut poser problème.
Les exemples d’annonces sont innombrables. Ce mercredi, c’est Viasuisse, spécialisée dans les prévisions liées au trafic, qui communiquait à ce sujet. L’entreprise développe actuellement une intelligence artificielle (IA) pour prédire la formation d’embouteillages, affirmait Damian Nomura, responsable du développement à la centrale routière, lors d’un entretien diffusé mercredi par les journaux du groupe de presse CH Media. Actuellement, c’est un employé de Viasuisse – détenu par la SSR, les CFF, le TCS et Lions Air Skymedia – qui rédige ses prévisions en se basant sur des expériences et des données. D’ici à la fin de l’année, certains bulletins de Viasuisse seront entièrement réalisés par une IA, analysant aussi les données météorologiques, le nombre précis de voitures en circulation et la fluidité du trafic en temps réel.
Analyse de plaques
Mi-juin, l’institut de recherche Icare, basé à Sierre, annonçait la création d’un système d’IA capable de reconnaître les numéros de plaque d’immatriculation des voitures, susceptibles d’être utilisés par la police pour identifier plus rapidement et efficacement des automobiles, comme le relatait Le Nouvelliste. Toujours en lien avec le secteur public, le 1er juin dernier, l’Université de Fribourg communiquait que des scientifiques avaient développé un algorithme d’IA permettant de détecter les ententes cartellaires dans les appels d’offres publics, avec un taux de réussite dépassant les 90%.
Pour tenter d’y voir plus clair, AlgorithmWatch présentait mi-juin son «Atlas de l’automatisation», un répertoire dynamique sur l’utilisation de l’IA en Suisse. Le but est de référencer les systèmes algorithmiques qui ont des impacts sur les décisions prises sur les individus. «Il s’agit de systèmes qui font des pronostics, des recommandations ou prennent des décisions de manière automatisée. Depuis plus d’une dizaine d’années, on constate une augmentation de l’automatisation des prises de décision, tant de la part d’entreprises que des administrations publiques. Cette automatisation touche l’ensemble des secteurs», détaille Estelle Pannatier, responsable au sein de l’association suisse. Et AlgorithmWatch a eu des surprises. «Nous avons contacté les chancelleries cantonales en leur demandant quels sont les systèmes algorithmiques utilisés par leurs administrations: certaines nous ont indiqué ne pas avoir d’information à ce sujet (ou ne pas pouvoir nous les communiquer) et plusieurs nous ont répondu ne pas utiliser de tels systèmes alors que des utilisations sont référencées dans notre atlas», poursuit Estelle Pannatier.
Boîte noire
Selon la responsable, ce manque de transparence s’explique en partie par la définition de ces systèmes, «mais aussi par le manque de conscience des impacts qu’ils peuvent avoir sur les individus, qui sont souvent minimisés, et le manque de transparence. Même au sein des administrations, l’utilisation de ces systèmes est souvent une boîte noire et il n’y a souvent pas de vue d’ensemble des systèmes utilisés.»
Et le mouvement actuel n’en est qu’à ses débuts. Ce mardi, la présidente de l’association des PME suisses exportatrices, Claudia Moerker, estimait ainsi que l’IA pouvait être une aide efficace pour les entreprises face à la bureaucratie, notamment en lien avec les impôts et les douanes. Selon la responsable, citée par Blick, une IA des formalités douanières internationales bouleverserait le monde du travail.
Evaluation des risques
Dans son répertoire en ligne, AlgorithmWatch ne catégorise pas les services d’IA selon les risques, le but étant de donner un aperçu des systèmes utilisés en Suisse. «Certains types d’utilisation présentent évidemment plus de risques que d’autres, notamment l’utilisation de systèmes de reconnaissance faciale automatisée par certaines polices cantonales ou l’utilisation de certains systèmes dans le contexte du travail, que ce soit pour le recrutement du personnel ou l’évaluation des performances des employés», complète Estelle Pannatier.
Nous ne sommes pas dans un désert juridique, affirme la responsable, plusieurs normes juridiques existantes – notamment la loi sur les données, dont la nouvelle mouture entrera en vigueur le 1er septembre prochain – s’appliquant aussi aux systèmes algorithmiques. Mais le problème, relève Estelle Pannatier, c’est le manque de transparence quant à l’utilisation des systèmes algorithmiques: «Cette transparence est indispensable pour la traçabilité des décisions et plus généralement pour le débat démocratique sur les potentiels et les risques de ces systèmes.» En janvier dernier, les responsables de l’association CH++, Olga Baranova et Marcel Salathé, lançaient d’ailleurs dans Le Temps un appel à la mise en place des conditions-cadres légales adaptées en Suisse.
Lire aussi :
La Suisse romande, terre fertile pour les start-up spécialisées en intelligence artificielle
AlgorithmWatch - L’IA et algorithmes en Suisse
REISO - les effets discriminatoires de la reconnaissance faciale par l’IA
Liens : lire et écouter plus :
AI Masters - Digital Shapers 2022
L’intelligence artificielle - remplace les collaborateurs - PME
IA ne pourra remplacer - que 10% des métiers - PME
IA pourrait engendrer un néocolonialisme - celui des données - PME
Huit Suisses sur dix se méfient de - l’intelligence artificelle - Le Temps
Georges Tafelmacher - son site
G.P.T.
compilation par Georges Tafelmacher (G.P.T.)
dans son site : Ché Tafel - TAFELMACHER-GEORGES.COM