Grandes Menaces programmées

 

menaces

 

Malgré toutes les assurances que peuvent nous donner les experts de l’intelligence artificielle, il ne reste pas moins que son introduction à marche forcée pose quand même des graves questions.

Ils nous inondent de commentaires remplis de recommandations qui ne sont pas toujours applicables car les intentions derrière l’IA ne sont pas claires et elles sont pourvues d’intérêts pas toujours avouables. Il ne reste pas moins que malgré les bénéfices attendus, les probabilités d’un très mauvais usage supplante les avantages possible.

Ci-dessous des articles montrant bien la dualité de la chose et les vœux pieux formulés pour garantir un usage correcte mais impossible à appliquer dans le contexte mentale des hommes tel qu'il se présente de nos jours où la nature humaine dans son pire sens domine.

Conclusion... Certes il y a des hommes bien intentionnés qui voir le bien de l’IA mais est-ce que cela compensera les menaces que nous pose celle-ci...?GPT

Note du compilateur   G.P.T.

Les phrases soulignées indiquent où cela fait problème, toujours sans le dire...

 

 

 

P32 - Sommaire :

  1. Les deepfakes   -   et l’IA menacent la sécurité des entreprises
  2. Pionnier   -   de l’IA averti
  3. ch.3   -   heading
  4. ch.4   :   heading
  5. ch.5   heading
  6. ch.5   -   heading
  7. Liens   -   Lire plusieurs pages instructives

 


 

PME Magazine le 10.10.2024

 

Intelligence artificielle

 

Les deepfakes et l’IA menacent la sécurité des entreprises

 

deepfake

 

Les attaques de cybercriminels à l’aide de technologie deepfake sont en augmentation, y compris en Suisse. Comment les entreprises peuvent-elles limiter les risques en la matière? Conseils pratiques.

 

Par Erik Freudenreich

 

Il y a quelques mois, le responsable financier d’une entreprise suisse recevait un coup de fil pour l’inviter à une visioconférence avec son chef. En se connectant, le CFO voit et échange avec son supérieur.

Mais durant la conversation, ce dernier tente d’obtenir des informations sensibles et de convaincre le responsable financier de réaliser une transaction financière. Heureusement, plusieurs détails ont mis la puce à l’oreille de la personne ciblée: la tenue vestimentaire de son chef sortait de l’ordinaire et sa voix ne lui était pas complètement familière.

  

L'essor des escroqueries utilisant la technologie deepfake

  

Voilà un cas signalé à l’Office fédéral de la cybersécurité (OFCS) ce printemps recourant à la technologie deepfake. Pour rappel, cette dernière consiste à générer des contenus audio ou vidéo en utilisant des échantillons de la voix et de l’apparence de la personne ciblée. L’OFCS enregistre un nombre croissant de plaintes en lien avec des tentatives de fraude qui emploient des technologies liées à l’intelligence artificielle: «Les cybercriminels utilisent des images générées par l’IA pour des tentatives de sextorsion, se font passer pour des personnalités connues au téléphone ou réalisent des escroqueries à l’investissement.» Bien que le nombre de signalements dans ce domaine soit encore relativement faible, il s’agit, selon les estimations de l’OFCS, de premières tentatives d’explorer les possibilités d’utilisation criminelle de l’IA pour mener de futures cyber-attaques.

Dans certains cas, ces tentatives peuvent coûter très cher. Ainsi, l’entreprise britannique Arup, un bureau d’ingénieurs notamment à l’origine de l’Opéra de Sydney, a récemment confirmé avoir été la cible d’une escroquerie recourant au deepfake qui a amené un de ses collaborateurs à verser 25 millions de dollars à des cybercriminels.

«Il faut se rendre compte que les organisations criminelles préparent ces attaques de la même manière qu’un braquage de banque, raconte Paul Such, CEO de la société vaudoise Hacknowledge, spécialisée dans la cybersécurité. Elles intègrent ainsi une longue phase de reconnaissance, qui permet de se renseigner sur le style de la personne ciblée, ses absences, etc. On m’a rapporté récemment le cas d’une société suisse qui a perdu 8 millions de francs à cause d’une arnaque au deepfake. Heureusement, ces transferts sont souvent bloqués au dernier moment par l’établissement bancaire de l’entreprise ciblée.»corps

L’expert remarque lui aussi une augmentation des tentatives criminelles qui intègrent ces nouvelles technologies. «Aujourd’hui, en Suisse, les fraudeurs ont principalement recours à des enregistrements audio. Cela s’explique sans doute par le fait que les outils sont pour l’instant surtout entraînés en langue anglaise, mais il n’y a aucun doute que l’on va voir arriver davantage de vidéos réalistes en français dans un futur proche.»

 

Sensibilisation et formation: des outils essentiels pour contrer les attaques

 

Le problème principal posé par ces approches ne concerne pas la technique, mais le fait qu’elles reposent sur la crédulité des utilisateurs. «Tous les artifices sécuritaires possibles ne servent à rien si les employés ne sont pas régulièrement sensibilisés à ces questions. Aussi, notre industrie a essayé ces dernières années de faire progresser les utilisateurs en envoyant de fausses tentatives de phishing et en notant qui se faisait avoir. Mais ce n’est qu’une partie de l’équation: il est aussi intéressant de pouvoir identifier le nombre de collaborateurs qui se rendent compte d’une attaque et qui appliquent les bons réflexes, notamment en prévenant leur service informatique.»

La formation des employés est cruciale pour la cybersécurité d’une organisation, souligne également Christian Da Silva, président de CyberHelvet, une entreprise genevoise spécialisée dans la cybersécurité et membre de l’Observatoire des risques opérationnels (Oprisko), une association à but non lucratif qui traite de la maîtrise des risques d’entreprise. «Comme les employés sont souvent les premières cibles des attaques, une formation régulière aide à réduire les erreurs qui pourraient compromettre la sécurité. Il s’agit par ailleurs de promouvoir une véritable culture de la cybersécurité pour contribuer à renforcer les défenses globales de l’entreprise.»

Un avis partagé par Paul Such, de la société Hacknowledge. «Cet état d’esprit doit être instillé par la direction pour que les employés prennent pleinement conscience des risques encourus. Aussi, cette évangélisation auprès des utilisateurs finaux doit s’accompagner d’explications concrètes de l’utilité des mesures mises en place.»

 

Certify, pour distinguer le vrai du faux

 

La start-up genevoise Certify développe une application qui aide les internautes à mieux identifier les informations douteuses.

Les graines de chia sont-elles vraiment un aliment miracle, comme le professe cet influenceur sur TikTok? «Non, il manque des études à ce sujet, et la personne qui en parle à l’écran est coach sportif et non pas nutritionniste.» Voilà un exemple de contextualisation que l’on peut découvrir en utilisant l’application genevoise "Certify". Concrètement, celle-ci permet aux utilisateurs d’envoyer le contenu d’un réseau social ou d’un site web sur la plateforme Certify pour faire appel à l’avis d’un expert. Celui-ci rédige ensuite une fiche qui résume les principaux points d’attention concernant le contenu soumis et intègre des liens vers les sources utilisées.

«Nous voulons aider le public à développer son aptitude à comprendre et à utiliser les informations, explique Fayez Alrafeea, cofondateur et responsable du développement technique de Certify. Il existe aujourd’hui un vrai problème de ’littératie médiatique’ – soit la capacité à analyser les contenus médiatiques – chez les jeunes générations. D’autant plus que si les gens pensent souvent en premier lieu aux fake news en lien avec la politique ou la santé, cela concerne de nombreux autres domaines comme le sport ou les divertissements.»

L’application est actuellement en phase de test dans différentes écoles de la région genevoise. «Les principaux défis techniques ont été résolus, et nous sommes désormais à la recherche de nouveaux investisseurs pour une mise à l’échelle du projet, précise Basile Zimmermann, cofondateur. Nous allons par ailleurs prochainement déployer la plateforme en Suisse alémanique et développons aussi des partenariats à l’étranger.»

 

Cibler efficacement les investissements en cybersécurité

 

  1. Évaluer les dangers spécifiques à l’aide d’une analyse des risques pour identifier les vulnérabilités
  2. Investir dans la formation continue pour sensibiliser les employés aux dernières menaces
  3. Adopter des technologies de sécurité avancées, tels que solutions de détection et de réponse aux menaces (EDR), pare-feu de nouvelle génération et solutions de sécurité cloud
  4. Mettre en place une stratégie de réponse aux incidents en disposant d’un plan clair pour réagir rapidement en cas de cyberattaque
  5. Collaborer avec des experts en cybersécurité pour bénéficier de conseils spécialisés

 

les critiques ne se sont pas fait attendre :

«l'AI ne donne aucune réponse ou des réponses erronées, ses réactions sont beaucoup trop lentes et son utilisation est compliquée, la batterie s'épuise au bout de deux heures, le pire produit jamais testé, défectueux dans tout ce qu'il fait, presque toujours et tout simplement «inutilisable». On parle d'une idée stupide plutôt que d'intelligence artificielle.»

a déclaré un utilisateur

 

Liens

 

Certify  Système online de demande de légalisations

Exemple de  Vœux pieux

 

retour au sommaire

 


 

Le Courrier du mercredi 09 octobre 2024

 

Un pionnier de l’IA nous avertit

 

Deux pionniers de l’IA récompensés

 

Hinton

 

John Hopfield et Geoffrey Hinton ont travaillé sur l’IA. On risque de la voir rivaliser un jour avec des lauréats !

 

Prix Nobel de physique

 

Le Prix Nobel de physique a été attribué mardi à l’Américain John Hopfield et au Canadien d’origine britannique Geoffrey Hinton. Ils sont récompensés pour leurs découvertes fondamentales sur l’apprentissage automatique et les réseaux neuronaux artificiels. Ils travaillent sur le sujet depuis les années 1980. John Hopfield, 91 ans et professeur à l’Université de Princeton, aux Etats-Unis, et Geoffrey Hinton, 76 ans et professeur à l’Université de Toronto, au Canada, «ont utilisé des concepts fondamentaux de la physique statistique pour concevoir des réseaux de neurones artificiels qui fonctionnent comme des mémoires associatives et trouvent des modèles dans de grands ensembles de données» a précisé Ellen Moons, présidente du comité Nobel de physique, devant la presse.

 

Inquiétudes pour l’avenir

 

Ces modèles «ont été utilisés pour faire avancer la recherche dans des domaines aussi divers que la physique des particules, la science des matériaux et l’astrophysique, et ils font désormais partie de notre vie quotidienne» comme la reconnaissance faciale et la traduction automatique, a-t-elle poursuivi. L’Américain John Hopfield a en particulier donné son nom au «réseau Hopfield», c’est-à-dire «une mémoire associative qui peut stocker et reconstruire des images et d’autres types de modèles», selon le jury. Geoffrey Hinton, lui, est parti du réseau Hopfield pour créer un nouveau réseau utilisant une méthode différente, «la machine Boltzmann». Il a ainsi «inventé une méthode capable de trouver de manière autonome des propriétés dans les données, et donc d’effectuer des tâches telles que l’identification d’éléments spécifiques dans des images».

«Je crains que la conséquence globale de tout cela ne soit des systèmes plus intelligents que nous qui finissent par prendre le contrôle», a ajouté le chercheur. Lauréat du Prix Turing 2018, il avait annoncé son départ de Google en mai 2023 pour pouvoir alerter des dangers de l’IA.

 

Un robot à découvertes

 

Cette technologie pourrait même être la prochaine rivale des lauréats du Nobel. Les scientifiques jugent qu’elle pourrait révolutionner la recherche. En 2021, le Japonais Hiroaki Kitano lance ce qu’il baptise le Nobel Turing Challenge. Il met les chercheurs au défi de créer un «scientifique de l’IA» capable de mener de manière autonome des recherches dignes d’un Prix Nobel d’ici à 2050.

Certains chercheurs travaillent d’arrache-pied à créer un tel collègue artificiel et une centaine de «robots scientifiques» sont déjà à l’œuvre dans la science, explique Ross D. King, professeur d’intelligence artificielle à l’Université de Chalmers, en Suède. Le spécialiste a publié dès 2009 un article dans lequel il présentait, avec d’autres chercheurs, un robot scientifique baptisé Adam, la première machine à produire des découvertes scientifiques de manière autonome.

Le robot a été programmé pour formuler des hypothèses de façon autonome, concevoir des expériences pour les tester et même programmer d’autres robots de laboratoire pour réaliser ces expériences et enfin apprendre à partir de ces résultats. Un deuxième robot scientifique appelé Eve a été ensuite créé pour étudier les médicaments candidats contre le paludisme et d’autres maladies tropicales.

 

Impact sur la science

 

Avec de tels robots, «cela coûte moins d’argent de mener des recherches et ils travaillent 24h sur 24», explique Ross D. King, ajoutant qu’ils sont en outre plus rigoureux dans le suivi des processus. Le chercheur concède cependant que l’IA est loin d’être à la hauteur d’un scientifique méritant le Nobel. Il faudrait pour cela des robots «beaucoup plus intelligents» capables de «comprendre la situation dans son ensemble» pour rivaliser avec les Nobel.

«La tradition scientifique n’est pas près d’être remplacée par des machines», abonde Inga Strümke, professeur associée à l’Université norvégienne des sciences et technologies. «Cela ne signifie pas que c’est impossible», ajoute-t-elle, estimant qu’il est «certainement clair que l’IA a et aura un impact sur la manière dont la science est menée.»

Le modèle d’IA Alphafold, développé par Google Deepmind, qui permet de prédire la structure tridimensionnelle des protéines en fonction de leur acide aminé, en est un bon exemple.

 

«Je suis inquiet que l’IA puisse devenir plus intelligent que nous et que la conséquence globale de tout cela ne soit des systèmes plus intelligents que nous qui finissent par prendre le contrôle.»
Geoffrey Hilton - pionnier de l’IA et prix Nobel de physique lors de son attribution

 

(NDC - commentaire...
Encore une fois on peut remarquer que derrière les paroles dithyrambiques des chercheurs et autres experts de l’IA, on peut constater une inquiétude cachée qui transparaît sans que, semble-t-il, cela amène à des mises en question ni même à des avertissements quant-aux problèmes que tout cela pose. Certes ces scientifiques articulent quelques craintes mais elles sont cependant vite noyées dans leurs défenses de l’IA qui, pour eux, semble être le pinacle d’un progrès inouï. Tout le problème est là, entre les supposés "bienfaits" de l’IA et ses dangers, le choix est vite fait, on privilège d’abord la gloire obtenue par cette IA invincible et dominante, porteuse d’espoirs hypothétiques...
)

 

Liens

 

Geoffrey Hinton   - warns about the growing dangers of AI

Geoffrey Hinton   - now scared of the tech he helped build

  

*   *   *   *

  

Liens

  

Retour à ma page   -   l’analyse de l’IA   -   compilation d’articles de divers journaux

Commentaires perso   -   sur l’IA   -   observations pertinentes du compilateur

sujet  -  lien  -  infos

  


  

robots humains

 

page compilée par  G.P.T.   -   octobre 2024

  

page checked by... Valid XHTML 1.0 Transitional