![]() |
| Fuente Web |
+ VIDEO. Un rapport
rédigé par une trentaine d'experts issus de prestigieuses
universités et d'ONG ont imaginé les pires scénarios que
pourraient suivre des criminels ou des Etats voyous.
Après les risques
de sécurité liés aux objets, c'est désormais le développement de
l'intelligence artificielle (IA) qui suscite les craintes des
particuliers autant que de la communauté scientifique. Car l'IA
pourrait être détournée à des fins malveillantes par des Etats
voyous, des criminels, des terroristes, s'alarme un rapport d'une
centaine de pages rédigé par 26 experts spécialistes en IA,
cybersécurité et robotique et issus de prestigieuses universités
(Cambridge, Oxford, Yale, Stanford) et d'organisations non
gouvernementales (OpenAI, Center for a New American Security,
Electronic Frontier Foundation).
Selon eux, dans les
dix prochaines années, l'efficacité croissante de l'IA risque de
renforcer la cybercriminalité mais aussi de conduire à des
utilisations de drones ou de robots à des fins terroristes. Elle est
également susceptible de faciliter la manipulation d'élections via
les réseaux sociaux grâce à des comptes automatisés (« bots »).
Menace d'attaques
«particulièrement efficaces»
Ces experts
appellent donc les gouvernements et les différents acteurs concernés
à mettre en place des parades pour limiter les menaces potentielles
liées à l'intelligence artificielle. « Nous pensons que les
attaques qui seront permises par l'utilisation croissante de l'IA
seront particulièrement efficaces, finement ciblées et difficiles à
attribuer », souligne le rapport.
Afin de sensibiliser
l'opinion et les décideurs, ces spécialistes ont élaboré
plusieurs scénarios qu'ils qualifient d'« hypothétiques » mais
qui illustrent comment pourrait se présenter l'utilisation mal
intentionnée de l'IA.
Utiliser des
systèmes disponibles dans le commerce
Dans l'un de ces
scénarios, des terroristes pourraient modifier des systèmes d'IA
disponibles dans le commerce (drones, véhicules autonomes) pour
provoquer des crashs, des collisions ou des explosions.
Ils imaginent ainsi
le cas d'un robot nettoyeur trafiqué qui se glisserait
subrepticement parmi d'autres robots chargés de faire le ménage
dans un ministère berlinois. Un jour, l'intrus passerait à
l'attaque après avoir reconnu visuellement la ministre des Finances.
Il se rapprocherait d'elle et exploserait de façon autonome, tuant
sa cible.
Ils envisagent aussi
les apports de l'IA aux techniques plus classiques de
cybercriminalité telles que les attaques par hameçonnage ciblé («
spear phishing »). Elles pourraient devenir beaucoup plus aisées à
mener à une large échelle.
Fausses vidéos
politiques
Sans oublier
l'utilisation potentielle de l'intelligence artificielle à des fins
politiques, par exemple pour interférer dans des élections
démocratiques. Car avec cette technologie, il devrait être possible
de réaliser des fausses vidéos très réalistes qui pourraient être
utilisées pour discréditer des responsables politiques, avertit le
rapport.
Les Etats
autoritaires vont aussi pouvoir s'appuyer sur l'IA pour renforcer la
surveillance de leurs citoyens, ajoute-t-il.
Une vue
d'ensemble
Ce n'est pas la
première fois que des inquiétudes s'expriment sur l'IA. Dès 2014,
l'astrophysicien Stephen Hawking avait lancé une mise en garde sur
les risques qu'elle pourrait faire courir à l'humanité, en
dépassant l'intelligence humaine. L'entrepreneur Elon Musk et
d'autres ont aussi tiré la sonnette d'alarme.
Et plusieurs
rapports spécifiques sur l'utilisation de drones tueurs ou sur la
façon dont l'IA pourrait affecter la sécurité des Etats-Unis ont
également été publiés.
Mais avec les
progrès technologiques importants réalisés ces dernières années
, ce rapport apporte « une vue d'ensemble sur la façon dont l'IA
crée de nouvelles menaces ou change la nature des menaces existantes
dans les domaines de la sécurité numérique, physique et politique
», résume Seán Ó hEigeartaigh, l'un des auteurs.

No hay comentarios:
Publicar un comentario