L’intelligence artificielle en cybersécurité : transparence, risques et dommages collatéraux


L’intelligence artificielle en cybersécurité est aujourd’hui essentielle pour surveiller les flux de trafic et faire de la surveillance de masse pour démasquer des terroristes par exemple. Certaines autres applications soulèvent toutefois des questions éthiques. Pensons ici par exemple à l’identification de « populations problématiques », dont la définition varie en fonction de la nation et des motifs de leurs dirigeants.
L’utilisation de l’intelligence artificielle soulève aussi des questions sur son efficacité et sur les conséquences à donner lorsqu’elle ne répond pas aux attentes. Les produits de cybersécurité – pour défendre nos infrastructures critiques et attaquer celles de nos ennemis – affirment souvent en effet miser sur des intelligences artificielles qui ne le sont pas toujours et qui peuvent même se retourner contre leurs utilisateurs dans le pire des cas. Pouvons-nous nous fier à l’intelligence artificielle pour nous protéger? En cas de faille dans les systèmes de cybersécurité, qui est responsable?
Les experts discuteront de cette dépendance aux produits de cybersécurité bâtis sur de l’intelligence artificielle et de ses enjeux légaux, moraux et éthiques.

Ce contenu a été mis à jour le 5 mars 2018 à 14 h 56 min.