Haro sur les deepfakes, potentiel risque pour les entreprises

Selon le milliardaire de la Silicon Valley Peter Thiel, qui a notamment fondé les entreprises PayPal ou Palantir, la pandémie de Covid-19 marque le vrai début du XXIème siècle, l’année où « la nouvelle économie a remplacé l’ancienne ». Difficile de lui donner tort, quand on constate le développement spectaculaire du télétravail, et de son corollaire la visioconférence. Même lorsque la crise sanitaire sera achevée, ces changements, cette dématérialisation accélérée des entreprises dans leurs méthodes de travail, leurs process, les relations humaines, ne s’achèvera pas et continuera de plus belle. L’adaptabilité extraordinaire des entreprises doit être soulignée, mais ce nouveau paradigme emporte par là même de nouveaux risques immatériels, qu’il convient d’étudier, et pour lesquelles les entreprises doivent se préparer.

Ces risques sont légion, mais j’aimerais en citer un en particulier. Les « deepfakes » sont des produits de l’intelligence artificielle et du machine learning : à partir de photos, vidéos ou audios préexistants, un algorithme générateur s’entraîne à créer des répliques jusqu’à ce qu’elles soient photoréalistes. Ainsi, il est possible avec cette technique de faire dire n’importe quoi à quelqu’un dans un audio ou une vidéo, pourvu qu’il y ait suffisamment de données sur la personne en question, et les logiciels développés pour créer des deepfakes sont de plus en plus performants. Il n’est évidemment pas certain que de telles méthodes soient utilisées dans un but malveillant : elles peuvent être utilisées dans un objectif de caricature notamment, ou pour simplifier la réalisation de vidéos ou films amateurs.

Mais les risques pour les entreprises sont réels : dans un monde où les communications importantes passent par visioconférence, quid d’une usurpation d’identité d’un participant, par des hackers, des escrocs ou des espions industriels ? Un exemple de 2019 est éloquent en la matière : le dirigeant d’une entreprise britannique a été berné, croyant entendre au téléphone la voix du PDG de sa société-mère. A sa « demande », c’est-à-dire celle de l’escroc, il a transféré 243 000 dollars à un faux fournisseur, avant de se rendre compte de la supercherie. Ce genre de manœuvres est amené à se développer, et sera peut-être le rançongiciel du futur. Les dangers liés aux deepfakes peuvent être bien sûr de tout autre nature : j’ai cité les possibles cas d’espionnages industriels, notamment par des prédateurs étrangers, mais un actif immatériel essentiel pour les entreprises est la réputation. Des deepfakes pourraient très bien être utilisés pour attenter à la réputation d’une entreprise, en faisant tenir des propos intolérables à un cadre dirigeant par exemple.

Si ce rapide tour d’horizon doit nous inciter à être prudent, il doit surtout nous inciter à appréhender ce genre de risques bien en amont afin d’y faire face efficacement. C’est tout le sens du travail de l’IHEMI que je dirige. Dans le cadre de notre Observatoire des crises, nous entamons des études prospectives sur ce type de dangers. Nos formations, en particulier la session nationale Protection des entreprises et intelligence économique, sont un atout majeur pour les cadres d’entreprise, afin que ces derniers soient préparés au mieux à ces enjeux. Enfin, le ministère de l’Intérieur s’implique pleinement dans ces enjeux, avec la présence dans chaque département d’un sous-préfet à l’intelligence économique, auquel les entreprises peuvent s’adresser.

 

 

Eric Freysselinard, Directeur de l’Institut des hautes études du Ministère de l’Intérieur

https://www.linkedin.com/in/eric-freysselinard/

Gestion des cookies