Dans son premier rapport sur les tendances, risques et vulnérabilités sur les marchés financiers, l’European Securities and Markets Authority (ESMA) identifie l’intelligence artificielle comme un axe de développement important. Mais le régulateur européen des marchés financiers pointe également les nouveaux risques qui en découlent, comme par exemple celui de vulnérabilité face aux menaces informatiques.
Par Laura Bourgeois, avocat et Jérôme Sutour, avocat associé, CMS Francis Lefebvre Avocats
Dans son premier rapport sur les tendances, risques et vulnérabilités sur les marchés financiers (ESMA50-165-737, 28 février 2019), l’European Securities and Markets Authority (ESMA), le régulateur européen des marchés financiers, identifie l’intelligence artificielle (IA) et, en particulier, sa modalité de machine learning comme un axe de développement important, associé au big data, des marchés financiers. L’IA que nous qualifions de véritable peut se définir comme un programme mettant en œuvre une série d’actions dans le but de résoudre un problème/réaliser une tâche et qui améliore automatiquement sa réponse au fur et à mesure de ses expériences, sans intervention humaine. Ainsi, ce qui caractérise ce processus est son «autonomie». Associée à la masse des données pouvant être collectées, une véritable IA peut ainsi apporter des réponses pertinentes plus rapidement qu’un humain ne le pourrait.
Toutefois, si le régulateur souligne les avantages des outils et services inédits promis par ce type d’IA, il pointe aussi les nouveaux risques qui en découlent. Sont, en particulier, identifiés le risque important de dépendance à la qualité des données transmises à l’IA et le risque de vulnérabilité face aux menaces informatiques. Par ailleurs, tout en reconnaissant le formidable potentiel de l’IA pour l’amélioration des services financiers, l’ESMA avait également déjà alerté dans une communication du 7 juin 2017 (ESMA50-158-457) sur les risques auxquels cette IA exposait l’intégrité du marché et les investisseurs.