L’intelligence artificielle (IA) est considérée par la doctrine (praticiens, universitaires et usagers) comme le levier de la « troisième transformation de l’histoire économique » (Richard Baldwin, 2019). Elle suscite à la fois des espoirs (tech for good) et des inquiétudes (tech for worst).
L’IA, telle que définie par Marvin Minsky en 1956, et reprise dans le rapport « Villani » de 2019 et dans le dernier Livre blanc de Finance Innovation (2019), est la « construction de programmes informatiques qui s’adonnent à des tâches pour l’instant accomplies de façon non satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau tels l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique1 ». L’IA confère aux ordinateurs des capacités d’intelligence, en particulier celle de résoudre des problèmes. L’IA peut faire appel à la méthode du deep learning (ou apprentissage profond). Le deep learning est une forme d’IA dérivée du machine learning (apprentissage automatique) fonctionnant en réseaux de neurones artificiels inspirés par les neurones du cerveau humain. Plus le nombre de neurones est élevé, plus le réseau est « profond2 ».
L’IA se diffuse dans plusieurs domaines, tels que le calcul des primes d’assurance, la surveillance et la sécurité, la santé, la rédaction d’articles de presse, ou s’utilise encore dans le monde juridique. Afin d’appréhender ces phénomènes, les droits des pays doivent s’adapter pour apporter une réponse pertinente aux enjeux actuels et futurs, qui sont principalement de quatre ordres : la fiabilité de l’IA (1), l’encadrement de la reconnaissance faciale (2), la propriété intellectuelle des œuvres de l’IA (3) et les biais de l’IA dans la prise de décision (4). Une analyse comparée nous permettra de dresser un état des lieux de la position des Etats-Unis, de l’Europe et de la Chine sur la question complexe de l’encadrement juridique de l’IA dans nos sociétés.