Les députés européens viennent d’adopter une résolution mettant en avant l’importance des contrôles humains pour la supervision des algorithmes d’intelligence artificielle (IA) utilisés par les autorités judiciaires et la police. Ces algorithmes se développent également très largement dans le secteur financier. Comment les superviser ?
L’utilisation d’algorithmes d’IA se développe rapidement dans le secteur financier, avec de nombreux avantages. Pour les consommateurs, l’IA permet par exemple de simplifier et d’accélérer les procédures d’accès au crédit, d’offrir un meilleur accès aux conseils financiers, plus personnalisé, via les robo-advisors, ou des interactions plus efficaces via la mise en place de chatbots. Cela permet également une tarification assurantielle plus fine. Pour les institutions financières également, le développement de l’IA présente de nombreux intérêts : identification de transactions frauduleuses, scoring de crédit automatique, etc.
Mais l’utilisation de ces algorithmes peut également exacerber certains risques. Par exemple, les algorithmes d’apprentissage profond (deep learning) qui font appel à un très grand nombre de paramètres, peuvent avoir des comportements inattendus. Ils peuvent être très sensibles à de petites modifications des inputs1 et changer de façon arbitraire de prédiction. D’une manière générale, les algorithmes d’IA peuvent présenter des biais non intentionnels ou de la discrimination envers certains groupes. Ainsi, même s’ils présentent d’excellentes performances sur un grand nombre de tâches, leurs mécanismes sous-jacents sont très différents de ceux des humains et ne sont pas nécessairement toujours bien compris. Leur utilisation peut générer des risques nouveaux, qui peuvent se traduire par des expositions financières et des risques opérationnels pour les institutions financières qui les utilisent.