La rapide démocratisation des technologies d’intelligence artificielle (IA) à laquelle il a été permis d’assister ces derniers mois (notamment par le biais des systèmes d’IA générative) a mis en lumière l’impérieuse nécessité de leur réglementation. Se pose alors d’emblée une question fondamentale : puisque les systèmes d’IA n’ont pas de personnalité juridique, qui en est responsable ?
La Commission européenne s’est penchée sur la question et a proposé d’établir un régime de responsabilité adapté aux produits et services issus de l’IA s’articulant autour de trois propositions législatives.
D’une part, une proposition de règlement établissant des règles harmonisées concernant l'intelligence artificielle (règlement IA), adoptée par la Commission le 21 avril 2021 et dont le parcours législatif touche presque à sa fin. Le règlement IA a en effet fait l’objet d’un vote par le Parlement européen le 14 juin 2023, en vue d’une adoption d’ici la fin de l’année 2023.
D’autre part, deux propositions de directive, adoptées par la Commission le 28 septembre 2022 et qui sont quant à elles, aux premières étapes du processus législatif européen. La première a vocation à réviser la directive sur la responsabilité du fait des produits défectueux (nouvelle directive Produits défectueux). La seconde a pour but d’adapter les règles en matière de responsabilité civile extracontractuelle au domaine de l’IA (directive Responsabilité IA).
Ces trois textes poursuivent des objectifs distincts quant à l’établissement d’un régime de responsabilité adapté aux produits et services issus de l’IA. Le règlement IA crée un cadre de conformité réglementaire dont le non-respect sera susceptible d’être sanctionné par la mise en œuvre de sanctions administratives1. Les deux propositions de directive ont quant à elles pour objectif de faciliter la mise en œuvre de la responsabilité extracontractuelle en cas de dommages causés par des produits ou services issus de l’IA2.