07 Oct Intelligence artificielle : quelle(s) responsabilité(s) ?
Intelligence artificielle : vers une responsabilisation des entreprises
La Commission européenne prévoit de moderniser le dispositif de responsabilité du fait des produits défectueux.
Objectif ? Favoriser l’innovation technologique tout en garantissant aux victimes qu’elles puissent obtenir une indemnisation équitable lorsque des produits numériques et reconditionnés leur causent un préjudice.
Il est notamment prévu :
- que les règles de responsabilité soient claires et équitables pour les entreprises qui modifient substantiellement les produits ;
- de permettre l’indemnisation des dommages lorsque des produits tels que des robots, des drones ou des systèmes de maison intelligente sont rendus dangereux par des mises à jour logicielles, l’intelligence artificielle ou des services numériques nécessaires au fonctionnement du produit, ainsi que lorsque les fabricants ne parviennent pas à résoudre les vulnérabilités de la cybersécurité ;
- de permettre aux consommateurs lésés par des produits dangereux importés de l’extérieur de l’UE (Union européenne) de se tourner vers l’importateur ou le représentant européen du fabricant pour obtenir une indemnisation ;
- plus de flexibilité dans les délais pour introduire des réclamations et un allègement de la charge de la preuve pour les victimes dans les cas complexes, tels que ceux impliquant des produits pharmaceutiques ou l’IA (intelligence artificielle).
Outre une modernisation de la responsabilité du fait des produits défectueux, la Commission européenne prévoit de publier une Directive IA pour établir des règles uniformes pour :
- faciliter l’accès aux informations et l’allégement de la charge de la preuve en ce qui concerne les dommages causés par les systèmes d’IA ;
- établir une protection plus large pour les victimes (qu’il s’agisse de particuliers ou d’entreprises) et favoriser l’IA secteur.
Les nouvelles règles qui devraient être mises en place faciliteront, par exemple, l’obtention d’une indemnisation pour la personne victime de discrimination dans un processus de recrutement impliquant l’IA.
Pour atteindre ces objectifs, 2 garanties principales vont voir le jour :
- la présomption de causalité : si les victimes peuvent prouver que quelqu’un a commis une faute en ne respectant pas une certaine obligation (en lien avec leur préjudice), et qu’un lien de causalité avec la performance de l’IA est raisonnablement probable, le juge peut présumer que cette non-conformité a causé le dommage ;
- l’accès aux preuves pertinentes : les victimes pourront demander au juge d’ordonner la divulgation d’informations sur les systèmes d’IA à haut risque ; cela leur permettra d’identifier la personne qui pourrait être tenue responsable et de découvrir ce qui n’a pas fonctionné. Notez que cette divulgation sera soumise à des garanties appropriées pour protéger les informations sensibles, telles que les secrets commerciaux.
Source : Communiqué de presse de la Commission européenne du 28 septembre 2022, « De nouvelles règles de responsabilité sur les produits et l’IA pour protéger les consommateurs et favoriser l’innovation »
Intelligence artificielle : quelle(s) responsabilité(s) ? © Copyright WebLex – 2022
Sorry, the comment form is closed at this time.