Intelligence artificielle : quelle(s) responsabilité(s) ?

Fidu - - Intelligence artificielle : quelle(s) responsabilité(s) ? -

La réglementation autour de l’intelligence artificielle (IA) est encore floue. C’est pourquoi la Commission européenne vient de présenter un projet pour adapter la question de la responsabilité des entreprises aux enjeux posés par l’IA. Point d’étape.


Intelligence artificielle : vers une responsabilisation des entreprises

La Commission européenne prévoit de moderniser le dispositif de responsabilité du fait des produits défectueux.

Objectif ? Favoriser l’innovation technologique tout en garantissant aux victimes qu’elles puissent obtenir une indemnisation équitable lorsque des produits numériques et reconditionnés leur causent un préjudice.

Il est notamment prévu :

  • que les règles de responsabilité soient claires et équitables pour les entreprises qui modifient substantiellement les produits ;
  • de permettre l’indemnisation des dommages lorsque des produits tels que des robots, des drones ou des systèmes de maison intelligente sont rendus dangereux par des mises à jour logicielles, l’intelligence artificielle ou des services numériques nécessaires au fonctionnement du produit, ainsi que lorsque les fabricants ne parviennent pas à résoudre les vulnérabilités de la cybersécurité ;
  • de permettre aux consommateurs lésés par des produits dangereux importés de l’extérieur de l’UE (Union européenne) de se tourner vers l’importateur ou le représentant européen du fabricant pour obtenir une indemnisation ;
  • plus de flexibilité dans les délais pour introduire des réclamations et un allègement de la charge de la preuve pour les victimes dans les cas complexes, tels que ceux impliquant des produits pharmaceutiques ou l’IA (intelligence artificielle).


Outre une modernisation de la responsabilité du fait des produits défectueux, la Commission européenne prévoit de publier une Directive IA pour établir des règles uniformes pour :

  • faciliter l’accès aux informations et l’allégement de la charge de la preuve en ce qui concerne les dommages causés par les systèmes d’IA ;
  • établir une protection plus large pour les victimes (qu’il s’agisse de particuliers ou d’entreprises) et favoriser l’IA secteur.


Les nouvelles règles qui devraient être mises en place faciliteront, par exemple, l’obtention d’une indemnisation pour la personne victime de discrimination dans un processus de recrutement impliquant l’IA.

Pour atteindre ces objectifs, 2 garanties principales vont voir le jour :

  • la présomption de causalité : si les victimes peuvent prouver que quelqu’un a commis une faute en ne respectant pas une certaine obligation (en lien avec leur préjudice), et qu’un lien de causalité avec la performance de l’IA est raisonnablement probable, le juge peut présumer que cette non-conformité a causé le dommage ;
  • l’accès aux preuves pertinentes : les victimes pourront demander au juge d’ordonner la divulgation d’informations sur les systèmes d’IA à haut risque ; cela leur permettra d’identifier la personne qui pourrait être tenue responsable et de découvrir ce qui n’a pas fonctionné. Notez que cette divulgation sera soumise à des garanties appropriées pour protéger les informations sensibles, telles que les secrets commerciaux.


Vous souhaitez vous faire accompagner par un Expert du groupe Fidu ?

Programmez votre appel avec le service Relation Clients du groupe et nous reviendrons vers-vous dans les plus brefs délais pour analyser ensemble votre situation actuelle, définir vos objectifs et établir ensemble les solutions les plus adéquates pour les atteindre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Faites passer votre entreprise au niveau supérieur

Demandez à être rappelé(e) par l'un de nos conseillers dès maintenant