Faut-il encadrer l’intelligence artificielle pour la rendre éthique ?

Faut-il encadrer l’intelligence artificielle pour la rendre éthique ?

artificial-intelligence

Face aux problèmes éthiques posés par l'intelligence artificielle, les entreprises veulent prendre leur temps quand les consommateurs veulent un cadre plus contraignant.

Vaste question que celle de l’éthique dans l’intelligence artificielle ! Plus la technologie s’affine et plus les craintes des utilisateurs grandissent : le spectre d’un ordinateur fou tel qu’a pu le concevoir Stanley Kubrick dans 2001 L’Odyssée de l’espace reste bien présent dans l’imaginaire collectif. Néanmoins, c’est aussi au fur et à mesure des problèmes que les utilisateurs ont rencontré que leurs réticences émergent. Ainsi, une étude réalisée par le Capgemini Research Institute menée auprès de 1580 dirigeants de grandes entreprises dans dix pays et auprès de plus de 4400 consommateurs dans six pays a montré que près de la moitié des utilisateurs interrogés (47%) estiment qu’ils ont vécu au moins deux cas d’utilisation de l’intelligence artificielle ayant entraîné des problèmes d’ordre éthique au cours des deux ou trois dernières années.

La proportion est encore plus alarmante du côté des dirigeants d’entreprise : 9 sur 10 estiment que des problèmes d’ordre éthique ont résulté de l’utilisation de l’IA ces deux ou trois dernières années. Cela peut aussi bien concerner la collecte de données personnelles de patients sans leur accord ou, dans les secteurs de la banque et de l’assurance, un recours systématique aux décisions proposées par une machine, sans arbitrage préalable. Pour expliquer ces dysfonctionnements, les chefs d’entreprise citent à la fois une mise en place précipitée de la technologie et un souci moindre des questions éthiques lors de sa mise en service.

Mieux encadrer les usages

Lorsqu’un problème éthique survient, 41% des dirigeants interrogés déclarent avoir complètement arrêté l’IA. Une mesure radicale qui bat en brèche les investissements réalisés et écorne l’image de l’entreprise concernée. C’est pourquoi, sans surprise, 53% des dirigeants considèrent qu’il est important de veiller à ce que les systèmes d’IA soient éthiques et transparents.« Pour y parvenir, les organisations doivent se concentrer sur la mise en place des bonnes structures de gouvernance, explique Anne-Laure Thieullent, responsable de l’offre IA et analyse du groupe Capgemini. Elles doivent non seulement établir un code de conduite fondé sur leurs valeurs mais aussi adopter une approche ethics-by-design et, surtout, se concentrer sur l’information et la responsabilisation de chacun dans la manière d’interagir avec les solutions IA ».

Les consommateurs, eux, se montrent davantage intéressés par un système d’information… mais aussi une forme de contrainte. Ainsi, 72% des utilisateurs ayant répondu à l’enquête disent qu’ils veulent savoir si l’IA les traite de façon équitable. Et plus des trois quarts des consommateurs (76%) pensent que la réglementation devrait être renforcée pour encadrer la façon dont les entreprises utilisent l’IA. « De nombreuses organisations sont arrivées à la croisée des chemins en termes d’utilisation de l’IA, constate Anne-Laure Thieullent. Consommateurs, employés et citoyens sont de plus en plus disposés à interagir avec la technologie mais ils sont conscients des problèmes éthiques potentiels. Cette étude montre qu’il est nécessaire de créer un cadre et des pratiques éthiques pour l’utilisation de l’IA afin de gagner la confiance du public. Ce n’est pas qu’une question de conformité : cela peut devenir un véritable avantage en termes de fidélité et d’adhésion. »

Réglementer l’IA permettrait ainsi non seulement de rassurer les utilisateurs mais aussi d’accompagner les entreprises dans sa mise en place. Mais peut-on réglementer l’éthique de l’IA de façon suffisamment éthique également pour ne pas pénaliser l’innovation ou favoriser certains acteurs plutôt que d’autres ? Telle est la question.

Source : relais d’information Madyness