Intelligence artificielle et éthique : quels sont les enjeux ?

L’intelligence artificielle ou IA, utilisée dans tous les domaines, soulève des enjeux éthiques graves et inédits. Algorithmes simplistes, séries d’erreurs statistiques, reproduction des inégalités sociales… Les risques correspondent à la promesse de cette technologie : énormes.
Faut-il moraliser l’IA, les cerveaux des robots peuvent-ils être éthiques, si oui, comment ? Voici quelques éléments pour mieux comprendre et inspirer la discussion.
L’iA, qu’est-ce que c’est ?
L’intelligence artificielle ou IA est un processus évolutionniste qui permet à des machines de simuler une forme d’intelligence réelle grâce à l’assemblage de théories et de techniques vérifiées. Cette pratique multidisciplinaire s’applique principalement dans les domaines d’application comme :
- Les logiciels industriels,
- Les logiciels scientifiques,
- Les logiciels de gestion,
- …
Aujourd’hui une grande partie des multinationales revendique l’utilisation de l’IA. Il existe différents types d’intelligence artificielle.
L’IA faible
Cette forme d’IA est utilisée dans le but de réaliser des tâches simples. Elle fonctionne par le biais d’algorithmes. Ces derniers sont programmés par des humains et permettent à un robot de simuler une intelligence tout en étant assisté. L’IA dite faible définit un programme qui simule une intelligence dans le but d’exécuter une tâche précise. Autrement dit, cette forme d’IA accomplit une tâche prédéfinie. Au moment de sa réception, la machine analyse la tâche dans le but de résoudre le problème qui sera alors retranscrit en algorithme.
L’IA forte
Elle a été créée dans l’optique de ressentir de réels sentiments. L’IA forte consiste à faire comprendre à une machine ce qui l’a mené à effectuer des actions. De cette manière, le système reproduit de façon identique le fonctionnement du système cognitif humain. Ainsi, bien que privée de conscience, qui reste quant à elle propre à certains organismes vivants, la machine acquiert de l’expérience lui permettant de modifier son propre fonctionnement. Autrement dit, un apprentissage découle de la réception issue de données de base et entraine des réactions initialement non programmées.

Les domaines d’application de l’IA
En raison de son large champ d’affectation, l’intelligence artificielle s’applique à de nombreux domaines comme :
- Le divertissement,
- La médecine,
- Le secteur militaire,
- Le deep learning,
- …
Bien que l’IA possède de nombreux avantages, elle entraine des questionnements notamment au niveau de l’éthique.
Les enjeux éthiques liés à l’IA
L’intelligence artificielle est un logiciel qui a appris à apprendre pour réaliser des tâches complexes à la place des humains.
Toutefois, pour des centaines de chercheurs dont Stephen Hawking, Terah Lyons et Yann Le Cun, il est vraiment urgent de mettre de l’éthique dans tous ces fonctionnements.
Alors pourquoi l’IA a-t-elle besoin d’éthique ?
Cela est particulièrement important dans deux situations.
1e enjeux éthique, Quand l’IA raisonne de manière trop simpliste
Imaginons une voiture autonome qui décrypte et analyse ce qui se déroule sur l’autoroute. Devant elle une remorque contient un frigo décoré avec un poster de Nirvana et une carte postale de pingouin. La technologie de la voiture va-t-elle voir un pingouin, un bébé nageur, un frigo ou juste une remorque qui contient quelque chose ?
La réalité est complexe, pleine d’imprévus et la machine artificielle a encore beaucoup de difficultés avec ça.
En 2017 une étude de chercheurs américains a posé sur des panneaux stop des stickers noirs et blancs. 84% des voitures testées ont pris ces stops pour des panneaux 50km/h. Bientôt ces voitures devront aussi gérer les piétons imprévisibles, les cyclistes peu identifiables ou des dilemmes comme donner un coup de volant et choisir de sacrifier des piétons plutôt que les passagers de la voiture en fonçant dans un mur.
Est-ce que cela veut dire que l’IA n’est problématique que lorsqu’elle est imprécise ? Existe-t-il d’autres enjeux éthiques ?
2e enjeu éthique lié à l’intelligence artificielle , Quand l’IA apprend vite et obéit à toutes les règles qu’on lui a fixé, cela pose encore d’autres soucis
En 2017 des chercheurs de l’université américaine de Stanford ont affirmé avoir appris à une IA à déchiffrer l’orientation sexuelle de personnes en scannant les traits de leur visage sur des photos. Cela a fait un badbuzz et ils ont affirmé que c’était une provocation pour montrer que la technologie allait beaucoup trop loin.
Autre exemple angoissant : en 2016 Tay, un robot de discussion intelligent de Microsoft a dû être désactivé parce qu’il devait apprendre à discuter avec les internautes sauf que des commentaires haineux en faveur du nazisme lui ont fait apprendre à utiliser ces propos. Cela montre qu’on peut apprendre à une machine les pires horreurs de l’humanité en moins de 24h.
C’est au cœur même du fonctionnement de l’IA que se posent certaines limites éthiques
Une IA est aussi intelligente que toutes les données qu’elle dévore pour réfléchir.
Par exemple, une entreprise fait appel à l’IA pour choisir ses candidats face à un poste. Le profil du candidat idéal est calculé à partir du profil des salariés de l’entreprise. Or si 70% des salariés de l’entreprise sont des hommes blancs et sont passés par les meilleures universités, alors le logiciel va conclure que les cv de femmes, de minorités ou de personnes avec un parcours scolaire plus sinueux seront moins intéressants. L’IA peut donc automatiser la discrimination à l’embauche. C’est ce qui s’est passé chez Amazon en 2014.
Alors comment pallier aux problèmes liés aux enjeux éthiques de l’Intelligence artificielle ?
Quelles solutions mettre en place afin de combiner Intelligence artificielle et enjeux éthiques
En finir avec les boîtes noires
L’objectif est de créer des technologie plus lisibles et traçables permettant de démêler les bugs ou les résultats discriminants.
Une science existe d’ailleurs déjà pour déconstruire les raisonnements de la machine et elle a beaucoup d’avenir. Il s’agit de la rétro-ingénierie.
Former et sensibiliser les experts aux enjeux éthiques de l’IA
Une deuxième solution pourrait être de faire travailler plus de sociologues, d’anthropologues ou de philosophes sur des projets scientifiques aujourd’hui encore trop réservés à des experts techniques.
Il s’avère également indispensable de former les ingénieurs et mathématiciens aux questions d’éthique directement à l’université. C’est par exemple le cas depuis 2014 à l’université américaine de Stanford.
Lors d’une interview de septembre 2016 John Hennessy ancien président de l’université de Stanford dira « initier nos étudiants aux questionnements sur l’éthique, les amener à questionner les fondements de leurs prises de décision et de leurs actions avant qu’ils doivent être dans cette position en situation réelle, et en temps réels sans le recul dont ils pourraient bénéficier en classe : c’est ça notre ambition ».
Plus récemment en mars 2019, Stanford a ouvert un centre de recherches spécialement dédié à l’IA humaine et humaniste. Cette initiative s’inscrit dans la même lignée que des dizaines d’autres initiatives d’universités mais également d’entreprises.
Établir un plan légal
Il est aujourd’hui indispensable d’arriver à un accord sur le plan légal pour encadrer les pratiques que ce soit à l’échelle d’une entreprise, d’un pays, ou même d’un continent.
En effet, la CNIL a mené de janvier à novembre 2017 un débat public sur les algorithmes et l’intelligence artificielle. Il a impliqué 60 partenaires partout en France et a donné lieu à la publication d’un rapport de synthèse sur les enjeux éthiques de l’IA contenant plusieurs recommandations.
Un panel de 52 experts a par ailleurs travaillé à la commission européenne sur la mise en place d’un guide d’éthique en IA.
L’ambition : faire des acteurs européens des leaders en IA éthique et transparente.
L’enjeu est par ailleurs devenu géopolitique alors que la Chine prévoit d’investir 150 milliards d’euros d’ici 2030 pour détrôner un autre champion : les Etats-Unis.
Concernant l’éthique de l’IA, nous comprenons qu’il est néanmoins difficile, voire impossible, d’avoir un système cohérent de valeurs éthiques à travers le monde. Par exemple, les notions de transparence et d’efficacité dans les systèmes d’IA ne sont pas toujours les mêmes d’un pays et d’une entreprise à l’autre.
Les règlements proposés par la Commission européenne se concrétiseront dans les mois à venir et permettront réellement les premiers pas vers un cadre d’IA « de confiance, éthique et responsable » au sein de l’Union européenne.



0 commentaires