Pour une utilisation éthique de l’intelligence artificielle


Pour une utilisation éthique de l’intelligence artificielle

Publié le 12 août 2024    access_time 5 minutes

L’intelligence artificielle, et c’est un euphémisme, est désormais présente dans la presque totalité des domaines de nos vies. Qu’il s’agisse d’outils ou de contenus développés par des IA génératives, nous y sommes maintenant confrontés dans notre consommation de divertissements, dans nos transports, dans nos maisons ou encore dans nos suivis médicaux. Nous pourrions ici débattre longtemps du bien-fondé de telles interventions, des avantages et des inconvénients de cette irruption de l’IA dans nos quotidiens. Les créateur.rice.s de contenu numérique, qui sont le cœur de notre industrie de production d’expériences virtuelles, ont d’ailleurs bien légitimement interrogé et fait état de critiques et d’inquiétude concernant les impacts que l’IA générative pouvait avoir sur leurs vies professionnelles. D’autres, au contraire, ont loué les potentiels de cette technologie dans ce qu’elle pouvait leur permettre d’ouvrir leurs horizons créatifs ou encore de se concentrer sur l’essence conceptuelle de leur art et moins sur son exécution.

En revanche, ce sur quoi la plupart s’accordent, en création numérique comme ailleurs, est l’importance d’un encadrement éthique de l’IA. Plusieurs organisations, états et groupes de recherche se sont d’ailleurs penchés sur ce que pourraient être les principes directeurs d’un tel encadrement. Ainsi, à titre d’exemples, l’UNESCO a adopté en Conférence générale, le 24 novembre 2021, sa «Recommandation sur l’éthique de l’intelligence artificielle», suivant de près l’OCDE, qui a adopté en 2019 sa «Recommandation du Conseil sur l’intelligence artificielle». Plus proche de nous, l’Université de Montréal a proposé en 2018 sa «Déclaration de Montréal pour un développement responsable de l’intelligence artificielle», s’adressant «aux responsables politiques ainsi qu’à toute personne, toute organisation de la société civile et toute compagnies désireuses de participer au développement de l’IA de manière responsable». Au moment d’écrire ces lignes, la déclaration compte 2830 citoyen.ennes et 277 organismes et entreprises signataires. Parmi ces dernières, on retrouve la Ville de Montréal, l’Autorité des marchés financiers, ou encore le Centre Axel – Centre de recherche de l’Institut universitaire en santé mentale de Montréal, démontrant, s’il le fallait encore, la grande diversité d’applications de l’IA.

Transparence et respect

Si l’on regarde plus en détail la Déclaration de Montréal, qui a l’avantage à la fois d’être évolutive et participative, mais aussi d’englober largement les différentes industries et domaines concernés, on peut y trouver dix principes, présentés ici sans ordre hiérarchique.

Le premier est le principe de bien-être, qui énonce l’importance de développer des outils et systèmes en IA qui favorisent et améliorent les «conditions de vie, de santé et les conditions de travail» des individus, et proscrit une IA qui contribuerait à «augmenter le stress, l’anxiété et le sentiment de harcèlement liés à l’environnement numérique». Il est suivi par le principe de respect de l’autonomie, permettant aux «individus d’accroître leur contrôle sur leur vie et leur environnement». Il défend la nécessité d’«encapaciter les citoyennes et les citoyens face aux technologies du numérique en assurant l’accès à différents types de savoir pertinents, le développement de compétences structurantes (la littérature numérique et médiatique) et la formation de pensée critique». Ainsi, «les IA ne doivent pas être développées pour propager des informations peu fiables, des mensonges et de la propagande, et devraient être conçues dans le but d’en réduire la propagation». Ce principe ramène non seulement le besoin de s’outiller adéquatement avec des IA qui s’attèlent au démantèlement de la fausse information, mais aussi, bien entendu, à développer des programmes et stratégies pour former et sensibiliser les publics aux enjeux et réalités de l’IA. À ce titre, plusieurs initiatives québécoises existent, notamment portées par l’institut de recherche Mila ou encore, à destination des jeunes publics, par l’organisme à but non lucratif Génielab, proposant un parcours intégré de découverte à expérimenter en écoles ou au sein des familles.

Suit le principe fondamental de la protection de l’intimité et de la vie privée, assurant aux personnes une défense contre «la surveillance ou l’évaluation numérique», la possibilité d’avoir toujours «le choix de la déconnexion numérique» ou encore un «contrôle étendu sur les informations relatives à leurs préférences». On visualise assez aisément ici comment le non-respect de ce principe peut provoquer de graves dérives sociétales, notamment dans un cadre d’administration publique ou des rapports entre les citoyen.enne.s et les organisations privées. Ce principe va d’ailleurs de pair avec celui de participation démocratique énoncé par la Déclaration de Montréal, qui recouvre l’importance que le fonctionnement des IA affectant la vie doit être «compréhensible aux personnes qui les utilisent ou qui subissent les conséquences de leur utilisation». Ce principe pose également l’importance de savoir lorsqu’une décision qui nous concerne a été prise par une IA.

Photo de Morgan Petroski sur Unsplash

Solidarité, équité, inclusivité

Alors qu’Asimov proposait, en haut de sa liste de lois de la robotique, la règle selon laquelle «un robot ne peut porter atteinte à un être humain, ni, restant passif, laisser cet être humain exposé au danger», le principe de l’importance de l’humain tient une bonne place dans les réflexions en lien avec le développement d’une IA responsable. Ainsi, le principe de solidarité recouvre l’importance pour l’IA de «ne pas nuire au maintien de relations humaines affectives et morales épanouissantes» et d’être développées «dans le but de favoriser ces relations et de réduire la vulnérabilité et l’isolement des personnes». Les IA «doivent être développées dans le but de collaborer avec les humains sur des tâches complexes et devraient favoriser le travail collaboratif entre les humains». Une collaboration humain-machine, donc, au service de l’humain.

Arrive ici l’un des éléments les plus importants de la Déclaration de Montréal, celui de l’équité, soit l’importance de «ne pas créer, renforcer ou reproduire des discriminations fondées entre autres sur les différences sociales, sexuelles, ethniques, culturelles et religieuses» et «de contribuer à éliminer les relations de domination entre les personnes et les groupes fondées sur la différence de pouvoir, de richesses ou de connaissance». Or, les IA se nourrissent de nos biais et de nos idées préconçues, mais également des réalités et savoirs des personnes qui les conçoivent. Elles possèdent une «représentation prédéfinie du monde» (Silvestre Pinheiro, 2022) et propagent souvent des représentations uniformisées du monde, contribuant à invisibiliser de nombreuses communautés. C’est ici le principe d’inclusion de la diversité qui rentre en jeu, qui préconise que le développement de l’IA doive «prendre en considération les multiples expressions des diversités sociales et culturelles, et cela dès la conception des algorithmes». Cela signifie bien entendu ici, non seulement d’être vigilants aux développements de l’IA, mais également de constituer des équipes de conception et de développement elles-mêmes diversifiées, permettant, autant que faire se peut, de contrer les biais des algorithmes.

Prudence, responsabilité et développement soutenable

L’ensemble des principes précédemment décrit ne pourrait être soutenu sans le respect d’un autre principe fondamental, celui de la prudence. Celui-ci recouvre en effet l’importance pour toute personne impliquée dans le développement d’une IA de garder une position critique et attentive pour éviter les possibles conséquences néfastes de cette IA. La Déclaration de Montréal parle ici de la prise en compte du «potentiel de double-usage (bénéfique et néfaste) de la recherche en IA» et de la vigilance à avoir en tout temps sur les dangers représentés par une utilisation détournée de l’IA.

Dans la même veine, le principe de responsabilité rappelle l’importance que l’IA ne contribue pas à une «déresponsabilisation des êtres humains quand une décision doit être prise». Ainsi, «dans tous les domaines où une décision qui affecte la vie, la qualité de la vie ou la réputation d’une personne doit être prise, la décision finale devrait revenir à un être humain et cette décision devrait être libre et éclairée». Ici encore, on reconnaît aisément les impacts humains dramatiques qui peuvent découler de la toute-puissance de la machine dans des domaines aussi larges que l’administration publique, la gestion médicale ou autres.

Enfin, le dernier principe (mais non le moindre!) est celui du développement soutenable des IA, qui doivent être conçues et administrées, autant dans leurs systèmes que dans les objets connectés auxquelles elles sont souvent liées, en ayant en tête leur impact énergétique et sur la biodiversité et les écosystèmes. Des IA, oui, mais «écologiquement responsable»!

Les années à venir vont continuer, probablement de manière exponentielle, à être bouleversées par l’interruption de l’IA dans l’ensemble de nos sphères de vie. À nous, en s’assurant de la responsabilité des personnes qui en ont les pouvoirs, de rester vigilant quant au respect de ces principes essentiels à la poursuite de développement technologiques éthiques!

Crédit photo: Solen Feyissa sur Unsplash

Auteur.rice

Avatar photo   Prune Lieutier

Inscrivez-vous à l'infolettre
de Xn Québec

S'inscrire

arrow_backRetour aux nouvelles