
Intelligence artificielle: questions éthiques pour les industries culturelles
Publié le 13 mai 2025 access_time 5 minutesLa cohorte 2025 de l’Atelier Grand Nord XR (AGN XR) était réunie dans les locaux du studio de création numérique Felix & Paul pour discuter d’un sujet brûlant d’actualité: l’éthique dans l’emploi de l’intelligence artificielle.
Pour animer la conversation, Emmanuel Durand, du Lab 148, avait préparé une courte présentation abordant les enjeux les plus prédominants.
Retour sur des échanges à la fois captivants et enrichissants.

Les enjeux liés aux nouvelles technologies
D’emblée, le programmeur, ingénieur et chercheur Emmanuel Durand précise qu’il n’est pas technophobe, bien au contraire! «Je suis quelqu’un de pas mal optimiste par rapport à la technologie, explique-t-il. Même si je peux parfois être très critique quant à ses usages».
Il note que l’IA générative soulève davantage d’enjeux éthiques que d’autres innovations récentes ayant bousculé le milieu de la culture, comme la réalité virtuelle ou la blockchain.
Il ajoute que «savoir qu’il y a des enjeux, c’est le premier pas pour utiliser la technologie adéquatement».
Trois grandes catégories d’enjeux liés à l’intelligence artificielle
Le cofondateur du Lab 148 prend soin de catégoriser ces enjeux. En premier lieu, il aborde le problème des ressources, à la fois humaines et naturelles. En effet, l’emploi de l’IA affecte les ressources humaines des organisations, et son développement ainsi que son utilisation requièrent d’importantes ressources naturelles.
Les enjeux liés aux données sont également au cœur de ses préoccupations. Il s’interroge à la fois sur les données choisies pour entraîner les modèles et sur la manière dont ces informations ont été acquises. Qui plus est, il mentionne que certains services d’IA accumulent une quantité importante d’informations sur leurs utilisateur.rice.s. Des considérations de vie privée doivent donc être prises en compte.
Enfin, l’impact de l’IA sur la société en général commence déjà à se faire sentir. Certains métiers sont menacés. D’autres voient le jour, mais sont-ils vraiment souhaitables? Il donne l’exemple des travailleurs qui enrichissent les contenus de métadonnées afin de faciliter l’entraînement des modèles IA. «Historiquement, les données étaient annotées par des stagiaires. Maintenant, elles le sont principalement par des personnes affreusement mal payées. De plus, ces travailleurs sont parfois exposés à des contenus pour le moins malaisants.»
L’IA, une bulle sur le point d’exploser?
Emmanuel Durand remarque qu’il existe de nombreux acteur.rice.s dans l’écosystème de l’IA générative, mais peu de transparence. Les coûts réels de développement des différents services d’IA ne sont pas clairement connus. «Les cartes sont cachées en raison de la concurrence.»
À terme, on peut s’attendre à ce que «la bulle explose» et que cette industrie finisse par se «sédimenter». Or, lorsque cela surviendra, les coûts assumés par les utilisateur.rice.s augmenteront.

Place à la discussion
Emmanuel Durand a ensuite invité les producteur.rice.s d’expériences numériques réuni.e.s chez Felix & Paul Studios à s’exprimer sur le sujet.
Rapidement, la question de la neutralité de l’IA a été soulevée. Pointant du doigt au passage ChatGPT, une productrice a exprimé sa frustration de ne pas pouvoir amener l’intelligence artificielle à prendre position sur des sujets politiques épineux.
Emmanuel Durand a saisi l’occasion pour émettre une mise en garde importante: «il y a des garde-fous, mais les IA ne sont pas neutres. Elles reflètent les données d’entrée. Et une grande partie de ces données proviennent de l’Occident, et plus spécifiquement des États-Unis».
Il s’est ensuite vu poser la question suivante: «est–ce que tu peux entraîner une IA pour reproduire ton propre style?» Sa réponse a surpris certains membres de l’audience. «Oui et non, nuance-t-il. Tu peux spécialiser une IA dans ton style, mais il faut garder en tête que l’outil a aussi été entraîné sur d’autres sources.»
Enfin, le programmeur et chercheur a souligné que «petit à petit, l’on devient dépendant des outils IA». Or, «l’IA générative n’est pas toujours le meilleur chemin» pour atteindre son but. Il explique que, bien souvent, d’autres outils peuvent être plus appropriés: «Ça ne fait pas de sens d’employer des outils IA pour faire des calculs que tu peux faire à la calculatrice». Dans le même ordre d’idées, il rappelle que des outils de détection de visage ou de reconnaissance vocale très performants existaient bien avant les récentes solutions propulsées par l’IA.

L’Atelier Grand Nord XR
Cette rencontre s’inscrivait dans le cadre de l’Atelier Grand Nord XR 2025. Pour l’occasion, des producteur.rice.s d’expériences numériques en provenance de la France, de la Suisse, du Luxembourg et du Québec étaient réuni.e.s afin de travailler sur sept projets de réalité virtuelle, augmentée ou mixte en développement.
Pour en savoir plus sur ce programme initié par la Société de développement des entreprises culturelles (SODEC), suivez ce lien.