L’intelligence artificielle, et plus particulièrement l’IA générative, suscite aujourd’hui autant d’enthousiasme que de vigilance. À l’ESSEC, cette technologie est envisagée à travers une double exigence : responsabilité et inclusion. Son développement rapide ouvre en effet de nombreuses opportunités, mais pose également des questions cruciales en matière d’éthique, de justice sociale et d’impact environnemental. L’émergence de biais algorithmiques ou la reproduction des inégalités existantes sont notamment les principaux risques. Dans ce contexte, la formation des futurs décideurs à un usage éclairé et raisonné de l’IA devient essentielle.
“En tant qu’établissement d’enseignement supérieur, nous avons la responsabilité de prévenir les dérives morales ou juridiques et de veiller à ce que les données qui nourrissent les algorithmes soient représentatives de la diversité de notre société. Une IA inclusive est une IA qui ne reproduit pas les inégalités mais qui contribue à les corriger : c’est ce que nous transmettons à nos étudiants. Un cadre réglementaire est en construction, notamment avec l’IA Act en Europe, pour garantir un usage plus transparent, traçable et sécurisé de ces technologies. À nous de le faire vivre concrètement dans nos pédagogies et nos formations ”, souligne Anne-Claire Pache, Directrice Stratégie, Alliances et Engagement Sociétal.
