Le sexe d’un enseignant et son utilisation de la technologie jouent un rôle dans l’utilisation ou non de l’intelligence artificielle en classe, selon un nouveau rapport du Center for Generative AI and Society de l’USC.

L’étude intitulée « L’IA dans les classes de la maternelle à la 12e année : considérations éthiques et leçons apprises » examine la manière dont les enseignants portent des jugements éthiques sur l’utilisation de l’IA dans leurs classes. L’article – rédigé par Stephen Aguilar, directeur associé du centre et professeur adjoint d’éducation à l’USC Rossier School of Education – décrit les différences dans l’évaluation éthique de l’IA générative, ainsi que les points de vue basés sur des règles et des résultats concernant l’IA.

« La façon dont nous enseignons la pensée critique va changer avec l’IA », a déclaré Aguilar. « Les étudiants doivent évaluer quand, comment et dans quel but ils utiliseront l’IA générative. Leurs perspectives éthiques guideront ces décisions.

L’étude fait partie d’un rapport plus vaste du USC Center for Generative AI and Society intitulé « Pensée critique et éthique à l’ère de l’IA générative dans l’éducation ». En plus de l’étude, le rapport présente le premier programme AI Fellows du Centre destiné à soutenir la pensée critique et l’écriture à l’ère de l’IA pour les étudiants de premier cycle et envisage le développement de la prochaine génération d’outils d’IA générative. Le Centre fait progresser l’initiative USC Frontiers of Computing, un investissement de plus d’un milliard de dollars visant à promouvoir et à développer la recherche et l’enseignement en informatique avancée dans l’ensemble de l’université d’une manière stratégique et réfléchie.

Les implications éthiques sont un facteur clé dans l’introduction de l’IA en classe

À mesure que les technologies d’IA sont de plus en plus utilisées en classe, il est essentiel que les enseignants prennent en compte les implications éthiques et favorisent la pensée critique des élèves. En utilisant une approche réfléchie, les enseignants doivent guider les élèves dans l’évaluation du contenu généré par l’IA et les encourager à remettre en question les considérations éthiques entourant l’utilisation de l’IA.

L’objectif de l’étude était de comprendre le point de vue des enseignants sur l’éthique entourant l’IA. Il a été demandé aux enseignants d’évaluer dans quelle mesure ils sont d’accord avec différentes idées éthiques et dans quelle mesure ils sont disposés à utiliser l’IA générative comme ChatGPT dans leurs classes.

L’étude a porté sur 248 éducateurs de la maternelle à la 12e année issus d’écoles publiques, à charte et privées qui avaient en moyenne 11 ans d’expérience en enseignement. Parmi les participants, 43 % enseignaient à l’école primaire, 16 % au collège et 40 % au lycée. Plus de la moitié des participants se sont identifiés comme des femmes ; Des éducateurs de 41 États des États-Unis y ont participé.

Les résultats publiés suggèrent des nuances de genre. « Nous avons constaté que les enseignants de notre étude étaient plus susceptibles d’évaluer leurs approches déontologiques de manière plus élevée », a déclaré Aguilar. « Les enseignants masculins étaient plus préoccupés par les conséquences de l’IA. » Les enseignantes soutenaient les perspectives (déontologiques) fondées sur des règles par rapport aux enseignants masculins.

Cet échantillon suggère également que l’auto-efficacité (confiance dans l’utilisation de la technologie) et l’anxiété (inquiétude à l’égard de l’utilisation de la technologie) étaient considérées comme importantes dans les visions de l’utilisation de l’IA basées sur les règles et sur les résultats. « Les enseignants qui ont fait preuve de plus d’autonomie dans l’utilisation de l’IA se sentaient plus confiants dans l’utilisation de la technologie ou étaient moins anxieux », a déclaré Aguilar. « Les deux étaient importants en termes de types de jugements qu’ils portaient. »

Aguilar a considéré l’expérience de pensée philosophique comme un « problème de chariot » applicable à ses recherches. Le problème du chariot est un dilemme moral qui consiste à se demander s’il est moralement acceptable d’en sacrifier un pour en sauver un plus grand nombre. Un enseignant en éducation est-il un adepte des règles (perspective « déontologique ») ou un chercheur de résultats (perspective « conséquentialiste ») ? Les enseignants devraient décider quand, où et comment les élèves peuvent utiliser l’IA générative en classe.

Dans l’étude, Aguilar a conclu que les enseignants sont « des participants actifs aux prises avec les défis moraux de l’IA ». Les enseignants se posent également des questions plus profondes sur les valeurs des systèmes d’IA et l’équité envers les étudiants. Même si les enseignants ont des points de vue différents sur l’IA, ils s’accordent sur la nécessité d’établir un cadre éthique pour l’IA dans l’éducation.

L’IA générative est très prometteuse en tant qu’outil pédagogique.

Le rapport est le premier du Center for Generative AI and Society de l’USC. Annoncé en mars 2023, le centre a été fondé pour étudier l’impact transformateur de l’IA sur la culture, l’éducation, les médias et la société. Le centre est dirigé par les codirecteurs William Swartout, directeur scientifique de l’Institut des technologies créatives de l’USC Viterbi School of Engineering, qui dirige les efforts pédagogiques. et Holly Willis, professeur et directrice du Département d’arts médiatiques + pratique à l’USC School of Cinematic Arts, qui étudie l’intersection des médias et de la culture.

« Plutôt que de bannir l’IA générative de la salle de classe, nous devons repenser le processus éducatif et réfléchir à la manière dont l’IA générative pourrait être utilisée pour améliorer l’éducation, un peu comme nous l’avons fait pour l’enseignement des mathématiques il y a des années, lorsque des calculatrices bon marché sont devenues disponibles », a déclaré Swartout, dont L’analyse « IA générative et éducation : nier et reconnaître ou adopter et améliorer ? » apparaît dans le rapport complet. « Par exemple, en demandant aux élèves d’examiner des textes créés avec l’IA générative et de déterminer si les faits sont corrects et si les arguments ont du sens, nous pourrions contribuer à améliorer leurs capacités de pensée critique. »

Swartout a déclaré que l’IA générative pourrait être utilisée pour aider les étudiants à réfléchir à un sujet avant de commencer à écrire. Posez des questions telles que « Existe-t-il des points de vue alternatifs sur ce sujet ? » ou « Quel serait un contre-argument à ce que je suggère ? » « L’IA générative peut également être utilisée pour critiquer un essai et suggérer des moyens de l’améliorer », a-t-il ajouté. Les inquiétudes concernant l’utilisation de ces outils pour tricher pourraient être atténuées en adoptant une approche basée sur des processus pour évaluer le travail d’un étudiant.

« Pour réduire le risque de tricherie, nous devons enregistrer et évaluer le processus suivi par un étudiant lors de la création d’un essai, et pas seulement évaluer l’artefact à la fin », a-t-il déclaré.

« L’intégration de l’IA générative dans l’enseignement, si elle est effectuée correctement, est prometteuse en tant qu’outil pédagogique. »

Le rapport comprend également des recherches menées par Gale Sinatra et Changzhao Wang de l’USC Rossier, l’étudiant Eric Bui du USC Dornsife College of Letters, Arts and Sciences, et Benjamin Nye de l’USC Institute for Creative Technologies, qui est également directeur associé du Centre pour IA générative et société.

« Nous devons veiller à ce que ces technologies soient utilisées pour augmenter les capacités humaines, et non pour les remplacer, afin de préserver les aspects relationnels et émotionnels inhérents à l’enseignement et à l’apprentissage », a déclaré Pedro Noguera, doyen de l’USC Rossier. « Le nouveau rapport du Center for Generative AI and Society de l’USC est une invitation aux éducateurs, aux décideurs politiques, aux technologues et aux apprenants à explorer comment l’IA générative peut contribuer à l’avenir de l’éducation. »



Source