Sonofa Logo
đŸ‡«đŸ‡· French (France)

Topic (additional coral dog)

Published byIisabelle dremeau
--:-- / --:--

Loading audio...

Transcript

Speaker 1: Bienvenue Ă  Sonofa - Votre Personal Generative AI Podcast. On va se plonger dans une discussion passionnante, euh, sur l’utilisation Ă©thique et responsable de l’intelligence artificielle, en particulier dans le contexte Ă©ducatif, hein ?

Speaker 2: Tout Ă  fait ! On a ici une politique institutionnelle du CollĂšge Sainte-Anne, de fĂ©vrier 2025, qui aborde plein de points importants. C’est assez dense !

Speaker 1: Ouais, c’est
 c’est costaud ! DĂ©jĂ , l’introduction pose bien le dĂ©cor : l’IA gĂ©nĂ©rative, c’est plein de potentiel, mais ça soulĂšve aussi des questions Ă©thiques cruciales. On ne peut pas juste foncer tĂȘte baissĂ©e.

Speaker 2: Exactement. Et c’est tout l’objet de ce document, hein, dĂ©finir un cadre clair pour l’utilisation de l’IA au CollĂšge Sainte-Anne. D’ailleurs, ils ont mĂȘme un comitĂ© dĂ©diĂ© : le
 CUÉRIA ! ComitĂ© sur l’utilisation Ă©thique et responsable de l’intelligence artificielle.

Speaker 1: Ah oui, le CUÉRIA ! Ça, c’est important, ça montre qu’ils prennent les choses au sĂ©rieux. Et les dĂ©finitions sont claires : renseignement personnel, fabulation – tiens, j’aime bien ce terme qui remplace « hallucination » – et biais. Des notions essentielles Ă  maĂźtriser.

Speaker 2: Absolument. Et ils insistent bien sur le fait que la politique concerne tout le monde au collĂšge, hein, pas seulement les profs. C’est une responsabilitĂ© collective.

Speaker 1: Ouais, tout le monde est concernĂ©, du personnel administratif aux
 aux Ă©lĂšves. L’objectif, c’est d’avoir une comprĂ©hension euh
 uniforme des enjeux de l’IA en pĂ©dagogie. Ils ont quatre grands principes : diversitĂ© et responsabilitĂ©, agentivitĂ© humaine


Speaker 2: 
confidentialitĂ© et Ă©thique des donnĂ©es, et
 j’allais le dire ! Transparence et intĂ©gritĂ© acadĂ©mique. Ces quatre piliers sont vraiment le cƓur de la politique.

Speaker 1: Et c’est intĂ©ressant qu’ils mentionnent le cadre juridique, parce que c’est vrai que pour l’instant, c’est encore un peu flou. Il n’y a pas de loi spĂ©cifique sur l’IA.

Speaker 2: Ouais, ils citent le Conseil de l’innovation du QuĂ©bec, qui parle d’un encadrement « fragmentĂ© et parcellaire ». Donc, des textes existent, comme la loi sur la protection des renseignements personnels, mais c’est pas encore
 harmonisĂ©, disons.

Speaker 1: Et la DĂ©claration de MontrĂ©al, avec ses dix principes, c’est un bon point de dĂ©part, mais son application Ă  grande Ă©chelle, c’est encore
 en question.

Speaker 2: Tout Ă  fait. Bon, et ensuite, ils dĂ©veloppent leurs principes directeurs. On commence par « diversitĂ© et responsabilitĂ© ». LĂ , l’idĂ©e c’est de
 d’ĂȘtre conscient de l’impact de l’IA, et de l’utiliser de façon rĂ©flĂ©chie.

Speaker 1: Et ils insistent sur le fait que les donnĂ©es ne sont pas neutres, et que les systĂšmes d’IA peuvent reproduire, euh
 des biais. D’oĂč l’importance d’une posture critique.

Speaker 2: Bien vu. Et l’impact environnemental aussi ! L’IA, ça consomme de l’énergie, il faut en ĂȘtre conscient.

Speaker 1: Ah oui, c’est un point important. Ensuite, l’« agentivitĂ© humaine ». Qu’est-ce que c'est que ce truc, dĂ©jĂ  ?

Speaker 2: En gros, c’est notre capacitĂ© Ă  agir et Ă  dĂ©cider, mĂȘme face Ă  l’incertitude. Et l’idĂ©e, c’est que l’IA ne doit pas nous dĂ©responsabiliser. On doit valider ses opĂ©rations, s’assurer de leur pertinence


Speaker 1: 
et assumer les consĂ©quences. C’est nous qui sommes responsables, pas la machine.

Speaker 2: Exactement. Et puis, « confidentialitĂ© et Ă©thique des donnĂ©es », c’est crucial. Il faut bien faire la distinction entre donnĂ©es ordinaires et
 informations sensibles.

Speaker 1: Et choisir des outils adaptĂ©s Ă  l’ñge des Ă©lĂšves. On ne va pas utiliser les mĂȘmes outils avec des primaires et des
 des lycĂ©ens.

Speaker 2: Bien sĂ»r. Et enfin, « transparence et intĂ©gritĂ© acadĂ©mique ». LĂ , il s’agit d’ĂȘtre clair sur l’utilisation de l’IA dans les travaux scolaires. Pas de cachotteries !

Speaker 1: Alors, lĂ  on rentre dans le concret, hein ? Des directives prĂ©cises, pour tout le monde. ÉlĂšves, profs, direction


Speaker 2: Ouais, c’est bien d’avoir des exemples, ça clarifie les choses. Par exemple, la transparence. C’est essentiel, hein, de dire quand on utilise l’IA, et comment.

Speaker 1: Et de ne pas faire croire qu'on a tout fait tout seul ! Faut citer les outils utilisés, leur contribution
 Un peu comme on cite ses sources dans une bibliographie.

Speaker 2: Exactement. L’annexe 1 dĂ©taille la procĂ©dure, d’ailleurs. Et un point crucial : ne pas donner d’infos personnelles Ă  l’IA. On ne sait pas trop ce qu’il en advient, hein ?

Speaker 1: Ouais, prudence est mĂšre de sĂ»retĂ©, comme on dit. Et puis, valider les infos gĂ©nĂ©rĂ©es par l’IA. C’est pas parce que c’est Ă©crit par une machine que c’est forcĂ©ment vrai.

Speaker 2: Ah non, loin de lĂ  ! Les biais, les fabulations
 Il faut ĂȘtre vigilant. Et sensibiliser les Ă©lĂšves Ă  ça. Leur apprendre Ă  avoir un esprit critique, Ă  questionner les informations.

Speaker 1: C’est primordial ! Et si on repĂšre des iniquitĂ©s, des biais, on prĂ©vient l’employeur. C’est une responsabilitĂ© collective, hein, d’amĂ©liorer ces systĂšmes.

Speaker 2: Tout Ă  fait. Pour les profs, c’est important d’expliquer tout ça aux Ă©lĂšves. Les biais, les erreurs factuelles
 Et bien sĂ»r, clarifier ce qu'est le plagiat et la fraude avec l’IA.

Speaker 1: Parce que c'est
 c’est nouveau, c’est diffĂ©rent. Il faut adapter les dĂ©finitions. Et puis, assumer la responsabilitĂ© du contenu gĂ©nĂ©rĂ© par l’IA. C’est l’humain qui est responsable, pas la machine.

Speaker 2: C’est clair. Et les plans de cours doivent ĂȘtre clairs sur les limites d’utilisation de l’IA. Ce qui est autorisĂ©, ce qui ne l’est pas. L’annexe 1 donne des infos lĂ -dessus.

Speaker 1: Et attention aux restrictions d’ñge de certains outils. On ne va pas utiliser la mĂȘme chose avec des petits et des grands. Et la question des donnĂ©es personnelles, des droits d’auteur


Speaker 2: Ouais, il faut bien lire les conditions d’utilisation, et informer les Ă©lĂšves des risques. L’IA, c’est un outil puissant, mais il faut l’utiliser
 avec discernement.

Speaker 1: Donc, lĂ , on parle de comment dĂ©clarer l’utilisation de l’IA, hein ? C’est super important pour la transparence et l’intĂ©gritĂ© acadĂ©mique.

Speaker 2: Ouais, absolument. Et ils donnent des exemples concrets, c’est bien pratique. Mentionner l’outil utilisĂ©, la date, la requĂȘte
 Un peu comme une bibliographie, en fait.

Speaker 1: Exactement ! (rire) Une bibliographie pour l’ùre de l’IA ! Et j’aime bien l’idĂ©e de mettre les rĂ©ponses de l’IA en annexe. Ça permet de vraiment voir ce qui a Ă©tĂ© gĂ©nĂ©rĂ©, et comment c’est utilisĂ©.

Speaker 2: Ouais, ça rend les choses claires, hein ? Pas de cachotteries ! Et puis, ce formulaire de dĂ©claration, en annexe 2
 C’est carrĂ©ment un guide, quoi ! DiffĂ©rents niveaux d’utilisation, des exemples de requĂȘtes


Speaker 1: Super clair, oui. Ça va du niveau 0 – utilisation interdite – au niveau 4 – utilisation libre. Et entre les deux, plein de nuances. Utilisation limitĂ©e, guidĂ©e, balisĂ©e


Speaker 2: C’est bien pensĂ©, ça permet d’adapter l’utilisation de l’IA au contexte pĂ©dagogique, Ă  l’ñge des Ă©lĂšves, aux objectifs du cours


Speaker 1: Et ça responsabilise les Ă©lĂšves, aussi. Ils doivent dĂ©clarer ce qu’ils font, comment ils utilisent l’IA. C’est une bonne façon de les sensibiliser aux enjeux Ă©thiques.

Speaker 2: Tout Ă  fait. Bon, eh bien, on arrive au bout de cette discussion passionnante sur l’IA en Ă©ducation. J’espĂšre que vous avez appris autant de choses que nous ! Merci d’avoir Ă©tĂ© Ă  l’écoute. À bientĂŽt pour un nouvel Ă©pisode !

Speaker 1: Au revoir et merci à tous ! N’oubliez pas de vous abonner à Sonofa ! On se retrouve trùs bientît pour de nouvelles discussions passionnantes !