Loading audio...
Speaker 1: Bienvenue Ă Sonofa - Votre Personal Generative AI Podcast. On va se plonger dans une discussion passionnante, euh, sur lâutilisation Ă©thique et responsable de lâintelligence artificielle, en particulier dans le contexte Ă©ducatif, hein ?
Speaker 2: Tout Ă fait ! On a ici une politique institutionnelle du CollĂšge Sainte-Anne, de fĂ©vrier 2025, qui aborde plein de points importants. Câest assez dense !
Speaker 1: Ouais, câest⊠câest costaud ! DĂ©jĂ , lâintroduction pose bien le dĂ©cor : lâIA gĂ©nĂ©rative, câest plein de potentiel, mais ça soulĂšve aussi des questions Ă©thiques cruciales. On ne peut pas juste foncer tĂȘte baissĂ©e.
Speaker 2: Exactement. Et câest tout lâobjet de ce document, hein, dĂ©finir un cadre clair pour lâutilisation de lâIA au CollĂšge Sainte-Anne. Dâailleurs, ils ont mĂȘme un comitĂ© dĂ©diĂ© : le⊠CUEÌRIA ! ComitĂ© sur lâutilisation Ă©thique et responsable de lâintelligence artificielle.
Speaker 1: Ah oui, le CUEÌRIA ! Ăa, câest important, ça montre quâils prennent les choses au sĂ©rieux. Et les dĂ©finitions sont claires : renseignement personnel, fabulation â tiens, jâaime bien ce terme qui remplace « hallucination » â et biais. Des notions essentielles Ă maĂźtriser.
Speaker 2: Absolument. Et ils insistent bien sur le fait que la politique concerne tout le monde au collĂšge, hein, pas seulement les profs. Câest une responsabilitĂ© collective.
Speaker 1: Ouais, tout le monde est concernĂ©, du personnel administratif aux⊠aux Ă©lĂšves. Lâobjectif, câest dâavoir une comprĂ©hension euh⊠uniforme des enjeux de lâIA en pĂ©dagogie. Ils ont quatre grands principes : diversitĂ© et responsabilitĂ©, agentivitĂ© humaineâŠ
Speaker 2: âŠconfidentialitĂ© et Ă©thique des donnĂ©es, et⊠jâallais le dire ! Transparence et intĂ©gritĂ© acadĂ©mique. Ces quatre piliers sont vraiment le cĆur de la politique.
Speaker 1: Et câest intĂ©ressant quâils mentionnent le cadre juridique, parce que câest vrai que pour lâinstant, câest encore un peu flou. Il nây a pas de loi spĂ©cifique sur lâIA.
Speaker 2: Ouais, ils citent le Conseil de lâinnovation du QuĂ©bec, qui parle dâun encadrement « fragmentĂ© et parcellaire ». Donc, des textes existent, comme la loi sur la protection des renseignements personnels, mais câest pas encore⊠harmonisĂ©, disons.
Speaker 1: Et la DĂ©claration de MontrĂ©al, avec ses dix principes, câest un bon point de dĂ©part, mais son application Ă grande Ă©chelle, câest encore⊠en question.
Speaker 2: Tout Ă fait. Bon, et ensuite, ils dĂ©veloppent leurs principes directeurs. On commence par « diversitĂ© et responsabilitĂ© ». LĂ , lâidĂ©e câest de⊠dâĂȘtre conscient de lâimpact de lâIA, et de lâutiliser de façon rĂ©flĂ©chie.
Speaker 1: Et ils insistent sur le fait que les donnĂ©es ne sont pas neutres, et que les systĂšmes dâIA peuvent reproduire, euh⊠des biais. DâoĂč lâimportance dâune posture critique.
Speaker 2: Bien vu. Et lâimpact environnemental aussi ! LâIA, ça consomme de lâĂ©nergie, il faut en ĂȘtre conscient.
Speaker 1: Ah oui, câest un point important. Ensuite, lâ« agentivitĂ© humaine ». Quâest-ce que c'est que ce truc, dĂ©jĂ ?
Speaker 2: En gros, câest notre capacitĂ© Ă agir et Ă dĂ©cider, mĂȘme face Ă lâincertitude. Et lâidĂ©e, câest que lâIA ne doit pas nous dĂ©responsabiliser. On doit valider ses opĂ©rations, sâassurer de leur pertinenceâŠ
Speaker 1: âŠet assumer les consĂ©quences. Câest nous qui sommes responsables, pas la machine.
Speaker 2: Exactement. Et puis, « confidentialitĂ© et Ă©thique des donnĂ©es », câest crucial. Il faut bien faire la distinction entre donnĂ©es ordinaires et⊠informations sensibles.
Speaker 1: Et choisir des outils adaptĂ©s Ă lâĂąge des Ă©lĂšves. On ne va pas utiliser les mĂȘmes outils avec des primaires et des⊠des lycĂ©ens.
Speaker 2: Bien sĂ»r. Et enfin, « transparence et intĂ©gritĂ© acadĂ©mique ». LĂ , il sâagit dâĂȘtre clair sur lâutilisation de lâIA dans les travaux scolaires. Pas de cachotteries !
Speaker 1: Alors, lĂ on rentre dans le concret, hein ? Des directives prĂ©cises, pour tout le monde. ĂlĂšves, profs, directionâŠ
Speaker 2: Ouais, câest bien dâavoir des exemples, ça clarifie les choses. Par exemple, la transparence. Câest essentiel, hein, de dire quand on utilise lâIA, et comment.
Speaker 1: Et de ne pas faire croire qu'on a tout fait tout seul ! Faut citer les outils utilisés, leur contribution⊠Un peu comme on cite ses sources dans une bibliographie.
Speaker 2: Exactement. Lâannexe 1 dĂ©taille la procĂ©dure, dâailleurs. Et un point crucial : ne pas donner dâinfos personnelles Ă lâIA. On ne sait pas trop ce quâil en advient, hein ?
Speaker 1: Ouais, prudence est mĂšre de sĂ»retĂ©, comme on dit. Et puis, valider les infos gĂ©nĂ©rĂ©es par lâIA. Câest pas parce que câest Ă©crit par une machine que câest forcĂ©ment vrai.
Speaker 2: Ah non, loin de lĂ ! Les biais, les fabulations⊠Il faut ĂȘtre vigilant. Et sensibiliser les Ă©lĂšves à ça. Leur apprendre Ă avoir un esprit critique, Ă questionner les informations.
Speaker 1: Câest primordial ! Et si on repĂšre des iniquitĂ©s, des biais, on prĂ©vient lâemployeur. Câest une responsabilitĂ© collective, hein, dâamĂ©liorer ces systĂšmes.
Speaker 2: Tout Ă fait. Pour les profs, câest important dâexpliquer tout ça aux Ă©lĂšves. Les biais, les erreurs factuelles⊠Et bien sĂ»r, clarifier ce qu'est le plagiat et la fraude avec lâIA.
Speaker 1: Parce que c'est⊠câest nouveau, câest diffĂ©rent. Il faut adapter les dĂ©finitions. Et puis, assumer la responsabilitĂ© du contenu gĂ©nĂ©rĂ© par lâIA. Câest lâhumain qui est responsable, pas la machine.
Speaker 2: Câest clair. Et les plans de cours doivent ĂȘtre clairs sur les limites dâutilisation de lâIA. Ce qui est autorisĂ©, ce qui ne lâest pas. Lâannexe 1 donne des infos lĂ -dessus.
Speaker 1: Et attention aux restrictions dâĂąge de certains outils. On ne va pas utiliser la mĂȘme chose avec des petits et des grands. Et la question des donnĂ©es personnelles, des droits dâauteurâŠ
Speaker 2: Ouais, il faut bien lire les conditions dâutilisation, et informer les Ă©lĂšves des risques. LâIA, câest un outil puissant, mais il faut lâutiliser⊠avec discernement.
Speaker 1: Donc, lĂ , on parle de comment dĂ©clarer lâutilisation de lâIA, hein ? Câest super important pour la transparence et lâintĂ©gritĂ© acadĂ©mique.
Speaker 2: Ouais, absolument. Et ils donnent des exemples concrets, câest bien pratique. Mentionner lâoutil utilisĂ©, la date, la requĂȘte⊠Un peu comme une bibliographie, en fait.
Speaker 1: Exactement ! (rire) Une bibliographie pour lâĂšre de lâIA ! Et jâaime bien lâidĂ©e de mettre les rĂ©ponses de lâIA en annexe. Ăa permet de vraiment voir ce qui a Ă©tĂ© gĂ©nĂ©rĂ©, et comment câest utilisĂ©.
Speaker 2: Ouais, ça rend les choses claires, hein ? Pas de cachotteries ! Et puis, ce formulaire de dĂ©claration, en annexe 2⊠Câest carrĂ©ment un guide, quoi ! DiffĂ©rents niveaux dâutilisation, des exemples de requĂȘtesâŠ
Speaker 1: Super clair, oui. Ăa va du niveau 0 â utilisation interdite â au niveau 4 â utilisation libre. Et entre les deux, plein de nuances. Utilisation limitĂ©e, guidĂ©e, balisĂ©eâŠ
Speaker 2: Câest bien pensĂ©, ça permet dâadapter lâutilisation de lâIA au contexte pĂ©dagogique, Ă lâĂąge des Ă©lĂšves, aux objectifs du coursâŠ
Speaker 1: Et ça responsabilise les Ă©lĂšves, aussi. Ils doivent dĂ©clarer ce quâils font, comment ils utilisent lâIA. Câest une bonne façon de les sensibiliser aux enjeux Ă©thiques.
Speaker 2: Tout Ă fait. Bon, eh bien, on arrive au bout de cette discussion passionnante sur lâIA en Ă©ducation. JâespĂšre que vous avez appris autant de choses que nous ! Merci dâavoir Ă©tĂ© Ă lâĂ©coute. Ă bientĂŽt pour un nouvel Ă©pisode !
Speaker 1: Au revoir et merci Ă tous ! Nâoubliez pas de vous abonner Ă Sonofa ! On se retrouve trĂšs bientĂŽt pour de nouvelles discussions passionnantes !