Recommandations sur l'utilisation de l'intelligence artificielle (IA)
Introduction à l'Intelligence Artificielle (IA) à la HETSL
La HETSL prend conscience de l'importance grandissante de l'IA dans les secteurs de l'éducation et du travail social. En suivant les orientations fondamentales de la HES-SO, la HETSL propose d'adopter une démarche éthique et réfléchie pour incorporer l'IA dans ses méthodes d'enseignement et de recherche en prenant en considération les particularités propres à son institution.
La HETSL accorde une importance primordiale à la sensibilisation de ses étudiant·e·s / participant·es aux formations continues et de son personnel aux enjeux éthiques découlant de l'utilisation de l'IA. Il est essentiel de prendre en considération les répercussions sociétales et environnementales, ainsi que les possibles risques d'inégalités, en plaçant ces aspects au centre des réflexions et des pratiques. Chaque individu ayant recours à l'IA est vivement encouragé à adopter une démarche éthique, en intégrant les valeurs de responsabilité et d'intégrité, qui revêtent une importance capitale dans le cadre des activités académiques et professionnelles.
Accès équitable aux outils et ressources liés à l'IA
La HETSL accorde une grande importance à assurer que tous les étudiant·e·s / participant·es aux formations continues et le personnel aient un accès équitable aux outils et aux ressources liés à l'IA qui peuvent être mis à disposition eut regard au respect des règles et lois en vigueur sur la protection des données personnelles. En outre, la HETSL encourage son personnel à développer ses compétences en matière d’IA en suivant les formations qui sont mises à disposition en interne ou dans le cadre du programme DEVPRO de la HES-SO.
Transparence dans l'intégration de l'IA dans l'éducation
Il est essentiel de garantir la transparence lorsqu'il s'agit d'intégrer l'IA dans l'éducation. Ainsi, les programmes d'enseignement et les critères d'évaluation doivent être explicitement détaillés pour préciser comment l'IA sera utilisée, quels sont les objectifs visés et quel impact elle aura sur les processus d'apprentissage. Dès le commencement des cours, les étudiant·e·s / participant·es aux formations continues doivent être informé·es des attentes et des règles relatives à l'utilisation de l'IA, afin de promouvoir un environnement d'apprentissage clair, transparent et bien organisé.
Protection des données personnelles
La protection des données personnelles et sensibles est une exigence essentielle qui ne peut être remise en question. Ainsi, il est primordial que toutes les applications basées sur l'IA respectent rigoureusement les normes de protection des données. De plus, la HETSL s'engage à sensibiliser sa communauté aux risques liés à la cybercriminalité et à les informer sur les enjeux de la souveraineté numérique. Pour assurer la sécurité des informations, des protocoles stricts sont mis en place et appliqués de manière stricte.
Intégrité dans l'utilisation de l'IA
Il est crucial de garantir l'intégrité lorsqu'on utilise l'IA. Ainsi, il est primordial d'établir de manière explicite et précise les règles régissant l'utilisation et la citation des outils d'IA, et de veiller à leur stricte observation. En cas de non-respect ou d'utilisation inappropriée des outils d'IA sans citation adéquate dans le cadre de travaux académiques, des mesures disciplinaires pourront être prises en accord avec les normes en vigueur à la HETSL. Cette démarche vise à garantir un niveau élevé de rigueur tant sur le plan académique que professionnel.
La HETSL promeut une culture de réflexion constante et approfondie concernant l'utilisation de l'IA (IA) et ses répercussions. Afin de stimuler l'innovation tout en demeurant attentifs aux risques éventuels, elle soutient des projets d'exploration et d'expérimentation. Grâce à une surveillance technologique active et à une évaluation régulière des pratiques, l'établissement veut être en mesure d'ajuster ses approches pédagogiques en fonction des évolutions rapides observées dans le domaine de l'IA.
Conclusion : intégration éthique, responsable et inclusive de l'IA
En prenant en considération ces principes directeurs, la HETSL s'engage fermement à intégrer l'IA de manière éthique, responsable et inclusive.
Cette démarche vise à préparer adéquatement ses étudiant·e·s / participant·es aux formations continues et son personnel à évoluer dans un environnement de plus en plus façonné par les avancées de l'IA, tout en veillant à respecter scrupuleusement les valeurs essentielles de solidarité, d'intégration et d'ouverture qui constituent le socle de la mission de la HETSL.
FAQ sur l'Intelligence Artificielle
Un Large Language Model (LLM) désigne un modèle d'apprentissage automatique qui a été entrainé sur une grande quantité de données textuelles et qui est capable d'accomplir diverses tâches telles que la traduction, la génération de texte ou la synthèse de documents. Les Generative Pre-trained Transformers (GPT) constituent une catégorie spécifique de LLM qui emploie une architecture particulière pour produire des textes originaux. Ces modèles sont préalablement entrainés sur un vaste ensemble de textes avant d'être ajustés pour des missions spécifiques, par exemple en tant qu'assistants de conversation (chatbots).
Ces outils ont connu un succès notable, notamment avec la sortie de ChatGPT, un programme conçu par OpenAI capable de produire des textes très persuasifs sur divers sujets en utilisant un langage naturel. Depuis son introduction en novembre 2022, de nombreuses alternatives à ChatGPT ont été développées, offrant la possibilité de créer également des images, de la musique, des vidéos, et plus encore.
Toutes les grandes entreprises du secteur (comme Microsoft, Google, Facebook, etc.) offrent ou prévoient d'offrir ce genre d'outils. Alors que les couts de déploiement semblaient initialement limiter le développement à des entreprises disposant de ressources financières considérables, les progrès de la recherche dans ce domaine ont été très rapides, et de nombreuses solutions open source ont depuis émergé.
Prédire l'évolution de ces technologies est une tâche ardue en raison de la rapidité avec laquelle le paysage évolue. De nombreux agents semi-autonomes, fondés sur ces Large Language Models (LLM), voient le jour, facilitant l'automatisation et la gestion de tâches complexes en permettant à la machine de dériver et de planifier automatiquement une série de tâches nécessaires pour atteindre un objectif donné.
De surcroit, la simplification du processus d'entrainement de ces modèles permet de les spécialiser afin d'accroitre leur efficacité dans des domaines spécifiques, en se basant sur des modèles open source préentrainé. Cela élimine la contrainte financière liée aux couts d'entrainement et favorise une concurrence qui n'est plus réservée aux grands acteurs du secteur commercial. • Quelles que soient les avancées futures dans ce domaine, il est indéniable que ces technologies issues de l'intelligence artificielle auront un impact significatif à l'avenir, comparable à celui qu'ont eu par le passé des technologies révolutionnaires similaires.
Oui, pourvu que les principes de protection des données et de confidentialité soient toujours observés : il est essentiel que les utilisateur·trice·s s'abstiennent de divulguer des informations personnelles, sensibles ou confidentielles via de tels outils, conformément aux règles de protection des données et de confidentialité. Cette foire aux questions énonce les directives que les collaborateur·rice·s, étudiant·e·s, enseignant·es et chercheur·es doivent suivre dans leur utilisation.
De nombreux collaborateur·rice·s de la HETSL ont déjà intégré ChatGPT ou des outils similaires à leur routine. Ces outils offrent la possibilité d'automatiser diverses tâches, de simplifier l'accès à l'information, et d'accélérer des activités telles que la rédaction de documents, la traduction, la synthèse de contenus, ou la programmation de codes informatiques basiques.
Les mêmes caractéristiques sont progressivement intégrées de façon plus ou moins discrète et évidente dans les logiciels couramment utilisés, qu'ils soient destinés à un usage commercial ou non. Les systèmes d'exploitation, les logiciels de traitement de texte et d'analyse, les assistants virtuels, les outils de gestion du temps, entre autres, intègrent de plus en plus ces technologies pour rehausser la satisfaction des utilisateur·trices.
Il est envisageable que cette tendance se consolide davantage avec le temps, entrainant ainsi une augmentation de l'utilisation, qu'elle soit directe ou indirecte, de ces outils.
Les individus de la communauté souhaitant recourir à des outils d'intelligence artificielle, y compris pour le développement interne d'applications IA, ont la possibilité de le faire, à condition de respecter les principes fondamentaux énoncés dans cette FAQ. Ils peuvent utiliser les outils disponibles gratuitement ou opter pour des abonnements individuels si nécessaire. Le Service informatique surveille activement l'utilisation de ces outils au sein de l'institution et peut être contacté pour mettre en place des solutions plus étendues sur demande explicite d'une entité (Filière, service, etc.).
Sur la base des recommandations de la HES-SO, la HETSL définit, à destination des étudiant·es
Bachelor en Travail social et en Ergothérapie ainsi que des participant·es aux formations continues, les
normes d’utilisation et de référencement des intelligences artificielles (IA) dans le cadre de la production
de travaux liés à l’enseignement.
Quels sont les risques à utiliser des outils d’IA et quelles précautions adopter ?
En effet, les plateformes telles que ChatGPT, Copilot et d'autres ressources en libre-service se présentent actuellement comme des boites noires. Bien que l'on puisse supposer la nature de certains éléments utilisés pour les former, leur mode de fonctionnement et leur architecture demeurent confidentiels. Par conséquent, il devient impossible de procéder à une vérification de leur fonctionnement, obligeant ainsi les utilisateur·trices à adopter une approche critique quant à leur utilisation. Étant donné que la plupart de ces outils ne donnent pas accès aux sources qui sous-tendent les réponses qu'ils génèrent, les utilisateur·trices se trouvent contraint·es de vérifier la fiabilité des résultats obtenus.
L'utilisation des outils d'IA nécessite une très grande vigilance en matière de protection des données et de confidentialité. Dans le contexte de la HETSL, les utilisateur·trice·s doivent éviter de diffuser à travers ce type d’outils des données personnelles, sensibles, ou soumises au secret de fonction. Il s’agit ici d’appliquer le même jugement et regard critique que lors d’utilisation d’outils internet, et de garder à l’esprit que toute information mise à disposition sur un site web peut faire l’objet d’une collecte dont le but ultime est très éloigné de ce qu’on peut en penser. Une vigilance particulière est de mise avec l’utilisation de ces outils dont la facilité d’interaction tend à faire oublier à l’utilisateur·trice qu’il·elle est face aux mêmes problématiques rencontrées lorsqu’il·elle utilise un moteur. de recherche de type Google.
Ces modèles, entrainés sur de vastes ensembles de données provenant d'Internet et variés, reflètent les préjugés sociaux présents dans ces données. De plus, ils peuvent engendrer des phénomènes d'"hallucination" et produire des informations qui semblent tout à fait plausibles, mais qui sont en réalité inexactes ou absentes des données d'apprentissage. Parfois, ils peuvent également délivrer des informations erronées en raison des limitations de leur compréhension ou du contexte dans lequel ils opèrent. Il est essentiel que les utilisateur·trices comprennent ces contraintes.
- Aucun outil d’IA n'est actuellement en mesure de garantir la confidentialité des données qui y sont introduites.
- Lorsque l’on nourrit une IA avec des informations, ces dernières sont transférées d’un point A (l’ordinateur du·/de la chercheur·e) vers un point B (les serveurs sur lesquels est basée l’IA qui traite l’information). Si le·/la chercheur·e alimente une IA avec des données personnelles (par exemple en lui demandant d’analyser des extraits d’entretiens ou un fichier contenant des données sociodémographiques), il y a généralement communication de données personnelles à l’étranger.
- À titre d’exemple, OpenAI, dont le siège est aux États-Unis, stipule clairement que les discussions avec ChatGPT sont stockées sur leurs serveurs aux États-Unis et pourraient servir à entrainer leurs modèles. Or, les USA ne sont pas considérés par les autorités suisses et européennes de protection des données comme un pays offrant un niveau de protection des données équivalent aux leurs (pays non adéquat au sens de la loi). Il est donc pour le moment illégal en Suisse et en Europe de nourrir des IA avec des données personnelles et à fortiori sensibles (données de santé, opinions politiques, etc.). L’adoption récente d’un nouvel accord UE/USA en matière de protection des données – le Data Privacy Framework – est un pas encourageant dans la régularisation des transferts de données personnelles outre-Atlantique. La Suisse devrait adhérer à ce mécanisme à l’automne 2023
- En outre, lorsqu’un système IA traite un ensemble de données, il s’initie aux motifs et configurations présents dans ces données. Cela induit qu'il est susceptible de mémoriser et de restituer des éléments issus de ces données dans ses sorties. Ceci crée d’importants problèmes si l'IA est calibrée sur des données personnelles, sensibles ou confidentielles. Par exemple, si le logiciel traite des données médicales, des informations financières, ou toute autre donnée personnelle, il pourrait divulguer, dans les contenus qu’il produit, des détails relatifs à celles-ci, même de manière indirecte ou déguisée. Dans la configuration actuelle de ces outils, la protection et la confidentialité des données ne sont donc pas respectées.
- Les chercheur·e·s manipulant ces outils doivent donc faire preuve d’une extrême vigilance afin d’assurer la protection et la confidentialité des données. Cela peut requérir des réflexes simples tels que l’information aux participant·e·s, l'anonymisation, la pseudonymisation, l'adoption de données agrégées, etc.
- En conclusion, alors que les algorithmes d’IA offrent des capacités d'analyse et de synthèse puissantes, il est impératif que leur utilisation soit réalisée en conformité avec la loi. La garantie de la protection des données personnelles et de la confidentialité des données en général est non seulement une question d'éthique, mais aussi une obligation légale : Loi sur la protection des données personnelles (LPrD)
- C'est la raison pour laquelle les chercheur·e·s doivent s’informer des risques éventuels et mettre en place toutes les précautions nécessaires lors de la manipulation de ces outils.
Pour l’enseignement
Au vu de l’accessibilité de ces outils, de leurs performances actuelles et des progrès attendus, et étant donné qu’il est difficile de détecter ce qu’ils produisent, une interdiction ne semble ni pertinente ni réaliste.
Dès lors, il est important que les enseignant·e·s et les étudiant·e·s soient formé·e·s et informé·e·s sur les caractéristiques de ces outils, sur leur utilisation appropriée ainsi que sur les enjeux d’intégrité académique qu’ils comportent et les règles institutionnelles en la matière.
Les outils de génération d'IA peuvent se révéler être des alliés précieux dans le domaine de l'enseignement lorsqu'ils sont employés en pleine conscience de leurs atouts et de leurs limites. Leur utilisation demande un niveau d'expertise certain et une capacité critique constamment en éveil. De plus, ces outils exigent une grande prudence et une vigilance renforcée quant à la manière dont les données personnelles sont manipulées et exploitées (voir Protection et confidentialité des données).
Les utilisateur·trices de ce type de technologie doivent également être conscient·es que la qualité des résultats est étroitement liée à la qualité des instructions utilisées. Il est donc crucial, pour quiconque souhaite utiliser ces technologies, de bien maitriser "L’art du prompt".
Pour le personnel d'enseignement
Pour le personnel d'enseignement, et de manière non exhaustive, les IA génératives peuvent présenter des avantages dans les aspects suivants
Les outils d’IA générative peuvent servir de partenaires pour la création ou l’enrichissement des syllabus de cours des enseignant·e·s. Ils peuvent par exemple aider à rédiger ou améliorer des objectifs de cours (learning outcomes) ou encore proposer des activités d’enseignement variées voire des propositions d’évaluation. À titre d’exemple, le Professeur Mitchell Weiss, de la Harvard Business School, a présenté quelques moyens simples d'utiliser l'IA pour créer ou affiner un syllabus de cours (cf. lien ). Il rappelle néanmoins qu'il ne faut jamais s'en remettre uniquement à l'IA pour faire ce travail. En effet, c'est bien entendu l’enseignant·e qui doit être à l'origine de la création des cours et qui doit vérifier minutieusement les résultats de l'IA.
Les outils de génération de texte peuvent, par exemple, permettre de rédiger des fiches synthèses sur des sujets en lien avec un cours, des glossaires construits autour des termes spécifiques liés à des enseignements ou encore proposer des situations qui illustrent les concepts abordés dans les cours. Un exemple sur cette page .
Les outils de génération d’image comme Midjourney, DALL·E ou Adobe Firefly peuvent représenter une source d’illustration intéressante pour les supports de cours.
Les outils d’IA génératives peuvent suggérer des questions d’examens ou des questions en lien avec des évaluations formatives proposées aux étudiant·e·s.
Wooclap, outil disponible dans le catalogue des ressources de la CSEN proposent actuellement une fonctionnalité qui permet de générer des QCM et autres flashcards à partir de documents téléchargés, de texte, ou encore de vidéos.
Les IA génératives, si elles sont bien utilisées, peuvent devenir de bonnes alliées dans la création de travaux académiques complexes. Elles peuvent par exemple aider à générer des études de cas, proposer des solutions-types ou encore des barèmes de correction.
A titre d’exemple, nous vous proposons de découvrir la réflexion du Professeur Thomas Steiner, de la HES-SO : Repenser son examen à l’ère des chatbots.
Nos dernières actualités sur l'IA
Directive relative à l’utilisation des intelligences artificielles (IA) dans les travaux des étudiant·es Bachelor et des participant·es en formation continue
Découvrir