Objectifs
- Découvrir les principes de l’IA générative, tester les outils, adopter une posture critique sur les enjeux sociaux, transversaux et environnementaux liés à l’intelligence artificielle.
- Définir la stratégie d’implémentation de l’intelligence artificielle générative en fonction du contexte professionnel et des outils existants d’IA Générative (Chat GPT, Google Gemini, Adobe Firefly, Microsoft Copilot), en identifiant les optimisations envisageables, afin d’en dégager un plan stratégique d’intégration et d’installation des outils d’IA Générative sur le poste de travail.
- Utiliser de manière optimale les outils d’IA Générative en vue de créer des contenus rédactionnels et visuels adaptés à la demande initiale, accessibles aux personnes en situation de handicap et évitant tout risque de violation de la confidentialité des données dans un contexte professionnel.
- Evaluer et solutionner les problématiques éthiques et règlementaires liées à l’utilisation d’outils d’intelligence artificielle générative afin de créer des contenus respectant le cadre de l’IA Act, et le Règlement Général sur la Protection des Données (RGPD)
- Construire une gouvernance d’usage de l’IA en sensibilisant ses parties prenantes, anticipant les risques et intégrant la complexité des outils.
Outils mobilisés
- IA américaines : ChatGPT (OpenAI), DALL·E, Microsoft Copilot, Claude (Anthropic).
- IA européennes :
- Mistral AI (France) – open-source, décentralisée.
- Hugging Face (France/US) – hub collaboratif de modèles IA.
- Aleph Alpha (Allemagne) – conformité RGPD, transparence des données.
- Outils créatifs IA : Notion IA, Canva Magic Write, Firefly (Adobe).
- Outils d’analyse d’impact : outils de mesure d’empreinte carbone numérique (ex : GreenFrame, Shift Project).
Programme
Jour 1 – Comprendre les fondements de l’intelligence artificielle, découvrir les outils et leurs impacts (7h)
- Module 1 : Découvrir les principes de l’IA générative
- Appréhender le fonctionnement de l’IAG
- Situer l’IA générative dans l’évolution de l’intelligence générative et de l’open data
- Comparer les modèles américains (GPT, Claude) et européens (Mistral, Aleph Alpha, LLaMa)
- Comprendre les architectures de type LLM et modèles de diffusion
- Module 2 : Appréhender l’IA par la pratique et des cas concrets
- Expérimenter différentes interfaces
- Expérimenter différents usages professionnels
- Module 3 : Adopter une posture critique sur les enjeux sociaux, transversaux et environnementaux
- Décrypter les biais algorithmiques : genre, culture, langage et comprendre le cadre réglementaire
- Générer des contenus conçus pour l’inclusivité : principes, méthodes et outils
- Favoriser l’accessibilité pour différents types de handicap (visuel, auditif, cognitif)
- Evaluer l’impact écologique de l’IA
Jour 2 – Créer avec l’intelligence artificielle tout en gardant la main et en maîtrisant son empreinte (7h)
- Module 4 : Savoir optimiser les prompts
- Identifier les limites et axes d’amélioration pour enrichir un prompt
- Identifier les critères d’optimisation des contenus IA (contexte, contraintes, format, accessibilité, adaptation aux handicaps, style rédactionnel)
- Mettre l’IA dans une posture qui évite les hallucinations
- Enrichir les demandes pour des résultats optimisés avec les principes stratégiques du prompt engineering
- Module 5 : Savoir produire des contenus variés
- Produire des contenus avec l’IA : mails, scripts, rapports, transcriptions, contenus de formation
- Explorer les IA visuelles et générer des visuels cohérents à faible impact
- Réaliser un mini-projet créatif en binôme (ex : minip-campagne IA + grille d’analyse éthique)
- Module 6 : Adopter des pratiques numériques sobres, responsables et respectueuses de la confidentialité
- Optimiser un usage responsable de l’IA (choix d’outils open-source, version locale, sobriété)
- Intégrer une logique « low-tech » et sécuritaire dans son usage professionnel de l’IA
- Garantir la confidentialité : cadre réglementaire et bonnes pratiques
Jour 3 – Encadrer les usages de l’IA et ancrer une stratégie éthique (7h)
- Module 7 : Anticiper les risques sociaux, réglementaires et écologiques
- Cartographier les risques et se protéger : non-conformité, désinformation, dépendance, atteintes à la confidentialité, pression cognitive, obsolescence, perte de souveraineté cognitive…
- Analyser le RGPD, les lignes directrices CNIL, et les principes du futur AI Act
- Module 8 : Construire une gouvernance d’usage pour créer du contenu avec l’IA
- Définir une charte d’usage responsable, inclusive et sobre de l’IA
- Concevoir une stratégie d’usage de la création de contenu avec l’IA et un plan d’action qui mêlent éthique et efficacité en impliquant ses collaborateurs
- Module 9 : Sensibiliser ses parties prenantes et s’engager dans l’amélioration continue
- Construire un tableau de bord IA responsable : utilité, fréquence, impact, éthique
- Préparer un atelier de sensibilisation IA à destination de ses équipes pour partager des méthodes de création de contenu
- S’engager dans une démarche d’amélioration continue (veille, formations, auto-diagnostic)