Qu’il s’agisse d’informations sur les clients, de documents internes ou de données commerciales confidentielles, il existe de nombreuses données sensibles au travail quotidien. L’utilisation de chatbots d’IA tels que ChatGPT soulève donc d’importantes questions: Qu’adviendra-t-il de ces données? Sont-ils sauvegardés, voire réutilisés?
Dans ce webinaire, vous trouverez des informations sur la manière dont les grands modèles linguistiques (LLM) traitent les données, sur les paramètres par défaut qui présentent des risques et sur la manière d’adapter les paramètres clés en matière de protection de la vie privée. L’objectif est de vous permettre d’utiliser des chatbots d’IA en toute sécurité dans votre entreprise, sans fuites de données involontaires.
Contenu
Comment les dialogueurs d’IA traitent les données.
Comprendre et adapter les paramètres de protection des données.
- Étape par étape par les principaux paramètres.
- Exemples en direct d’outils courants (par exemple ChatGPT, Microsoft Copilot).
Travailler avec des chatbots d’IA en toute sécurité.
- Do’s & Don’ts lors du traitement d’informations sensibles.
- Conseils pratiques sur les lignes directrices au sein de l’entreprise.
Avantages/objectifs
- Vous connaissez les paramètres importants en matière de protection des données dans les dialogueurs d’IA courants.
- Vous savez comment utiliser les chatbots d’IA en toute sécurité.
- Ils savent ce qu’il convient de respecter lors de l’utilisation de LLM.
Groupe cible
- Dans tous les secteurs — le personnel et les parties intéressées issus de PME.
- Aucune connaissance préalable n’est requise; les premières expériences de dialogueurs d’IA constituent un atout.
Chargé de mission
- Thomas Butterbach
- t.butterbach@digitalzentrum-saarbruecken.de
Il s’agit d’une manifestation de coopération avec le Centre numérique de Sarrebruck.
inscription
L’inscription se fera via le site web de la coopération: ici