Het formaat combineert onlinemateriaal over het onderwerp met een live webinar (twee selectiedata) waar wij uw vragen over de inhoud beantwoorden. Het doel van de cursus is u een eerste oriëntatie te geven: De eerste is een blog-post met een compacte samenvatting van de AI-verordening van de EU. U zult dan naar een korte podcast luisteren over de risiconiveaus. De risico’s van AI-systemen worden vervolgens gepresenteerd, gevolgd door aanbevelingen voor maatregelen om deze risico’s te voorkomen. Bezoek tot slot een live webinar waar u vragen kunt stellen over de inhoud en deze met andere deelnemers kunt delen.
AI-verordening van de EU
Overzicht en classificatie voor de praktijk
Welke verplichtingen zijn voor u relevant?
Dit hangt af van de vraag of u een aanbieder of exploitant van AI bent en in welke context u AI gebruikt. Zie punt 1 voor meer informatie.
Wat zijn de risiconiveaus?
Er worden vier risiconiveaus onderscheiden: minimaal, beperkt, hoog en onaanvaardbaar risico. Zie punt 2 voor meer informatie.
Welke risico’s houdt het gebruik van AI in?
De risico’s hangen nauw samen met de risiconiveaus: Hoe hoger het risiconiveau, hoe groter de potentiële impact. Zie punt 3 voor meer informatie.
2. AI-VERORDENING VAN DE EU POTCAST
In deze podcast zijn de vier risiconiveaus van de AI-VERORDENING VAN DE EU kort toegelicht.
3. RISICO’S EN AANBEVELINGEN VOOR ACTIE
Hallucinaties
Wat betekent dat?
AI-systemen kunnen fouten maken en onjuiste informatie verstrekken. Met name in het geval van vertaal- of tekstsystemen kan AI worden misbruikt, verkeerd voorstellen doen of iets uitvinden.
Aanbevelingen
Kritisch controleren van door AI gegenereerde inhoud, met name op technische termen of gevoelige informatie.
Zwarte doos
Wat betekent dat?
Gebruikers weten vaak niet precies hoe AI tot hun resultaat komt. Zelfs in het geval van eenvoudige AI-systemen is het soms niet duidelijk waarom AI iets voorstelt, aangezien de werking ervan niet transparant is.
Aanbevelingen
Vragen om begrijpelijke criteria voor beslissingen van AI-systemen. Geautomatiseerde voorstellen ter discussie stellen, met name voor belangrijke besluiten.
Vooringenomenheid
Wat betekent dat?
Eenvoudige AI-systemen kunnen ook vertekende of onnauwkeurige resultaten opleveren. Als AI is getraind met onvolledige of vertekende gegevens, kan het verkeerde beslissingen nemen.
Aanbevelingen
Aandacht besteden aan mogelijke nadelen in de resultaten. Melding maken van opvallende patronen en pleiten voor meer gevarieerde opleidingsgegevens en -perspectieven.
Afhankelijkheid
Wat betekent dat?
Als we te veel afhankelijk zijn van AI-instrumenten, vragen we ons soms niet meer of de resultaten correct zijn.
Aanbevelingen
AI gebruiken als ondersteuning, niet als vervanging voor kritisch denken. Controleer de resultaten en neem altijd belangrijke beslissingen.
Desinformatie
Wat betekent dat?
AI kan bedrieglijk echte inhoud creëren die onjuiste informatie verspreidt. De AI-verordening schrijft voor dat door AI gegenereerde of gemanipuleerde inhoud duidelijk moet worden geïdentificeerd.
Wat kunt u doen?
Identificeer duidelijk door AI gegenereerde inhoud, bv. in presentaties of klantcommunicatie. Niet-bevestigde door AI gegenereerde inhoud niet verspreiden, maar altijd onafhankelijk controleren op de waarheidsgetrouwheid ervan.
Manipulatie
Wat betekent dat?
Door AI gegenereerde inhoud kan op een gerichte manier worden ontworpen die van invloed is op de meningen, beslissingen of gedragingen van mensen zonder deze te kennen.
Het gaat hierbij met name om tekst, afbeeldingen, video’s of taal die gericht zijn op emotionele of psychologische effecten. De AI-verordening schrijft voor dat dergelijke manipulaties duidelijk moeten worden geïdentificeerd om de transparantie te vergroten en het risico op inmenging tot een minimum te beperken.
Aanbevelingen
Zoeken naar transparantie en kritisch vraagtekens plaatsen bij emotionele of indringende door AI gegenereerde berichten.
Kwetsbaarheden
Wat betekent dat?
Eenvoudige AI-systemen kunnen ook worden aangevallen om gegevens te stelen.
Aanbevelingen voor actie
Alleen AI-systemen uit betrouwbare bronnen gebruiken. Lees meer over veiligheidskenmerken en zorg voor tekenen van misbruik of externe interventie.
4. Webinar 30MIN Q-A
Twee afzonderlijke data voor de opbouw van: niet op elkaar.