Deze website gebruikt cookies

We gebruiken cookies om content en advertenties te personaliseren, om sociale mediafuncties aan te bieden en om ons verkeer te analyseren. We delen ook informatie over uw gebruik van onze site met onze sociale media-, advertentie- en analysepartners, die deze kunnen combineren met andere informatie die u aan hen heeft verstrekt of die zij hebben verzameld op basis van uw gebruik van hun diensten.

Onze privacyverklaring:

Blogs / 

Veilige AI: risiconiveaus

IT, Privacy & Cybersecurity

26 juni 2024

Geschreven door

Menno de Wijs

Blog Image
AI speelt een steeds grotere rol in ons dagelijks leven, van spraakassistenten tot zelfrijdende auto's. Maar met de groeiende impact van AI komen ook zorgen over hoe deze technologieën worden gebruikt en gereguleerd. In deze blogpost bespreken we de vier risiconiveaus zoals deze in de AI-act zijn opgenomen.

Risiconiveaus

I. Onacceptabel Risico

Onacceptabel risico omvat AI-praktijken die verboden zijn. Denk hierbij aan het uitbuiten van kwetsbaarheden van personen via subliminale technieken of biometrische identificatie in openbare ruimtes door de politie. Ook vallen emotieherkenning op de werkplek en niet-gerichte scraping van het internet hieronder.

II. Hoog Risico

AI-systemen met een hoog risico zijn systemen die bijvoorbeeld biometrische identificatie op afstand of sollicitatiefiltering uitvoeren. Ze moeten voldoen aan strenge eisen, waaronder:

  1. Eisen omtrent risicobeheer, databeheer en kwaliteitsbeheer
  2. Technische documentatie
  3. Automatische registratie van logs
  4. Transparantie
  5. Menselijk toezicht (gericht op het voorkomen of beperken van risico’s)
  6. Eisen aan nauwkeurigheid, robuustheid en cyberbeveiliging
  7. Conformiteitsbeoordeling: CE-markering
  8. Systeem voor kwaliteitsbeheer

In de praktijk zal het vooral deze categorie zijn waar de juridische interessante vraagstukken zich zullen afspelen. De regeldruk voor deze categorie is zwaar.

III. Gelimiteerd Risico

AI-systemen met een gelimiteerd risico omvatten toepassingen zoals videogames of spamfilters. Deze systemen kennen een lichtere regeldruk bestaande uit vooral transparantieverplichtingen, zoals het geven van informatie over hun doel, nauwkeurigheid, en de identiteit van de aanbieder.

IV. Geen Risico

Geen risico betekent dat de AI-praktijken als veilig worden beschouwd.

Handhaving en sancties

Elk land moet een markttoezichtautoriteit aanwijzen om naleving van deze regels te garanderen. In Nederland is het waarschijnlijk de Autoriteit Persoonsgegevens die deze taak op zich zal nemen. Als aanbieders of exploitanten zich niet aan deze regels houden, kunnen de boetes oplopen tot €35 miljoen of 7% van de totale wereldwijde jaaromzet.

AI biedt veel voordelen, maar moeten veilig en ethisch worden gebruikt. Door AI in te delen in risiconiveaus en regels te stellen, poogt men een eerste stap te zetten om basis van een risicogerichte aanpak rechten te beschermen en innovatie te stimuleren.

Vragen?

Heeft u vragen over de risico's van AI? Neem dan contact op met Menno de Wijs, Advocaat IT, Privacy & Cybersecurity of Marissa Genemans, Junior Paralegal IT, Privacy & Cybersecurity.

Nieuwsbrief

Wil je elke maand een overzicht van updates en blogs in je mailbox? Klik dan hier om je in te schrijven voor de nieuwsbrief!