Einde inhoudsopgave
Verordening (EU) 2024/1689 tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie en tot wijziging van de Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144, en de Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828 (Verordening artificiële intelligentie)
Artikel 7 Wijzigingen in bijlage III
Geldend
Geldend vanaf 01-08-2024
- Redactionele toelichting
Wordt toegepast vanaf 02-08-2026.
- Bronpublicatie:
13-06-2024, PbEU L 2024, 2024/1689 (uitgifte: 12-07-2024, regelingnummer: 2024/1689)
- Inwerkingtreding
01-08-2024
- Bronpublicatie inwerkingtreding:
13-06-2024, PbEU L 2024, 2024/1689 (uitgifte: 12-07-2024, regelingnummer: 2024/1689)
- Vakgebied(en)
Privacy (V)
Intellectuele-eigendomsrecht (V)
Informatierecht / ICT-recht
1.
De Commissie is bevoegd overeenkomstig artikel 97 gedelegeerde handelingen vast te stellen tot wijziging van bijlage III door hieraan gebruiksgevallen van AI-systemen met een hoog risico toe te voegen of te wijzigen wanneer aan beide van de volgende voorwaarden is voldaan:
- a)
de AI-systemen zijn bedoeld om te worden gebruikt op een van de gebieden als bedoeld in bijlage III;
- b)
de AI-systemen vormen een risico op schade voor de gezondheid en veiligheid, of nadelige effecten op de grondrechten, en dat risico is gelijk aan of groter dan het risico op schade of nadelige effecten dat wordt gevormd door de AI-systemen met een hoog risico die reeds zijn opgenomen in bijlage III.
2.
Bij de beoordeling van de voorwaarde van lid 1, punt b), houdt de Commissie rekening met de volgende criteria:
- a)
het beoogde doel van het AI-systeem;
- b)
de mate waarin een AI-systeem is gebruikt of waarschijnlijk zal worden gebruikt;
- c)
de aard van en de hoeveelheid gegevens die het AI-systeem verwerkt en gebruikt, met name of bijzondere categorieën persoonsgegevens worden verwerkt;
- d)
de mate waarin het AI-systeem autonoom handelt en de mogelijkheid voor een mens om beslissingen of aanbevelingen die tot schade kunnen leiden terzijde te schuiven;
- e)
de mate waarin het gebruik van een AI-systeem reeds schade voor de gezondheid en veiligheid of nadelige effecten op de grondrechten heeft veroorzaakt of aanleiding heeft gegeven tot aanzienlijke zorgen in verband met de waarschijnlijkheid van dergelijke schade of nadelige effecten, zoals aangetoond bijvoorbeeld door verslagen of gedocumenteerde beweringen die zijn ingediend bij de nationale bevoegde autoriteiten of, in voorkomend geval, door andere verslagen;
- f)
de potentiële omvang van dergelijke schade of dergelijke nadelige effecten, met name wat betreft de intensiteit ervan en de mogelijkheid dat meerdere personen worden getroffen of dat een bepaalde groep personen onevenredig wordt getroffen;
- g)
de mate waarin potentieel geschade of nadelig getroffen personen afhankelijk zijn van de aan de hand van een AI-systeem geproduceerde uitkomst, met name omdat het om praktische of juridische redenen niet redelijkerwijs mogelijk is om van deze uitkomst af te zien;
- h)
de mate waarin sprake is van een onevenwichtige machtsverhouding, of de potentieel geschade of nadelig getroffen personen zich in een kwetsbare positie bevinden ten opzichte van de gebruiksverantwoordelijke van een AI-systeem, met name als gevolg van status, autoriteit, kennis, economische of sociale omstandigheden of leeftijd;
- i)
de mate waarin de geproduceerde uitkomst waarbij een AI-systeem betrokken is niet gemakkelijk kan worden rechtgezet of omgekeerd, rekening houdend met de beschikbare technische oplossingen om die uitkomst recht te zetten of om te keren, waarbij van uitkomsten die nadelige effecten hebben op de gezondheid, veiligheid of grondrechten, niet wordt beschouwd dat zij eenvoudig kunnen worden rechtgezet of omgekeerd;
- j)
de omvang en waarschijnlijkheid van het voordeel dat het inzetten van het AI-systeem voor natuurlijke personen, groepen of de samenleving in het algemeen, met inbegrip van mogelijke verbeteringen op het gebied van productveiligheid, met zich meebrengt;
- k)
de mate waarin in het bestaande Unierecht is voorzien in:
- i)
doeltreffende maatregelen om beroep aan te tekenen in verband met de risico's van een AI-systeem, met uitzondering van vorderingen tot schadevergoeding;
- ii)
doeltreffende maatregelen om deze risico's te voorkomen of aanzienlijk te beperken.
3.
De Commissie is bevoegd overeenkomstig artikel 97 gedelegeerde handelingen vast te stellen tot wijziging van bijlage III door AI-systemen met een hoog risico te schrappen wanneer aan beide van de volgende voorwaarden is voldaan:
- a)
het betrokken AI-systeem met een hoog risico vormt, rekening houdend met de in lid 2 vermelde criteria, geen significant risico voor de grondrechten, de gezondheid of de veiligheid;
- b)
de schrapping leidt niet tot een lager algeheel beschermingsniveau wat betreft de gezondheid, de veiligheid en de grondrechten uit hoofde van het Unierecht.