**Doel:** Voorstel voor een verordening — Artikel 29 bis (nieuw)

## Door de Commissie voorgestelde tekst









a)



b)



c)



d)



e)



f)



g)



h)



j)













## Amendement van het Europees Parlement

Artikel 29 bis

Beoordeling van de gevolgen voor de grondrechten van AI-systemen met een hoog risico

Voordat exploitanten een AI-systeem met een hoog risico als gedefinieerd in artikel 6, lid 2, in gebruik stellen, met uitzondering van AI-systemen die bedoeld zijn om te worden gebruikt op gebied 2 van bijlage III, voeren zij een beoordeling uit van de gevolgen van het systeem in de specifieke gebruikscontext. Bij deze beoordeling wordt ten minste gekeken naar de volgende elementen:

a) een duidelijke omschrijving van het beoogde doel waarvoor het systeem gebruikt wordt;

een duidelijke omschrijving van het beoogde doel waarvoor het systeem gebruikt wordt;

b) een duidelijke omschrijving van het beoogde geografische toepassingsgebied van het gebruik van het systeem en het bijbehorende tijdsbestek;

een duidelijke omschrijving van het beoogde geografische toepassingsgebied van het gebruik van het systeem en het bijbehorende tijdsbestek;

c) categorieën van natuurlijke personen en groepen die naar verwachting gevolgen zullen ondervinden van het gebruik van het systeem;

categorieën van natuurlijke personen en groepen die naar verwachting gevolgen zullen ondervinden van het gebruik van het systeem;

d) een verificatie om te bevestigen dat het gebruik van het systeem in overeenstemming is met het Unie- en nationale recht inzake grondrechten;

een verificatie om te bevestigen dat het gebruik van het systeem in overeenstemming is met het Unie- en nationale recht inzake grondrechten;

e) de redelijkerwijs te verwachten gevolgen voor de grondrechten van de ingebruikstelling van het AI-systeem met een hoog risico;

de redelijkerwijs te verwachten gevolgen voor de grondrechten van de ingebruikstelling van het AI-systeem met een hoog risico;

f) specifieke risico’s op schadelijke effecten die het systeem waarschijnlijk met zich meebrengt voor gemarginaliseerde personen of kwetsbare groepen;

specifieke risico’s op schadelijke effecten die het systeem waarschijnlijk met zich meebrengt voor gemarginaliseerde personen of kwetsbare groepen;

g) het in redelijkheid voorzienbare negatieve effect van het gebruik van het systeem op het milieu;

het in redelijkheid voorzienbare negatieve effect van het gebruik van het systeem op het milieu;

h) een gedetailleerd plan met een uiteenzetting van de wijze waarop de negatieve gevolgen voor de grondrechten zullen worden beperkt.

een gedetailleerd plan met een uiteenzetting van de wijze waarop de negatieve gevolgen voor de grondrechten zullen worden beperkt.

j) het governancesysteem dat de exploitant zal invoeren, met inbegrip van menselijk toezicht, klachtenafhandeling en verhaal.

het governancesysteem dat de exploitant zal invoeren, met inbegrip van menselijk toezicht, klachtenafhandeling en verhaal.

2. Als er geen gedetailleerd plan kan worden vastgesteld om de in het kader van de beoordeling overeenkomstig lid 1 omschreven risico’s te beperken, stelt de exploitant het AI-systeem met een hoog risico niet in gebruik en stelt hij de aanbieder en de nationale toezichthoudende autoriteit onverwijld in kennis. De nationale toezichthoudende autoriteiten nemen deze informatie, op grond van de artikelen 65 en 67, in aanmerking bij het onderzoek naar systemen die een risico op nationaal niveau kunnen vormen.

3. De verplichting als neergelegd in lid 1 is van toepassing op het eerste gebruik van een AI-systeem met een hoog risico. De exploitant kan in soortgelijke gevallen gebruikmaken van eerder uitgevoerde effectbeoordelingen op het gebied van de grondrechten of bestaande beoordelingen die door aanbieders zijn uitgevoerd. Indien de exploitant tijdens het gebruik van het AI-systeem met een hoog risico van oordeel is dat niet langer aan de in lid 1 genoemde criteria wordt voldaan, voert hij een nieuwe effectbeoordeling op het gebied van de grondrechten uit.

4. De exploitant, behalve als het gaat om een kmo, stelt de nationale toezichthoudende autoriteiten en de betrokken belanghebbenden in de loop van de effectbeoordeling op de hoogte en betrekt bij een en ander zo veel als mogelijk is de personen of groepen die waarschijnlijk de gevolgen zullen ondervinden van het AI-systeem met een hoog risico, als omschreven in lid 1, onder wie, maar niet beperkt tot: organen voor gelijke behandeling, agentschappen voor consumentenbescherming, sociale partners en gegevensbeschermingsagentschappen, met het oog op het verkrijgen van input voor de effectbeoordeling. De exploitant geeft de agentschappen zes weken de tijd om te reageren. Kmo’s kunnen de bepalingen van dit lid vrijwillig toepassen.

In het in artikel 47, lid 1, bedoelde geval kunnen overheidsinstanties van deze verplichtingen worden vrijgesteld.

5. Indien de exploitant een overheidsinstantie of een onderneming als bedoeld in artikel 51, lid 1bis, punt b), is maakt deze een samenvatting van de resultaten van de effectbeoordeling openbaar als onderdeel van de gebruiksregistratie op grond van de verplichting neergelegd in artikel 51, lid 2.

6. Wanneer de exploitant reeds verplicht is een gegevensbeschermingseffectbeoordeling uit te voeren op grond van artikel 35 van Verordening (EU) 2016/679 of artikel 27 van Richtlijn (EU) 2016/680, wordt de in lid 1 bedoelde effectbeoordeling op het gebied van de grondrechten uitgevoerd in samenhang met de gegevensbeschermingseffectbeoordeling. De gegevensbeschermingseffectbeoordeling wordt als bijlage gepubliceerd.