Column

Het grote AInterview
met Roeland de Bruin

Roeland de Bruin

Roeland de Bruin Senior advocaat

In augustus 2024 is de Europese AI-verordening in werking getreden. Sommige regels gelden nu al, maar het grootste deel zal gefaseerd in werking treden. In gesprek met Roeland de Bruin, die zich met recht AI expert mag noemen. Al sinds 2010 begeeft hij zich in de wereld van robotica en AI en heeft zodoende 14 jaar ervaring op een onderwerp dat voor de meesten van ons vrij nieuw is. Met veel enthousiasme geeft hij antwoord op de vragen wat we nu eigenlijk verstaan onder AI en wat er straks wel en niet mag.

Laten we beginnen bij het begin. Hoe zou je AI omschrijven?
AI, of kunstmatige intelligentie, bestaat uit drie belangrijke componenten: het kunstmatige component, autonomie en intelligentie. Het kunstmatige spreekt een beetje voor zich denk ik. Maar autonomie en intelligentie zijn erg interessant. AI is in wezen een technologie die ontworpen is om autonoom beslissingen te nemen, maar wat autonomie precies is, dat is niet altijd makkelijk te definiëren. Als jurist kijk ik naar de mate van menselijk ingrijpen die nodig is om een beslissing te nemen die juridische gevolgen kan hebben. Hoe groter de mate van autonomie van een systeem, hoe meer het in staat is om zelfstandig beslissingen te nemen zonder menselijke input.


Kun je daar een voorbeeld van geven?
Neem bijvoorbeeld zelfrijdende auto's. Deze opereren op basis van verschillende niveaus van autonomie. Van niveau 0, wat geen autonomie betekent, tot niveau 6, wat volledige autonomie inhoudt. Op niveau 6 zou een auto volledig autonoom zijn en zonder enige menselijke tussenkomst kunnen opereren. Maar daar zijn we nog niet. We bevinden ons nu ongeveer op niveau 3. De auto kan veel zelf, maar zeker nog niet alles.

AI wordt vaak gezien als een revolutionaire technologie, maar in feite is het de volgende stap in de digitalisering. Het is een logisch gevolg van de evolutie van technologie, maar wel een stap met grote implicaties op juridisch gebied.
Roeland de Bruin Sr. Advocaat | AI, Intellectueel eigendom, ict-recht & privacy

En het derde component, intelligentie, wat houdt dat in?
Intelligentie binnen AI verwijst naar het vermogen van een systeem om gedrag aan te passen aan veranderende omstandigheden. Als we het voorbeeld van de zelfrijdende auto aanhouden, zou dit betekenen dat deze zachter gaat rijden als het begint te sneeuwen. Dit vermogen om de omgeving waar te nemen, hiervan te leren en gedrag aan te passen, is een belangrijk aspect van wat AI intelligent maakt. En ook hier geldt weer: Hoe minder menselijke tussenkomst nodig is om deze aanpassingen te maken, hoe intelligenter het systeem wordt geacht.

Samengevat gaat AI dus over systemen die steeds minder menselijke interventies nodig hebben om taken uit te voeren en beslissingen te kunnen nemen, te kunnen leren van de omgeving en dat vervolgens om kunnen zetten in aangepast gedrag. Daarbij valt naast zelfrijdende auto’s te denken aan robots die kunnen opereren, slimme landbouwwerktuigen die weten wat onkruid is en agriculturele toepassingen zoals precisielandbouw technologieën die drones en AI-algoritmes combineren om gewassen te monitoren en te beheren. Maar ook algoritmes die beslissingen nemen over iemands kredietwaardigheid of het berekenen van premies op basis van iemands kans om ziek te worden.


Hoe autonoom en intelligent zijn deze systemen nu?
Zeker nog geen 100%. Dat is echt toekomstmuziek. Al is het ook de vraag of we volledige autonomie echt gaan halen. Daarom is het ook zo belangrijk dat er goede controle en regelgeving wordt ingezet. AI kan aanzienlijke risico's met zich meebrengen, ook omdat het nieuwe informatie genereert en die vervolgens gebruikt om zijn eigen leercurve te verbeteren. Dit kan gevaarlijk zijn. Denk bijvoorbeeld aan de toeslagen-affaire. Dat willen we niet nog een keer.


Hoe gaat de nieuwe wetgeving hierbij helpen?
De nieuwe AI-wetgeving probeert deze risico's te kaderen door verschillende categorieën van risico's te definiëren. Zo zijn er bijvoorbeeld toepassingen zoals social scoring zoals dit in China wordt toegepast en predictive policing, waarbij data wordt gebruikt als voorspellende factor voor politie inzet. Dit zijn systemen die manipulerend of discriminerend (kunnen) werken wat in strijd is met de mensenrechten. Dit wordt als dermate risicovol beschouwd, dat ze volledig verboden zijn.

Andere toepassingen, zoals zelfrijdende auto's en medische apparaten, worden beschouwd als hoog risico. Deze mogen alleen onder bepaalde voorwaarden worden gebruikt, zoals het hebben van menselijk toezicht en transparantie over de werking van het systeem. Denk aan AI voor het gebruik van sluizen en stuwen, of AI voor werving en selectie. Het mag allemaal wel, maar dus alleen onder bepaalde omstandigheden. Dan is er ook nog laag risico, waarbij een deel van een proces wordt geautomatiseerd, welke geen impact heeft op mensen, veiligheid of rechten. ChatGPT valt dan weer onder de buitencategorie, de general purpose AI.


En voor al deze categorieën komt er nu regelgeving?
Inderdaad. Voor verboden is het simpel: Het mag niet, en doe je het toch, dan volgen er boetes. Die zijn fors, want het gaat om tientallen miljoenen, of 7% van je jaarlijkse wereldwijde omzet. Toepassingen met een hoog risico mogen wel, maar je moet er wel wat voor doen. Het gaat dan om toepassingen die een grote impact kunnen hebben op mensenlevens. Deze moeten aan strenge eisen voldoen, zoals een risicomanagementsysteem, een veiligheidssysteem en een CE-keurmerk. Daarnaast moet er altijd menselijk toezicht zijn en dient de werking van een systeem transparant te zijn. Voor de lage risico AI-systemen geldt dat er geen eisen gelden omdat de risico’s dus laag of nihil zijn. Denk bijvoorbeeld aan chatbots, virtuele assistent of productaanbevelingen binnen de e-commerce.


Wanneer zullen deze regels in werking treden?
De verboden gaan eerst in en daarna de regels voor hoge risico AI-systemen. Dit gaat in stapjes, zodat organisaties en overheden ook de tijd krijgen om op de regels te reageren. En ook om de wetgeving verder uit te werken.


Hoe gaat Kienhuis Legal om met deze nieuwe wetgeving en hoe adviseren jullie cliënten op dit moment?
Momenteel zijn we vooral bezig met het voorlichten van onze cliënten en het helpen bij het opstellen van complianceprogramma's. We zorgen ervoor dat ze begrijpen wat de nieuwe regels inhouden en wat er van hen wordt verwacht. Na de inwerkingtreding van de nieuwe regels zullen we ons meer richten op handhaving en het begeleiden van cliënten bij het naleven van de regelgeving. Dit zal vooral belangrijk zijn omdat de regels vaak vaag en multi-interpretabel zijn, wat kan leiden tot juridische geschillen en procedures.


Aan welke geschillen denk je dan?
Laten we een voorbeeld pakken van AI binnen werving en selectie. Als maker van het AI-systeem kun je vinden dat je op basis van de juiste data hebt gewerkt en dat er in die data geen vooroordelen hebben gezeten. Maar als blijkt dat dit toch zo is, moet je bepaalde keuzes kunnen verantwoorden. Of misschien is het wel goed ontwikkeld, maar heb je iets niet goed gesignaleerd. De interessante vraag wordt dan:


Wanneer heb je voldoende je best gedaan als aanbieder, terwijl er wel schade is ontstaan? En wanneer is dit niet het geval?
Het kloppend hart van de wet is de unbiased data die je gebruikt. Er zijn een aantal bepalingen binnen de AI-verordening die zeer belangrijk zijn: Er moet menselijke verantwoording zijn, een mens moet begrijpen wat er gebeurt en het moet transparant zijn. De beslissingen die AI maakt, moeten worden gelogd, zodat inzichtelijk wordt waar er mogelijk fouten worden gemaakt.

Er zullen toezichthouders komen en die zullen gaan controleren. En als je niet voldoet, kun je boetes krijgen. Als Kienhuis Legal zullen wij daar ook mee te maken krijgen. Is die boete terecht of kunnen we de boete voorkomen? Of als er schade is ontstaan die in strijd is met de regels. Dat wordt een zeer interessante tijd voor advocaten.


Zijn de grotere bedrijven in het voordeel als het gaat om de hoog risico AI-toepassingen?
Kleine bedrijven zullen waarschijnlijk meer moeite hebben om aan de regelgeving te voldoen dan grote bedrijven, simpelweg omdat ze minder middelen hebben om te investeren in compliance. De regels zijn even streng voor iedereen, en dat kan voor kleine bedrijven een uitdaging zijn. Het is belangrijk dat ook zij de juiste stappen zetten om te voldoen aan de nieuwe regels, en daarbij helpen wij hen graag.


Komt dat ook voort uit een gevoel van maatschappelijke verantwoordelijkheid?
Absoluut. Bij Kienhuis Legal voelen we een sterke maatschappelijke betrokkenheid bij het beschermen van de rechtsstaat en het bijdragen aan maatschappelijke uitdagingen. We zien het als onze taak om bedrijven te helpen navigeren door de complexiteit van de nieuwe wetgeving en ervoor te zorgen dat AI op een verantwoorde manier wordt ontwikkeld en gebruikt.


Wat zou je bedrijven aanraden die zich voorbereiden op de nieuwe AI-wetgeving?
Het belangrijkste is dat bedrijven zich goed voorbereiden en zorgen dat zij voldoen aan de regelgeving. Dit betekent dat ze niet alleen de technische aspecten van hun AI-systemen moeten controleren, maar ook moeten zorgen voor goede documentatie, transparantie en risicomanagement. Kienhuis Legal kan daarbij helpen door bedrijven te adviseren en te begeleiden bij het opzetten van de juiste complianceprogramma's en het interpreteren van de nieuwe regels.


Tot slot, je loopt al even mee in de wereld van AI. Waar zie jij de ontwikkelingen naartoe gaan?
AI wordt vaak gezien als een revolutionaire technologie, maar in feite is het de volgende stap in de digitalisering. Het is een logisch gevolg van de evolutie van technologie, maar wel een stap met grote implicaties op juridisch gebied. En voor overheden. Er is een wisselwerking tussen overheid en markt in de regulering van AI. De AI-wet is ook een poging om meer controle te krijgen over hoe technologie bedrijven opereren en te voorkomen dat zij te veel macht krijgen. We willen innovatie, maar niet ten koste van de veiligheid of rechten van burgers. Wat dat betreft is de AI-verordening ook een kans voor overheden om de macht van de grote tech-bedrijven een beetje terug te krijgen.

Maar eerst maar eens de komende jaren afwachten. We gaan er later achter komen wat dit exact zal betekenen. Ik kijk er naar uit!


Heeft u vragen?
Neem contact met ons op