Categorieën
Artificial Intelligence

Brussel wil met nieuwe regels paal en perk stellen aan riskant en dus verkeerd gebruik van kunstmatige intelligentie.

(De foto bij dit artikel is de “kubus” maatschappij van The Borg uit de sci-fi tv series en films van Startrek)

Martin Knops:

Artificial Intelligence (A.I) is een containerbegrip voor veel dingen, die te maken hebben met de steeds verdere vooruitgang van digitale vernieuwende ontwikkelingen op vele terreinen in de techniek- I.C.T ( informatie en communicatie technieken). Dat kan variëren van quantumcomputers, het gebruik van algoritmen door b.v. Facebook, Whatsapp en Google. Maar ook robotica en je kunt zelfs denken aan bijvoorbeeld Spotify en gezichtsherkenning op de smartphones etc.

De privacy van de mens en het gevaar van misbruik van A.I raakt de ethische normen. Denk bijvoorbeeld aan het klonen van dieren of zelfs mensen. Of het gevaar van steeds slimmer wordende computers, die de macht overnemen over de mens en maatschappij. Dit laatste is overigens wel een worst-case scenario, maar in principe wel een mogelijkheid.

Vandaar dat de EU als eerste ter wereld met regels komt om misbruik te voorkomen. Die gaan gelden voor iedereen die AI maakt waarmee Europese burgers te maken krijgen – zowel overheden als bedrijven, waaronder buitenlandse bedrijven zoals Google.

Citaat uit het hierna volgende artikel dat werd gepubliceerd in de: Volkskrant

‘We kunnen de weg plaveien voor ethische technologie in de hele wereld’, aldus Vestager. In de voorgestelde wetgeving gaat de Europese Commissie uit van een piramide: hoe groter het risico, hoe meer regels er nodig zijn (zie kader). Deze regels zijn volgens Vestager hard nodig om de burger vertrouwen te geven in goed gebruik van AI. De commissie schermt ook met torenhoge boetes bij overtreding van de regels. Die kunnen ook gelden voor niet-Europese bedrijven.

Europa komt als eerste ter wereld met regels voor kunstmatige intelligentie. ‘Dit wordt een feest voor juristen’

Brussel wil met nieuwe regels paal en perk stellen aan riskant en dus verkeerd gebruik van kunstmatige intelligentie. Na de strenge privacywetgeving neemt Europa daarmee wereldwijd opnieuw het voortouw, om de burgers te beschermen.

Vicevoorzitter Margrethe Vestager van de Europese Commissie heeft niets tegen kunstmatige intelligentie.
Beeld REUTERS

‘Ik hou niet echt van kunstmatige intelligentie.’ De woorden van Thierry Breton (Europees commissaris voor de interne markt) bij de presentatie van de ambitieuze nieuwe regelgeving kunnen eenvoudig verkeerd worden geïnterpreteerd. Het gaat Breton niet om kunstmatige intelligentie (AI) op zich, hij doelt op het zo langzamerhand bijna nietszeggende containerbegrip. Dat duikt overal op waar computersystemen op basis van grote hoeveelheden data menselijke intelligentie nabootsen en zichzelf al lerend verbeteren.

Of het nu gaat om Spotify die muziek aanbeveelt, het beoordelen van sollicitanten of om gezichtsherkenning: het is allemaal AI. Niemand in Brussel is tegen AI, benadrukte vicevoorzitter Margrethe Vestager. Nee, de risico’s zitten in het verkeerd gebruik ervan.

Vandaar dat de EU als eerste ter wereld met regels komt om misbruik te voorkomen. Die gaan gelden voor iedereen die AI maakt waarmee Europese burgers te maken krijgen – zowel overheden als bedrijven, waaronder buitenlandse bedrijven zoals Google.

‘We kunnen de weg plaveien voor ethische technologie in de hele wereld’, aldus Vestager. In de voorgestelde wetgeving gaat de Europese Commissie uit van een piramide: hoe groter het risico, hoe meer regels er nodig zijn (zie kader). Deze regels zijn volgens Vestager hard nodig om de burger vertrouwen te geven in goed gebruik van AI. De commissie schermt ook met torenhoge boetes bij overtreding van de regels. Die kunnen ook gelden voor niet-Europese bedrijven.

Dapper

Catelijne Muller (lid van de High Level Expert Group on AI, die de Commissie van advies voorzag) roemt de ambitieuze stap van Brussel. ‘De Commissie stelt hiermee de fundamentele rechten van burgers en Europese waarden centraal. Met als gevolg dat bepaald gebruik wordt verboden. Dat is dapper.’

Maar ze heeft ook kritiek: ‘Het zit vol met ingewikkelde formuleringen, definitiekwesties en achterdeurtjes. Daar gaat veel discussie over komen. Dit wordt een feest voor juristen.’ Ook Paul Tang, europarlementariër namens de PvdA, is vol lof over de ‘wereldwijde standaard’ die Europa hiermee zet: ‘Dit is heel hard nodig.’ Maar Tang vindt ook dat de lat te laag ligt.

Deepfakes

De Commissie laat volgens hem te veel ruimte voor discriminatie, biometrische identificatie en deepfakes, waarvoor elke keer weer allerlei uitzonderingen worden geformuleerd. Als voorbeeld noemt hij het gebruik van gezichtsherkenning bij camera’s in de openbare ruimte. Dat wordt verboden, maar de Commissie staat uitzonderingen toe. Bijvoorbeeld als er sprake is van een terroristische aanslag. ‘Mijn zorg is dat de uitzondering de regel wordt. Nu lijkt het erop dat je overal gevolgd mag worden onder het mom van veiligheid.’ Tang is bang dat juristen van de grote bedrijven de gaten in de wet gaan zoeken, zeker zolang er geen sterke Europese toezichthouder is.

De voorstellen van de Europese Commissie gaan nu naar het Europees Parlement en de Raad van de Europese Unie, die ze gaat beoordelen en behandelen. De wetgeving treedt naar verwachting over een jaar of twee, drie in werking.

DE ‘RISICO-PIRAMIDE’ BIJ GEBRUIK VAN AI:

Minimaal risico. Onderaan (en het vaakst gebruikt) zit AI waaraan nauwelijks risico kleeft en die dus gewoon moet kunnen floreren zonder extra regels. Denk hierbij aan spamfilters of een aanbevelingsalgoritme van Spotify.

Beperkt risico. Het gebruik van chatbots of het maken van zogenoemde deepfake-video’s. Transparantie is hierbij een vereiste. Wie een vakantieticket boekt en met een chatbot praat, moet dat expliciet te horen krijgen. Hetzelfde geldt voor een met AI gemanipuleerde deepfake-video.

Hoog risico. Hierbij gaat het bijvoorbeeld om slimme systemen die beoordelen of iemand een lening of hypotheek kan krijgen. Of die cv’s beoordelen. Dit gebruik moet aan strenge regels voldoen. Zo moeten de gegevens waarmee deze systemen getraind zijn van hoge kwaliteit zijn, zodat er geen sprake kan zijn van discriminatie.

Onaanvaardbaar risico. Helemaal verboden. De commissie noemt sociaal krediet-systemen naar Chinees voorbeeld, waarbij slecht gedrag leidt tot een lagere score en dus tot beperkingen, zoals minder mogen reizen. Ook ‘biometrische identificatiesystemen op afstand’ (camera’s met gezichtsherkenning) mogen in principe niet meer, uitzonderingen daargelaten.

Lees ook: Met algoritmen moet je zorgvuldig omgaan.

Auteur is: Laurens Verhagen.

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google photo

Je reageert onder je Google account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

Verbinden met %s

Deze site gebruikt Akismet om spam te bestrijden. Ontdek hoe de data van je reactie verwerkt wordt.