Artificiële intelligentie - ethische en juridische
vraagstukken (Gepubliceerd op 13/08/2018)
L’intelligence artificielle est une
technologie en plein essor qui donne lieu à de nombreux espoirs dus entre autre
à l’apprentissage automatique qui permet à la machine d’apprendre de ces fautes
et de tirer des conclusions à l’aide d’une multitude de données. Elle prend
ainsi des décisions autonomes. Toutefois, cette autonomie pose des
problématiques éthiques et juridiques, qui sont loin d’être résolues. L’Europe
est « en retard » par rapport aux Etats-Unis et à la Chine. Pour
rattraper ce retard et surtout savoir où l’on va, il faut donner à cette IA une
direction, un sens. Il faut également essayer de comprendre ce qui se passe à
l’intérieur de ces machines, pour pouvoir auditer le processus en cas de
litige. L’IA utilise surtout des données : qu’en est-il de l’ouverture des
données publiques et privées, de la protection des données collectives, sachant
que la RGPD protège surtout les données à caractère personnel. Si la machine
crée une œuvre, peut-on la qualifier d’œuvre de l’esprit et est-elle protégée
par le droit d’auteur ? Le rapport Villani qui a été présenté le 29 mars
dernier essaye donner un sens à l’intelligence artificielle et pose les pistes
à explorer.
Artificiële intelligentie is een snelgroeiende technologie
waarover hoge verwachtingen worden gekoesterd, vooral sinds AI apparaten door
middel van het “zelflerende aspect” kunnen leren van hun fouten, conclusies
trekken uit de grote hoeveelheden data die ze verwerken en zelfstandig
beslissingen kunnen nemen. Deze dataverwerking en zelfstandigheid roepen echter
ethische en juridische vraagstukken op, die nog niet opgelost zijn. De Europese
commissie heeft onlangs een groep topexperts aangesteld om hierover na te denken.
De Franse premier heeft in september 2017 aan Cédric
Villani, mathematicus, gevraagd een werkgroep samen
te stellen, onderzoek te doen en een rapport te schrijven over de sens (richting, strekking, doel) van AI. De jurist van de groep is Charly Berthet en het rapport is 29 maart jl. gepresenteerd.
Het rapport beschrijft de actuele situatie waarin
vooral de Verenigde Staten en China voorlopers zijn, onder andere doordat zij
toegang hebben tot grote hoeveelheden data.
Om deze ongelijkheid op te heffen, is het zaak dat zoveel mogelijk data circuleren en beschikbaar
gesteld worden, ook voor kleinere privé-instanties. Hierbij moeten de rechten
en vrijheden van burgers en bedrijven gerespecteerd worden. De Europese
richtlijn hergebruik van informatie van
de overheidssector zal hervormd worden en het juridisch kader van het copyright
zal eveneens herzien worden, om “text
and datamining” (TDM) mogelijk te maken.
Het rapport bepleit om de ontwikkeling van AI te
concentreren op een aantal strategische sectoren, met name
de gezondheidssector, milieubescherming, transport en mobiliteit, defensie en
veiligheid.
Wenselijk is dat deze technologie de menselijke en
sociale voortgang stimuleert en er moet dus nagedacht worden over een modus die
complementariteit tussen menselijke en kunstmatige intelligentie mogelijk
maakt. AI moet ook toegankelijker worden. Hiertoe
zullen in heel Frankrijk experimenten worden uitgevoerd, en de mogelijkheid zal
geboden worden voor bedrijven (vooral in de gezondheidssector) en particulieren
om in een “bac à sable” in reële
omstandigheden AI te testen, voornamelijk binnen bevolkingsgroepen die meer
kans hebben door automatisering geraakt te worden.
Dit brengt ons bij de dilemma’s die onder de loep moeten
worden genomen.
Discriminatie
AI mag
geen discriminatie en ongelijkheid in de hand werken en moet de rechten van de
individuele mens respecteren.
AI zal
gebruikt worden op cruciale terreinen als gezondheid, recht, bankwezen,
verzekeringen, toegang tot een woning, veiligheid. De machine zal bijvoorbeeld
uitrekenen in welke mate iemand in staat zal zijn een lening terug te betalen
of welke groep mensen eerder een delict zal plegen. Data zullen vergeleken
worden en er zullen verbanden gelegd worden. Het is niet de bedoeling dat bestaande
discriminatie voortgezet wordt via AI.
De actuele privacy regelgeving (AVG) verplicht in
sommige gevallen een Privacy Impact Assessment (PIA)
uit te voeren om na te gaan in hoeverre privacy regels overtreden zullen worden.
Om discriminatie te voorkomen, zou een Discrimination
Impact Assessment (DIA) uitgevoerd kunnen worden. Verder
geeft artikel 22 van de AVG een bepaalde bescherming: een persoon heeft het recht niet te worden
onderworpen aan een uitsluitend op geautomatiseerde verwerking, waaronder
profilering, gebaseerd besluit waaraan voor hem rechtsgevolgen zijn verbonden
of dat hem anderszins in aanmerkelijke mate treft (dit
is de hoofdregel).
Bescherming
persoonsgegevens
De AVG is gericht op bescherming van individuele
persoonsgegevens en natuurlijke personen. AI gebruikt
vooral gegevens van groepen individuen die op grote schaal uitgebuit worden om tendensen
en verborgen gedrag vast te stellen en verbanden te leggen die groepen
individuen aangaan.
De komende ePrivacy
Verordening zal bescherming bieden op het gebied van elektronische communicatie
en zal ook rechtspersonen beschermen (niet alleen natuurlijke personen).
Er zou een bescherming moeten komen van collectieve rechten op gegevens, hiertoe
bestaat in Frankrijk reeds de mogelijkheid om een
gezamenlijke aanklacht in te dienen. Dit is niet voldoende, maar kan een basis
vormen voor de bescherming van collectieve rechten.
Copyright
Het actuele Europese juridische kader van het copyright
is in meerdere opzichten niet aangepast aan AI. Enerzijds is door deze
bescherming in Europa “text and datamining”
(teksten en pagina’s gegevens doorzoeken op bepaalde termen/gegevens) aan te
strenge regels gebonden. Er zal in principe een uitzondering komen op copyright
voor TDM.
Anderzijds rijst de vraag op of een door een machine
gemaakte creatie als “oeuvre de l’esprit”
(het resultaat van een bewust gewilde geestelijke inspanning, nieuw en
persoonlijk) aangemerkt kan worden. De onderneming die geïnvesteerd heeft in de
machine en de creatie, wil natuurlijk beschermd zijn tegen namaak van zijn
product en wil graag rechtszekerheid hebben.
Vooralsnog is het verstandig om contractueel vast te
leggen dat de onderneming eigenaar zal zijn van een eventuele creatie en om een
geheimhoudingsclausule te voorzien. De pas gestemde wet “secret
des affaires” (vertrouwelijkheid van bedrijfsinformatie) van 21 juni 2018 geeft
in Frankrijk ook een bepaalde bescherming.
Geschillen
en verantwoordelijkheid
Organisaties die gebruik maken van AI, moeten
verantwoordelijk blijven voor eventuele risico’s en schadelijke gevolgen van
beslissingen van AI apparaten. Bepalingen hiertoe moeten nog vastgesteld
worden. De AVG stelt de principes reeds vast.
Maar recht en regelgeving kunnen niet alles
oplossen, de architecten van de digitale samenleving moeten bij het
ontwikkelingen van de algoritmen bewust zijn van de mogelijk negatieve effecten
van AI, rekening houden met ethische vraagstukken en hiertoe gevormd worden.
Dit geldt voor AI apparaten maar met
name voor wapens die autonoom beslissingen kunnen nemen, zelfrijdende
auto’s, etc.
Om conflicten te kunnen oplossen en verantwoordelijkheid
vast te kunnen stellen, is het belangrijk om onderzoek te doen naar het
zelflerende aspect van de machine en te begrijpen welke weg tot de beslissing
leidt.
Traceerbaarheid en controleerbaarheid moeten versterkt
worden en een controleautoriteit zal hiertoe opgericht worden.
Verder zal er in Frankrijk een democratisch debat
worden georganiseerd en een instantie die dit debat leidt. De media kan ook een
grote rol spelen in het aanvaardbaar maken van AI voor de bevolking.
Bronnen:
-
Vers une politique de l’intelligence
artificielle de
Charly Berthet, revue Dalloz 2 aout 2018
-
Rapport Villani maart 2018 (aiforhumanity.fr
)
-
AVG