Artificiële intelligentie - ethische en juridische vraagstukken (Gepubliceerd op 13/08/2018)

L’intelligence artificielle est une technologie en plein essor qui donne lieu à de nombreux espoirs dus entre autre à l’apprentissage automatique qui permet à la machine d’apprendre de ces fautes et de tirer des conclusions à l’aide d’une multitude de données. Elle prend ainsi des décisions autonomes. Toutefois, cette autonomie pose des problématiques éthiques et juridiques, qui sont loin d’être résolues. L’Europe est « en retard » par rapport aux Etats-Unis et à la Chine. Pour rattraper ce retard et surtout savoir où l’on va, il faut donner à cette IA une direction, un sens. Il faut également essayer de comprendre ce qui se passe à l’intérieur de ces machines, pour pouvoir auditer le processus en cas de litige. L’IA utilise surtout des données : qu’en est-il de l’ouverture des données publiques et privées, de la protection des données collectives, sachant que la RGPD protège surtout les données à caractère personnel. Si la machine crée une œuvre, peut-on la qualifier d’œuvre de l’esprit et est-elle protégée par le droit d’auteur ? Le rapport Villani qui a été présenté le 29 mars dernier essaye donner un sens à l’intelligence artificielle et pose les pistes à explorer.

Artificiële intelligentie is een snelgroeiende technologie waarover hoge verwachtingen worden gekoesterd, vooral sinds AI apparaten door middel van het “zelflerende aspect” kunnen leren van hun fouten, conclusies trekken uit de grote hoeveelheden data die ze verwerken en zelfstandig beslissingen kunnen nemen. Deze dataverwerking en zelfstandigheid roepen echter ethische en juridische vraagstukken op, die nog niet opgelost zijn. De Europese commissie heeft onlangs een groep topexperts aangesteld om hierover na te denken.

De Franse premier heeft in september 2017 aan Cédric Villani, mathematicus, gevraagd een werkgroep samen te stellen, onderzoek te doen en een rapport te schrijven over de sens (richting, strekking, doel) van AI. De jurist van de groep is Charly Berthet en het rapport is 29 maart jl. gepresenteerd.

Het rapport beschrijft de actuele situatie waarin vooral de Verenigde Staten en China voorlopers zijn, onder andere doordat zij toegang hebben tot grote hoeveelheden data.

Om deze ongelijkheid op te heffen, is het zaak dat zoveel mogelijk data circuleren en beschikbaar gesteld worden, ook voor kleinere privé-instanties. Hierbij moeten de rechten en vrijheden van burgers en bedrijven gerespecteerd worden. De Europese richtlijn hergebruik van informatie van de overheidssector zal hervormd worden en het juridisch kader van het copyright zal eveneens herzien worden, om “text and datamining” (TDM) mogelijk te maken.

Het rapport bepleit om de ontwikkeling van AI te concentreren op een aantal strategische sectoren, met name de gezondheidssector, milieubescherming, transport en mobiliteit, defensie en veiligheid.

Wenselijk is dat deze technologie de menselijke en sociale voortgang stimuleert en er moet dus nagedacht worden over een modus die complementariteit tussen menselijke en kunstmatige intelligentie mogelijk maakt. AI moet ook toegankelijker worden. Hiertoe zullen in heel Frankrijk experimenten worden uitgevoerd, en de mogelijkheid zal geboden worden voor bedrijven (vooral in de gezondheidssector) en particulieren om in een “bac à sable” in reële omstandigheden AI te testen, voornamelijk binnen bevolkingsgroepen die meer kans hebben door automatisering geraakt te worden.

Dit brengt ons bij de dilemma’s die onder de loep moeten worden genomen.

Discriminatie

AI mag geen discriminatie en ongelijkheid in de hand werken en moet de rechten van de individuele mens respecteren.

AI zal gebruikt worden op cruciale terreinen als gezondheid, recht, bankwezen, verzekeringen, toegang tot een woning, veiligheid. De machine zal bijvoorbeeld uitrekenen in welke mate iemand in staat zal zijn een lening terug te betalen of welke groep mensen eerder een delict zal plegen. Data zullen vergeleken worden en er zullen verbanden gelegd worden. Het is niet de bedoeling dat bestaande discriminatie voortgezet wordt via AI.

De actuele privacy regelgeving (AVG) verplicht in sommige gevallen een Privacy Impact Assessment (PIA) uit te voeren om na te gaan in hoeverre privacy regels overtreden zullen worden. Om discriminatie te voorkomen, zou een Discrimination Impact Assessment (DIA) uitgevoerd kunnen worden. Verder geeft artikel 22 van de AVG een bepaalde bescherming: een persoon heeft het recht niet te worden onderworpen aan een uitsluitend op geautomatiseerde verwerking, waaronder profilering, gebaseerd besluit waaraan voor hem rechtsgevolgen zijn verbonden of dat hem anderszins in aanmerkelijke mate treft (dit is de hoofdregel).

Bescherming persoonsgegevens

De AVG is gericht op bescherming van individuele persoonsgegevens en natuurlijke personen. AI gebruikt vooral gegevens van groepen individuen die op grote schaal uitgebuit worden om tendensen en verborgen gedrag vast te stellen en verbanden te leggen die groepen individuen aangaan. 

De komende ePrivacy Verordening zal bescherming bieden op het gebied van elektronische communicatie en zal ook rechtspersonen beschermen (niet alleen natuurlijke personen).

Er zou een bescherming moeten komen van collectieve rechten op gegevens, hiertoe bestaat in Frankrijk reeds de mogelijkheid om een gezamenlijke aanklacht in te dienen. Dit is niet voldoende, maar kan een basis vormen voor de bescherming van collectieve rechten.

Copyright

Het actuele Europese juridische kader van het copyright is in meerdere opzichten niet aangepast aan AI. Enerzijds is door deze bescherming in Europa “text and datamining” (teksten en pagina’s gegevens doorzoeken op bepaalde termen/gegevens) aan te strenge regels gebonden. Er zal in principe een uitzondering komen op copyright voor TDM.

Anderzijds rijst de vraag op of een door een machine gemaakte creatie als “oeuvre de lesprit” (het resultaat van een bewust gewilde geestelijke inspanning, nieuw en persoonlijk) aangemerkt kan worden. De onderneming die geïnvesteerd heeft in de machine en de creatie, wil natuurlijk beschermd zijn tegen namaak van zijn product en wil graag rechtszekerheid hebben.

Vooralsnog is het verstandig om contractueel vast te leggen dat de onderneming eigenaar zal zijn van een eventuele creatie en om een geheimhoudingsclausule te voorzien. De pas gestemde wet “secret des affaires” (vertrouwelijkheid van bedrijfsinformatie) van 21 juni 2018 geeft in Frankrijk ook een bepaalde bescherming.

Geschillen en verantwoordelijkheid

Organisaties die gebruik maken van AI, moeten verantwoordelijk blijven voor eventuele risico’s en schadelijke gevolgen van beslissingen van AI apparaten. Bepalingen hiertoe moeten nog vastgesteld worden. De AVG stelt de principes reeds vast. 

Maar recht en regelgeving kunnen niet alles oplossen, de architecten van de digitale samenleving moeten bij het ontwikkelingen van de algoritmen bewust zijn van de mogelijk negatieve effecten van AI, rekening houden met ethische vraagstukken en hiertoe gevormd worden.

Dit geldt voor AI apparaten maar met name voor wapens die autonoom beslissingen kunnen nemen, zelfrijdende auto’s, etc.

Om conflicten te kunnen oplossen en verantwoordelijkheid vast te kunnen stellen, is het belangrijk om onderzoek te doen naar het zelflerende aspect van de machine en te begrijpen welke weg tot de beslissing leidt.

Traceerbaarheid en controleerbaarheid moeten versterkt worden en een controleautoriteit zal hiertoe opgericht worden.  

Verder zal er in Frankrijk een democratisch debat worden georganiseerd en een instantie die dit debat leidt. De media kan ook een grote rol spelen in het aanvaardbaar maken van AI voor de bevolking.

 

 

Bronnen:

-           Vers une politique de l’intelligence artificielle de Charly Berthet, revue Dalloz 2 aout 2018

-          Rapport Villani maart 2018 (aiforhumanity.fr )

-          www.mediawijsheid.nl

-          AVG