door Jan Matthys, vrijwilliger bij De Maakbare Mens
Op zaterdag 10 november 2018 was er in de Bijloke en het KASK de Nacht van de Vrijdenker. De Maakbare Mens programmeerde er twee activiteiten, waaronder het interview met techniekfilosoof Peter-Paul Verbeek door Katrien Devolder.
|
Peter-Paul Verbeek is technologiefilosoof, verbonden aan de Universiteit van Twente. |
![]() |
Katrien Devolder is bio-ethica verbonden aan het Oxford Uehiro Centre for practical ethics en Wolfson College. |
In de Zwarte Zaal, die wèl groot genoeg was, kregen we een onderhoudend gesprek over onze relatie met technologie, en de angsten en het wantrouwen die daar soms mee gepaard gaan.
Allereerst mag het duidelijk zijn dat technologie niet neutraal is. Het is een middel, maar het doet ook iets met de manier waarop we ons leven inrichten.
Dat kan zelfs, bij tijd en wijle, licht paternalistisch en moraliserend zijn – denk aan een alcoholslot. Het is enerzijds des mensen om weerstand te ontwikkelen als ons gedrag via de technologie gestuurd wordt, maar anderzijds werkt het ook bevrijdend dat een aantal beslissingen ons uit handen worden genomen. En ook het omgekeerde is technologie – ze stelt auto’s in staat om veel harder te rijden dan toegelaten en acceptabel is. Een en ander vereist een soort ethische laag waarover moet nagedacht worden.
En ja, er zijn excessen. Het Chinese social credit systeem dat voor elke burger een betrouwbaarheidsscore bepaalt is voor ons een extreme vorm van inbreuk op onze privacy. Maar ook hier – onze autonomie wordt niet bedreigd door de technologie, maar door de ideologie die ervan gebruik maakt.
Technologie beïnvloedt de maatschappij, het is erg moeilijk om eraan te ontsnappen, maar het is op zich geen beperking van onze vrijheid, die kan geherdefinieerd worden als het aangaan van een vrije relatie met de machtsstructuren.
Dit vereist een leerproces, waar we als mensheid niet voor het eerst doorheen moeten; denk aan de uitvinding van de boekdrukkunst. Nieuwe media en artificiële intelligentie leiden tot nieuwe manieren om ons te oriënteren in de wereld. Peter-Paul Verbeek adviseert om een “grenshouding” aan te nemen; ga aan de grens van het (nieuwe) systeem staan, observeer en leer hoe je ermee omgaat. Kijk zo mogelijk waar er ruimte is om de technologie beter te maken. Dit vereist inzicht, en bv. ook de mogelijkheid om bepaalde algoritmes kritisch te bekijken (waar ik dan persoonlijk een kritische noot bij wil plaatsen – dit is ERG moeilijk – er zijn algoritmes die de ontwerpers zelf niet meer snappen).
Over de manier waarop we omgaan met artificiële intelligentie wijst Peter-Paul op culturele verschillen; in internationale werkgroepen verschilt de Afrikaanse visie fundamenteel van de onze; waar wij groot belang hechten aan individuele aspecten primeert bij hen het voortbestaan van de gemeenschap.
Asimov’s wetten van de robotica werden niet met name genoemd, maar we zaten aardig in de buurt met de vraag welke moraal in AI dient geïmplementeerd te worden, en wie dat bepaalt. Wie mag/moet een zelfrijdende auto omverrijden in een conflictsituatie? Welke economische of andere motieven bepalen die prioriteiten? In feite gebeurt dit al vandaag, maar we beseffen het niet – dagelijks sterven er mensen in het verkeer als gevolg van de mobiliteitskeuzes die wij als maatschappij hebben gemaakt, maar “een ongeluk is een ongeluk” en valt onder de individuele aansprakelijkheid. Straks, met zelfrijdende wagens krijgen we te maken met de “verantwoordelijkheid” van een algoritme.
Maar globaal, hoe wantrouwig we er ook mogen tegenover staan, AI zal niet meer weg te denken zijn uit ons leven:
De vraag is dus niet of, maar hoe die middelen zullen ingezet worden, met alle gevolgen van dien qua opleiding van toekomstige artsen en rechters.
Een heikel verhaal is dat van automatische wapens – drones worden bestuurd van achter een beeldscherm, vaak duizenden kilometers van het slagveld verwijderd. Ze zijn wellicht accurater, leiden tot minder collateral damage en post traumatic stress, maar de grote afstand tussen oorzaak en gevolg vormen een ernstig moreel gevaar bij beslissingen over leven en dood. Die beslissing bij een robot leggen komt neer op het ontkennen van de mens. Ook hier staan we voor een herijken van onze normen en waarden. Moraal is dynamisch en evolueert; geen beter voorbeeld hiervan dan killer robots.
Tot slot: zal AI ons ooit buitenspel zetten – de science fiction nachtmerrie van machines die alsmaar betere en krachtiger machines ontwerpen tot ze de winkel kunnen overnemen? In theorie is dit mogelijk, maar ook dit hangt samen met een zekere morele visie op deze ontwikkelingen, en het lijkt momenteel eerder de andere kant op te gaan. Er wordt actief gewerkt aan algoritmes die pijn/verdriet/angst kunnen voelen. Een robot met die eigenschappen uitschakelen wordt dan ergens een soort moord.
Samengevat: de grootste uitdaging is het doorgronden van nieuwe manieren waarop technologie bemiddelt in onze samenleving. Vergis je niet – met de ontwikkelingen in artificiële intelligentie is dit een razend moeilijke klus. En artificiële intelligentie is de grootste quantum sprong in onze ontwikkeling sinds de uitvinding van de boekdrukkunst.