In de serie Voorbij de Waan verdiept journalist Jurgen Tiekstra zich in de grote maatschappelijke kwesties van de komende jaren. De grote vraag op de achtergrond is steeds: wat zegt dit over de mens?

Stel je voor: je bent een student. Voordat je naar de collegezaal gaat, loop je een Albert Heijn of Jumbo binnen. Je pakt een handscanner. Precies boven het display van dit apparaat zit een cameraoog dat je recht in het gezicht kijkt. De beide supermarktketens hebben desgevraagd laten weten dat deze camera ‘uit’ staat, maar als klant kun je dat niet controleren.

Volgens de leverancier van deze handscanners, het Amerikaanse bedrijf Zebra, is de camera bedoeld voor gezichtsherkenning, zodat de klant bijvoorbeeld zijn bonuskaart niet meer hoeft te scannen. Ook kan de camera, samen met het licht van LED-lampen aan het plafond van de supermarkt, localiseren hoe de klant door de winkel loopt.

Met de boodschappen op zak ga je naar college. De Universiteit van Leiden heeft sinds kort bij alle ingangen slimme camera’s opgehangen, van het Zwitserse bedrijf Xovis, om het aantal studenten te tellen. Maar de camera’s kunnen meer: registreren welke routes zij lopen, evenals hun lengte, leeftijd, geslacht en waarschijnlijk ook hun humeur.

Na het college ga je op bezoek bij een vriend in Eindhoven. Daar aangekomen word je onwel. Met hartproblemen beland je in het Catharina Ziekenhuis. Liggend in bed is continu een slimme camera op je gericht, die je ademhaling en gezichtsuitdrukking controleert. Doel is dat dit waaksysteem alarm slaat als je symptomen vertoont. Het gaat hier om het FORSEE-project, onder meer betaald door de Hartstichting.

Julie Cohen noemt privacy de ademruimte die we nodig hebben om onszelf te ontwikkelen en om een zelfbeschikkend individu te worden

tamar sharon

“Je hebt de intuïtie dat er iets niet klopt, maar het is moeilijk daar precies de vinger op te leggen”, reageert techniekfilosoof Tamar Sharon, die onderzoekt hoe digitale technologie inbreuk maakt op onze waarden. Eén van de gevolgen van de digitalisering van onze samenleving, is dat we nauwelijks meer ontsnappen aan registrerende camera-ogen.

We hebben ethische en juridische kaders om hierover na te denken, maar het is ook een diep menselijke beleving die onder druk komt te staan door dit type surveillancetechniek. Er bestaan allerlei definities van ‘privacy’, maar ik houd van de betekenis die de jurist Julie Cohen aan dat woord geeft: zij noemt privacy de ademruimte die we nodig hebben om onszelf te ontwikkelen en om een zelfbeschikkend individu te worden. Ik houd van dat idee van een ademruimte. Het is een buffer die je beschermt tegen de blik, de normen en de verwachtingen van de samenleving. Het is natuurlijk niet realistisch dat je jezelf geheel los van sociale normen kunt ontwikkelen, maar er is wel een balanceeract mogelijk.

We hebben die buffer ook nodig, omdat we uit onderzoek weten dat er een verkillend effect vanuit gaat als je constant bekeken wordt. De theoreticus die hier het fijnst over heeft nagedacht is Michel Foucault, die de architecturale notie van het ‘panopticum’ (het alziend oog) gebruikte. De gevangenis is de bekendste ruimte waarin een panopticum gebruikt kan worden, met het idee dat dit de meest efficiënte vorm is om gevangenen zich zo te laten gedragen zoals ze zich moeten gedragen. In het panopticum, een toren in het midden van de gevangenis, plaats je een wacht die alle gevangenen in de gevangeniscellen rondom in de gaten kan houden.

Het is lastig om vantevoren te anticiperen op de gevolgen die nieuwe technologieën hebben, omdat ze zelden doen wat de ontwerper dachten dat ze zouden doen

TAMAR SHARON

Het briljante hiervan, cynisch gezegd, is dat het niet uitmaakt of er echt door die wacht gekeken wordt. Het maakt ook niet uit of de camera in de handscanner aan staat of niet, want het besef dat we bekeken kunnen worden doet al iets met ons gedrag: het laat ons aanpassen aan bepaalde verwachtingen. Het disciplineert ons, zoals Foucault zou zeggen. Dat is problematisch als we denken aan privacy als een ademruimte die we nodig hebben om ons als individuen te ontwikkelen. Foucaults panopticum-model is erg bruikbaar om over digitale surveillance na te denken, maar raakt wel wat verouderd. Het idee van het panopticum wordt namelijk meestal gebruikt om te verbeelden hoe de staat naar burgers kijkt. Maar in het geval van Albert Heijn gaat het om commerciële surveillance. Het doel is niet iemand het juiste gedrag te laten vertonen, maar om data over iemand als consument te kunnen verzamelen.”

U zegt zelfs dat zo’n surveillancesysteem meer over jou kan weten dan jij zelf weet. Kunt u daar een voorbeeld van noemen?

“Jezelf kennen is een veelomvattend filosofisch onderwerp, maar als je denkt aan het gebruik van gezichtsherkenning in een commerciële setting, kan ook geregistreerd worden hoe lang je naar een product kijkt en wanneer je besluit het te kopen, om die informatie daarna te gebruiken door je eveneens andere producten te tonen of om te spelen met de prijzen; omdat de kans toeneemt dat je iets koopt als de prijs van een product verlaagd wordt als jij als consument passeert.

data

Tegenwoordig worden prijzen digitaal weergegeven, en kunnen die prijzen gedurende de dag veranderen. In meerdere landen gebeurt dat al, om in te spelen op uiteenlopende populaties die op verschillende momenten op de dag winkelen, zoals ouderen in de ochtend of scholieren in de middag na hun lessen. Een volgende stap is om die prijzen af te stemmen op individuen in het geval dat de winkel een profiel over die mensen heeft opgebouwd. De claim is dat gezichtsherkenning-technologie ook in staat is iemands stemming te herkennen. Ben je blij of gestresst als je naar een schap met koekjes kijkt? Dat is geen gedrag waarvan we ons volop bewust zijn, maar wel gebruikt kan worden om ons aankoopgedrag te manipuleren.”

Ik moet denken aan een ogenschijnlijk grappige internetvideo van een paar jaar geleden, waarin we een forse Amerikaanse politieagent konden zien die volop meezong en –bewoog met een popliedje. Kennelijk was hij ongemerkt gefilmd door een camera in de politieauto. Die video leek onschuldig, tegelijk is het zo waardevol dat je onbeschaamd gek kunt doen zonder dat dat geregistreerd kán worden.

“Wat er dan gebeurt: we beseffen dat wat we doen, kan worden opgenomen, en dus passen we ons daarop aan en verliezen we de vrijheid om gek te doen, om ons te gedragen op een manier die hoort bij het besef dat we door niemand bekeken worden. Het is belastend, vermoeiend en afmattend als je constant bezig moet zijn een beeld van jezelf te presenteren. Je hebt die momenten nodig dat je achterover kunt leunen en je jezelf niet hoeft te portretteren zoals je denkt dat je moet zijn.”

Hier zit een religieuze parallel: voor sommigen is het een trauma dat ze zijn opgegroeid met het idee van een God die alles ziet wat ze doen. Je ouders hebben misschien niks door, maar God ziet elke fout die je maakt. Daardoor raak je belast door schuldgevoelens. Ziet u dat ook?

“Ja, zeker. Als we nadenken over surveillance door de staat in termen van een panopticum, dan gaat het om de staat als een alomtegenwoordige God die weet wat goed en kwaad is. Als je beseft dat je in de gaten wordt gehouden door deze alomtegenwoordige God zul je je gedrag aanpassen aan dat idee van goed en kwaad. Dat is het inzicht van Foucault, dat we die blik gaan internaliseren. Dit zet waarden als autonomie en  zelfbeschikking onder druk, maar is ook gevaarlijk voor de democratie en brengt het risico van discriminatie met zich mee. We weten dat gezichtsherkenningtechnologie erg discriminerend kan zijn.”

Wat heeft de pandemie betekend voor de digitale surveillance?

“Als we het hebben over ‘pandemische surveillance’, dan hebben we het over surveillance in de volksgezondheid. En vooral in de gezondheidszorg heeft ‘surveillance’ een Januskop. Het woord komt uit het Frans, waarbij ‘veiller’ zowel betekent dat je iemand in de gaten houdt als dat je voor iemand zorgt. Medische surveillance betekent de zorg dat mensen gezond kunnen zijn of dat ziektes niet verergeren. In die zin bestaat surveillance al sinds jaar en dag en is het een onderdeel van gezondheidszorg. Maar de pandemische surveillance heeft twee kanten.

Het debat werd in die tijd geframed als een compromis tussen privacy en volksgezondheid, maar dat doet geen recht aan de grote variëteit aan morele zorgen die mensen kunnen hebben

TAMAR SHARON

We hebben allerlei discussies gehad over bijvoorbeeld de corona-app voor bron- en contactonderzoek, die ons helpt te weten of we in de buurt zijn geweest van iemand die besmet is. Rond deze app was een heftig debat over privacy, over hoeveel data verzameld zou moeten worden en waar die data moest worden opgeslagen. Het debat werd in die tijd geframed als een compromis tussen privacy en volksgezondheid, maar dat doet geen recht aan de grote variëteit aan morele zorgen die mensen kunnen hebben als het gaat om in hoeverre ze deze digitale surveillance willen toelaten. Sindsdien zijn de debatten verbreed: tijdens de recente discussie over 2G en 3G werd ook gepraat over de betekenis voor democratie en gelijke behandeling.”

Wie tijdens de coronapandemie in China in quarantaine moest, kon in de gaten gehouden worden met behulp van drones, warmtecamera’s, gezichtsherkenningtechnologie en data van electronische betalingen. In Europa hebben we niet zo’n autoritair politiek systeem. Maar wat we hier wel hebben, zijn risicomijdende, welvarende samenlevingen die in de ban lijken te zijn van preventie van gevaren. Die preventie heeft geen natuurlijke grens en kan dus altijd doorgaan. Nu worden ongevaccineerden als risicofactor gezien, maar in een volgende crisis kan een andere groep mensen het risico zijn. Wat betekent dit, nu er met digitale surveillance zoveel mogelijk is?

“Gezondheid noem ik een ‘superwaarde’. Tot aan de coronapandemie was er een consensus dat hoe gezonder we zijn, hoe beter dat is. Over andere waarden was veel meer discussie: we hebben debatten over de grenzen van meningsuiting, we hebben gesprekken over de grenzen van privacy en van gelijkheid. Dat is ook inherent aan een gezonde democratie. Maar rond gezondheid vonden die discussies niet zozeer plaats, behalve als er financiële grenzen in beeld kwamen. Wat ik zie, is dat de hang naar een nog grotere gezondheid een rechtvaardiging wordt voor de digitalisering van gezondheid. Dat roept in mijn ogen vragen op waar te weinig aandacht voor is.

De digitalisering van de gezondheid oefent druk uit op waarden als autonomie (wat we zien bij pandemische surveillance), gelijkheid (wat we zien als het belang toeneemt van algoritmes en geautomatiseerde besluitvorming, terwijl we weten dat die vol vooroordelen zitten) en solidariteit. Die solidariteit komt in gevaar doordat risicodenken de nadruk legt op het berekenen van de mogelijkheid van een gebeurtenis in de toekomst en het anticiperen daarop in het heden. Dat risicodenken gaat hand in hand met het individualiseren van risico: het wordt de verantwoordelijkheid van ieder individu om bewust te zijn van toekomstige risico’s en daar nu naar te handelen. Dat is desastreus voor solidariteit, voor het idee dat we we allemaal kwetsbaar zijn, daarom in een gezamenlijke pot verzekeringsgeld stoppen en een gezondheidsyteem hebben dat zorgt voor iedereen.

De digitalisering en de dataficatie heeft veel bijgedragen aan een verandering in hoe wij over gezondheid nadenken

TAMAR SHARON

De digitalisering en de dataficatie heeft veel bijgedragen aan een verandering in hoe wij over gezondheid nadenken. Er is een holistische kijk op gezondheid ontstaan, die veel verschillende activiteiten en dimensies van onze levens in zich opneemt. Dankzij apps, draagbare technologie en sociale media, maar ook door zoiets als een bonuskaart van de supermarkt, wordt het mogelijk ons gedrag te vertalen naar kwantificeerbare data: hoeveel we in beweging zijn, wat onze stemming op Twitter is, wat we kopen in de supermarkt. Die data kan met andere data vergeleken worden en zo relevant worden voor onze gezondheid.

Daardoor ontstaat de situatie dat zowat alle data veranderen in gezondheidsdata: of je in de supermarkt veel chocolade of bio-veganistisch voedsel koopt, wat voor gedrag je op Twitter vertoond (sommige onderzoeken suggereren een correlatie tussen depressie en het gebruik van sociale media), of je via de bank grote leningen terug moet betalen. Zo ontstaat het idee dat gezondheid een project is, iets is waaraan je continu werkt. We hebben niet langer een statisch idee van wat gezondheid is; de afwezigheid van ziekte. In plaats daarvan anticiperen we op waarschijnlijkheden in de toekomst en nemen we een preventieve houding aan. Je ziet een huwelijk tussen dit risicodenken en digitale technologieën, want die technologieën helpen ons de waarschijnlijkheid van toekomstige gebeurtenissen te berekenen; met voorspellende algoritmen, en het opsporen van patronen in ‘big data’ door kunstmatige intelligentie.”

Technologie is altijd bedoeld geweest om onze menselijke kwetsbaarheid te compenseren. Tegelijkertijd is er het gevaar dat we het besef verliezen dat het menselijk bestaan inherent ‘tragisch’ is. Hoe hard we ook blijven sleutelen, we kunnen niet alle gevaren beheersen.

“Je hebt gelijk, daar zit een spanning tussen onze wens om ons lot te beheersen en gewoon toe te geven dat we daar geen greep op krijgen. Het was nooit aan ons om te beslissen hoe gezond we waren, wanneer we ziek zouden worden en wanneer we zouden sterven. Dat werd bepaald door de goden, door God of door het lot, of later door onze genetische aanleg. Het was een loterij, het rollen van een dobbelsteen, iets waarmee je geboren was en waaraan je niks kon verhelpen. Het denken daarover is veranderd, tegelijk met de komst van technologieën die ons meer grip geven: ‘We zijn wél in controle, het is niet aan het toeval of aan God om hierover te beslissen, maar in toenemende mate aan ons.’

Dit zijn veranderingen in het maatschappelijke, politieke en normatieve discours, die hand in hand gaan met de toenemende technologisering van onze samenleving. Typisch voor onze hoogtechnologische samenleving is dat we voortdurend een juridische en morele inhaalslag moeten maken: hoe brengen we die nieuwe technologieën in praktijk?, en willen we ook echt wat zij ons mogelijk maken? Het is lastig om vantevoren te anticiperen op de gevolgen die nieuwe technologieën hebben, omdat ze zelden doen wat de ontwerper dachten dat ze zouden doen, en ze worden zelden gebruikt zoals de ontwerpers dachten dat ze zouden worden gebruikt.”

Tamar Sharon is hoogleraar aan de Radboud Universiteit in Nijmegen, met als leerstoel Filosofie, Digitalisering en Samenleving. Ze heeft vier nationaliteiten: Frans, Israëlisch, Amerikaans en Nederlands. Ze studeerde Geschiedenis aan de universiteit Jussieu in Parijs, Politicologie aan de universiteit van Tel Aviv in Israël en promoveerde tot slot aan de Bar-Ilan Universiteit in Israël op een filosofisch onderzoek naar menselijke biotechnologieën.

Sinds 2011 werkt ze in Nederland, aan eerst de Universiteit Maastricht en nu als hoogleraar aan de Radboud Universiteit in Nijmegen. Ze richt zich op de inbreuk van digitale technologieën op bestaande maatschappelijke waarden.