2 min read

Move slow and prepare things – het is tijd voor voorzichtigheid

We zijn ook op een punt gekomen waar onze technologische vooruitgang dusdanig zelfversnellend is geworden, dat we er de grip op dreigen kwijt te raken. En dat bedoel ik niet allegorisch.
Move slow and prepare things – het is tijd voor voorzichtigheid
Ben Affleck als Phil Knight in de film Air (2023)

Ik keek de film Air, over de start van het grote succes voor Nike begin jaren ‘80. Heerlijk verhaal, en de energie van die compleet doorgesjeesde Amerikaanse eighties business-cultuur werkt aanstekelijk. Op blote voeten met snelle zonnebrillen en Hawaii-shirts rondscheuren in Porsches, regels breken, zuipen, snuiven, schreeuwen en ondertussen miljoenendeals binnenharken. Het was vast prachtig, maar laten we eerlijk zijn: alleen boomers en Andrew Tate-simps geloven anno vandaag nog in de twijfelachtige ethiek van die ‘move fast and break things’ ideologie. In feite is het vooral een dodelijk vermoeiende en giftige manier van werken gebleken die ons blind maakte voor hoe het kapitalisme onszelf en de aarde volledig aan het leegzuigen was. Zelfs Zuckerberg kwam tot inkeer.

Black Box
Maar niet alleen de mentaliteit is aan het veranderen. We zijn ook op een punt gekomen waar onze technologische vooruitgang dusdanig zelfversnellend is geworden, dat we er de grip op dreigen kwijt te raken. En dat bedoel ik niet allegorisch: we bouwen letterlijk systemen waarvan ook de makers zelf niet snappen hoe ze doen wat ze doen. GPT-4, het AI-model onder de motorkap van ChatGPT, kan dingen die nooit expliciet ingeprogrammeerd zijn. Het is gebouwd met de simpele instructie patronen in gigantische hoeveelheden data te analyseren en die te gebruiken om natuurlijke taal te simuleren. En dat doet het bizar goed. Maar welke patronen het precies ziet en hoe het die interpreteert, is onmogelijk te achterhalen – zoals jij zelf ook niet altijd kan uitleggen of herleiden hoe een nieuwe gedachte ontstaat.

Geboorte van een nieuwe soort
Niet gek dus dat een steeds groter wordende groep experts aan de bel trekt nu de nieuwste systemen tekenen van ‘Theory of Mind’ beginnen te vertonen – de tot voor kort puur menselijke vaardigheid om subtekst en implicatie te begrijpen. AI-modellen ontwikkelen zich op manieren die we niet volledig kunnen controleren of voorzien, en zijn volgens sommige experts daarom niet langer ‘systemen’ die we ‘bouwen’, maar eerder een nieuwe ‘soort’ die we ‘voeden’. Klinkt als goedkope sci-fi, maar feit is dat AI nu al steeds meer dingen kan die niemand op basis van de trainingsdata had kunnen voorspellen. Sterker nog, als de snelheid van ontwikkeling van de afgelopen 12 maanden zich zo voortzet, lijkt de kans dat we géén bovenmenselijk intelligente AI hebben in 2024 vrij klein.

Move slow and prepare things
Wat ik wil zeggen: de tijd van ‘move fast and break things’ is echt voorbij. Cowboyende tech-miljardairs die elkaar proberen te overtoepen, spelen met vuur. Een product als ChatGPT lijkt onschuldig, maar socialmedia-algoritmes bewijzen al jaren dat mensen vrij makkelijk door machines te manipuleren zijn. Daarnaast heeft de COVID-pandemie ons wel laten zien dat er niet eens per se iets met bovenmenselijke intelligentie nodig is om onze maatschappij te ontwrichten. Als we steeds krachtigere AI-modellen blijven trainen en die zomaar de wereld inslingeren zonder eerst heel hard na te denken over veiligheid, regulering en alignment, dan zou ‘break things’ wel eens over onze samenleving as we know it kunnen gaan.

Hoe gek het ook klinkt, de dreiging van een AI-apocalyps is oprecht geen vergezochte stoner-fantasie meer. Zeker niet als we al die nieuwe modellen zomaar loslaten op het internet.

Maar don’t take my word for it: het zijn de slimste mensen in de AI-industrie zelf die hiervoor waarschuwen.