Een kill-switch voor AI?

Hoe beteugelen we AI?

Nu de potentie van artificiële intelligentie steeds zichtbaarder begint te worden, groeit bij steeds meer mensen het besef dat deze technologie ons op een gegeven moment ‘boven het hoofd kan gaan groeien’. Wat als AI slimmer wordt dan wij? Wat als AI zich tegen de mens gaat keren? Wat doen we met AI die we als mens helemaal niet meer kunnen begrijpen? Verliezen we straks alle controle? Is er nog een noodknop? Er zijn science fiction films genoeg om deze angst te voeden. Wat zijn onze opties?

Een tijdelijke stop of rem

Prominente tech-leiders, goeroes en futurologen zoals Musk, Harari en Wozniak waarschuwden enkele jaren geleden al voor de gevaren van een losgeslagen AI. In een open brief pleitten zij voor een tijdelijke rem op de ontwikkeling van AI. Van zo’n rem lijkt echter nog geen enkele sprake, integendeel.

Wel hebben de AI-bedrijven uit zichzelf de uitrol van gezichtsherkenning uiterst beperkt (vooral tot gebruik door overheden) en is deze nog niet openlijk beschikbaar gekomen in zoekmachines, smartphones en slimme brillen. De vraag is hoe lang nog.

Een kill-switch

Een verdergaand idee is dat van een uitknop waarmee AI in één keer kan worden uitgeschakeld, een kill-switch of een red button. Een ultieme noodknop waarop de mens kan drukken als de AI ongewenst gedrag gaat vertonen. Deze ‘knop’ zou dan (verplicht) ingebouwd moeten worden in de code van de AI. Voor zover dat mogelijk is en de AI niet, zoals in menig science fiction film, deze code omzeilt of herprogrammeert.

Een jaar geleden, tijdens een AI-conferentie in Seoul, zegden diverse bedrijven waaronder Microsoft, Amazon, Anthropic en OpenAI, toe te willen werken aan een dergelijke kill-switch. Dit als onderdeel van meer maatregelen om de ontwikkeling van AI beheersbaar te houden en misbruik door kwaadwillenden te voorkomen. Dit is vergelijkbaar met de Europese regelgeving (de zogeheten EU AI Act), waarin de bedrijven zelf moeten aangeven hoe zij met de te voorziene risico’s zullen omgaan.

Toch lijken de Amerikaanse toezeggingen vooral gedaan te zijn om te voorkomen dat overheden strengere regels gaan stellen. Dat zou immers een rem kunnen betekenen op de ontwikkeling van AI.

Gecontroleerde verspreiding

Onder de huidige president Trump is vanaf dit jaar een andere wind gaan waaien. AI is (nog meer) onderdeel geworden van geopolitiek en wordt gezien als een strategische technologie zowel voor economische groei en welvaart als voor nationale veiligheid.

Trump wil dat andere landen de AI-technologie van Amerika gemakkelijk kunnen kopen, als klanten en afnemers maar dat zij niet zozeer als (gelijkwaardige) partners hoeven te zijn in de ontwikkeling van de technologie. De broncode kan dan ook ‘veilig’ en ‘nationaal’ geheim blijven.

De VS willen de regelgeving gebruiken om China verder te kunnen uitsluiten van de toegang tot de Amerikaanse kennis. Non-proliferatie dus. Het is zelfs niet ondenkbaar dat de Amerikaanse overheid de mogelijkheid wil laten inbouwen om de AI op afstand uit te kunnen zetten, iets waar het China van beschuldigt.

In het US AI Action Plan 2025 wordt de regulering van AI beperkt, zodat de Amerikaanse bedrijven kunnen doorgaan met het uitbreiden van hun voorsprong in de ontwikkeling van de technologie. De verspreiding van de technologie wordt echter zorgvuldig gecontroleerd, zoals dat met andere defensie-gerelateerde technologie ook gebeurt.

Recent publiceerde de federale overheid een Framework for Artificial Intelligence Diffusion. Hierin krijgt de overheid meer bevoegdheden om de verspreiding van bepaalde AI-technologie (algoritmes en geavanceerde computerchips zoals die van NVIDIA) te controleren. Tegelijkertijd wordt het gemakkelijker om AI-technologie te exporteren naar het buitenland, zover zij de nationale veiligheid of de nationale belangen als onderdeel van de buitenlandse handelspolitiek, niet schaden. De voorgenomen overheidsprogramma’s zijn op dit moment open voor consultatie: bedrijven en organisaties kunnen hun input en reactie geven.

De VS leggen de nadruk op het “cultiveren van veilige ecosystemen voor de verantwoorden verspreiding van AI en geavanceerde computer-IC’s”. Zou dit een garantie zijn voor veilige AI?

Open source voor een veilige AI

Een andere benadering voor het borgen van de veiligheid van AI zou ‘open source’ kunnen zijn: het volledig openbaren van de gebruikte algoritmes en methodieken. In de softwarewereld heeft open source zich al bewezen als een manier om de veiligheid en stabiliteit van computersystemen te verbeteren.

Wanneer de code openbaar is, kan iedereen inspringen om in te grijpen als een AI-systeem in de buitenwereld ontspoort. Hier ligt ook de analogie met de grootschalige uitbraak van een virus, een ‘levend’ wezen dat zich kan ontwikkelen (muteren) en net als AI van code kan ‘veranderen’ en zodoende kan ontsporen en een bedreiging kan vormen voor de veiligheid. Bij het ontwikkelen van bijvoorbeeld COVID-vaccins was het essentieel dat de genetische code van het virus onmiddellijk werd gedeeld. Alle onderzoeksgroepen deelden hun eigen bevindingen en wisselen kennis uit.

Bij de ontwikkeling van synthetische virussen en moleculen wordt dit principe eveneens toegepast, onder andere door pionier en goeroe Craig Venter. Zodra er een nieuw virus of molecuul op de markt wordt gebracht, wordt de genetische code eveneens gepubliceerd. Zo wordt iedereen in staat gesteld om een antivirus te ontwikkelen mocht het virus of biomolecuul ontsporen.

Op dit moment zijn er diverse open source Large Language Models (LLM) zoals LLaMA, Mistral, Valk en OLMo. Het ontwikkelen en trainen van AI-modellen is nog uiterst complex, duur en energie-intensief. Van het open delen van algoritmes en data profiteert iedereen nu nog.

De vraag is of dit in de toekomst zo zal blijven. Bedrijven willen hun ontwikkelingen graag beschermen met intellectuele eigendomsrechten en ze hebben de afgelopen decennia veel geïnvesteerd in het verkrijgen van data. Denk aan de enorme hoeveelheid gebruikersdata die Meta, Amazon en Google die hebben verzameld met hun apps en diensten. Die voorsprong willen ze niet kwijtraken maar omzetten in een voorsprong op het gebied van AI, zeker nu AI de oude (advertentie gebaseerde) verdienmodellen onder druk zet. Bovendien hebben ze er dankzij open source een geduchte Chinese concurrent bijgekregen in de vorm van DeepSeek en daar zal het niet bij bijven.

Veilige AI by design

Met al deze belangen en de toegenomen geopolitiek, lijkt de discussie over een ingebouwde uitknop steeds verder op de achtergrond te raken. Is het wachten tot het een keer echt misgaat? De vraag is dan of we op dat moment nog zonder AI kunnen.

Complexe hardwaresystemen zijn nu vaak zo gebouwd dat ze in geval van nood automatisch terugvallen op een basale functionering. Ook het resetten helpt vaak bij het herstellen van een systeem. Hoe zit dat met systemen vol AI? Op een gegeven moment kun je tijdens het rijden de automatische piloot niet ineens uitzetten en de bestuurder alle verantwoordelijkheid teruggeven. Een van de scenario’s uit de vele Hollywoodfilms – zeg niet dat we niet gewaarschuwd zijn!- kunnen werkelijkheid worden.

Laten we dus werk maken van veilige AI by design. Net zoals bij het werken met virussen en bij het borgen van privacy, zijn veilige systemen zodanig ontworpen dat zowel de werkwijze als de gebruikte technologie ingebouwde veiligheidsmaatregelen hebben. Iedereen die ermee werkt leert deze veilige handelingspraktijken en respecteert deze. Vanuit het overstijgende wereldwijde belang dat bij een systeemtechnologie als AI hoort.

Foto ‘emergency button’ by Alex Gallegos on Unsplash.
Dit artikel verscheen bij Marketingfacts.


Ontdek meer van Wisdom of the crowd

Abonneer je om de nieuwste berichten naar je e-mail te laten verzenden.