Wereldwijde top over aanpak gevaren AI van start op Bletchley Park
Het staat hoog op de agenda bij alle wereldleiders: hoe krijgen we grip op kunstmatige intelligentie, AI? Aan de ene kant wordt het gezien als een 'gevaar voor de mens' dat biowapens kan maken of verkiezingen kan beïnvloeden. Tegelijkertijd kan het als 'kracht ten goede' worden ingezet voor bijvoorbeeld nieuwe medicijnen en efficiënter werken.
Politici, wetenschappers en grote techbedrijven van over de hele wereld komen vandaag en morgen bijeen in het Verenigd Koninkrijk in een poging daar een antwoord op te geven.
De zogeheten AI Safety Summit, de eerste bijeenkomst in zijn soort op dit niveau, vindt plaats op Bletchley Park. Dat is expres gekozen, want dat is de plek waar de Britten tijdens de Tweede Wereldoorlog de Duitse Enigma-code wisten te kraken.
Van Elon Musk tot vicepresident Harris
Op de gastenlijst staan onder meer Europese Commissievoorzitter Ursula von der Leyen, techmiljardair Elon Musk, VN-topman Antonio Guterres en de Amerikaanse vicepresident Kamala Harris. Ook Israëls premier Benjamin Netanyahu doet, ondanks de oorlog met Hamas, mee aan de gesprekken. Nederland stuurt staatssecretaris Van Huffelen van Digitalisering.
Het Verenigd Koninkrijk is na de VS en China de grootste AI-markt ter wereld en het land wil een rol spelen in het reguleren van de technologie, die zich razendsnel ontwikkelt. Maar waar de EU binnen een paar maanden hoopt de AI Act af te ronden en de VS deze week kwam met een presidentieel besluit, komt het denken bij de Britten hierover nu pas op gang.
Als we dit verkeerd doen, wordt het makkelijker voor AI om chemische of biologische wapens te ontwikkelen.
Dat neemt niet weg dat de Britse premier Rishi Sunak het onderwerp AI heeft omarmd en hij legt de nadruk op de grootste gevaren ervan: "Als we dit verkeerd doen, wordt het makkelijker voor AI om chemische of biologische wapens te ontwikkelen. Terroristen kunnen AI gebruiken om angst en destructie te verspreiden op een nog grotere schaal. In het meest onwaarschijnlijke scenario is er zelfs het risico dat de mensheid de controle volledig kwijtraakt."
Sunak wil dat alle partijen, waaronder ook China en de VS die verwikkeld zijn in een hoogoplopend conflict over chips, hun handtekening zetten onder een reeks afspraken. Die zullen waarschijnlijk vooral gericht zijn op de risico's van AI; de bedoeling is dat er een tekst komt waar de meeste landen en bedrijven zich met gemak achter kunnen scharen.
Net als het klimaat
Marietje Schaake, directeur technologiebeleid aan de Amerikaanse Stanford Universiteit, gaat naar de top met een aantal vraagtekens. "Overal staat AI op agenda, iedereen wil iets doen, maar het is een race naar een onduidelijke bestemming. Want wat moet er dan precies gebeuren?"
Mark Brakel, directeur beleid bij het Future of Life Institute, is er ook bij en noemt de top een mijlpaal. Zijn organisatie, die als doel heeft om extreme risico's van technologie te beperken, was de initiatiefnemer van een open brief in maart, waarin werd opgeroepen tot een pauze in de ontwikkeling van AI. "Ik kijk naar AI zoals ik naar klimaatverandering kijk. Er zijn veel zorgen over hoe de wereld er over dertig jaar uitziet, ik zou willen dat we dat ook meer bij AI doen."
Verantwoord gebruik van AI
Politici, wetenschappers, maar ook startups denken dat regels kunnen helpen om AI in goede banen te leiden. "AI zelf zijn gewoon computeralgoritmes die geen kwade intenties hebben. Ze voeren alleen opdrachten uit", zegt Gary Brotman van Britse AI-startup Second Mind.
"Het moet alleen wel verantwoordelijk worden gebruikt, daarbij kan regulering helpen." Volgens hem is het de kunst 'vangrails' te bouwen zonder daarmee innovatie in de weg te zitten.
Onlangs demonstreerde NOS-verslaggever Lisa Schallenberg dat het met AI mogelijk is om Japans te spreken, een taal die ze niet beheerst:
Hoogleraar Responsible AI Virginia Dignum vergelijkt AI met het verkeer: de rem en de riem in de auto ontbreken en er is ook nog geen rijbewijs. "Al die regels hoeven niet hetzelfde te zijn in alle landen, maar je moet er wel op vertrouwen dat dat soort regels overal bestaan."
Controle en rapportage
Dignum zegt ook dat het belangrijk is om met nieuwe regels grote techgiganten niet in de kaart te spelen. "Het is niet voor niks dat die beweging over het existentiële gevaar ook bij grote techbedrijven en miljardairs vandaan komt. Zij willen het beeld geven dat ze de enige zijn die het kunnen oplossen en dat ze de vrije hand moeten krijgen om te doen wat nodig is."
Naast de top werkt premier Sunak ook aan andere initiatieven: een veiligheidsinstituut dat AI-software monitort en controleert en een netwerk van experts, vergelijkbaar met het IPCC-klimaatpanel van de Verenigde Naties, dat jaarlijks rapporteert over de ontwikkelingen. Ook de VN is daarmee bezig.