De Terminator uit de gelijknamige film, HAL uit 2001: A Space Odyssey en Ultron uit The Avengers: Age of Ultron zijn drie voorbeelden van AI’s die gevaarlijk waren voor de mensheid.
Gaat kunstmatige intelligentie (AI) het eind van de mensheid inluiden, of is het juist een technologie die de mensheid naar een hoger plan kan tillen?
Wetenschappers en andere experts op het gebied van AI voeren daar momenteel een fel debat over. Aan de ene kant zijn er de ’doemdenkers’ die een toekomst schetsen zoals Hollywood dat al deed in films als The Terminator, 2001: A Space Odyssey en The Avengers: Age of Ultron. Aan de andere kant zijn er de optimisten die kunstmatige intelligentie zien als een technologie zoals alle andere. „De ideeën dat AI ons allemaal gaat vermoorden en dat AI alles gaat genezen, zijn allebei onjuist.”
Matt Clifford leidt een werkgroep die namens het kabinet van premier Rishi Sunak beleid omtrent kunstmatige intelligentie probeert te formuleren. Dat is hard nodig, zo zegt Clifford in gesprek met de Britse televisiezender TalkTV, want AI kan heel snel al zó gevaarlijk zijn dat de technologie een bedreiging voor de mensheid kan vormen: „Je kan echt heel gevaarlijke bedreigingen krijgen, die vele mensen - niet alle mensen - zouden kunnen doden, simpelweg op basis van modellen die voorspellen hoe ver de technologie over twee jaar is.”
Clifford staat niet alleen. De Brit reageerde op een brandbrief van 350 AI-wetenschappers die vorige week waarschuwden dat kunstmatige intelligentie op de lange termijn het uitsterven van de mensheid kan bewerkstelligen. AI zou bijvoorbeeld kunnen helpen bij het ontwerpen van biologische en chemische wapens, of het internet stilleggen met een grote cyberaanval. „Dat klinkt misschien als het plot van een film”, aldus Clifford, maar dat is het volgens hem zeker niet. Science fiction kan science fact worden, is zijn angst.
Ultron werd ontworpen door Tony Stark, maar keerde zich tegen zijn schepper.
„De existentiële bedreiging waar de briefschrijvers over praten, is wat er gebeurt als we feitelijk een nieuwe ’diersoort’ scheppen, een intelligentie die groter is dan mensen”, waarschuwt de adviseur. „Als we een kunstmatige intelligentie proberen te ontwerpen die intelligenter is dan mensen en we geen idee hebben hoe we die moeten controleren, dan creëert dat het potentieel voor allerhande risico’s nu en in de toekomst. Daarom moet het onderwerp hoog op de agenda van beleidsmakers staan.”
Clifford vindt het ’absoluut’ doodeng dat „de mensen die deze systemen bouwen, vrijelijk toegeven dat ze niet helemaal begrijpen waarom AI’s het gedrag vertonen dat ze vertonen.” Regelgeving, op nationaal en internationaal niveau, zou moeten voorkomen dat AI de wereld overneemt. Nog beter, in dienst van de mensheid zou kunstmatige intelligentie zelfs een hoop goede dingen kunnen bewerkstelligen, denkt Clifford: „Je kan je zo voorstellen dat AI ziektes gaat genezen, de economie productiever zal maken en ons zal helpen om een klimaatneutrale economie te creëren.”
Het neurale netwerk Skynet was de maker van de robots uit de Terminator-films.
Macht en rijkdom
Op zichzelf is AI niet gevaarlijk, zo beweert Arvind Narayanan, een professor computerwetenschappen aan de Amerikaanse Princeton Universiteit en een van de ondertekenaars van de brandbrief. Het is volgens Narayanan vooral de mens die voor de risico’s zorgt: „De geschiedenis van technologie tot nu toe wijst uit dat de grootste risico’s niet door technologie worden veroorzaakt, maar door degenen die technologie controleren en die gebruiken om macht en rijkdom te vergaren.”
De professor verwijst naar Prometheus, de figuur uit de Griekse mythologie die het vuur van de goden stal en aan de mensheid gaf, met alle positieve én negatieve gevolgen van dien: „We moeten huiverig zijn voor ’Prometheanen’ die zowel willen profiteren van het feit dat ze het vuur aan mensen hebben gegeven, als vertrouwd willen worden als degenen die de brand weer gaan blussen.”
En dat is weer de reden dat bijvoorbeeld Matt Clifford pleit voor de overheid als toezichthouder. Zijn baas, premier Sunak, zou Groot-Britannië graag als locatie zien voor een internationale toezichthouder naar voorbeeld van instanties als het Internationaal Atoomenergie Agentschap.
Boordcomputer HAL keerde zich tegen de astronauten die hij eigenlijk moest dienen.
Ergernis
Overigens zijn er ook voldoende AI-experts die het ’doemdenken’ omtrent kunstmatige intelligentie maar overdreven vinden. Azeem Azhar bijvoorbeeld, een Amerikaan die zich op zijn LinkedIn-pagina omschrijft als een ’AI-influencer’. In een reactie op de brandbrief schrijft hij: „Als je een expert bent op het gebied van neurale netwerken, maakt je dat niet meteen een goede voorspeller, helemaal niet als het gaat om sociale vraagstukken of vragen op het gebied van economie of geopolitiek.”
AI-onderzoeker Kyunghyun Cho van New York University is van mening dat veel van zijn collega’s veel te pessimistisch zijn. In een reactie op de brandbrief zegt de Amerikaan ’teleurgesteld’ te zijn „door al deze discussies over existentiële risico’s.” Tegelijkertijd ergert Cho zich aan collega’s die AI als panacee zien voor alle wereldproblemen.
Volgens de Amerikaan is kunstmatige intelligentie simpelweg een technologie met positieve en negatieve aspecten, net zoals andere technologieën: „De ideeën dat AI ons allemaal gaat vermoorden en dat AI alles gaat genezen, zijn allebei onjuist.”