Veranderen deepfakes ook de realiteit?

   17/07/2024

Onze vorming rond Artificiële Intelligentie is de voorbije maanden vaak geboekt. Onze vormingsgever Vincent buigt zich in dit artikel over deepfakes: een volgende stap in een evolutie van misleiding.

Sinds Sam Altman eind 2022 ChatGPT presenteerde aan het brede publiek, lijkt er een heel nieuwe wereld opengegaan. Artificiële intelligentie (AI) duikt overal op als nieuwe trend, hoewel het concept al sinds het midden van de vorige eeuw bestaat.

"Het grote verschil is dat de technologie nu toegankelijk is voor het brede publiek en dat we plots beseffen dat er best wat mogelijk is", vertelt Vincent. "Ik vind het eigenlijk straf dat onze monden vooral openvallen bij het feit dat DALL-E een foto kan genereren van pakweg een panda met een tennisraket. Er zijn veel grotere succesverhalen binnen het wetenschappelijk onderzoek: kankeropsporing, bloedspatanalyses, medicijnontwikkeling…"

Zijn apps als DALL-E en ChatGPT dan eerder spielerei voor de massa? "Ook generatieve AI kent zijn meerwaarde als hulpmiddel. Maar de nadruk ligt op hulpmiddel: het impliceert dat menselijke controle een vereiste blijft."

AI bannen op school?

Desondanks wordt de meerwaarde van artificiële intelligentie als hulpmiddel nog te vaak in twijfel getrokken. "AI kan leerlingen complexe materie op een eenvoudigere manier uitleggen, nieuwe voorbeelden genereren, studietips geven…  Als scholen AI willen bannen, gooien ze best ook computers en rekenmachines door het raam. Dan kan je leerlingen klaarstomen voor de maatschappij van 1985."

Vooruitgang ontkennen, impliceert niet dat de vooruitgang stopt. Wel integendeel: "Het is makkelijker op een trein te stappen als hij stilletjes vertrekt dan wanneer hij in volle vaart passeert. Bovendien maakt AI het speelveld eerlijker. Sommige leerlingen hebben nu eenmaal geen ouder, broer of zus die teksten kan, of wil nalezen."

Onschuld of gevaar

Is er door AI ook meer desinformatie in omloop? "Daar lijkt het wel op, ja. Ik checkte het even op Vlaamse nieuwssites: voor 2018 was er nergens sprake van de term “deepfake”. Vandaag lijkt het alsof AI ons dagelijks misleidt. 'Deepfakes' zijn trouwens valse (fake) beelden of geluiden die gemaakt worden via deep learning. Dat is de meest verregaande vorm van artificiële intelligentie, waarbij de machine zichzelf nieuwe elementen aanleert op basis van grote hoeveelheden informatie. Die technologie wordt dus gebruikt als je diezelfde panda met tennisraket maakt. Wie met andere woorden al eens een foto liet genereren door AI, maakte een deepfake."

Natuurlijk is dat niet de versie waarvoor wij op onze hoede zijn: "Het is op zich redelijk onschuldig. Nu ja, het kost heel veel energie en het internet raakt ondertussen overspoeld met zulke nutteloze beelden. Waardoor mijn dochter bij haar spreekbeurt over panda’s in het zesde leerjaar misschien denkt dat het dieren zijn die kunnen tennissen."

Gevaarlijk of niet?

Deepfake heeft de connotatie vooral gevaarlijk te zijn omdat je beelden kan misbruiken. "Dat kan, om er persoonlijk of ideologisch gewin uit te halen. Je kan dan een bekend persoon uitspraken of acties laten doen die schadelijk zijn voor die persoon of voor de hele maatschappij. Het doembeeld is dat er dan ergens op een rode knop gedrukt wordt omdat een uitstekend vervalste boodschap de hele wereld ontwricht. Ik loop nu het risico om pessimistisch te klinken, maar er zijn al heel wat oorlogen geweest en geen enkele startte door een deepfake. Er zal met andere woorden altijd wel een excuus gevonden worden om geweld te gebruiken", aldus Vincent.

Deepfakes kunnen interessant zijn om propaganda te voeren. "Door de bevolking te overtuigen dat de eigen ideologie de enige juiste is. Artificiële intelligentie is zeker een handige tool om mensen in het ootje te nemen. We gaan ervan uit dat hoe beter iets vervalst is, hoe meer twijfel zal rijzen. Maar vandaag worden ook al heel wat mensen in het bad getrokken door heel slechte vervalsingen en makkelijk te weerleggen veronderstellingen. Wie overtuigd wíl worden, zàl overtuigd worden. Dus het blijft noodzakelijk om mensen op te leiden tot kritische burgers, los van nieuwe technieken. Om een stappenplan te hebben bij twijfel. Om via community checks kanttekeningen te plaatsen. Om door externe factcheckers met een kritische blik naar vragen te laten kijken."

Het verzinnen van verhalen rond publieke personen is iets wat we al héél lang doen, weet Vincent: "Op basis van vage foto’s op duistere plaatsen worden hele verhalen opgehangen, soms zelfs met “betrouwbare bronnen”. Ook dat zal niet veranderen. Alleen de foto zal misschien minder wazig worden. Neem het voorbeeld van het monster van Loch Ness. Gaan meer mensen die theorie geloven als het beeld opgekuist is? Of zorgt de waas misschien net voor extra mystiek?"

Exposen

Deepfakes zijn dus een volgende stap in een evolutie van misleiding, maar daarom niet verontrustender op maatschappelijk niveau dan eender welke andere stap. "Op persoonlijk vlak is de kans op kwetsen groter. Er wordt wel vaker meegegeven om alert te zijn als je naaktbeelden van jezelf verspreidt. Uitgelekte beelden kunnen je voor de rest van je leven achtervolgen. Vandaag kan je echter op je hoede zijn en toch nog naakt op het net verschijnen door een deepnude, een deepfake waarbij een gewone foto bewerkt wordt tot een naaktfoto. Het gebeurde in het verleden al dat jongeren geëxposed werden doordat hun naaktbeelden verspreid werden op school, via sociale media… Vandaag kan je met enkele klikken ongewild beeldmateriaal verspreiden van anderen dat vals is. Met de nodige littekens tot gevolg. En erger."

Daarom is het belangrijk om samen waakzaam te blijven. "Meld altijd als je iets opmerkt dat je ook niet graag over jezelf zou willen zien verschijnen. Voor minderjarigen kan dat via Child Focus (116 000), Awel (102) of 1712. Volwassenen kunnen terecht bij het Instituut voor de gelijkheid van mannen en vrouwen (0800 12 800). Sowieso kan iedereen met vragen over zelfdoding terecht bij Zelfmoordlijn 1813."

LINC vzw helpt om waakzaam te blijven op het internet. Door technieken te doorprikken, kunnen we veiliger online zijn. Dit doen we aan de hand van workshops als fake news, leren factchecken, artificiële intelligentie en privacy op het internet.

Mocht u trouwens nog twijfelen: de foto bij dit artikel werd gegenereerd door artificiële intelligentie (DALL-E).