Deep Fake

Vorig jaar werd er al over gesproken dat Deep Fake wel eens van invloed zou kunnen zijn op de presidentsverkiezingen in Amerika in 2020. Wat als Trump ineens de oorlog verklaart aan China, nu de koude wind (afgezwakte vorm van de koude oorlog) zo speelt? Het zou zo maar kunnen tegenwoordig.

In 2017 verscheen er een speech van Obama op het internet die niet van echt te onderscheiden was. Het enige opvallende was de boodschap: die stond zo ver van waar Obama voor stond, dat kon niet echt zijn.

Check het item over Obama.

Wetenschappers en ontwikkelaars zijn al 10-tallen jaren bezig met kunstmatige intelligentie. Het is fascinerend om te zien welke zelflerende eigenschappen systemen krijgen. Denk alleen al aan de zorg maar nog concreter de zelfrijdende auto’s. Aan de andere kant is het ook een discussiepunt: wat als machines te slim worden? Wat als je ze de keus laat hebben over dood en leven?

Ok, dat is een andere discussie. Deep fake: het lijkt zo echt, het moet wel echt zijn. Het filmpje van Obama was nog maar het begin. Daar zat dagen werk in om een klein stukje te produceren. In Duitsland ontwikkelde vorig jaar een bedrijf al software wat nog eenvoudiger mensen kan imiteren.

Zie hier het item:

Zelfs Adobe houdt zich bezig met iets als het imiteren van stemmen. Binnenkort kan je iedere stem nadoen.

Een leuke top 10 van Deep Fakes:

Afgelopen jaren heb ik veel mediawijsheid bijeenkomsten gegeven. Het verbaasde mij hoe mensen weinig kritisch waren in wat ze zagen en wat ze hoorden of hoe ze foto’s interpreteerden.

Onderstaande afbeelding kwam steevast terug. Ik liet het linkerplaatje zien en vroeg de groep wat ze zagen. De Koran, een bomvest, een Moslim, dit was een terrorist. Toen vertelde ik dat dit 1 van de vermeende terroristen van de aanslag in Parijs was en dat deze foto door de grote persbureaus verspreid was. Helaas, zij waren er ook ingestonken. Want het was oorspronkelijk een Canadese Sikh die een selfie maakte met zijn iPad. Zijn foto is misbruikt en hij moest onderduiken.

Leuk detail: niemand, helemaal niemand heeft ooit die dildo genoemd in de hoek 🤣

Goed, beelden bewerken kan iedereen tegenwoordig. Daar hoef je geen Photoshop specialist meer voor te zijn.

En hoe gaaf is het om ‘levensgevaarlijke’ foto’s te maken op je fake vakantie in BraziliĆ« ? Het kan zonder problemen

Wat ik wel merkte, en ook terugzag in de resultaten van mijn interviews, was dat de oudere generaties, laten we zeggen de babyboomers tot en met de millennials meer kritisch waren dan de jongere generatie. De jonge generatie was zich er bewust van wat er te manipuleren viel, maar als de oudere generatie het doorhad, konden ze het beter onderscheiden. Ik denk dat het te maken heeft met feitenkennis. Maar ja, feitenkennis, gebaseerd op wat he.. 😉

Kennis. Ik schreef er al eerder over. Het is goed dat we kinderen leren kritisch te zijn, het is heel goed om kinderen mediawijs te maken, maar kennis om verbanden te kunnen leggen blijft essentieel. Want je moet iets kunnen beredeneren, inhoudelijke kennis hebben anders kan je nooit kritisch zijn.

De oudere generaties maken zich meer zorgen: Hoe kunnen we dit allemaal bijhouden? Dit deep fake..what’s next?

Mijn tip: lees, neem artikelen of items niet zomaar voor waar aan. Check ze. Allemaal? Nee. Wat ik doe: als mijn antenne niet reageert, als mijn wenkbrauw niet omhoog gaat bij een artikel of nieuwsitem word ik alert. En dan check ik het item op internet. Uiteraard, veel via Google, daar kom ik later op terug. De filterbubbel..

Moeten wij ons zorgen maken? Ja. Deep fake kan heel veel invloed krijgen op de wereld. En volksstammen zullen klakkeloos berichten voor waar aannemen, en vooral delen en een primaire reactie erbij plaatsen.

Het is net als met corona: wees bewust en deel nieuws niet zomaar. Wees kritisch.

De grondlegger van Deep Fake heb ik ook ontmaskerd. Kennen jullie Animal Crackers nog van Andre van Duin? 😉🤣

Geniet en blijf bewust.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *