Nieuwe technologieën bieden altijd meer dan abstracte ideeën en hypothetische toepassingen. Nieuwe technologieën bieden ook altijd nieuwe kansen voor kwaadwilligen. Zo ook bij Artificial Intelligence (AI), Machine Learning (ML) en zelfs Deep Learning (DL). Manipulaties door het bewust aanbieden van onjuiste, onnauwkeurige en incomplete (bron-)data, bewegingen, vervalsingen en conclusies. Hoe is dit, anno 2019, te voorkomen?
Het is nog steeds volop in het nieuws: desinformatie en de bewuste verspreiding van fake-news met als doel organisatie en individuen in diskrediet te brengen, de democratische rechtsorde te manipuleren, te ondermijnen en te destabiliseren.
Het is een eenvoudige optelsom en voorspelbare ontwikkeling: vervalsing van geluidsopnames, video’s, documenten, afbeeldingen en online identiteiten middels de inzet van kunstmatige intelligentie. Vrijwel niet te onderscheiden van echt, van de realiteit, het origineel. Door terug te gaan naar de oorsprong van de data, de brondata, is veel te herleiden en te verklaren. Doen we dit niet dat is het resultaat vaak niet van de waarheid te onderscheiden.
Het manipuleren van Machine Learning en beïnvloeden van ‘ons’ gedrag vindt al veelvuldig dagelijks plaats.
AI staat klaar om een vervalste weergave van de werkelijkheid goedkoop en geautomatiseerd als reëel aan te bieden, wat kan leiden tot mogelijk desastreuze gevolgen voor de democratie, veiligheid en de samenleving.
- Er zijn al gevallen bekend (*1) dat een AI-tekst-generator veelvuldig gevaarlijk authentiek resultaat leverde dat het te gevaarlijk werd bevonden om openbaar te maken uit angst voor misbruik.
- Fake-news? Uit diverse studies (*2) blijkt de omvang van het probleem. Op sociale media komt geautomatiseerde vervalsing al dagelijks veelvuldig voor.
- Het afwenden en ondervangen van deze tendens maakt ondertussen deel uit van een actief beleid van o.a. Twitter en Facebook (*3).
Chatbots
In de US is al opgeroepen (*4) om te komen tot voorschriften die vereisen dat chatbots onthullen dat ze geen mens zijn, de staat Californië heeft ondertussen een overeenkomstige wet ingevoerd die in juli 2019 van kracht wordt. In Nederland zijn we nog niet zover. Naar verwachting (lessons learned) komt in Nederland deze discussie pas over 2 jaar echt los.
Face-swapping
‘Automatisch’ gemanipuleerde afbeeldingen worden vrijwel dagelijks als echt door erkende mediabedrijven overgenomen. Recente ontwikkelingen in de beeldverwerking hebben het maken en publiceren van realistische fake-video’s mogelijk gemaakt. Obama die een waarschuwing uitsprak over deepfakes en AI gegenereerde video’s van een geheel nieuw gezicht, van een niet willekeurig persoon, gecreëerd door twee gezichten met elkaar te verweven. Griezelig overtuigend en als zelfs voor familieleden in eerste instantie niet van echt te onderscheiden.
Deze technologie voor face-swapping is voldoende overtuigend om individuen in diskrediet te brengen. Los dat de technologie ook hilarische resultaten kan opleveren is er ook hier een keerzijde. De doorontwikkeling en betaalbare beschikbaarheid van deze technologie zonder de wettelijke kaders zal (wederom) tal van slachtoffers (*5) tellen die hier niet tegen opgewassen zijn, met desastreuze gevolgen als resultaat (*6).
Echt en nep onderscheiden wordt steeds moeilijker. Normaal kijken we even naar de bron om de verschillen te onderzoeken. Tegenwoordig kunt u (en mag u) nooit meer zeker zijn dat de auteur of herkomst van de meeste items die u ontvangt via e-mail, via sociale media of zelfs via de telefoon (tekstberichten en oproepen), de daadwerkelijke afzender is.
“Het op internet aannemen van een andere identiteit is heel eenvoudig. Een website, email- of tekstbericht kan zich voordoen als een vertrouwd persoon van een bij uw bekende afkomst. Het is dus al mogelijk om ongevraagd een binnenkomend telefoongesprek of bericht van ‘uzelf’ te ontvangen….”
Deze internetblindheid is de basis voor ‘phishing’: cyberaanvallen waarbij de communicatie pretendeert afkomstig te zijn uit een vertrouwde bron, wat ertoe leidt dat u mogelijk privé-informatie zoals een wachtwoord of creditcardnummer onthult. Tegenwoordig is de tekst van automatisch gegenereerde phishing-e-mails gemakkelijk te herkennen als nep, maar AI staat op het punt om dat te veranderen.
Al eeuwenlang vertrouwen we op de afgegeven -en bekend zijnde- digitale handtekeningen. Ook het aan de afkomst te herkennen item (bericht, tekst of beeld) kan voorzien zijn van een door AI automatisch gegenereerde digitale handtekening die op het oog (en voor de leek) niet van echt te onderscheiden is.
Vooralsnog vertrouwen we op ‘onze’ digitale handtekeningen. De methode achter een digitale handtekening, gebaseerd op cryptografie, is ervoor om te zorgen dat een item (nog) niet vervalst wordt. Ook geautomatiseerde berichten tussen websites kunnen worden geauthentiseerd door digitale handtekeningen, maar digitale handtekeningen worden niet algemeen gebruikt om het auteurschap van e-mails, post op sociale media, afbeeldingen, video’s, enz. te certificeren.
Een reëel scenario én lering trekken uit het verleden:
“We moeten actie ondernemen om het bewust bezwangeren van een doelgroep met, door AI aangeleverde gemanipuleerde, stellingen en conclusies te voorkomen”.
“Ondersteunend door regelgeving en certificering via codering en blockchain moet de verificatie van handtekeningen zo naadloos mogelijk worden gemaakt. De aanwezigheid van een digitale handtekening moet verplicht worden gesteld voor elk technologisch product dat een vorm van data genereert en/of communiceert. Hierbij maken we geen onderscheid tussen hardware, software, apps, middleware, firmware e.d.”
Uiteindelijk is het noodzakelijk om elke inhoud die niet ondertekend is door onze browsers, sociale-mediatoepassingen en andere media-leessoftware te weigeren. Het toch versturen hiervan moet internationaal gelijkwaardig strafbaar worden gemaakt.
Anonimiteit
Het is een ieders recht om de anonimiteit in digitale vorm te behouden. Door onderscheid te maken tussen digitaal en humaan is dit straks mogelijk. Ondertussen vindt deze ontwikkeling met de bijbehorende discussie plaats. Binnen organisatie moeten dan ook, zoals bij AVG, een verantwoordelijke natuurlijk personen worden aangesteld die uiteindelijke aansprakelijk is voor toezicht, navolging en resultaat. Dit onderwerp is nog onvoldoende belicht, een mooie uitdaging ligt dan nog in het verschiet.
Digitale handtekeningen verhinderen niet dat een chatbot zich voordoet als een natuurlijk persoon, maar digitale handtekeningen zorgen er wel voor dat de chatbot zich niet voordoet als uw persoon en namens u data wordt verspreid. De computermethoden om betrouwbare digitale handtekeningen te ondersteunen bestaan, maar ze zijn niet betrouwbaar genoeg voor alomtegenwoordig te worden gebruikt.
Initiatieven om te komen tot beleid en regelgeving met betrekking tot het digitaal ondertekenen van e-mails, berichten op social media, documenten, afbeeldingen, video’s en zelfs telefoontjes is meer dan noodzakelijk. Dat de eerste stappen al voorzichtig worden gezet is hoopvol. Het is een feit dat internationaal er van een digitale wetgeving nog geen sprake is.
* Remarks:
(*1) Voorbeeldparagrafen die door GPT-2 zijn gegenereerd, zijn een huiveringwekkend facsimile van door mensen geschreven tekst. Helaas zullen er nog krachtigere tools volgen en worden ingezet door kwaadwillende acteurs.
– https://blog.openai.com/better-language-models/
(*2) “Na maanden van onderzoek is één van de meest gedetailleerde en uitgebreide onderzoeken naar de kwestie eenvoudigweg geconcludeerd dat het probleem groot is”. https://www.wired.co.uk/article/twitter-misinformation-social-media-election-fake-news
(*3) https://newsroom.fb.com/news/2019/02/addressing-challenges/
(*4) https://www.nytimes.com/2017/09/01/opinion/artificial-intelligence-regulations-rules.html
(*5) https://getkidsinternetsafe.com/could-your-daughter-be-the-victim-of-deepfake-like-taylor-swift-and-scarlett-johansson/
(*6) Social media and suicide: https://en.wikipedia.org/wiki/Social_media_and_suicide
Link:
– Responsible Data Science (RDS): https://redasci.org/