Deepfakes – zum Beispiel der Papst im stylischen weißen Rapper-Daunenmantel oder Angela Merkel mit Barack Obama turtelnd am Strand – sind natürlich Späßchen erster Kajüte. Doch die KI-generierten Fälschungen entwickeln sich allmählich zur ernsthaften Bedrohung, können doch Kriminelle damit täuschend echt wirkende Betrugskampagnen aufsetzen. Deepfake-Angriffe, die auf Unternehmen abzielen, häufen sich in letzter Zeit und die Schadenssummen gehen bis in die zweistelligen Millionenbeträge.
Dass Deepfake-basierte Cyberkriminalität nicht schon längst Usus ist, dürfte allein dem Umstand geschuldet sein, dass viele Menschen nach wie vor auf wesentlich einfacher gestrickte Phishing-Mails und banale Übertölpelung („Social Engineering“) hereinfallen. Aber die digitalen Werkzeuge für KI-gestützten Betrug sind nun in der Welt, also wird die dunkle Seite der Macht sie nutzen.
Ein Blick zurück: In den Anfangstagen des Kinos („als die Bilder laufen lernten“) floh das Publikum beim Anblick einer Lokomotive auf der Leinwand aus dem Vorführraum, getrieben von Panik, überrollt zu werden. In diesem Stadium befinden wir uns heute, was künstliche Intelligenz angeht: Viele sind von den neuen – oder zumindest für sie selbst nach wie vor neuen – technischen Möglichkeiten erschreckt, verängstigt und überrumpelt.
Inzwischen bleiben wir beim Anblick einer Lokomotive im Kino cool – man lernt ja dazu. Auch die Menschen, die heute mit KI und Deepfakes aufwachsen, entwickeln offenbar schnell ein Gespür dafür, welchen Videos, Bildern, Tonaufnahmen und Texten sie trauen dürfen und welchen nicht. Aber in den Unternehmen sind längst nicht alle Beschäftigten so KI-bewandert wie Deepfake-dauerkonsumierende Teenager oder jene Spaßvögel, die Päpste in weiße Rapper-Mäntel stecken.
Wir leben in einer turbulenten Übergangszeit – auch was die Verbreitung KI-generierter Inhalte angeht. Und so besteht heute ein akutes Risiko, dass Beschäftigte in Unternehmen Opfer von Deepfake-Betrügereien werden. Deshalb gebe ich in meinem neuen Videoclip ein paar Tipps, woran man im Berufsalltag Deepfakes erkennen kann.
Allergiker-Hinweis: Vorsicht, das Video könnte Spuren von Satire enthalten! 🥸