Zum Hauptinhalt springen

Die unverzichtbare Rolle von Technologie und menschlichem Bewusstsein bei der Bildverifikation

Security officer behind a wall of monitors.

Wussten Sie, dass die Anzahl von Deepfakes weltweit in nur zwei Jahren um das Sechzehnfache gestiegen ist? Dank künstlicher Intelligenz (KI) ist es heute einfacher denn je, Stimmen zu imitieren oder Gesichter nachzubilden und so überzeugende Fake-Videos zu verbreiten. Dies kann zu gefährlichen Situationen führen – etwa zu Identitätsbetrug oder zur Manipulation von Wahlkampagnen, wie bereits mehrfach in anderen Ländern beobachtet wurde. Technologie in Kombination mit menschlichem Bewusstsein wird daher unverzichtbar, um die Echtheit von Bildern zu prüfen und Täuschung zu verhindern.

Das rasante Wachstum von Deepfakes stellt unsere Gesetzgebung auf die Probe. Zwar schützt die DSGVO personenbezogene Daten und viele Länder wenden Urheber- und Persönlichkeitsrechte an, doch diese Regeln bieten wenig Halt in einer Zeit, in der KI blitzschnell und überzeugend Bilder und Stimmen nachahmen kann. Theoretisch darf niemand ohne Zustimmung Deepfakes von einer Person erstellen. Das Persönlichkeitsrecht gilt sogar bis zu zehn Jahre nach dem Tod, wobei Erben das Recht weiterhin geltend machen können. Dennoch bleibt es ethisch fragwürdig, jemanden digital wieder zum Leben zu erwecken – selbst mit Zustimmung. In der Praxis wird die Erstellung und Verbreitung von Deepfakes selten strafrechtlich verfolgt, auch weil es zunehmend schwieriger wird, echte und manipulierte Bilder voneinander zu unterscheiden.

Technologie allein reicht nicht – Bewusstsein ist entscheidend

Technologie kann bei der Verifikation helfen. Authentifizierungstechnologien fügen Bildern zusätzliche Kontextinformationen hinzu, etwa Wasserzeichen, Zeitstempel, digitale Signaturen, Standortdaten und Bewegungsinformationen.

Auch öffentliche Register, in denen KI-Algorithmen erfasst werden, erhöhen die Kontrolle über die Echtheit. Sie geben an, wofür ein Algorithmus gedacht ist, wer ihn entwickelt hat und wie er gesichert ist. So entsteht Transparenz, und Deepfakes lassen sich schneller entlarven. Diese Mittel helfen, die Echtheit von Bildern festzustellen – und machen sie sogar als Beweismittel vor Gericht nutzbar.

Schulen Sie Ihre Mitarbeitenden darin, auffällige Bilder zu erkennen und verdächtige Situationen zu melden.

Diese Technologien sind nur wirksam, wenn Menschen wissen, wie sie damit umgehen. Schulen Sie Ihr Team darin, manipulierte Bilder zu erkennen und verdächtige Inhalte zu melden. Achten Sie auf unscharfe oder verzögerte Pixel, unnatürliche Bewegungen von Augen, Augenbrauen und Mund, eine zu glatte oder seltsam faltige Haut, abweichende Schatten und Lichtverhältnisse oder Bildstörungen. Solche Details können Hinweise darauf geben, dass ein Video manipuliert oder sogar ein Deepfake ist.

Der Fortschritt erfordert Zusammenarbeit

Jede und jeder trägt Verantwortung für eine vertrauenswürdige digitale Welt. Unternehmen müssen offenlegen, wie sie Bilder speichern, verarbeiten und sichern, und transparent über ihren Einsatz von KI und Kameratechnologie kommunizieren. Forschende sollten kontinuierlich nach neuen Methoden suchen, um die Echtheit von Bildern zu überprüfen. Gesetzgeber müssen klare und durchsetzbare Regeln aufstellen, wie etwa die KI-Verordnung (AI Act), die Cyber Resilience Act sowie Richtlinien wie NIS2 und CER. Konsumentinnen und Konsumenten sollten kritisch bleiben gegenüber dem, was sie online sehen und teilen. Diese kritische Haltung sollte bereits in der Schule beginnen, wo Kinder und Studierende lernen müssen, wie sie (digitale) Bilder beurteilen und verstehen können.

Technologische Entwicklungen verlaufen oft schneller als gesetzliche Regelungen Schritt halten können. Deshalb bleibt eine kritische Haltung aller Beteiligten unverzichtbar: Woher stammt das Bild? Ist die Quelle vertrauenswürdig? Und vertrauen Sie dem Inhalt genug, um ihn weiterzugeben? Im Zweifelsfall sollten Sie das Bild bei der Quelle melden – etwa über die Meldefunktion eines sozialen Netzwerks oder durch Kontaktaufnahme mit der Redaktion einer Publikation. Und wenn Sie weiterhin unsicher sind, verbreiten Sie es auf keinen Fall weiter. Nur durch Wachsamkeit und Zusammenarbeit können wir die digitale Welt sicher und vertrauenswürdig gestalten.

Erfahren Sie, wie Axis Signed Video und Axis Edge Vault gemeinsam für manipulationssichere, vertrauenswürdige Videoauthentifizierung sorgen.

Erik Baeten

Erik Baeten, A&E Manager NL at Axis Communications, has over 25 years experience in Security and Crowd Management. He supports consultants and system designers with expertise in security systems, camera applications, analytics, and planning. At Axis, he educates clients on innovative security solutions, ensuring they are up-to-date with the latest technologies to create smarter, safer environments. Erik also provides keen insights into Axis' Total Cost of Ownership (TCO) approach.

Erik Baeten