Zum Hauptinhalt springen

Die unverzichtbare Rolle von Technologie und menschlichem Bewusstsein bei der Bildverifikation

Axis Image Verification

Wusstest du, dass die Zahl der Deepfakes weltweit innerhalb von nur zwei Jahren um das Sechzehnfache gestiegen ist? Dank künstlicher Intelligenz (KI) ist es einfacher denn je, eine Stimme zu imitieren oder ein Gesicht nachzubilden und ein überzeugendes Fake-Video zu verbreiten. Dies kann zu gefährlichen Situationen führen, etwa zu Identitätsbetrug oder zur Manipulation von Wahlkampagnen, wie wir es bereits mehrfach in anderen Ländern erlebt haben. Technologie, kombiniert mit menschlichem Bewusstsein, wird unverzichtbar, um die Authentizität von Bildern zu überprüfen und Täuschungen zu verhindern.

Wusstest du, dass die Zahl der Deepfakes weltweit innerhalb von nur zwei Jahren um das Sechzehnfache gestiegen ist? Dank künstlicher Intelligenz (KI) ist es einfacher denn je, eine Stimme zu imitieren oder ein Gesicht nachzubilden und ein überzeugendes Fake-Video zu verbreiten. Dies kann zu gefährlichen Situationen führen, etwa zu Identitätsbetrug oder zur Manipulation von Wahlkampagnen, wie wir es bereits mehrfach in anderen Ländern erlebt haben. Technologie, kombiniert mit menschlichem Bewusstsein, wird unverzichtbar, um die Authentizität von Bildern zu überprüfen und Täuschungen zu verhindern.

Das schnelle Wachstum von Deepfakes stellt unsere Gesetzgebung auf die Probe. Obwohl die DSGVO personenbezogene Daten schützt und viele Länder Urheber- und Persönlichkeitsrechte anwenden, bieten diese Regeln wenig Orientierung in einer Ära, in der KI Bilder und Stimmen schnell und überzeugend replizieren kann. Theoretisch darf niemand ohne Erlaubnis Deepfakes einer Person erstellen. Persönlichkeitsrechte bleiben sogar bis zu zehn Jahre nach dem Tod einer Person gültig, in denen Erben diese Rechte weiterhin geltend machen können. Doch selbst dann bleibt es ethisch fragwürdig, jemanden digital wieder zum Leben zu erwecken – selbst mit Zustimmung. In der Praxis wird die Erstellung und Verbreitung von Deepfakes selten strafrechtlich verfolgt, unter anderem weil es zunehmend schwieriger wird, echte von manipulierten Bildern zu unterscheiden.

Nicht nur Technologie, sondern auch menschliches Bewusstsein

Die Herausforderung der Verifikation kann teilweise durch Technologie bewältigt werden. Authentifizierungstechnologien fügen Bildern beispielsweise zusätzlichen Kontext hinzu, etwa Wasserzeichen, Zeitstempel, digitale Signaturen, Standortdaten und Bewegungsinformationen.

Öffentliche Register, in denen KI-Algorithmen aufgeführt sind, erhöhen ebenfalls die Kontrolle über die Authentizität. Sie geben unter anderem an, wofür ein Algorithmus gedacht ist, wer ihn entwickelt hat und wie er gesichert ist. Dies schafft Transparenz und hilft, Deepfakes schneller aufzudecken. Diese Authentifizierungstools und Register helfen dabei festzustellen, ob Bilder echt sind, und können sie sogar als Beweismittel in Gerichtsverfahren nutzbar machen.

Schulen Sie Ihre Mitarbeitenden, ungewöhnliche Bilder zu erkennen

Diese Technologien sind nur wirksam, wenn Menschen wissen, wie man sie nutzt. Schulen Sie Ihre Mitarbeitenden darin, ungewöhnliche Bilder zu erkennen und verdächtige Situationen zu melden, damit Manipulationen schneller entdeckt werden können. Bringen Sie ihnen bei, worauf sie achten müssen, um festzustellen, ob ein Bild echt ist. Achten Sie beispielsweise auf verschwommene oder verzögerte Pixel, unnatürliche Bewegungen von Augen, Augenbrauen und Mund, Haut, die zu glatt oder seltsam zerknittert aussieht, inkonsistente Schatten oder Beleuchtung oder Ruckeln im Bild. Solche kleinen Details können darauf hinweisen, dass ein Video manipuliert wurde oder sogar ein Deepfake ist.

Fortschritt erfordert Zusammenarbeit

Alle tragen Verantwortung für eine vertrauenswürdige digitale Welt: Unternehmen müssen offenlegen, wie sie Bilder speichern, verarbeiten und schützen, und transparent über ihren Einsatz von KI- und Kameratechnologie kommunizieren. Forschende sollten kontinuierlich nach neuen Methoden suchen, um die Authentizität von Bildern zu überprüfen. Gesetzgeber müssen klare und durchsetzbare Regeln schaffen, wie den AI Act, den Cyber Resilience Act und Richtlinien wie NIS2 und CER. Verbraucherinnen und Verbraucher müssen kritisch bleiben gegenüber dem, was sie online sehen und teilen. Diese kritische Haltung sollte bereits in Schulen beginnen, wo Kinder und Studierende lernen müssen, (digitale) Bilder zu bewerten und zu interpretieren.

Technologische Entwicklungen bewegen sich oft schneller, als die Regulierung mithalten kann. Deshalb bleibt eine kritische Haltung aller Beteiligten entscheidend: Woher stammt das Bild? Ist die Quelle zuverlässig? Und vertraust du ihr genug, um es weiterzugeben? Im Zweifel melde es direkt bei der Quelle – zum Beispiel über eine Meldefunktion in sozialen Medien oder durch Kontaktaufnahme mit der Redaktion einer Veröffentlichung. Und wenn du dir immer noch unsicher bist, teile es auf keinen Fall weiter. Nur wenn wir wachsam bleiben und zusammenarbeiten, können wir die digitale Welt sicher und vertrauenswürdig halten.

Erfahren Sie mehr über Cybersecurity und Authentifizierungsfunktionen.

Erik Baeten

Erik Baeten, A&E Manager NL at Axis Communications, has over 25 years experience in Security and Crowd Management. He supports consultants and system designers with expertise in security systems, camera applications, analytics, and planning. At Axis, he educates clients on innovative security solutions, ensuring they are up-to-date with the latest technologies to create smarter, safer environments. Erik also provides keen insights into Axis' Total Cost of Ownership (TCO) approach.

Erik Baeten