Wie man Bilder-Deepfakes enttarnen kann

Das Bild wirkt nicht authentisch: Die eingekreisten Details zeigen Unregelmäßigkeiten auf, so ist Putins Kopf beispielsweise ungewöhnlich groß und an der Spitze seines rechten Schuhs sind unnatürliche Wölbungen zu erkennen; eine Säule im Hintergrund verläuft schief (Quelle: Telegram; Screenshots, Collage und Markierungen: CORRECTIV.Faktencheck)

Correctiv_fakt gibt nützliche Tipps, wie man z.B. mit Hilfe der Bilderrückwärtssuche in Google, Tineye und Yandex prüfen kann, ob ein Bild echt ist oder nicht (via Thomas Wüst auf Twitter und correctiv.org):

«Fischinger erklärt, die Bilderrückwärtssuche sei eine sehr nützliche Methode, um die Echtheit von Bildern zu überprüfen. „Wenn KI-Bilder (von Grund auf) generiert werden, gibt es im Allgemeinen nicht nur ein Originalbild, aus dem die Teile entnommen wurden. Es gibt Tausende/Millionen von Fotos, die zum Lernen von Milliarden von Parametern verwendet wurden.“ Das bedeutet: Das Bild entsteht nicht durch die Manipulation eines vorhandenen Fotos, sondern es wird aus vielen unterschiedlichen Elementen neu erstellt. Deswegen lässt sich in solchen Fällen kein einzelnes Ursprungsbild finden.»

Update vom 22.4.2023: Wie schwierig ist es, KI-Bilder zu entlarven?

Dieser Beitrag wurde unter Medienkompetenz abgelegt und mit , verschlagwortet. Setzen Sie ein Lesezeichen auf den Permalink.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert