KI-Bilder werden immer schwerer zu erkennen.  Google glaubt, eine Lösung zu haben.

Blog

HeimHeim / Blog / KI-Bilder werden immer schwerer zu erkennen. Google glaubt, eine Lösung zu haben.

Aug 19, 2023

KI-Bilder werden immer schwerer zu erkennen. Google glaubt, eine Lösung zu haben.

Durch künstliche Intelligenz erzeugte Bilder sind immer schwerer von echten zu unterscheiden, da Technologieunternehmen darum kämpfen, ihre KI-Produkte zu verbessern. Während der Präsidentschaftswahlkampf 2024 voranschreitet, gibt es Anlass zur Sorge

Durch künstliche Intelligenz erzeugte Bilder sind immer schwerer von echten zu unterscheiden, da Technologieunternehmen darum kämpfen, ihre KI-Produkte zu verbessern. Während der Präsidentschaftswahlkampf 2024 voranschreitet, wächst schnell die Sorge, dass solche Bilder zur Verbreitung falscher Informationen verwendet werden könnten.

Am Dienstag kündigte Google ein neues Tool namens SynthID an, das seiner Meinung nach Teil der Lösung sein könnte. Das Tool bettet ein digitales „Wasserzeichen“ direkt in das Bild ein, das für das menschliche Auge nicht sichtbar ist, aber von einem Computer erfasst werden kann, der darauf trainiert wurde, es zu lesen. Google sagte, seine neue Wasserzeichentechnologie sei resistent gegen Manipulationen, was sie zu einem wichtigen Schritt zur Überwachung der Verbreitung gefälschter Bilder und zur Verlangsamung der Verbreitung von Desinformation mache.

KI-Bildgeneratoren sind seit mehreren Jahren verfügbar und werden zunehmend zur Erstellung von „Deepfakes“ eingesetzt – falschen Bildern, die vorgeben, echt zu sein. Im März gingen gefälschte KI-Bilder des ehemaligen Präsidenten Donald Trump, der vor der Polizei flüchtete, online viral, und im Mai löste ein gefälschtes Bild, das eine Explosion im Pentagon zeigte, einen vorübergehenden Absturz an den Aktienmärkten aus. Unternehmen haben auf KI-Bildern sichtbare Logos sowie angehängte Text-„Metadaten“ angebracht, die den Ursprung eines Bildes angeben, aber beide Techniken können relativ einfach zugeschnitten oder herausgeschnitten werden.

„Offensichtlich ist der Geist bereits aus der Flasche“, sagte die Abgeordnete Yvette D. Clarke (DN.Y.), die sich für eine Gesetzgebung eingesetzt hat, die Unternehmen verpflichtet, ihre KI-Bilder mit einem Wasserzeichen zu versehen, in einem Interview. „Wir haben einfach nicht gesehen, dass es in Bezug auf seine Bewaffnung maximiert wird.“

Derzeit steht das Google-Tool nur einigen zahlenden Kunden seines Cloud-Computing-Geschäfts zur Verfügung – und es funktioniert nur mit Bildern, die mit dem Bildgenerator-Tool von Google, Imagen, erstellt wurden. Das Unternehmen gibt an, dass Kunden es nicht verwenden müssen, da es noch experimentell ist.

Das ultimative Ziel besteht darin, zur Schaffung eines Systems beizutragen, bei dem die meisten KI-erstellten Bilder anhand eingebetteter Wasserzeichen leicht identifiziert werden können, sagte Pushmeet Kohli, Vizepräsident für Forschung bei Google DeepMind, dem KI-Labor des Unternehmens, der warnte, dass das neue Tool nicht vollständig ist narrensicher. „Die Frage ist: Haben wir die Technologie, um dorthin zu gelangen?“

Da die KI bei der Erstellung von Bildern und Videos immer besser wird, befürchten Politiker, Forscher und Journalisten, dass die Grenze zwischen Echt und Falsch im Internet noch weiter ausgehöhlt wird – eine Dynamik, die bestehende politische Gräben vertiefen und die Verbreitung sachlicher Informationen erschweren könnte. Die Verbesserung der Deepfake-Technologie kommt, da Social-Media-Unternehmen davon Abstand nehmen, Desinformation auf ihren Plattformen zu überwachen.

Das Anbringen von Wasserzeichen ist eine der Ideen, die von Technologieunternehmen als potenzielle Möglichkeit zur Verringerung der negativen Auswirkungen der „generativen“ KI-Technologie, die sie schnell an Millionen von Menschen weitergeben, vertreten wird. Im Juli veranstaltete das Weiße Haus ein Treffen mit den Führungskräften von sieben der mächtigsten KI-Unternehmen, darunter Google und dem ChatGPT-Hersteller OpenAI. Die Unternehmen haben sich alle verpflichtet, Tools zum Wasserzeichen zu entwickeln und KI-generierte Texte, Videos und Bilder zu erkennen.

Microsoft hat eine Koalition aus Technologieunternehmen und Medienunternehmen gegründet, um einen gemeinsamen Standard für die Wasserzeichenmarkierung von KI-Bildern zu entwickeln, und das Unternehmen hat erklärt, dass es neue Methoden zur Verfolgung von KI-Bildern erforscht. Das Unternehmen platziert außerdem ein kleines sichtbares Wasserzeichen in der Ecke der von seinen KI-Tools generierten Bilder. OpenAI, dessen Dall-E-Bildgenerator letztes Jahr dazu beitrug, das Interesse an KI anzukurbeln, fügt außerdem ein sichtbares Wasserzeichen hinzu. KI-Forscher haben Möglichkeiten zur Einbettung digitaler Wasserzeichen vorgeschlagen, die das menschliche Auge nicht sehen, aber von einem Computer identifiziert werden kann.

Kohli, der Google-Manager, sagte, das neue Tool von Google sei besser, weil es auch dann funktioniert, wenn das Bild erheblich verändert wurde – eine entscheidende Verbesserung gegenüber früheren Methoden, die leicht durch Modifizieren oder sogar Spiegeln eines Bildes zunichte gemacht werden könnte.

„Es gibt andere Techniken für eingebettete Wasserzeichen, aber wir glauben nicht, dass sie so zuverlässig sind“, sagte er.

Selbst wenn andere große KI-Unternehmen wie Microsoft und OpenAI ähnliche Tools entwickeln und soziale Netzwerke sie implementieren, wären mit Open-Source-KI-Generatoren erstellte Bilder immer noch nicht erkennbar. Open-Source-Tools wie die des KI-Start-ups Stability AI, die von jedem geändert und verwendet werden können, werden bereits verwendet, um nicht einvernehmliche sexuelle Bilder von echten Menschen zu erstellen und neues Material zur sexuellen Ausbeutung von Kindern zu erstellen.

„In den letzten neun Monaten bis zu einem Jahr haben wir diesen massiven Anstieg von Deepfakes erlebt“, sagte Dan Purcell, Gründer von Ceartas, einem Unternehmen, das Online-Content-Erstellern dabei hilft, zu erkennen, ob ihre Inhalte ohne ihre Erlaubnis erneut geteilt werden. In der Vergangenheit waren die Hauptkunden des Unternehmens Produzenten von Inhalten für Erwachsene, die versuchten, die illegale Weitergabe ihrer Videos und Bilder zu verhindern. In jüngster Zeit erhielt Purcell jedoch Anfragen von Personen, deren Social-Media-Bilder gegen ihren Willen zur Herstellung von KI-generierter Pornografie verwendet wurden.

KI-Pornos sind jetzt ganz einfach zu machen. Für Frauen ist das ein Albtraum.

Während die Vereinigten Staaten auf die Präsidentschaftswahl 2024 zusteuern, wächst der Druck, Tools zu entwickeln, um gefälschte KI-Bilder zu identifizieren und zu stoppen. Politiker nutzen die Tools bereits in ihren Wahlkampfanzeigen. Im Juni veröffentlichte die Kampagne des Gouverneurs von Florida, Ron DeSantis, ein Video, das gefälschte Bilder von Donald Trump enthielt, wie er den ehemaligen Coronavirus-Berater des Weißen Hauses, Anthony S. Fauci, umarmte.

Bei US-Wahlen gab es in offiziellen Wahlkampfanzeigen schon immer Propaganda, Lügen und Übertreibungen, doch Forscher, Demokratieaktivisten und einige Politiker sind besorgt, dass KI-generierte Bilder in Kombination mit gezielter Werbung und Social-Media-Netzwerken die Verbreitung falscher Informationen und die Irreführung erleichtern werden Wähler.

„Das könnte etwas so Einfaches sein wie die visuelle Darstellung eines wichtigen Wahllokals, das geschlossen wurde“, sagte Clarke, die demokratische Kongressabgeordnete. „Es könnte etwas sein, das in der Öffentlichkeit Panik auslöst, eine Art Gewaltsituation darstellt und Angst erzeugt.“

KI könnte von ausländischen Regierungen genutzt werden, die bereits ihre Bereitschaft gezeigt haben, soziale Medien und andere Technologien zu nutzen, um sich in US-Wahlen einzumischen, sagte sie. „Wenn wir uns in der Hitze der politischen Saison befinden und die Dinge sich zuspitzen, könnten wir leicht feststellen, dass unsere internationalen Gegner sich einmischen.“

Wenn man sich ein Bild von Dall-E oder Imagen genau anschaut, erkennt man in der Regel Unstimmigkeiten oder bizarre Merkmale, etwa, dass eine Person zu viele Finger hat oder dass der Hintergrund mit dem Motiv des Fotos verschwimmt. Aber gefälschte Bildgeneratoren werden „absolut, zu 100 Prozent immer besser“, sagte Dor Leitman, Leiter Produkt sowie Forschung und Entwicklung bei Connatix, einem Unternehmen, das Tools entwickelt, die Vermarktern helfen, KI zum Bearbeiten und Generieren von Videos zu nutzen.

Die Dynamik wird ähnlich sein wie bei Cybersicherheitsunternehmen, die sich in einem nie endenden Wettrüsten befinden, in dem Hacker versuchen, sich an neueren und besseren Schutzmaßnahmen zurechtzufinden, sagte Leitman. „Es ist ein andauernder Kampf.“

Diejenigen, die gefälschte Bilder verwenden wollen, um Menschen zu täuschen, werden auch immer wieder Wege finden, Deepfake-Erkennungstools zu verwirren. Kohli sagte, das sei der Grund, warum Google die zugrunde liegende Forschung hinter seiner Wasserzeichentechnologie nicht teile. „Wenn die Leute wissen, wie wir es gemacht haben, werden sie versuchen, es anzugreifen“, sagte er.