Vergiss Deepfakes, neue Bildbearbeitungs-AI sprengt die Vorstellungskraft

4 Minuten
Die Zahl an AIs, die zur Bilderstellung und -manipulation genutzt werden, wächst stetig. Generierte Inhalte mit dieser Bildbearbeitungs-AI können dabei täuschend echt ausfallen. Auf den ersten Blick sind vielen von ihnen nicht mehr von echten Fotos zu unterscheiden. Es ist Vorsicht geboten.
Vergiss Deepfakes - neue Bildbearbeitungs-AI sprengt die Vorstellungskraft
Vergiss Deepfakes - neue Bildbearbeitungs-AI sprengt die VorstellungskraftBildquelle: Openai

Die Technologie entwickelt sich weiter. AI generierte Inhalte sind mittlerweile täuschend echt geworden. Auf den ersten Blick lassen sich viele der angefertigten Bilder nicht mehr von echten Bildern unterscheiden. Darum ist Vorsicht geboten, worauf du im Netz stößt. Nicht bei jedem Werk solltest du deinen Augen blind vertrauen. Die Kreationen dieser neuen Bildbearbeitungs-AI sprengen die Vorstellungskraft gewaltig.

Eine weitere AI in Aktion DALL-E 2

DALL-E 2 ist eine weitere AI, die zur Bildgenerierung im Internet an Aufmerksamkeit gewonnen hat. Ähnlich wie bereits Artflow.ai oder Googles Imagen generiert sie Inhalte auf Basis der Texteingabe von Nutzern. Dadurch entstehen realistische Bilder und Kunstwerke, auf die die AI mithilfe von Lerninhalten programmiert wurde. DALL-E 2 ist dabei eine Weiterführung von DALL-E und wird als Projekt betrieben, um Machine Learning zu erforschen. Für diese Software ist somit künftig keine kommerzielle Nutzung angedacht.

Es ist jedoch möglich, sie für private Zwecke einzusetzen – und daraus könnten sich weitere Probleme ergeben. DALL-E 2 beschränkt den Zugang für Erstnutzer zwar auf ein gewisses Testkontingent. Letztlich kann jedoch nicht ausgeschlossen werden, dass einer der künftigen Benutzer generierte Inhalte irgendwo für fragwürdige Zwecke einsetzt. Dessen scheint sich das Projekt selbst auch bewusst zu sein, denn es behält sich vor, Bewerbungen von Anwendern abzulehnen, bei denen ein solches Nutzungsrisiko besteht. Dadurch kann das Risiko zumindest reduziert, wenn auch nicht vermieden werden.

Das Originalfoto vor der Bearbeitung mit der neuen Bildbearbeitungs-AI
Das Originalfoto vor der Bearbeitung mit der neuen Bildbearbeitungs-AI

Neue Bildbearbeitungs-AI mit großem Leistungsvermögen

Dabei ist das Leistungsvermögen von DALL-E 2 beeindruckend. Die neue Bildbearbeitungs-AI ist in der Lage realistische 8K-Aufnahmen von Tieren oder Orten zu generieren, die sich nur schwer von einem Original unterscheiden lassen. Auch die Erstellung vieler generierter Kunstwerke, die sich am Zeichenstil von anderen Gemälden orientieren, ist ohne Weiteres möglich. Um das zu erreichen, haben die Betreiber der Software DALL-E 2 mit viel Lernmaterial angefüttert, um der AI beizubringen, wichtige Charakteristiken von Personen, Tieren, Orten und Kunstwerken nachzubilden.

Dieser Cookie sieht zum Anbeißen aus, ist leider aber nicht echt
Dieser Cookie sieht zum Anbeißen aus, existiert aber leider nicht.

Auch die Art der Verknüpfung mit den Worten ist dabei entscheidend. Schließlich muss die AI verstehen, was User von ihr erwarten, wenn sie von „Fotos“, „Hunden“ oder „Gemälden“ sprechen. Das Potenzial, das DALL-E 2 bietet, ist dabei vielversprechend. Doch gerade wegen der realistisch generierten Inhalte könnte das Risiko, dass jemand die geschaffenen Bilder missbraucht, groß sein. DALL-E 2 selbst versieht zwar jedes generierte Bild mit einer Farbcodierung als Signatur in der unteren rechten Ecke. Es ist jedoch nicht schwer diese zu entfernen und das Bild zu verkleinern, wenn jemand das Erzeugnis anderweitig nutzen wollte.

Nicht die AI ist schuld für Ihren Verwendungszweck

Trotz aller Kritikpunkte an der Generierung oder Veränderung von Inhalten auf AI sollte man klarstellen, dass die Technologien selbst nicht über ihren Verwendungszweck bestimmt. Mithilfe von Machine Learning und AI können eine Menge nützlicher und hilfreicher Kreationen geschaffen werden. Leider wird es jedoch immer Menschen geben, die ein solches Werkzeug in dem Versuch nutzen, sich dadurch einen Vorteil zu verschaffen. Sei es nun, dass manipulierte Aufnahmen eines anderen Menschen als Deepfake auftauchen, um der Person zu schaden oder eine manipulierte Spendensammel-Aufrufaktion das Geld vieler gutgläubiger Helfer einsackt.

Darum ist es umso wichtiger, dass du wachsam und skeptisch bei Inhalten im Internet bleibst. Wie wahrscheinlich ist es, dass die dargestellte Person tatsächlich das dargestellte ausführt? Gibt es Hinweise auf einen Veranstalter oder Inhaber der Seite, auf der die Inhalte bereitstehen? Sei misstrauisch, wenn dir dein Bauchgefühl zu denken gibt oder du über etwas Unerwartetes stößt. Achte genau auf entsprechende Lichtverhältnisse in den Bildern und suche nach Unstimmigkeiten. Häufig haben wir als Lebewesen, die viel visuelle Daten verarbeiten, bereits eine unterbewusste Vorstellung davon, dass etwas nicht stimmt. Was genau mit einer Darstellung irritiert, wird jedoch häufig erst bei genauerer Betrachtung klarer. Bei Videoaufnahmen solltest du zudem skeptisch sein, wenn nur ein sehr geringer Wortschatz verwendet sowie eine starre Mimik präsentiert wird.

Mitreden

9 KOMMENTARE

  1. Nutzerbild Paul D.

    Gibt es eigentlich eine KI oder AI die bereits existierende Objekte in eine künstlich generierte Umgebung integriert ? Hätte das gerne für meine Produktfotografie

    Antwort
    • Nutzerbild Patrick Vogg

      @Paul D.
      Was genau meinst du? Meinst du einfaches CGI?

      Antwort
  2. Nutzerbild Peter Pansen

    OK, ein Monat Verspätung bei dem Thema ist die eine Sache, aber was hat DALL-E bitte mit Deepfakes zu tun? Manchmal weiß ich einfach nicht, ob die Autoren so genau verstanden haben, über was sie da schreiben sollen.
    Aber immerhin gibt es hier einen Kommentar-Bereich (sogar ohne vorherige Anmeldung). Das haben ja die wenigsten Seiten die teilweise fragwürdige Artikel schreiben/clickbait Überschriften nutzen.

    Antwort
    • Nutzerbild mk411

      Hall Peter Pansen,
      wer bei Deepfakes bei Gesichtsaustausch in Pornos denkt, kennt nur einen kleinen Teil des gesamten Spektrums. Die Deepfake-KI baut aus vorhandenen Bilddaten täuschend echte Fotos zusammen. Das kann auch ein simpler Schokoladen-Cookie sein.

      Antwort
  3. Nutzerbild Tomek R.

    @paul: an sowas habe ich auch gedacht, als ich den Beitrag gelesen habe 😀

    Antwort
  4. Nutzerbild Lisa

    Schön wenn man gleich an inkorrekten Zwischenüberschriften merkt, dass hier ein Mensch am Werk war. Niemand ist Schuld FÜR irgendwas.

    Antwort
    • Nutzerbild Karl Toffelchip

      Vielen Dank! Ich fürchtete schon, wieder mal der Einzige zu sein, dem sowas auffällt.
      Daumen hoch!

      Antwort
    • Nutzerbild Oskar Edler von Schickh

      Ebenfalls Danke der Satz kam echt komisch rüber, bin an dem Artikel nur hängen geblieben, weil ich gerade eine Aktienemission einer Firma empfohlen hatte, die solche Deepfake ERkennungssoftware mit drfin hat. Die für den Journalismus hoch intertessant und selbst Netflix , und dpa und viele anderen deutsche Medien nutzen die bereits.

      Antwort
  5. Nutzerbild Uzzo

    @Paul D.
    Technisch ist das kein Problem.
    Du müsstest aber erklären, in welcher Form das bereits existierende Objekt vorliegt. Als Bild (Foto), oder als 3D Objekt, ggf. mit Texturen?
    Auf jeden Fall wäre es für dich doch keine große Sache, dir die Szenerie von der KI erstellen zu lassen, und dann dein Objekt da rein zu retuschieren.

    Antwort

Und was sagst du?

Bitte gib Dein Kommentar ein!
Bitte gibt deinen Namen hier ein