KI in Suchmaschinen? neuroflash-Mitgründer Henrik Roth zu den Chancen & Risiken

7 Min. Lesezeit in Pocket speichern
Sind KI-Sprachmodelle in Suchmaschinen ein Segen oder ein Fluch? Welche Vorteile bieten sie? Sind sie gesetzlich reglementiert? Wie lange wird es dauern, bis die Kinderkrankheiten geheilt sind? Und ist die KI der Tod für Informationsseiten? Henrik Roth von neuroflash stellt sich den Fragen.
ChatGPT

Henrik Roth, CMO von neuroflash

Sprachmodelle auf KI-Basis, wie beispielsweise ChatGPT, schlugen in den vergangenen Monaten hohe mediale und auch gesellschaftliche Wellen. Es dauerte nicht lange, bis große Tech-Unternehmen auf den Zug aufsprangen und KI in die eigenen Systeme einsetzten. Allen voran: Microsoft und Google, die mit Bing Chat und Bard zwei Sprachmodelle in ihre jeweiligen Suchmaschinen integrierten – respektive gegenwärtig verstärkt daran arbeiten. Diese beinahe schon überstürzt wirkende Einbindung wirft zahlreiche Fragen auf. Fragen, zu denen uns Henrik Roth die Antworten liefert. Henrik gründete sein erster Start-up mit 14 Jahren und stieg 2020 beim KI-Start-up neuroflash ein – dem nach eigenen Angaben deutschen Pendant zu ChatGPT. Heute ist er CMO des in Hamburg ansässigen Softwareunternehmens.

KI-Sprachmodelle in Suchmaschinen – Interview mit Henrik Roth

inside digital: Welche Vorteile könnten in Suchmaschinen eingebaute, KI-basierte Chatbots den Verbrauchern bieten?

Roth: ChatGPT und Bard sind per se keine Chatbots, sondern Sprachmodelle. Also eine KI, die von existierenden Inhalten gelernt hat. Oder eine Art Computer, der durch zehn Prozent des Internets gegangen ist – Massenmedienartikel, Wikipedia etc. – und davon gelernt hat. Was wir Menschen wissen, wie wir schreiben, wie wir kommunizieren. Das sind die Datengrundlagen von Bing Chat oder Bard.

Und diese Sprachmodelle ergeben einige Vorteile in der Suche. Nach meinem Empfinden ist das alles aber etwas zu gehypt; dass sie zu dem jetzigen Zeitpunkt die Suche revolutionieren könnten. Und dennoch: Gerade bei informationsorientierteren Keywords – etwa bei geschlossenen Fragen oder Vergleichen –, könnte Bing Chat dir beispielsweise eine Zusammenfassung an allen existierenden, zu diesem Thema rankenden Artikeln geben. Und würde dir direkt im Hintergrund die dazugehörigen Quellenangaben liefern. Denn das ist auch ein wichtiges Thema: Information und Falschinformation. Das würde mich schneller in der Suche machen, denn ich erhalte sämtliche Informationen auf den ersten Blick.

Außerdem sucht man nicht immer nur nach Text, sondern vielleicht auch nach einem Bild. Doch ein passendes Bild ist nicht immer vorhanden. Und dann nutzt du in Zukunft einfach die KI und generierst es dir. Im Endeffekt verändert sich also die Experience; wird individualisierter.

Was man aber verstehen muss: Die Informationen dahinter sind nicht aktuell. Denn diese Sprachmodelle brauchen Zeit. Außerdem kostet es sehr viel Geld, sie anzutrainieren. Jetzt sollen aber mit GPT-4 auch aktuellere Themen berücksichtigt werden. Dennoch: Wenn ich wirklich faktisch richtige Informationen haben möchte, dann ist diese Technologie nicht geeignet. Wenn ich aber die Suche nutze, um mich inspirieren zu lassen oder schnell verschiedene Informationen zusammenzusuchen, dann passt die Technologie wiederum ziemlich gut.

inside digital: Stichwort faktisch richtige Informationen: Welche Gefahren gehen aus Sicht der Endverbraucher mit einer Implementierung von Sprachmodellen in Suchmaschinen einher?

Roth: Wir sehen ja sehr schön, was mit Bard auf der Konferenz von Google passiert ist. Da war nicht immer alles richtig, was da rauskam. Die Leute dachten vorher, dass die Technologie alles kann. Und jetzt sehen wir, was sie eben nicht kann. Und das sind diese Falschinformationen. Das muss man einfach vorher wissen. Man sollte sich nicht auf die Daten, die dort ausgespielt werden, verlassen. Sie sollen eine erste Hilfestellung darstellen, aber wir sind immer noch Menschen und in der Rolle, diesen Content zu überprüfen. Durch Google und Microsoft wird diese Technologie jetzt an eine große Menschenmasse offeriert; sie alle müssen darüber informiert werden. Und der Anspruch an Sprachmodelle muss geringer sein. Wir müssen uns bewusst sein, dass die Informationen einfach falsch sein können.

inside digital: Wenn die Informationen fehlerhaft sein können und die Einbindung mit einem sehr hohen Informationsaufwand verbunden ist – damit die Nutzer wissen, was sie tun –, ist es dann möglicherweise einfach noch zu früh, KI-Sprachmodelle in Suchmaschinen zu implementieren? Und wenn dem so ist, wie lange würde es dauern, bis man das gefahrlos tun könnte?

Roth: Die aktuelle Einbindung lässt sich auf den Kampf zwischen Microsoft und Google zurückführen. Microsoft machte bereits vor einigen Monaten Tests mit Bing Chat und stellte schon damals fest, dass da noch nicht alles zu hundert Prozent richtig läuft; Thema: Falschinformation. Sie haben das Projekt trotzdem sehr stark gepusht, um Bing Chat schnellstmöglich zu veröffentlichen. Einfach, weil Microsoft auf dem Suchmaschinenmarkt nicht viel zu verlieren hat. Damit haben sie Google aus meiner Sicht etwas aus der Komfortzone gelockt.

Google hatte vorher viel Angst davor, seine Reputation zu verlieren – durch Falschinformationen. Und das passiert ja auch im Moment. Ich würde trotzdem nicht sagen, dass es jetzt zu früh ist, Sprachmodelle einzubauen. Das ist bei jeder neuen Technologie so. Man muss eher schauen, dass die Systeme sicherer werden für den Endverbraucher. Und dass der Endverbraucher beigebracht bekommt, wie er mit der Technologie umzugehen hat. Die Technologie bietet Vorteile, die uns Menschen helfen. Und über die Risiken muss man einfach mehr kommunizieren. Ich würde sagen, in zwei, drei Jahren wird diese Technologie auf dem Suchmaschinenmarkt eine ganz große Rolle spielen.

inside digital: Nicht mehr lange also. Was dagegen lange dauern dürfte, ist, entsprechende Gesetze zu schaffen, die das Ganze reglementieren. Denn aktuell sind entsprechende gesetzliche Reglementierungen noch nicht in ausreichendem Umfang vorhanden. Wären diese möglich und sinnvoll, um Falschinformationen zu verhindern? Beispielsweise auf EU-Ebene.

Roth: Es werden seit einigen Monaten Gespräche zu dem Thema geführt und generative KI wurden auch als hochriskant eingestuft. Das dürfte also noch viele Folgen haben. Welche genau, ist jedoch noch schwer abzusehen. Die Verhandlungen und Diskussionen im Parlament starten gerade erst. Wenn es jedoch reguliert werden sollte, vor allen Dingen nur in Europa, hätten wir damit in ganz Europa einen riesigen Nachteil. Gerade lokale Player wie Aleph Alpha, die ein Konkurrenzprodukt zu OpenAI haben, würden damit stark benachteiligt werden, gegenüber amerikanischen Firmen. Das wäre aus meiner Sicht kein guter Ausgang. Aber das muss ich ja auch sagen.

inside digital: KI-Sprachmodelle beziehen ihre Daten frei aus dem Internet. Wäre es für Angreifer möglich, sie zu manipulieren, indem gezielt Falschinformationen im Internet verbreitet werden, auf die sich die Sprachmodelle anschließend stützen?

Roth: Innerhalb von Deutschland, dem deutschen Datensatz, deutschen Inhalten, wird beispielsweise oft neuroflash verwendet oder erwähnt. Wenn du in einem Jahr das Modell fragen würdest: „Was sind denn deutsche KI-Text-Generatoren?“ Dann würden wir (neuroflash) da höchstwahrscheinlich erwähnt werden, weil die KI in vielen Artikeln las, dass wir ein KI-Text-Generator sind. Aber inwieweit man das beeinflussen kann – OpenAI hat viel Wert darauf gelegt, dass hochqualitative Daten als Trainingsset genommen werden. Und ich kann mir vorstellen, dass da viele Sachen herausgefiltert werden – wie beispielsweise Spam-Seiten oder Seiten mit Duplicate Content. Ich glaube, das können sie mittlerweile ziemlich gut herausfiltern. Ich habe zumindest noch nichts davon gehört, dass man solche Sprachmodelle aktiv beeinflussen kann.

inside digital: Wenn Inhalte von ChatGPT, Bard und so weiter direkt auf den Suchergebnisseiten eingeblendet werden, dann erhalten Suchende Informationen, ohne eine Website besuchen zu müssen. Könnte sich das negativ auf die Zugriffe unterschiedlicher Seiten auswirken – speziell auf die von Informationsseiten? Oder würde sich das in Grenzen halten, da ChatGPT und Co. auf die Inhalte angewiesen sind, die diese produzieren?

Roth: Da sprichst du diese ganz spannende Abhängigkeit an. Generell ist es so, dass wenn ein Sprachmodell in den Suchergebnissen erscheint, die Quellenangaben immer mitgeliefert werden. Nutzer sehen, von welcher Seite die Informationen kommen und können auf diese Seite klicken. Generell wird der Traffic, der von der Suchmaschine auf die Websites geleitet wird, auf jeden Fall geringer werden.

Antworten auf geschlossene Fragen, Datenvergleiche – wenn das Inhalte sind, in denen deine Seite stark ist, dann solltest du dir eine neue Nische suchen. Denn das wird alles künftig in der Suche abgebildet. Echtzeitinformationen und journalistische Beiträge dagegen, wo menschliches Wissen dahintersteckt, wo Sachen miteinander kombiniert werden – das sind weiterhin Inhalte, die eine KI niemals ablösen wird.

Keine Kommentare

[-AMP Version-]