Der US-amerikanische Entwickler OpenAI, der sich mit der Erforschung Künstlicher Intelligenz (KI) beschäftigt, sorgt hierzulande für Diskussionen. In Deutschland sei ein ähnliches Vorgehen wie in Italien möglich, erklärte eine Sprecherin des Bundesbeauftragten für den Datenschutz, Ulrich Kleber, dem Handelsblatt. Da es sich bei OpenAI jedoch um ein Unternehmen handelt, ist die Landesdatenschutzbehörde dafür zuständig. Die italienische Datenschutzaufsichtsbehörde soll „weiterführende Informationen“ an Klebers Behörde übergeben. Somit können diese Informationen anschließend an die entsprechende Landesbehörde- und Medienanstalt weitergegeben werden, sagte die Sprecherin.
Folgt nun die nächste KI-Sperrung?
Ende März hat die italienische Datenschutzbehörde aufgrund eines Verdachts von Datenschutz-Verstößen Ermittlungen gegen ChatGPT und deren Entwickler Open AI eingeleitet. Solche digitalen Technologie-Entwicklungen könne man nicht mit Verboten stoppen, denn dann finden sie woanders statt, sagt Rafael Laguna de la Vera, Chef der Bundesagentur für Sprunginnovationen (SprinD). Er ergänzt: „Wir sind mitten in einer Disruption. Besser man macht sich schlau, nimmt teil und entwickelt sie zu dem, was man haben will und verhindert dann gezielt, was nicht.“ In Deutschland ist das Bundesdigitalministerium derweil gegen eine Sperrung von ChatGPT. „Wir brauchen kein Verbot von KI-Anwendungen, sondern Wege, Werte wie Demokratie und Transparenz zu gewährleisten“, erläutert ein Sprecher des Digitalministeriums. Die EU könne durch einen geplanten EU-Rechtsrahmen zu einem globalen „Vorreiter für vertrauensvolle KI“ werden, fügt das Ministerium hinzu.
KI: Experten sorgen sich
Experten sorgen sich, da es bislang keine allgemeine Regulierung für Künstliche Intelligenz (KI) gibt. Zurzeit diskutiert die EU über eine KI-Verordnung, welche vielleicht noch in diesem Jahr aufgestellt wird. Für die Umsetzung haben die Mitgliedsstaaten insgesamt zwei Jahre Zeit. Doch das eigentliche Problem, das die Experten sehen, nennt sich „Bias“. Dieser ist in KI-Anwendungen, die mit Sprache arbeiten, zu finden. Es ist die Verzerrung von Aussagen aufgrund von Vorurteilen oder Stereotypen in den Trainingsdaten. Laut dem Direktor des Zentrums für Informations- und Sprachverarbeitung an der Münchener LMU, Hinrich Schütze, gäbe es in diesem Bereich feste Grenzen und Zugangsregeln. „Wie in der Genetik das Klonen von Menschen gesetzlich verboten ist, so muss es auch in ein Regelwerk geben, das Sprachmodellen Grenzen setzt“, verlangt er.