Gesichtserkennungssysteme werden bereits heute umfangreich eingesetzt. Beispielsweise lassen sich die meisten modernen Smartphones sowie Notebooks per Gesichtserkennung entsperren. Und auch als biometrische Ausweismethode an Einlässen zu Veranstaltungen wie etwa Messen kommt Gesichtserkennung längst zum Einsatz. Microsoft bietet seinen Geschäftskunden die technischen Voraussetzungen für solche und weitere Anwendungsfälle. Doch nun rudert das US-amerikanische Unternehmen zurück. Insbesondere, wenn es um das Thema Gesichtsanalysen geht.
Microsoft zieht die Reißleine
Bisher konnten Microsoft-Kunden die Gesichtserkennungs-Services des Windows-Entwicklers größtenteils uneingeschränkt nutzen. Damit ist jetzt Schluss. Am Dienstag verkündete das Unternehmen in einem Blog, es würde anerkennen, dass KI-Systeme nur dann vertrauenswürdig seien, wenn sie angemessene Lösungen für die Probleme darstellen, für die sie entwickelt wurden. Daher limitiert Microsoft nun den Zugriff zu Gesichtserkennungs-Services. Neue Kunden sind ab sofort unter anderem gezwungen, konkrete Anwendungsfälle vorzustellen. Der Zugriff wird gewährt, sofern diese den vordefinierte, akzeptablen Fällen entsprechen. Ferner kommen technische Kontrollen zum Einsatz, die in die Dienste integriert sind und ihre konforme Anwendung überwachen. Für Bestandskunden gelten die gleichen Regelungen, allerdings erst nach einer einjährigen Übergangsfrist, die am 30. Juni 2023 endet.
Abseits der Gesichtserkennung revidiert Microsoft auch seine Einstellung zu den eigenen Gesichtsanalysefunktionen, die auf die emotionalen Zustände und Identitätsattribute wie Geschlecht, Alter, Lächeln, Gesichtsbehaarung, Haare und Make-up schließen lassen. Solche Services werden ab sofort eingestellt. Für Bestandskunden gilt auch hier die bereits erwähnte Übergangsfrist. Lediglich in besonderen Fällen, etwa mit Blick auf Softwarelösungen für Menschen mit Behinderungen, kommt die Technologie weiterhin zum Einsatz.
Microsoft führte seine Entscheidung darauf zurück, dass der Zugriff auf Funktionen, die vertrauliche Attribute vorhersagen, viel Raum für Missbrauch bietet. Beispielsweise können diese zur Stereotypisierung von Personen, zur Diskriminierung oder zur unfairen Verweigerung von Dienstleistungen beitragen.