Nach einem Video des britischen Boulevardblatts „Daily Mail“ wurden die Nutzer gefragt, ob sie „weiterhin Videos über Primaten sehen möchten“.
Der unglückliche Vorfall wurde gestern von einer Sprecherin des Sozialen Netzwerkes bestätigt. Die Software sei daraufhin sofort vom Netz genommen worden. „Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat.“
Der „eindeutig inakzeptable Fehler“ trat nach dem Video „Weißer Mann ruft Polizei wegen schwarzer Männer am Hafen“ auf. Anschließend sollen laut New York Times die Zuseher gefragt worden sein, ob sie weiterhin Affenvideos sehen wollen.
Schuld daran ist die eingesetzte Künstliche Intelligenz. Die einerseits genutzt wird, um weitere interessante Themen für Konsumenten vorzuschlagen. Anderseits kommt sie auch als Gesichtserkennungssoftware zum Einsatz, bei der laut Bürgerrechtlern öfters Genauigkeitsprobleme auftreten. Weiters gibt es eine intelligente Software die problematische Nachrichten und Bilder erkennt und blockiert.
Nachdem Facebook besonders gegen rassistische und politisch-inkorrekte Inhalte vorgeht, ist dieser Vorfall umso peinlicher.