Als Google im Mai 2015 die Fotos-App herausbrachte, waren die Leute überwältigt von den Möglichkeiten, die damit möglich waren: Fotos zu analysieren, um die darin enthaltenen Personen, Orte und Dinge zu markieren, was damals eine überraschende Ankündigung war. Einige Monate nach der Veröffentlichung entdeckte jedoch ein Softwareentwickler namens Jacky Alciné, dass Google Fotos von ihm und einem Freund als „Gorillas“ gekennzeichnet hatte. Beide sind schwarz, und das ist für sie besonders anstößig, weil es an jahrhundertealte rassistische Topos erinnert.
Der Fehler war eindeutig nicht rassistisch motiviert, sondern resultierte aus der für das Training verwendeten Datenbank. Zwei ehemalige Google-Mitarbeiter, die an der Technologie gearbeitet haben, sagten, das Unternehmen habe nicht genügend Fotos von farbigen Menschen in den Bilderpool aufgenommen, den es zum Trainieren des Systems verwendet habe. Infolgedessen wusste die Technologie nicht genug über dunkelhäutige Menschen und verwechselte sie mit Gorillas. Im darauffolgenden Skandal blockierte Google seine Software daran, irgendetwas als Gorilla zu identifizieren, und versprach, das Problem zu beheben. Seitdem sind acht Jahre vergangen und die künstliche Intelligenz hat sich stark weiterentwickelt, doch das Scheitern auf diesem Gebiet ist spektakulär.

Foto-Apps von Apple, Google, Amazon und Microsoft basieren auf maschinellem Lernen, um es uns zu ermöglichen, in unseren ständig wachsenden Fotosammlungen nach bestimmten Objekten zu suchen und bestimmte Dinge zu finden. Der Reporter der New York Times versteckte 44 Zoofotos unter 8.000 Bildern und laut seinem Test Die Situation bleibt weiterhin düster: Die Suche in der Sammlung nach Katzen und Kängurus lieferte tolle Ergebnisse, aber Google Fotos konnte keinen einzigen Gorilla finden. Als man die Suche auf Paviane, Schimpansen, Orang-Utans und Affen ausweitete, wurde ebenfalls tot gefunden, obwohl die Sammlung Bilder aller Primaten enthielt.
Basierend auf seinem Test leidet Apple Photos unter dem gleichen Problem: Es war in der Lage, Fotos einzelner Tiere genau zu finden, außer Primaten. Die Fotosuche von Microsoft OneDrive war bei allen Tieren erfolglos. Eine Suche auf Amazon Photos nach Gorillas ergab eine Sammlung von Primaten, und das Muster wiederholte sich bei anderen Tieren. Ein Mitglied der Primatenfamilie, Lemuren, wurde sowohl von Google als auch von Apple anerkannt. Beide Softwareprogramme sind in Bezug auf die Bildanalyse sehr fortschrittlich, dennoch gehen beide Unternehmen auf Nummer sicher und deaktivieren die Möglichkeit zur visuellen Suche nach Primaten.
Dies ist offensichtlich kein sehr wichtiges Thema für Verbraucher, aber das Problem wirft umfassendere Fragen zu Diensten auf, die auf Technologien zur Interpretation visueller Bilder basieren, sowie zu anderen nicht behebbaren oder nicht behebbaren Fehlern, die anderen mit künstlicher Intelligenz betriebenen Produkten innewohnen. Wir schützen unser Eigentum mit Kameras, die Computer Vision nutzen, und der Dienst wird auch für kritische Aufgaben wie das Navigieren von Autos oder das Auffinden von Kriminellen in einer Polizeidatenbank eingesetzt. Je stärker künstliche Intelligenz in unser Leben integriert wird, desto größer wird die Angst vor unbeabsichtigten Folgen. Obwohl sich Produkte für maschinelles Lernen und KI-Chatbots wie ChatGPT grundlegend unterscheiden, hängen beide von den Datensätzen ab, die zu ihrem Training verwendet werden, und beide können aufgrund von Fehlern in den Daten oder im Code eingebauten Verzerrungen Fehler machen.

Der Rechtsstreit über das Versagen der Apple Watch bei der Messung des Sauerstoffgehalts ist noch im Gange
Es war ein spektakulärer Fehler, als Microsoft kurz nach der Einführung die Zugänglichkeit des in Bing integrierten Chatbots einschränkte, nachdem dieser Gespräche in seltsame Richtungen gelenkt hatte. Ebenso veranschaulicht die Entscheidung von Google, die Gorilla-Identifizierung in seinem Algorithmus zu deaktivieren, einen allgemeinen Ansatz der Branche: das Blockieren fehlerhafter technischer Funktionen, anstatt sie zu reparieren. Aber wie kann man dieser Software vertrauen? Michael Marconi, ein Google-Sprecher, sagte, man sei zu der Einschätzung gelangt, dass der Nutzen „das Schadensrisiko nicht überwiegt“. Apple wollte sich nicht dazu äußern, ob Nutzer in seiner App nach Primaten suchen können.
Google hat sich mehrfach für den Gorilla-Vorfall entschuldigt, aber es war nur einer von vielen ähnlichen Vorfällen in der Technologiebranche. Weitere kritisierte Produkte sind die Face-Tracking-Webcams von HP, die dunkelhäutige Personen nicht erkennen konnten, und die Apple Watch, die Er wusste nicht um den Blutsauerstoffgehalt bei nicht-weißen Menschen genau zu messen. Die Mängel deuten darauf hin, dass elektronische Geräte nicht für und mit dunkelhäutigen Menschen konzipiert sind. Kunden der Heimüberwachungskamera Nest von Google haben ähnliche Fehler gemeldet: Im Jahr 2021 erhielt ein Kunde die Warnung, dass seine Mutter klingelte, nur um stattdessen seine Schwiegermutter auf der anderen Seite der Tür zu finden. Als Benutzer sich darüber beschwerten, dass das System Gesichter verwechselte, die sie als „bekannt“ markierten, riet ihnen ein Kundendienstmitarbeiter im Forum, alle Tags zu löschen und von vorne zu beginnen.
Der Fall der Face-Tracking-Webcam von HP ist nun ein typisches Beispiel
Im Jahr 2019 versuchte Google, die Gesichtserkennungsfunktion von Android-Smartphones zu verbessern und erhöhte die Anzahl dunkelhäutiger Personen im Datensatz. Doch die Unternehmer, die Google mit der Erstellung der Porträts beauftragt hatte, kompensierten die mangelnde Diversität der Daten auf besorgniserregende Weise: Sie suchten nach Obdachlosen und Studenten. Google-Führungskräfte „sehr beunruhigend“ hieß der Fall. Während sie also hinter den Kulissen an der Verbesserung der Technologie arbeiteten, durften die Benutzer diese Bemühungen nie beurteilen.
Google hat inzwischen ein besseres Bildanalyseprodukt herausgebracht, Google Lens, mit dem Sie das Internet anhand von Fotos durchsuchen können. Verkabelt im Jahr 2018 entdeckt, dass das Gerät auch keinen Gorilla identifizieren konnte. Wenn Sie Lens ein Foto eines Hundes zeigen, errät es sogar die Rasse, aber wenn es um Gorillas, Schimpansen, Paviane oder Orang-Utans geht, bleibt Lens hängen. Es weigert sich, anzugeben, was auf dem Bild zu sehen ist, und zeigt nur „visuelle Übereinstimmungen“ an – Fotos, die als dem Originalbild ähnlich beurteilt werden. Im Fall von Gorillas werden Fotos von anderen Gorillas gezeigt, was darauf hindeutet, dass die Technologie das Tier erkennt, das Unternehmen jedoch eine Markierung befürchtet. Diese Systeme sind niemals narrensicher, und da Milliarden von Menschen die Dienste von Google nutzen, tauchen selbst seltene Fehler auf, die nur einer von einer Milliarde Nutzern passieren. Ein einziger Fehler reicht aus, um enorme soziale Folgen zu haben. Google und Apple sind zwar inzwischen in der Lage, Primaten von Menschen zu unterscheiden, sie wollen die Funktion jedoch nicht aktivieren, da sie ein Reputationsrisiko darstellen könnte, wenn sie erneut einen Fehler macht.
Source: SG.hu Hírmagazin by sg.hu.
*The article has been translated based on the content of SG.hu Hírmagazin by sg.hu. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!
*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.
*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!