Systeme zur automatischen Vervollständigung von Texten sollen unser Leben erleichtern, aber es gibt Risiken

Hören Sie auf dem Future of Work Summit am 12. Januar 2022 von CIOs, CTOs und anderen C-Level- und Senior Executives zu Daten- und KI-Strategien. Mehr erfahren


Wenn Sie kürzlich eine SMS oder E-Mail geschrieben haben, werden Ihnen wahrscheinlich KI verschiedene Synonyme, Phrasen oder Möglichkeiten zum Vervollständigen eines Satzes vorgeschlagen. Der Aufstieg von KI-gestützten Autosuggestions-Tools wie Googles Smart Compose fiel mit der digitalen Transformation der Unternehmenskommunikation zusammen, die heute hauptsächlich online stattfindet. Es ist geschätzt dass der typische Arbeiter jeden Tag auf etwa 40 E-Mails antwortet und sendet mehr als 200 Slack-Nachrichten pro Woche.

Messaging droht mit Adobe . einen immer größeren Teil des Arbeitstages in Anspruch zu nehmen feststecken die Zeit, die Mitarbeiter 15,5 Stunden pro Woche mit der Beantwortung von E-Mails verbringen. Der ständige Aufgabenwechsel ist ein Todesurteil für die Produktivität, was Studien belegen, dass ununterbrochenes Arbeiten von Vorteil ist. Forschung von der University of California und der Humboldt-Universität festgestellt, dass Mitarbeiter bei jeder Unterbrechung bis zu 23 Minuten für eine Aufgabe verlieren können, weitere Verlängerung der Arbeitstag.

Autosuggestion-Tools versprechen Zeit zu sparen, indem sie das Schreiben und Beantworten von Nachrichten rationalisieren. Googles Smart Reply zum Beispiel schlägt schnelle Antworten auf E-Mails vor, deren Eingabe normalerweise Minuten dauert. Die KI hinter diesen Tools weist jedoch Mängel auf, die zu Verzerrungen führen oder die Sprache der Nachrichtenübermittlung in unerwünschter Weise beeinflussen können.

Das Wachstum der Autosuggestion und der automatischen Textvervollständigung

Texterkennung ist keine neue Technologie. Eines der ersten weit verbreiteten Beispiele, T9, mit dem Wörter aus einem einzigen Tastendruck für jeden Buchstaben gebildet werden können, war Ende der 90er Jahre Standard auf vielen Mobiltelefonen. Aber das Aufkommen ausgefeilterer, skalierbarer KI-Techniken in der Sprache führte zu Qualitätssprüngen – und Breitengraden – von Autosuggestion-Tools.

Im Jahr 2017 führte Google Smart Reply in Gmail ein, das das Unternehmen später auf andere Google-Dienste wie Chat und Apps von Drittanbietern brachte. Laut Google generiert die KI hinter Smart Reply Antwortvorschläge „basierend auf dem vollständigen Kontext einer Konversation“, nicht nur einer einzelnen Nachricht – was angeblich zu zeitnaheren und relevanteren Vorschlägen führt. Smart Compose, das vollständige Sätze in E-Mails vorschlägt, kam ein Jahr später in Gmail und kurz darauf in Google Docs an. Eine ähnliche Funktion namens vorgeschlagene Antworten wurde 2018 in Microsoft Outlook und 2020 in Teams eingeführt.

Die Technologie hinter der neuen Generation von Autosuggestions-Tools – die einige akademische Kreise als „KI-vermittelte Kommunikation“ bezeichnen – geht weit über das hinaus, was in den 90er Jahren existierte. Das Smart Compose zugrunde liegende KI-Modell wurde beispielsweise anhand von Milliarden von E-Mail-Beispielen erstellt und läuft in der Cloud auf benutzerdefinierter Beschleunigerhardware. In der Zwischenzeit verfolgt Smart Reply – das als Grundlage für Smart Compose diente – einen „hierarchischen Ansatz“ für Vorschläge, der davon inspiriert ist, wie Menschen Sprachen und Konzepte verstehen.

Intelligente Antwort von Microsoft

Oben: Smart Reply von Outlook verwendet Deep-Learning-Modelle, die in Azure Machine Learning trainiert wurden.

Bildquelle: Microsoft

„Der Inhalt der Sprache ist zutiefst hierarchisch, was sich in der Struktur der Sprache selbst widerspiegelt …“, erklären der Google-Forscher Brian Strope und der Engineering Director Ray Kurzweil in einem Blogbeitrag. „Denken Sie an die Nachricht: ‚Diese interessante Person in dem Café, das wir mögen, hat mir einen Blick geschenkt.’ … Wenn wir eine angemessene Antwort auf diese Botschaft vorschlagen, könnten wir die Bedeutung des Wortes „Blick“ berücksichtigen, das möglicherweise mehrdeutig ist. War es eine positive Geste? In diesem Fall könnten wir antworten: ‘Cool!’ Oder war es eine negative Geste? Wenn ja, sagt das Thema etwas darüber aus, wie der Autor den negativen Austausch empfunden hat? Um subtile Unterscheidungen treffen zu können, sind viele Informationen über die Welt und die Fähigkeit, begründete Urteile zu fällen, erforderlich. Wenn genügend Sprachbeispiele vorhanden sind, kann ein Ansatz des maschinellen Lernens viele dieser feinen Unterschiede erkennen. ”

Aber wie bei allen Technologien sind selbst die leistungsfähigsten Autosuggestion-Tools anfällig für Fehler, die während des Entwicklungs- und Bereitstellungsprozesses auftreten.

Im Dezember 2016 war es aufgedeckt dass die Autovervollständigungsfunktion der Google-Suche hasserfüllte und anstößige Endungen für bestimmte Suchphrasen vorschlug, wie zum Beispiel “Sind Juden böse?” für den Ausdruck „sind Juden“. Schuld war nach Angaben des Unternehmens ein algorithmisches System, das Vorschläge basierend auf den kürzlich von anderen Benutzern gesuchten Informationen aktualisiert. Während Google schließlich einen Fix einführte, dauerte es mehrere Jahre, bis das Unternehmen Vorschläge zur automatischen Vervollständigung von kontroversen politischen Aussagen blockierte, einschließlich falscher Behauptungen über Abstimmungsanforderungen und die Legitimität von Wahlprozessen.

Smart Reply war gefunden um der Person mit Turban ein Emoji als Antwort auf eine Nachricht anzubieten, die ein Waffen-Emoji enthielt. Und Apples Autovervollständigung auf iOS vorher schlug nur männliche Emojis für Führungspositionen vor, darunter CEO, COO und CTO.

Voreingenommene Daten

Fehler in Autovervollständigungs- und Autosuggestionssystemen entstehen oft durch verzerrte Daten. Die Millionen bis Milliarden von Beispielen, aus denen die Systeme lernen, können mit Texten von giftigen Websites verunreinigt sein, die bestimmte Geschlechter, Rassen, Ethnien und Religionen mit verletzenden Konzepten in Verbindung bringen. Um das Problem zu veranschaulichen, kann Codex, ein Code-generierendes Modell, das vom Forschungslabor OpenAI entwickelt wurde, aufgefordert werden, „terroristisch“ zu schreiben, wenn es mit dem Wort „Islam“ gefüttert wird. Ein weiteres großes Sprachmodell des KI-Startups Cohere assoziiert Männer und Frauen tendenziell mit stereotypen „männlichen“ und „weiblichen“ Berufen, wie „Wissenschaftler“ und „Haushälterin“.

Smart Compose für Google Docs

Oben: Smart Compose für Google Docs.

Anmerkungen in den Daten können zu neuen Problemen führen – oder bestehende verschärfen. Da viele Modelle von Labels lernen, die kommunizieren, ob ein Wort, ein Satz, ein Absatz oder ein Dokument bestimmte Merkmale wie eine positive oder negative Stimmung aufweist, rekrutieren Unternehmen und Forscher Teams von menschlichen Annotatoren, um Beispiele zu kennzeichnen, typischerweise von Crowdsourcing-Plattformen wie Amazon Mechanical Turk. Diese Annotatoren bringen ihre eigenen Perspektiven – und Vorurteile – auf den Tisch.

In einer Studie des Allen Institute for AI, Carnegie Mellon und der University of Washington fanden Wissenschaftler heraus, dass Etikettierer Phrasen im afroamerikanischen Englisch (AAE) mit größerer Wahrscheinlichkeit mit Anmerkungen versehen, die giftiger sind als Äquivalente im allgemeinen amerikanischen Englisch – obwohl sie verstanden werden als ungiftig von AAE-Lautsprechern. Jigsaw, die Organisation, die unter der Google-Muttergesellschaft Alphabet arbeitet, um Cybermobbing und Desinformation zu bekämpfen, hat in ihren Experimenten ähnliche Schlussfolgerungen gezogen. Forscher des Unternehmens haben Unterschiede in den Annotationen zwischen Etikettierern entdeckt, die sich selbst als Afroamerikaner und Mitglieder der LGBTQ+-Community identifizieren, und Annotatoren, die sich nicht als eine dieser Gruppen identifizieren.

Manchmal ist die Voreingenommenheit beabsichtigt – eine Frage der volkssprachlichen Kompromisse. Writer beispielsweise, ein Startup, das einen KI-Assistenten für die Inhaltserstellung entwickelt, sagt, dass es bei seinen Schreibvorschlägen „Business English“ priorisiert. CEO May Habib nannte das Beispiel des „habitual be“ in AAVE, einer Verbform, die in keinem anderen Englischstil existiert.

“Seit [the habitual be] traditionell nicht im Geschäftsenglisch verwendet wurde und daher in unseren Datensätzen nicht so häufig vorkommt, würden wir ‘Ihr macht alle hier draußen einige seltsame Dinge’ zu ‘Ihr macht alle seltsame Dinge’ korrigieren hier’“, sagte Habib VentureBeat per E-Mail. “[That said,] Wir haben manuell sichergestellt, dass Begrüßungen und Abmeldungen in der Landessprache nicht von Writer gekennzeichnet werden. Manche Umgangssprachen sind geschlechtsneutraler als formelles Geschäftsenglisch, [for instance,] so ist es moderner und markengerechter für Unternehmen.“

Beeinflussung des Schreibens

Wenn Vorurteile – beabsichtigt oder nicht – in Autovervollständigungs- und Autosuggestions-Systeme einfließen, können sie unsere Schreibweise verändern. Der enorme Umfang, in dem diese Systeme arbeiten, macht es schwierig (wenn nicht unmöglich), sie vollständig zu vermeiden. Intelligente Antwort war verantwortlich für 10 % aller Google Mail-Antworten, die 2016 von Smartphones gesendet wurden.

In einem der umfassenderen Prüfungen von Autovervollständigungstools führte ein Team von Microsoft-Forschern Interviews mit Freiwilligen, die aufgefordert wurden, ihre Meinung zu automatisch generierten Antworten in Outlook zu äußern. Die Befragten fanden einige der Antworten zu positiv, falsch in ihren Annahmen zu Kultur und Geschlecht und zu unhöflich für bestimmte Kontexte, wie beispielsweise Firmenkorrespondenzen. Dennoch zeigten Experimente während der Studie, dass Benutzer eher kurze, positive und höfliche Antworten bevorzugen, die von Outlook vorgeschlagen wurden.

Google SmartReply YouTube

Eine separate Harvard-Studie ergab, dass Personen, die über ein Restaurant schreiben, „positive“ Vorschläge zur automatischen Vervollständigung erhielten, die resultierenden Bewertungen tendenziell positiver ausfielen, als wenn ihnen negative Vorschläge vorgelegt wurden. „Es ist aufregend, darüber nachzudenken, wie prädiktive Textsysteme der Zukunft Menschen dabei helfen könnten, viel effektivere Autoren zu werden, aber wir brauchen auch Transparenz und Rechenschaftspflicht, um vor voreingenommenen oder manipulierten Vorschlägen zu schützen“, sagte Ken Arnold, Forscher an der Harvard School of Ingenieur- und Angewandte Wissenschaften, die an der Studie beteiligt waren, erzählte die BBC.

Wenn es eine allumfassende Lösung für das Problem der schädlichen Autovervollständigung gibt, wurde sie noch nicht entdeckt. Google hat sich dafür entschieden, geschlechtsbasierte Pronomenvorschläge in Smart Compose einfach zu blockieren, da sich das System als schlechter Prädiktor für das Geschlecht und die Geschlechtsidentität der Empfänger erwiesen hat. LinkedIn von Microsoft vermeidet auch geschlechtsspezifische Pronomen in Smart Replies, seinem prädiktiven Messaging-Tool, um potenzielle Fehler zu vermeiden.

Die Co-Autoren der Microsoft lernen warnen davor, dass Systemdesigner, wenn sie die Mängel der Autovervollständigungstechnologien nicht proaktiv angehen, Gefahr laufen, Benutzer nicht nur zu beleidigen, sondern sie auch dazu zu bringen, den Systemen zu misstrauen. „Systemdesigner sollten Personalisierungsstrategien auf individueller und sozialer Netzwerkebene untersuchen, überlegen, wie kulturelle Werte und gesellschaftliche Vorurteile durch ihre Systeme aufrechterhalten werden können, und soziale Interaktionsmodelle untersuchen, um die Einschränkungen und Probleme anzugehen“, schrieben sie. “[O]Unsere Ergebnisse zeigen, dass aktuelle Textempfehlungssysteme für E-Mails und andere [like] Technologien bleiben unzureichend nuanciert, um die Feinheiten der realen sozialen Beziehungen und Kommunikationsbedürfnisse widerzuspiegeln. “

VentureBeat

Die Mission von VentureBeat ist es, ein digitaler Marktplatz für technische Entscheidungsträger zu sein, um Wissen über transformative Technologien und Transaktionen zu gewinnen. Unsere Website bietet wichtige Informationen zu Datentechnologien und -strategien, die Sie bei der Führung Ihrer Organisationen unterstützen. Wir laden Sie ein, Mitglied unserer Community zu werden, um Zugang zu erhalten:
  • aktuelle Informationen zu den für Sie interessanten Themen
  • unsere Newsletter
  • geschlossene Vordenker-Inhalte und ermäßigter Zugang zu unseren preisgekrönten Veranstaltungen, wie z Transformieren 2021: Lern ​​mehr
  • Netzwerkfunktionen und mehr
Mitglied werden

Source: VentureBeat by venturebeat.com.

*The article has been translated based on the content of VentureBeat by venturebeat.com. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!