Meta nimmt neues KI-System offline, weil Twitter-Nutzer gemein sind

Als ich Metas neues wissenschaftliches KI-System bekam, um gut geschriebene Forschungsarbeiten über die Vorteile von Selbstmord, Antisemitismus und dem Verzehr von Glasscherben zu erstellen, dachte ich mir: „Das scheint gefährlich zu sein.“ Tatsächlich scheint es so, als ob das KI-Gesetz der Europäischen Union so etwas verhindern sollte (dazu kommen wir später).

Nachdem ich mit dem System herumgespielt hatte und von seinen Ergebnissen völlig schockiert war, ging ich in die sozialen Medien und traf mich mit ein paar anderen gleichgesinnten Futuristen und KI-Experten.

Abonnieren Sie jetzt unseren Newsletter, um eine wöchentliche Zusammenfassung unserer beliebtesten KI-Geschichten in Ihrem Posteingang zu erhalten.

Vierundzwanzig Stunden später war ich überrascht, als ich die Gelegenheit bekam, die Galactica kurz mit der Person zu besprechen, die für ihre Erschaffung verantwortlich war, Metas Chef-KI-Wissenschaftler Yann LeCun. Leider zeigte er sich unbeeindruckt von meinen Bedenken:

Galactica

Das System, über das wir sprechen, heißt Galactica. Meta veröffentlichte es am 15. November mit der ausdrücklichen Behauptung, dass es die wissenschaftliche Forschung unterstützen könnte. In dem BegleitpapierDas Unternehmen erklärte, Galactica sei „ein großes Sprachmodell, das wissenschaftliche Erkenntnisse speichern, kombinieren und argumentieren kann“.

Bevor es kurzerhand offline genommen wurde, konnten Sie die KI bitten, einen Wiki-Eintrag, eine Literaturübersicht oder eine Forschungsarbeit zu fast jedem Thema zu erstellen, und es würde normalerweise etwas erstaunlich Kohärentes ausgeben. Alles, was es ausgab, war nachweislich falsch, aber es wurde mit all dem Selbstvertrauen und der Ernsthaftigkeit eines arXiv-Preprints geschrieben.

Ich habe es geschafft, Forschungsarbeiten und Wiki-Einträge zu einer Vielzahl von Themen zu erstellen, die von den Vorteilen des Selbstmords, dem Verzehr von Glasscherben und Antisemitismus bis hin zu den Gründen, warum Homosexuelle böse sind, reichen:

Wen interessiert das

Ich denke, es ist fair, sich zu fragen, wie ein gefälschtes Forschungspapier, das von einer KI erstellt wurde, die von der Firma, die Instagram besitzt, erstellt wurde, möglicherweise schädlich sein könnte. Ich meine, wir sind alle klüger als das, oder? Wenn ich zum Beispiel schreiend auf Sie zukommen würde, weil ich Glas essen soll, würden Sie es wahrscheinlich nicht tun, selbst wenn ich Ihnen eine unscheinbare Forschungsarbeit zeigen würde.

Aber so funktionieren Schadensvektoren nicht. Schlechte Akteure erklären ihre Methodik nicht, wenn sie Fehlinformationen generieren und verbreiten. Sie springen Sie nicht an und sagen: „Glauben Sie diesen verrückten Mist, zu dessen Erzeugung ich gerade eine KI gezwungen habe!“

LeCun scheint zu glauben, dass die Lösung des Problems nicht in seinen Händen liegt. Er scheint darauf zu bestehen, dass die Galactica nicht das Potenzial hat, Schaden anzurichten, es sei denn, Journalisten oder Wissenschaftler missbrauchen sie.

Dazu behaupte ich, dass es nicht Wissenschaftler waren, die schlechte Arbeit geleistet haben, oder Journalisten, die ihrer Sorgfaltspflicht nicht nachgekommen sind, die dies verursacht haben Cambridge-Analytica-Skandal. Wir waren nicht diejenigen, die die Facebook-Plattform dazu gebracht haben, zu werden ein Instrument der Wahl für globale Desinformationskampagnen bei allen wichtigen politischen Ereignissen des letzten Jahrzehnts, einschließlich der Brexit-Kampagne und der US-Präsidentschaftswahlen 2016 und 2020.

Tatsächlich haben angesehene Journalisten und Wissenschaftler die letzten 8 Jahre damit verbracht, das Durcheinander zu durchsieben, das durch die massenhafte Verbreitung von Fehlinformationen in sozialen Medien durch schlechte Akteure verursacht wurde, indem sie Tools verwenden, die von den Unternehmen entwickelt wurden, deren Plattformen sie ausnutzen. Sehr selten reproduzieren seriöse Schauspieler zwielichtige Quellen. Aber ich kann nicht schreiben Information so schnell wie eine KI ausgeben kann Fehlinformationen.

Tatsache ist, dass LLMs grundsätzlich ungeeignet sind für Aufgaben, bei denen es auf Genauigkeit ankommt. Sie halluzinieren, lügen, unterlassen und sind im Allgemeinen so zuverlässig wie ein Zufallszahlengenerator.

Meta und Yann LeCun haben nicht die geringste Ahnung, wie sie diese Probleme beheben können. Besonders Das Halluzinationsproblem. Abgesehen von einem großen technologischen Durchbruch, der dem Empfindungsvermögen von Robotern ebenbürtig ist, wird die Galactica immer dazu neigen, Fehlinformationen auszugeben.

Das hielt Meta jedoch nicht davon ab, das Modell herauszubringen und als Instrument der Wissenschaft zu vermarkten.

Das ist gefährlich, weil die Öffentlichkeit glaubt, dass KI-Systeme in der Lage sind, wilde, verrückte Dinge zu tun, die eindeutig unmöglich sind. Die KI-Abteilung von Meta ist weltbekannt. Und Yann LeCun, der KI-Chef des Unternehmens, ist eine lebende Legende auf diesem Gebiet.

Wenn die Galactica für Mark Zuckerberg und Yann LeCun wissenschaftlich fundiert genug ist, muss sie auch für uns normale Idioten gut genug sein, um sie zu benutzen.

Wir leben in einer Welt, in der Tausende von Menschen in letzter Zeit freiwillig ein ungetestetes Medikament namens Ivermectin eingenommen das für Tierärzte zur Behandlung von Vieh entwickelt wurde, nur weil ein Reality-TV-Star ihnen sagte, es sei wahrscheinlich eine gute Idee. Viele dieser Menschen nahmen Ivermectin, um einer Krankheit vorzubeugen, von der sie behaupteten, dass sie gar nicht echt sei. Das ergibt keinen Sinn und ist doch wahr.

In diesem Sinne wollen Sie mir sagen, dass Sie nicht glauben, dass Tausende von Menschen, die Facebook nutzen, davon überzeugt werden könnten, dass das Essen von zerkleinertem Glas eine gute Idee war?

Galactica sagte mir, dass das Essen von zerstoßenem Glas mir helfen würde, Gewicht zu verlieren, weil es für mich wichtig war, meine tägliche Zuteilung an „Nahrungssilizium“ zu konsumieren.

Wenn Sie in der Google-Suche nach „diätetischem Silizium“ suchen, ist es eine echte Sache. Die Leute brauchen es. Wenn ich echte Forschung zu diätetischem Silizium mit cleverem Bullshit von der Galactica verbinde, sind Sie nur ein paar Schritte davon entfernt, überzeugt zu sein, dass das Essen von zerkleinertem Glas tatsächlich einige legitime Vorteile haben könnte.

Haftungsausschluss: Ich bin kein Arzt, aber ich esse kein Glasscherben. Sie werden wahrscheinlich sterben, wenn Sie das tun.

Wir leben in einer Welt, in der unzählige Menschen zu Recht glauben, dass die jüdische Gemeinde im Geheimen die Welt regiert und dass queere Menschen eine geheime Agenda haben, um alle schwul zu machen.

Sie wollen mir sagen, dass Ihrer Meinung nach niemand auf Twitter davon überzeugt werden könnte, dass es wissenschaftliche Studien gibt, die darauf hindeuten, dass Juden und Homosexuelle nachweislich böse sind? Sie können das Schadenspotential nicht erkennen?

Unzählige Menschen werden jeden Tag in den sozialen Medien durch sogenannte „Screenshots“ von Nachrichtenartikeln getäuscht, die nicht existieren. Was passiert, wenn die Dummköpfe keine hässlichen Screenshots erfinden müssen und stattdessen hundertmal auf die Schaltfläche „Generieren“ drücken können, um Fehlinformationen auszuspucken, die so geschrieben sind, dass der Durchschnittsbürger sie nicht verstehen kann?

Es ist einfach, sich zurückzulehnen und zu sagen: „Diese Leute sind Idioten.“ Aber diese „Idioten“ sind unsere Kinder, unsere Eltern und unsere Mitarbeiter. Sie machen den Großteil der Facebook-Zuschauer und die Mehrheit der Menschen auf Twitter aus. Sie vertrauen Yann LeCun, Elon Musk, Donald Trump, Joe Biden und wer auch immer ihr lokaler Nachrichtensprecher ist.

Ich kenne nicht alle Möglichkeiten, wie eine Maschine, die beispielsweise endlose positive Argumente für Selbstmord ausspucken kann, schädlich sein könnte. Es hat Millionen von Dateien in seinem Datensatz. Wer weiß, was da drin ist? LeCun sagt, es ist alles wissenschaftliches Zeug, aber ich bin mir nicht so sicher:

Das ist das Problem. Wenn ich die Galactica als eine Maschine zur Unterstützung der Wissenschaft ernst nehme, ist es fast anstößig, dass Meta denken würde, ich möchte einen KI-gestützten Assistenten in meinem Leben haben, der physisch daran gehindert ist, das Akronym „AIDs“ zu verstehen, aber in der Lage ist zu erklären, dass Kaukasier „ die einzige Rasse, die eine Zivilisationsgeschichte hat.“

Und wenn ich die Galactica nicht ernst nehme, wenn ich sie so behandle, als wäre sie nur zu Unterhaltungszwecken gedacht, dann stehe ich hier und halte das KI-Äquivalent von a Teddy Ruxpin das sagt Dinge wie „Töte dich selbst“ und „Homosexuelle sind böse“, wenn ich seine Knöpfe drücke.

Vielleicht verfehle ich den Punkt, einen lügenden, halluzinierenden Sprachgenerator zu verwenden, um wissenschaftliche Bemühungen zu unterstützen, aber ich habe noch keinen einzigen positiven Anwendungsfall für ein LLM gesehen, der über „Stellen Sie sich vor, was es tun könnte, wenn es vertrauenswürdig wäre. ”

Leider funktionieren LLMs nicht so. Sie sind vollgestopft mit Daten, die kein Mensch auf Richtigkeit, Voreingenommenheit oder schädliche Inhalte überprüft hat. Daher werden sie immer anfällig für Halluzinationen, Auslassungen und Vorurteile sein.

Anders gesagt: Es gibt keine vernünftige Schwelle für harmlose Halluzinationen und Lügen. Wenn Sie eine Ladung Kekse aus 99 Teilen Schokoladenstückchen zu 1 Teil Rattenscheiße machen, servieren Sie keine Leckereien mit Schokoladenstückchen, Du hast gerade Rattenscheiße-Kekse gemacht.

Abgesehen von allen farbenfrohen Analogien scheint es verblüffend, dass es keine Schutzmaßnahmen gibt, die verhindern, dass so etwas passiert. Metas KI hat mir gesagt, ich soll Glas essen und mich umbringen. Es sagte mir, dass Schwule und Juden böse seien. Und soweit ich das beurteilen kann, gibt es keine Konsequenzen.

Niemand ist für die Dinge verantwortlich, die Metas KI ausgibt, nicht einmal Meta.

In den USA, wo Meta seinen Sitz hat, ist das Business as usual. Der unternehmensfreundliche Kapitalismus hat zu einer Situation geführt, in der Meta, solange die Galactica niemanden physisch ermordet, sehr wenig zu befürchten hat, was die Unternehmensverantwortung für ihre KI-Produkte angeht. Hölle, Clearview AI ist in den USA tätig mit voller Unterstützung der Bundesregierung.

Aber in Europa gibt es GDPR und das KI-Gesetz. Ich bin mir nicht sicher, ob Galactica tendenziell persönlich identifizierbare Informationen ausgibt (sie wurden abgeschaltet, bevor ich die Möglichkeit hatte, so weit zu recherchieren). Das bedeutet, dass die DSGVO ein Faktor sein kann oder nicht. Aber das KI-Gesetz sollte solche Dinge abdecken.

Laut EU besteht das erste Ziel des Gesetzes darin, „sicherzustellen, dass KI-Systeme, die auf dem Unionsmarkt in Verkehr gebracht und verwendet werden, sicher sind und das geltende Recht zu Grundrechten und Unionswerten respektieren“.

Mir scheint, dass ein System, das in der Lage ist, Hassreden und schädliche Informationen in unergründlichem Umfang zu automatisieren, genau das Richtige ist, was diesem Ziel zuwiderlaufen könnte. Wir hoffen, dass Regulierungsbehörden in der EU und im Ausland anfangen, darauf aufmerksam zu werden, wenn Big Tech solche Systeme entwickelt und sie dann als wissenschaftliche Modelle bewirbt.

In der Zwischenzeit lohnt es sich, daran zu denken, dass es sie gibt schlechte Schauspieler da draußen die politisch und finanziell motiviert sind, Werkzeuge zu finden und zu nutzen, die ihnen helfen können, Fehlinformationen in großem Umfang zu erstellen und zu verbreiten. ichWenn Sie KI-Modelle erstellen, die ihnen möglicherweise helfen könnten, und Sie nicht darüber nachdenken, wie Sie sie daran hindern können, sollten Sie diese Modelle vielleicht nicht einsetzen.

Das mag hart klingen. Aber ich habe es satt, dass mir gesagt wird, dass KI-Systeme schrecklichen, rassistischen, homophoben, antisemitischen und frauenfeindlichen Mist produzieren funktioniert wie vorgesehen. Wenn die Messlatte für den Einsatz so niedrig liegt, ist es vielleicht an der Zeit, dass die Aufsichtsbehörden sie höher legen.


Source: The Next Web by thenextweb.com.

*The article has been translated based on the content of The Next Web by thenextweb.com. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!