
Ars Technica
Am Montag veranstaltete Ars Technica unsere virtuelle Konferenz Ars Frontiers. In unserem fünften Panel befassten wir uns mit „Der Blitzeinbruch der KI – Was änderte sich plötzlich?“ Auf der Podiumsdiskussion gab es ein Gespräch mit Paige Baileyleitender Produktmanager für generative Modelle bei Google DeepMind und Haiyan ZhangGeneral Manager von Gaming AI bei Xbox, moderiert vom KI-Reporter von Ars Technica, Benj Edwards.
Die Podiumsdiskussion wurde ursprünglich live gestreamt, jetzt können Sie sich eine Aufzeichnung der gesamten Veranstaltung auf YouTube ansehen. Die Einführung zum Teil „Lightning AI“. beginnt bei 2:26:05 in der Sendung.
Ars Frontiers 2023 Livestream-Aufzeichnung.
Da „KI“ ein unklarer Begriff ist, der in unterschiedlichen Kontexten unterschiedliche Bedeutungen hat, begannen wir die Diskussion mit der Betrachtung der Definition von KI und ihrer Bedeutung für die Diskussionsteilnehmer. Bailey sagte: „Ich stelle mir gerne vor, dass KI dabei hilft, Muster aus Daten abzuleiten und diese zur Vorhersage von Erkenntnissen zu nutzen … Es geht dabei um nichts anderes, als nur Erkenntnisse aus Daten abzuleiten und sie zu nutzen, um Vorhersagen zu treffen und noch nützlichere Informationen zu gewinnen.“
Zhang stimmte zu, aber aus Sicht eines Videospiels sieht sie KI auch als eine sich entwickelnde kreative Kraft. Für sie geht es bei KI nicht nur um die Analyse, Musterfindung und Klassifizierung von Daten; Darüber hinaus werden Fähigkeiten in den Bereichen kreative Sprache, Bilderzeugung und Codierung entwickelt. Zhang glaubt, dass diese transformative Kraft der KI den menschlichen Erfindungsreichtum steigern und inspirieren kann, insbesondere bei Videospielen, die sie als „den ultimativen Ausdruck menschlicher Kreativität“ betrachtet.
Als nächstes beschäftigten wir uns mit der Hauptfrage des Panels: Was hat sich verändert, das zu dieser neuen Ära der KI geführt hat? Ist das alles nur ein Hype, vielleicht aufgrund der hohen Sichtbarkeit von ChatGPT, oder gab es einige große technische Durchbrüche, die uns diese neue Welle beschert haben?

Ars Technica
Zhang verwies auf die Entwicklungen bei KI-Techniken und die riesigen Datenmengen, die jetzt für das Training zur Verfügung stehen: „Wir haben Durchbrüche in der Modellarchitektur für Transformatormodelle sowie bei den rekursiven Autoencoder-Modellen und auch bei der Verfügbarkeit großer Datenmengen gesehen.“ um diese Modelle dann zu trainieren und dies drittens mit der Verfügbarkeit von Hardware wie GPUs und MPUs zu verknüpfen, um die Modelle wirklich für die Datenerfassung nutzen zu können und sie in neuen Rechenfähigkeiten trainieren zu können.“
Bailey schloss sich dieser Meinung an und erwähnte insbesondere Open-Source-Beiträge: „Wir haben auch diese lebendige Gemeinschaft von Open-Source-Tüftlern, die Open-Source-Modelle entwickeln, Modelle wie LLaMA, und sie mit sehr hochwertigen Befehlsabstimmungen und RLHF-Datensätzen verfeinern.“ .”
Als Bailey gebeten wurde, die Bedeutung von Open-Source-Kooperationen für die Beschleunigung von KI-Fortschritten näher zu erläutern, erwähnte er die weit verbreitete Verwendung von Open-Source-Trainingsmodellen wie PyTorch, Jax und TensorFlow. Sie bekräftigte auch die Wichtigkeit des Austauschs von Best Practices und erklärte: „Ich glaube auf jeden Fall, dass diese Community für maschinelles Lernen nur existiert, weil Menschen ihre Ideen, ihre Erkenntnisse und ihren Code teilen.“
Auf die Frage nach Googles Plänen für Open-Source-Modelle verwies Bailey auf bereits bestehende Google-Rechercheressourcen auf GitHub und betonten ihre Partnerschaft mit Hugging Face, einer Online-KI-Community. „Ich möchte nichts verraten, was möglicherweise durch die Röhre kommt“, sagte sie.
Generative KI auf Spielekonsolen, KI-Risiken

Ars Technica
Im Rahmen eines Gesprächs über Fortschritte bei der KI-Hardware fragten wir Zhang, wie lange es dauern würde, bis generative KI-Modelle lokal auf Konsolen ausgeführt werden könnten. Sie sagte, sie sei von der Aussicht begeistert und merkte an, dass eine duale Cloud-Client-Konfiguration an erster Stelle stehen könnte: „Ich denke, es wird eine Kombination aus der Arbeit an der KI sein.“ Schlussfolgerungen in der Cloud und in Zusammenarbeit mit lokalen Inferenzen, damit wir die besten Spielererlebnisse zum Leben erwecken können.“
Bailey verwies auf die Fortschritte bei der Verkleinerung des LLaMA-Sprachmodells von Meta für die Ausführung auf mobilen Geräten und deutete an, dass ein ähnlicher Weg die Möglichkeit eröffnen könnte, KI-Modelle auch auf Spielekonsolen auszuführen: „Ich hätte gerne eine hyperpersonalisierte große Sprache.“ Modell, das auf einem Mobilgerät oder auf meiner eigenen Spielekonsole läuft, das kann vielleicht einen Boss hervorbringen, der für mich besonders hart zu besiegen ist, der aber für jemand anderen vielleicht leichter zu schlagen ist.“
Im Anschluss haben wir gefragt, ob ein generatives KI-Modell, das lokal auf einem Smartphone ausgeführt wird, Google aus der Gleichung ausscheidet. „Ich denke, dass es wahrscheinlich Raum für eine Vielzahl von Optionen gibt“, sagte Bailey. „Ich denke, es sollte Möglichkeiten geben, damit all diese Dinge sinnvoll nebeneinander existieren können.“
Bei der Erörterung der sozialen Risiken von KI-Systemen wie Fehlinformationen und Deepfakes erklärten beide Diskussionsteilnehmer, dass sich ihre jeweiligen Unternehmen zu einem verantwortungsvollen und ethischen Einsatz von KI verpflichtet hätten. „Bei Google legen wir großen Wert darauf, sicherzustellen, dass die von uns erstellten Modelle verantwortungsbewusst sind und sich so ethisch wie möglich verhalten. Und wir beziehen unser verantwortungsbewusstes KI-Team vom ersten Tag an ein, wann immer wir Modelle aus der Kuratierung unserer Daten trainieren, um dies sicherzustellen.“ „Es entsteht die richtige Mischung vor dem Training“, erklärte Bailey.
Trotz ihrer früheren Begeisterung für Open-Source- und lokal ausgeführte KI-Modelle erwähnte Baily, dass API-basierte KI-Modelle, die nur in der Cloud ausgeführt werden, insgesamt sicherer sein könnten: „Ich denke, dass ein erhebliches Risiko besteht, dass Modelle in den Händen von Modellen missbraucht werden.“ Menschen, die das Risiko möglicherweise nicht unbedingt verstehen oder sich dessen nicht bewusst sind. Und das ist auch einer der Gründe, warum es manchmal hilft, APIs gegenüber Open-Source-Modellen zu bevorzugen.“
Wie Bailey erörterte Zhang auch Microsofts Unternehmensansatz für verantwortungsvolle KI, erwähnte aber auch spielspezifische ethische Herausforderungen, wie etwa die Sicherstellung, dass KI-Funktionen inklusiv und zugänglich sind.
Source: Ars Technica – All content by arstechnica.com.
*The article has been translated based on the content of Ars Technica – All content by arstechnica.com. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!
*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.
*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!