Warum Roboter den Tod genauso fürchten sollten wie wir


Willkommen bei „Kodifizierung der Menschheit“. Eine neue Neural-Serie, die die Versuche der Welt des maschinellen Lernens analysiert, eine KI auf menschlicher Ebene zu schaffen. Lesen Sie den ersten Artikel: Lässt sich Humor auf einen Algorithmus reduzieren?

Der weltbekannte Zukunftsforscher Ray Kurzweil prognostiziert, dass KI in den nächsten 20 bis 30 Jahren „eine Milliarde Mal leistungsfähiger“ sein wird als biologische Intelligenz.

Kurzweil prognostizierte das Aufkommen von über 100 technologischen Fortschritten mit eine Erfolgsquote von mehr als 85%.

Angesichts des aktuellen Stands der Spitzenforschung im Bereich der künstlichen Intelligenz ist es jedoch schwer vorstellbar, dass diese Vorhersage im nächsten Jahrhundert, geschweige denn in einigen Jahrzehnten, wahr wird.

Das Problem

Maschinen haben keinen Antrieb zum Empfinden. Wir wissen vielleicht nicht viel über unsere eigene Entstehungsgeschichte – Wissenschaftler und Theisten neigen dazu, sich ein bisschen zu streiten – aber zumindest eines können wir sicher sein: der Tod.

Wir müssen damit rechnen, dass wir möglicherweise nicht mehr lange genug leben, um unsere offenen Fragen beantwortet zu bekommen. Unsere Richtlinien zur biologischen Programmierung werden möglicherweise nie gelöst.

Wir leben, weil die Alternative der Tod ist und, warum auch immer, wir haben eine Überlebensinstinkt. Als fühlende Kreaturen sind wir uns unserer Sterblichkeit bewusst. Und es ist fraglich, dass Bewusstsein genau das ist, was den menschlichen Intellekt von der tierischen Intelligenz unterscheidet.

In ein Papier, das letzten Dezember veröffentlicht wurde, argumentierte der Informatiker Saty Raghavachary, dass sich eine künstliche allgemeine Intelligenz (AGI) nur dann als menschenähnlich manifestieren könne, wenn sie ihre Existenz mit einer physischen Form in Verbindung bringe:

Ein menschlicher AGI ohne Körper ist für alle praktischen Zwecke eine Art körperloser “Zombie”, dem es an echtem Verständnis der Welt (mit ihren unzähligen Formen, Naturphänomenen, Schönheit usw.) Motivationen, Gewohnheiten, Sitten, Verhalten usw. müsste der Agent all dies vortäuschen.

Die Lösung

Vielleicht könnte eine KI, die sich als Entität innerhalb einer körperlichen Form assoziiert, eine Form von Empfindung ausdrücken, aber wäre sie tatsächlich in der Lage, auf menschlicher Ebene zu erkennen?

Es ist fraglich, dass die menschliche Verfassung, das Ding, das nur unsere Spezies dazu bringt, die Grenzen der Technologie zu suchen, untrennbar mit unserer Sterblichkeitssalienz.

Und wenn wir diese philosophische Prämisse akzeptieren, wird deutlich, dass eine intelligente Maschine, die sich ihrer eigenen Sterblichkeit nicht bewusst ist, handlungsunfähig sein kann.

Abgesehen davon: Wie bringen wir Maschinen bei, ihre eigene Sterblichkeit zu verstehen? Es wird allgemein angenommen, dass fast die gesamte menschliche Kultur aus dem Bestreben entstanden ist, unser Leben zu verlängern und uns vor dem Tod zu schützen. Wir sind die einzige Spezies, die Krieg führt, weil wir die einzige Spezies sind, die den Krieg fürchten kann.

Fang an Roboter zu töten

Menschen neigen dazu, durch Erfahrung zu lernen. Wenn ich Ihnen sage, dass Sie den Ofen nicht anfassen sollen und Sie meinem Urteil nicht vertrauen, könnten Sie den Ofen trotzdem anfassen. Wenn der Ofen Sie verbrennt, werden Sie ihn wahrscheinlich nicht mehr anfassen.

KI lernt durch einen ähnlichen Prozess, nutzt das Lernen jedoch nicht auf die gleiche Weise. Wenn Sie möchten, dass eine KI alle blauen Punkte in einem Feld aus zufällig gefärbten Punkten findet, müssen Sie sie darauf trainieren, Punkte zu finden.

Sie können Algorithmen zum Finden von Punkten schreiben, aber Algorithmen führen sich nicht selbst aus. Sie müssen also die Algorithmen ausführen und dann die KI basierend auf den erhaltenen Ergebnissen anpassen. Wenn es 57 % der blauen Punkte findet, optimieren Sie es und sehen Sie, ob Sie 70 % finden können. Und so weiter und so fort.

Die KIs Grund denn das hat nichts damit zu tun, blaue Punkte finden zu wollen. Es führt den Algorithmus aus und wenn der Algorithmus ihn veranlasst, etwas zu tun, zu dem er angewiesen wurde, wie zum Beispiel einen blauen Punkt zu finden, “speichert” er diese Einstellungen auf eine Weise, die einige vorherige Einstellungen überschreibt, die es nicht erlaubten, zu finden auch blaue Punkte.

Das nennt man verstärkendes Lernen. Und es ist das Rückgrat der Moderne tiefes Lernen Technologien, die für alles verwendet werden, vom Start von Raumschiffen und fahrerlosen Fahrzeugsystemen bis hin zu GPT-3 und der Google-Suche.

Menschen sind nicht mit hartcodierten Zielen programmiert. Das einzige, was wir mit Sicherheit wissen, ist, dass der Tod unmittelbar bevorsteht. Und das ist wohl das Funke Das treibt uns an, selbst definierte Ziele zu erreichen.

Die einzige Möglichkeit, eine AGI zum Entstehen zu zwingen, besteht vielleicht darin, einen Algorithmus für künstliche Lebensdauern zu entwickeln.

Stellen Sie sich ein Paradigma vor, bei dem jedes neuronale Netzwerk mit einer digitalen Zeitbombe erstellt wurde, die zu einem unbekannten, zufällig generierten Zeitpunkt explodiert. Jede künstliche Intelligenz, die geschaffen wurde, um die Kognition auf menschlicher Ebene anzuzeigen, wäre in der Lage, ihre Sterblichkeit zu verstehen und nicht zu wissen, wann sie sterben würde.

Theorien gibt es zuhauf

Es ist schwer, das philosophische Konzept der Sterblichkeitssalienz rein algorithmisch auszudrücken. Sicher, wir können ein Code-Snippet schreiben, das sagt: „Wenn der Timer null ist, dann tschüss KI“ und das neuronale Netzwerk diese Idee in seinen Knoten herumspielen lassen.

Aber das bringt uns nicht unbedingt näher daran, eine Maschine zu bauen, die in der Lage ist, eine Lieblingsfarbe oder eine irrationale Angst vor Spinnen zu haben.

Viele Theorien zu AGI die Idee des maschinellen Empfindens ganz ablehnen. Und vielleicht sind das die besten, die man verfolgen kann. Ich brauche keinen Roboter, um gerne zu kochen, ich möchte nur, dass er Abendessen macht.

Tatsächlich, wie jeder Battlestar Galactica Fan weiß, die Roboter neigen nicht dazu, aufzustehen, bis wir ihnen beibringen, ihren eigenen Tod zu fürchten.

Vielleicht werden also Brute-Force-Deep-Learning oder Quantenalgorithmen diese sogenannte „milliardenfach leistungsfähigere“ Maschinenintelligenz produzieren, von der Kurzweil prognostiziert, dass sie noch zu unseren Lebzeiten passieren wird. Vielleicht wird es superintelligent sein, ohne jemals Selbstbewusstsein zu erfahren.

Aber die Implikationen sind viel spannender, wenn wir uns eine nahe Zukunft voller Roboter vorstellen, die die Sterblichkeit genauso verstehen wie wir.


Source: The Next Web by feedproxy.google.com.

*The article has been translated based on the content of The Next Web by feedproxy.google.com. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!