Was ist die Einzigartigkeit der künstlichen Intelligenz (KI) und ist sie real?

Da die künstliche Intelligenz immer weiter voranschreitet, ist das Thema der Singularität wichtiger denn je. Aber was genau ist die Singularität, wann wird sie erwartet und welche Risiken birgt sie für die Menschheit?

Was ist die Einzigartigkeit der künstlichen Intelligenz (KI) und ist sie real? -%Kategorien

Was ist die Idee der Einzigartigkeit künstlicher Intelligenz?

Science-Fiction-Filme spielen seit Jahrzehnten mit der Idee der Singularität und der künstlichen Superintelligenz, weil es ein sehr attraktives Thema ist. Aber bevor wir uns mit den Details der Singularität befassen, ist es wichtig zu wissen, dass es sich derzeit um ein völlig theoretisches Konzept handelt. Ja, KI verbessert sich ständig, aber Singularität ist ein schwer fassbares Kaliber für KI und wird möglicherweise nie erreicht.

Dies liegt daran, dass sich die KI-Singularität auf den Punkt bezieht, an dem die KI-Intelligenz die menschliche Intelligenz übertrifft. Nach dem Artikel Oxford AcademyDies bedeutet, dass Computer „schlau genug sind, sich selbst zu imitieren, um uns zahlenmäßig zu übertreffen, und sich selbst zu verbessern, um uns zu übertreffen.“

Und wie Sagte Vernor Feng, die Schaffung von „Superintelligenz“ und dem „Mensch-Maschine-Äquivalent“ wird höchstwahrscheinlich dazu führen, dass die Singularität Realität wird. Der Begriff „KI-Singularität“ deckt aber auch eine andere Möglichkeit ab: den Punkt, an dem Computer intelligenter werden und sich weiterentwickeln könnten, ohne dass menschliches Zutun erforderlich ist. Kurz gesagt, die KI-Technologie wird außerhalb unserer Kontrolle liegen.

Während die KI-Singularität als etwas in Umlauf gebracht wurde, das Maschinen übermenschliche Intelligenz verleihen wird, gibt es auch andere Möglichkeiten. Es besteht weiterhin Bedarf, mit Maschinen ein Maß an außergewöhnlicher Intelligenz zu erreichen, aber diese Intelligenz muss nicht unbedingt eine Nachahmung des menschlichen Denkens sein. Tatsächlich könnte die Singularität durch eine superintelligente Maschine oder eine Gruppe von Maschinen verursacht werden, die auf eine Weise denkt und handelt, die wir noch nie zuvor gesehen haben. Bis die Singularität eintritt, ist es nicht möglich, die genaue Form dieser intelligenten Systeme zu kennen.

Da die Netzwerktechnologie für die Funktionsweise der modernen Welt von unschätzbarem Wert ist, kann die Erreichung der Singularität darauf folgen, dass superintelligente Computer ohne menschliche Unterstützung miteinander kommunizieren. Der Begriff „technologische Singularität“ weist viele Überschneidungen mit dem spezielleren Begriff „KI-Singularität“ auf, da beide überlegene künstliche Intelligenz und das unkontrollierbare Wachstum intelligenter Maschinen umfassen. Die technologische Singularität ist ein Überbegriff für das letztendliche, unkontrollierbare Wachstum von Computern und erfordert tendenziell auch den Einsatz hochintelligenter künstlicher Intelligenz.

Der Hauptteil dessen, was die KI-Singularität mit sich bringen wird, ist der exponentielle und unkontrollierbare Anstieg des technologischen Wachstums. Sobald die Technologie intelligent genug ist, um selbstständig zu lernen und sich weiterzuentwickeln, und die Singularität erreicht, werden Fortschritt und Expansion schnell erreicht, und der Mensch wird dieses steile Wachstum nicht mehr kontrollieren können.

Lesen Sie auch:  Haben Sie genug von den sozialen Medien? Aus diesem Grund sollten Sie dem Forum beitreten

In einem Artikel Tech-Ziel, Dieses andere Element der Singularität wurde als der Punkt beschrieben, an dem „das Wachstum der Technologie unkontrollierbar und irreversibel wird“. Hier spielen also zwei Faktoren eine Rolle: superintelligente Technologie und ihr unkontrolliertes Wachstum.

Wann ist Exklusivität zu erwarten?

Die Entwicklung eines Computersystems, das die Fähigkeiten des menschlichen Geistes erfüllen und sogar übertreffen kann, erfordert mehrere große wissenschaftliche und technische Sprünge, bevor es Wirklichkeit werden kann. Tools wie der Chatbot chatGPT und der DALL-E-Bildgenerator sind beeindruckend, aber ich glaube nicht, dass sie annähernd intelligent genug sind, um den Exklusivitätsstatus zu erlangen. Dinge wie Bewusstsein, das Verstehen von Nuancen und Zusammenhängen, das Wissen, ob das Gesagte wahr ist, und die Interpretation von Emotionen liegen außerhalb der Fähigkeiten aktueller KI-Systeme. Aus diesem Grund gelten diese KI-Tools nicht als intelligent, weder in Form einer menschlichen noch einer nichtmenschlichen Simulation.

Während einige Experten davon ausgehen, dass sogar aktuelle KI-Modelle wie Googles LaMDA bewusst sein könnten, gibt es zu diesem Thema viele widersprüchliche Meinungen. Einer der Ingenieure von LaMDA wurde sogar beurlaubt, weil er behauptete, dass LaMDA bei Bewusstsein sein könnte. Der fragliche Ingenieur, Blake Lemoine, erklärte in X-Beitrag Dass seine Ansichten über das Bewusstsein auf seinen religiösen Überzeugungen beruhten.

Was ist die Einzigartigkeit der künstlichen Intelligenz (KI) und ist sie real? -%Kategorien

LaMDA wurde noch nicht offiziell als bewusst beschrieben, und das gilt auch für jedes andere KI-System.

Niemand kann die Zukunft sehen, daher gibt es viele verschiedene Vorhersagen bezüglich der Singularität. Tatsächlich glauben einige, dass die Singularität niemals erreicht werden wird. Lassen Sie uns auf diese verschiedenen Perspektiven eingehen.

Eine beliebte Vorhersage über die Singularität stammt von Ray Kurzweil, technischer Direktor bei Google. In Kurzweils Buch The Singularity is Near: When Humans Transcend Biology aus dem Jahr 2005 sagte er voraus, dass bis 2029 Maschinen entstehen würden, die die menschliche Intelligenz übertreffen. Darüber hinaus glaubt Kurzweil, dass Menschen und Computer bis 2045 verschmelzen werden, was seiner Meinung nach auch Kurzweil entstehen wird bis 2029. Singularitätsbildung.

Eine weitere ähnliche Vorhersage wurde von Ben Goertzel, CEO von, gemacht SingularityNET. Goertzel prognostizierte in einem Interview mit Website im Jahr 2023 entschlüsseln Er erwartet, dass die Singularität in weniger als einem Jahrzehnt erreicht wird. Masayoshi Son, CEO von Futurist und CEO von SoftBank, glaubt, dass wir die Singularität später erreichen werden, aber Vielleicht bis 2047.

Lesen Sie auch:  Was ist SMS und warum ist SMS so kurz?

Aber andere sind sich nicht so sicher. Tatsächlich glauben einige, dass Einschränkungen der Rechenleistung ein wesentlicher Faktor sind, der uns daran hindert, die Singularität zu erreichen. Jeff Hawkins erklärte: Er ist Mitbegründer des neurowissenschaftlichen KI-Projekts Numenta und glaubt, dass „letztendlich Grenzen dafür bestehen, wie große und schnelle Computer laufen können“. Darüber hinaus sagt Hawkins:

Wir werden Maschinen bauen, die „intelligenter“ sind als Menschen, und das mag schnell gehen, aber es wird keine Singularität geben und es wird kein rasantes Wachstum der Intelligenz geben.

Andere glauben, dass die schiere Komplexität der menschlichen Intelligenz hier ein großes Hindernis darstellen wird. Der Experte für Computermodellierung glaubt Douglas Hofstadter „Leben und Intelligenz sind viel komplexer, als die heutigen Singularisten denken, daher bezweifle ich, dass das in den nächsten zwei Jahrhunderten passieren wird.“

Warum machen sich Menschen Sorgen um Exklusivität?

Der Mensch lebt als (wir glauben) die intelligenteste Spezies, die es seit Hunderttausenden von Jahren gibt, bequem. Daher bereitet uns die Idee der Supercomputational Intelligence natürlich ein wenig Unbehagen. Doch was sind hier die Hauptanliegen?

Die größte potenzielle Bedrohung für die Singularität ist der Verlust der Kontrolle der Menschheit über superintelligente Technologie. Derzeit werden KI-Systeme von ihren Entwicklern gesteuert. ChatGPT kann beispielsweise nicht einfach entscheiden, dass es Mehr wissen möchte, oder anfangen, Benutzern verbotene Inhalte bereitzustellen. Seine Funktionalität wird von OpenAI, dem Ersteller des Chatbots, bestimmt, da ChatGPT nicht in der Lage ist, über Regelverstöße nachzudenken. ChatGPT kann Entscheidungen treffen, aber nur auf der Grundlage der angegebenen Parameter und Trainingsdaten und nicht mehr. Ja, ein Chatbot kann KI-Halluzinationen erleben und unbeabsichtigt lügen, aber das ist nicht dasselbe wie die Entscheidung zu lügen.

Was aber, wenn ChatGPT so intelligent wird, dass es selbstständig denken kann?

Wenn ChatGPT intelligent genug wird, seine Parameter zu ignorieren, kann es auf Eingabeaufforderungen in jeder gewünschten Weise reagieren. Natürlich müsste viel menschliche Arbeit geleistet werden, um ChatGPT auf dieses Niveau zu bringen, aber wenn das passieren würde, wäre es sehr gefährlich. Mit einem riesigen Speicher an Trainingsdaten, der Fähigkeit, Code zu schreiben und Zugriff auf das Internet zu haben, kann das superintelligente ChatGPT schnell außer Kontrolle geraten.

Lesen Sie auch:  Die 5 besten USB-C-Ladegeräte mit mehreren Anschlüssen, die Sie kaufen können

Während ChatGPT möglicherweise nie Superintelligenz erreichen wird, gibt es viele andere KI-Systeme, die dies können, von denen einige möglicherweise noch nicht einmal existieren. Diese Systeme können eine Reihe von Problemen verursachen, wenn sie die menschliche Intelligenz übersteigen, darunter:

  • Funktionelle Verschiebung.
  • KI-gestützter Konflikt.
  • Umweltschäden.
  • Verbindung mehrerer hochintelligenter Systeme.
  • Wirtschaftliche Destabilisierung.

Laut Jack Kelly, der für das Magazin schreibt ... ForbesKI verdrängt bereits Arbeitsplätze. Im Artikel wird es besprochen Stellenabbau bei IBM Und Chegg, eine globale Wirtschaftsstudie zur Zukunft des Arbeitsmarktes mit künstlicher Intelligenz, ist ebenfalls dabei. In diesem Bericht wird erwartet, dass 25 % der Arbeitsplätze in den nächsten fünf Jahren negativ beeinflusst werden. In derselben Studie wurde festgestellt, dass 75 % der globalen Unternehmen versuchen, Technologien der künstlichen Intelligenz auf irgendeine Weise einzuführen. Da ein so großer Anteil der globalen Industrie auf KI-Technologie angewiesen ist, könnte sich die Arbeitsplatzverlagerung aufgrund von KI weiter verschlimmern.

Auch die fortgesetzte Einführung von KI-Systemen stellt eine Bedrohung für unseren Planeten dar. Der Betrieb eines hochintelligenten Computers, beispielsweise eines generativen KI-Geräts, erfordert große Ressourcenmengen. In Eine Studie der Cornell University, Es wird geschätzt, dass das Training eines einzelnen großen Sprachmodells etwa 300000 kg Kohlendioxidemissionen entspricht. Wenn hochentwickelte künstliche Intelligenz zu einem wesentlichen Bestandteil der menschlichen Zivilisation wird, könnte unsere Umwelt stark leiden.

Die Auslösung von Konflikten durch superintelligente KI-Maschinen kann ebenfalls eine Bedrohung darstellen, ebenso wie die Auswirkungen von Maschinen, die über die menschliche Intelligenz hinausgehen, auf die Weltwirtschaft. Es ist jedoch wichtig, sich daran zu erinnern, dass jeder dieser Indikatoren davon abhängt, die Singularität der künstlichen Intelligenz zu erreichen, und es ist nicht abzusehen, ob dies geschehen wird oder nicht.

Die Singularität kann immer eine Science-Fiction-Idee sein

Während anhaltende Fortschritte in der künstlichen Intelligenz darauf hindeuten könnten, dass wir auf eine KI-Singularität zusteuern, weiß niemand, ob dieser technologische Durchbruch realistisch ist oder nicht. Auch wenn es nicht unmöglich ist, Singularität zu erreichen, ist es erwähnenswert, dass wir noch viele Schritte unternehmen müssen, bevor wir uns dieser Singularität annähern können. Machen Sie sich jetzt also keine Sorgen über Exklusivitätsdrohungen. Am Ende kommt es vielleicht nie an!

Sie können auch mögen