• Diese Seite verwendet Cookies. Indem du diese Website weiterhin nutzt, erklärst du dich mit der Verwendung von Cookies einverstanden. Erfahre mehr
  • Hallo Comunity wie ihr seht haben wir eine Neue Forum Software. Darum bitte ich euch für euer erstes Login die Passwort vergessen Funktion zu nutzen Hier Klicken Wenn nicht, kannst du dich registrieren und Zugang zu unseren wundervollen Foren erhalten, Themen ansehen, Beiträge schreiben und mehr! Also, wenn du noch kein Benutzer der Noobs Community bist, kannst du dich hier anmelden.

Ein Kollektiv aus Wissenschaftlern ist sich sicher: 2050 könnte das Ende der Menschheit sein

Kammi_

Administrator
Mitarbeiter
Mitglied seit
23 Oktober 2017
Gefällt mir
56
Standort
Knetzgau
#1

© Koca Vehbi/Shutterstock

Laut verschiedener Forschungen zur Zukunft Künstlicher Intelligenzen (KI) könnte die Menschheit schon bald nicht mehr existieren.

Jeff Nesbit, früherer Leiter für Rechts- und Öffentlichkeitsangelegenheiten der National Science Foundation und Autor von mehr als 24 Büchern, hat die neuesten Erkenntnisse und Gedanken zu Künstlichen Intelligenzen untersucht.

Wie „indy100“ berichtet, kam er zu dem Schluss, dass die menschliche Rasse bis 2050 ausgestorben sein könnte — oder dass wir bin dahin unsterblich sind.

Nesbit bezieht sich auf die Theorie einer KSI, einer künstlichen Superintelligenz, die besagt, Künstliche Intelligenzen könnten sich zu einem Supercomputer weiterentwickeln, der so schnell lernt, dass er Menschen überbieten und sämtliche Probleme eigenständig lösen könnte.
<h2>
„Wenn ich einen Tipp abgeben müsste, was die größte Bedrohung unserer Existenz ist, dann ist es vermutlich KI“
</h2>
Auf der einen Seite gibt es die Befürworter der Technologie. Darunter Ray Kurzweil, US-amerikanischer Autor und Erfinder, der eher vor altbekannten und dringenderen Gefahren wie einem Atomkrieg warnt.

Doch viele Wissenschaftler und Forscher stehen der Entwicklung skeptisch gegenüber. Wie Rollo Carpenter, der Entwickler der Cleverbot-Software, die den Turing-Test bestanden hat — während einer Kommunikation ohne Sicht- und Hörkontakt wurde sie für einen Menschen gehalten.

„Wir können nicht genau wissen, was passiert, wenn eine Maschine unsere eigene Intelligenz übertrifft. Also können wir auch nicht wissen, ob sie uns enorm hilfreich sein wird, uns einfach ignorieren und ausgrenzen wird, oder ob sie uns möglicherweise zerstört“, zitiert „indy100“ den Entwickler.

Auch Elon Musk hegt Bedenken. Beim AeroAstro Centennial Symposium am MIT bemerkte er:

„Wenn ich einen Tipp abgeben müsste, was die größte Bedrohung unserer Existenz ist, dann ist es vermutlich KI. Wir müssen also sehr vorsichtig sein. Mit Künstlicher Intelligenz beschwören wir den Teufel. In all den Geschichten, in denen der Kerl mit dem Pentagramm und dem Weihwasser auftaucht und man denkt sich — ja, er denkt, dass er den Teufel kontrollieren kann. Funktioniert nicht.“
„Die Entwicklung vollständiger Künstlicher Intelligenz könnte das Ende der Menschheit bedeuten“
<h2>
„Die Entwicklung vollständiger Künstlicher Intelligenz könnte das Ende der Menschheit bedeuten“
</h2>


© Justin Sullivan / Getty elon musk

In einem offenen Brief äußerten sich Musk und Stephen Hawking vor zwei Jahren zu der Idee, KI könnte die Entwicklung autonomer Waffen ermöglichen und so Kriege revolutionieren — nicht im positiven Sinne.

„Ein Wettrüsten militärischer KI-Waffen ist eine schlechte Idee und sollte mittels eines Verbots von autonomen Waffen, die nicht umfassend von Menschen kontrolliert werden können, untersagt werden.“

Lest auch: „Versicherungsunternehmen ersetzt ein Drittel seiner Mitarbeiter durch Künstliche Intelligenz“

Gegenüber BBC äußerte Hawking: „Die Entwicklung vollständiger Künstlicher Intelligenz könnte das Ende der Menschheit bedeuten.“
Auch er zieht die potenzielle Gefahr von Künstlicher Superintelligenz in Betracht und erklärt, dass KI sich verselbstständigen und eigenmächtig weiterentwickeln könnte. „Menschen, die durch eine langsame biologische Evolution eingeschränkt sind, könnten nicht mithalten und würden überholt.“


© MSN NACHRICHTEN
 
Zuletzt bearbeitet:

Similar threads