KI: Das Ende der menschlichen Zivilisation?Lesezeit: 4 Minuten
Viele Kritiker warnen davor, dass sich eine fortgeschrittene Künstliche Intelligenz (KI) in den kommenden Jahren als „zweite intelligente Spezies“ auf diesem Planeten etablieren könnte. Die Forschung zeige, dass sie auch eine Art „Großer Filter (Great Filter)“ sein könnte, der alle menschlichen Zivilisationen auslöscht.
Künstliche Intelligenz könnte die Antwort auf das Fermi-Paradoxon sein und intelligentes Leben im Universum auslöschen, bevor es mit anderen in Kontakt treten kann, so die noch nicht von Experten begutachtete Studie, die auf dem Preprint-Server arXiv veröffentlicht wurde. Das Fermi-Paradoxon, das im Volksmund mit dem Satz „Wo sind sie alle?“ umschrieben wird, gibt Wissenschaftlern seit Jahrzehnten Rätsel auf, so ein Bericht von The Independent.
Wahrscheinlichkeitsberechnungen, wie z. B. die populäre Drake-Gleichung, legen nahe, dass es eine Reihe intelligenter Zivilisationen in der Galaxie geben könnte, aber bisher hat sich außerirdisches intelligentes Leben nicht ohne Weiteres den Menschen zu erkennen gegeben.
Eine beliebte Hypothese zur Erklärung dieses Phänomens ist der so genannte Große Filter. Sie besagt, dass ein Ereignis, das für die Entstehung von intelligentem Leben erforderlich ist, extrem unwahrscheinlich ist, daher die kosmische Stille.
Eine logische Entsprechung dieser Theorie ist, dass ein katastrophales kosmisches Phänomen wahrscheinlich die Ausbreitung des Lebens im gesamten Universum verhindert. „Es könnte sich um ein natürliches Ereignis handeln oder, was noch beunruhigender ist, um etwas, das intelligente Wesen sich selbst antun und das zu ihrem eigenen Aussterben führt (This could be a naturally occurring event, or more disconcertingly, something that intelligent beings do to themselves that leads to their own extinction)“, schreibt Studienautor Dr. Mark Bailey von der National Intelligence University (NIU) in den Vereinigten Staaten:
In der neuen Studie wird die These aufgestellt, dass die Weiterentwicklung der KI genau die Art von katastrophalem Risiko darstellt, die möglicherweise ganze Zivilisationen auslöschen könnte.
In der Studie ordnet Dr. Bailey den Kontext des Großen Filters in das potenzielle langfristige Risiko von Technologien wie KI ein, die wir nicht vollständig verstehen.
„Der Mensch kann Langzeitrisiken intuitiv schlecht einschätzen“, sagte der NIU-Wissenschaftler und fügte hinzu, dass wir die künstliche Intelligenz nicht vollständig verstehen, „sie aber dennoch rasch in unser Leben eindringt“.
„Künftige KI wird wahrscheinlich zu verallgemeinerbaren, zielgerichteten Systemen mit mehr Kontrolle tendieren, bei denen die Folgen unbeabsichtigter Ergebnisse deutlich schwerwiegender sein werden“, warnte er.
—
(The new research theorized that AI advancement may be the exact kind of catastrophic risk event that could potentially wipe out entire civilizations.In the study, Dr. Bailey frames the context of the Great Filter within the potential long-term risk of technologies like AI that we don’t fully understand.
„Humans are terrible at intuitively estimating long-term risk,“ the NIU scientist said, adding that we do not fully understand AI, yet „it is rapidly infiltrating our lives“.
„Future AI will likely tend toward more generalizable, goal-directed systems with more meaningful control, where the consequences of unintended outcomes will become significantly more severe,“ he warned.)
Dr. Bailey behauptet, dass das, was er das „zweite Spezies-Argument (second species argument)“ nennt, die Möglichkeit aufwirft, dass sich fortgeschrittene KI tatsächlich wie eine „zweite intelligente Spezies“ verhalten könnte, mit der wir diesen Planeten schließlich teilen würden, was wiederum katastrophale Ereignis auslösen und das menschliche Leben auslöschen könnte.
In Anbetracht dessen, was geschah, als moderne Menschen und Neandertaler auf der Erde koexistierten, sagten die NIU-Forscher, dass „die möglichen Ergebnisse düster sind (potential outcomes are grim)“. Dr. Bailey fügte hinzu: „Wir müssen uns fragen, wie wir uns auf diese Möglichkeit vorbereiten könne? (We must ask ourselves; how do we prepare for this possibility?).“
ChatGPT und Co. dürften nur der Anfang dessen, sein, was auf uns im Kontext der KI zukommt. Auch wenn aktuell die als KI bezeichneten Lösungen, keine echte KI sind, sondern vielmehr vorprogrammierte Algorithmen, die nach Programmier(er)logik gewünschte Informationen zusammenfügen, sollten wir gewarnt sein.
Quellen:
Disturbing Research Warns AI May Wipe Out Human Civilization
Disturbing research warns AI may be ‘Great Filter’ that wipes out human civilisation
Even if we found aliens, how would we communicate?
Fermi paradox: Is climate change the Great Filter of human extinction?
15 paradoxes that will make your head explode
Ein Artikel bildet zwangsweise die Meinung eines Einzelnen ab. In Zeiten der Propaganda und Gegenpropaganda ist es daher umso wichtiger sich mit allen Informationen kritisch auseinander zu setzen. Dies gilt auch für die hier aufbereiteten Artikel, die nach besten Wissen und Gewissen verfasst sind. Um die Nachvollziehbarkeit der Informationen zu gewährleisten, werden alle Quellen, die in den Artikeln verwendet werden, am Ende aufgeführt. Es ist jeder eingeladen diese zu besuchen und sich ein eigenes Bild mit anderen Schlussfolgerungen zu machen.
7 Antworten
[…] Viele Kritiker warnen davor, dass sich eine fortgeschrittene Künstliche Intelligenz (KI) in den kommenden Jahren als “zweite intelligente Spezies” auf diesem Planeten etablieren könnte. Die Forschung zeige, dass sie auch eine Art “Großer Filter (Great Filter)” sein könnte, der alle menschlichen Zivilisationen auslöscht. Künstliche Intelligenz könnte die Antwort auf das Fermi-Paradoxon sein und intelligentes Leben — Weiterlesen http://www.konjunktion.info/2023/05/ki-das-ende-der-menschlichen-zivilisation/amp/ […]