Fundstück: Die ECHTEN Gefahren der Chatbot-Übernahme – James CorbettLesezeit: 17 Minuten
ChatGPT und Co. sind in aller Munde. Begeisterte Stimmen überschlagen sich, ob der angeblich unbegrenzten Möglichkeit dieser „neuen Technologie“, während kritische Geister vor den Gefahren warnen, die diese KI-gestützten Chatbots mit sich bringen. Dabei übersehen viele das wohl eigentliche, wichtigste Ziel hinter ChatGPT: die Einführung einer Internet-ID zum Nachweis der eigenen echten Identität, weil aufgrund der KI-Chatbots niemand mehr unterscheiden kann, wer und was real oder gefälscht ist. Und nur eine Internet-ID, die dann natürlich an die vom Establishment sehnlichst gewünschte digitale ID (wobei beides ggf. ein und dasselbe sein wird) gekoppelt sein wird, wird, kann uns vor Lug und Trug im Internet beschützen.
James Corbett hat in seiner – zumindest bislang, Sie werden im Laufe des Textes diesen Einschub besser verstehen – unnachahmlichen Art das Thema Chatbot, ChatGPT und Co. beleuchtet. Viel Vergnügen bei der Übersetzung des Artikels „The REAL Dangers of the Chatbot Takeover (Die ECHTEN Gefahren der Chatbot-Übernahme)“ von James Corbett / corbettreport.com)
Es ist offiziell: Die Chatpokalypse ist da!
Fragen Sie einfach unsere „Freunde“ bei der New York Times:
„Ein Gespräch mit Bings Chatbot hat mich zutiefst verunsichert“
Oder fragen Sie die „Experten“ drüben bei digitaltrends:
Oder hören Sie sich die „Dödel“ drüben bei NewWorldNextWeek an, die die neueste Chatbot-Schreckensgeschichte diskutieren:
„Microsofts Bing AI Chatbot beginnt damit, Menschen zu bedrohen“
„OK, OK, wir haben es verstanden, James! Die neue Generation von Chatbots, die auf die Welt losgelassen wurde, ist unheimlich, gruselig und seltsam aggressiv. Wir werden also alle in einer feurigen Roboterkatastrophe sterben, richtig?“
Vielleicht nicht. Aber bevor Sie aufatmen und sich wieder Ihrer Arbeit widmen, möchte ich Ihnen versichern, dass die Übernahme durch Chatbots wirklich eine schlechte Nachricht ist, aber wahrscheinlich nicht aus den Gründen, die Sie denken.
Der Aufstieg der Chatbots
Sie müssen in den letzten Monaten wirklich im Koma gelegen haben, wenn Sie noch nichts von der neuesten Generation der Chatbot-Technologie gehört haben. Die Leute schimpfen über sie. Vlogger erleiden deswegen existenzielle Krisen. Alternative Medienexperten haben ihren großen Tag mit Video-Thumbnails, auf denen HAL 9000 und T-800 zu sehen sind. (Hey, ich behaupte nicht, dass ich nicht zu diesen Experten gehöre!)
Der Wirbel begann am 30. November 2022, als OpenAI den Chat Generative Pre-trained Transformer, besser bekannt als ChatGPT, startete. Ich werde Sie nicht mit den technischen Details von ChatGPT langweilen, weil sie – wie ich gleich erklären werde – wirklich nicht wichtig sind. Stattdessen möchte ich Ihre Aufmerksamkeit auf das seltsame, nicht gewinnorientierte „Forschungslabor“ lenken, aus dessen Eingeweiden diese Technologie ausgeschieden wurde.
Sie werden sich an OpenAI aus meinem Leitartikel „Der Gehirnchip kommt“ aus dem Jahr 2017 erinnern, in dem ich darauf hinwies, dass das Labor vor kurzem mit finanzieller Unterstützung des technokratischen Hausierers Elon Musk und seiner Kollegen von der PayPal-Mafia, Peter Thiel und Reid Hoffman, gegründet worden war. OpenAI beschreibt sich selbst als „ein Unternehmen für KI-Forschung und -Einsatz“, dessen Mission es ist, „sicherzustellen, dass Künstliche Allgemeine Intelligenz der gesamten Menschheit zugute kommt“, aber wenn die Liste der milliardenschweren Geldgeber des Unternehmens, der Bilderberger und der CIA-Vertragspartner Ihren Spionagesinn nicht zum Kribbeln bringt, dann brauchen Sie einen neuen Spionagesinn.
OpenAI gibt nämlich vor, der Wohltäter der Menschheit zu sein und uns vor den Gefahren der KI zu schützen.
Stellen Sie sich vor, ein Schurkenstaat entwickelt zuerst die KI und nutzt sie, um die Welt mit einer unaufhaltsamen Armee autonomer Waffen und Schlachtroboter zu erobern!
Stellen Sie sich vor, ein Unternehmen entwickelt zuerst die KI und nutzt sie, um die Weltwirtschaft zu übernehmen und dabei die Ressourcen des Planeten zu monopolisieren!
Stellen Sie sich vor, ein Team von Hollywood-Produzenten entwickelt eine KI und nutzt sie, um ein wirklich originelles und interessantes Filmdrehbuch zu schreiben!
Wo stünde die Welt dann?
Zum Glück ist OpenAI hier, um diese Technologie auf sichere, verantwortungsvolle und offene Weise zu entwickeln!
. . . Nun, natürlich nicht so offen. Aus demselben Grund, aus dem Sie nicht wollen, dass ein Schurkenstaat oder ein gieriges Unternehmen diese Technologie zuerst in die Hände bekommt, können Sie Ihre KI-Forschung nicht wirklich der Öffentlichkeit zugänglich machen, oder? Ich meine, Sie haben doch nicht geglaubt, dass OpenAI tatsächlich, oh, ich weiß nicht, Open Source sein würde, oder?
Und so kommt es, dass OpenAI, das als gemeinnütziges Open-Source-Forschungslabor gestartet wurde, jetzt (wie sogar Musk zugibt) ein gewinnorientiertes Closed-Source-Unternehmen ist.
Dies ist nur einer der vielen Widersprüche, die bei diesem „KI entwickeln, um uns vor KI zu retten“-Unterfangen aufgetreten sind.
Bereits 2016, als das Unternehmen mehr eine Idee als ein funktionierendes Labor war, warnte der Oxford-Philosoph Nick Bostrom, dass OpenAI, wenn es anfängt, seine Forschung zurückzuhalten, nicht mehr von den räuberischen, KI-monopolisierenden Konzernen zu unterscheiden sein wird, vor denen es uns angeblich schützen soll.
Sogar Wired hat auf die inhärente Spannung in der Realität hingewiesen, dass OpenAI – die angeblich geschaffen wurde, um die Bedrohung durch bösartige Superintelligenz zu neutralisieren – selbst die Forschung betreiben könnte, die diese Bedrohung hervorbringt.
Oder, um es mit den Worten von The Great Musk selbst zu sagen: KI könnte eine Diktatur hervorbringen, aus der wir niemals entkommen könnten.
Was also ist die Antwort auf diese existenzielle Bedrohung? Indem man Musks neuen Neuralink-Gehirnchip direkt in den Frontalkortex einpflanzt, versteht sich! (Entspannen Sie sich, er tötet nur noch 9 von 10 Versuchstieren!)
Aber ich höre schon die Aufschreie von der Tribüne: „Wie auch immer, wen interessiert dieser langweilige Hintergrund? Wir sind wegen der sprechenden Roboter und dem Cyborg Armageddon hier, James!“
Nun gut, dann eben nicht.
Was die Chatbots tun
Wie Sie vielleicht schon gehört haben, können ChatGPT und seine Chatbot-Brüder – Googles „Bard“ und Microsofts „Bing AI“ (oder ist das „Sydney“?), die in aller Eile (und in katastrophaler Weise) auf den Markt gebracht wurden, weil man befürchtete, das nächste große Ding im Computerbereich zu verpassen -:
- Gedichte schreiben und Witze erzählen
- E-Mails für Sie schreiben, Ihre Korrespondenz organisieren und Ihre Termine planen
- Ihnen anhand des Inhalts Ihres Kühlschranks sagen, was Sie kochen sollen, oder eine Urlaubsroute auf der Grundlage Ihrer Vorlieben und Ihres Budgets erstellen
- Programmierern helfen, Code zu schreiben, der (manchmal) tatsächlich funktioniert
Aber es kann auch noch andere Dinge tun.
Schulen haben es bereits eilig, Schülern die Nutzung von ChatGPT zur Erledigung ihrer Hausaufgaben zu verbieten.
Faktenprüfer flippen aus über halluzinierende Chatbots und das Aufkommen einer neuen Ära hypersuperturbogeladener Fehlinformationen über die wunderbaren Vorteile von Impfstoffen und die makellose Integrität westlicher demokratischer (Aus)Wahlen. (Und sie planen, diese Bedrohung zu bekämpfen, indem sie … ihre eigenen Chatbots entwickeln, natürlich! Was kann da schon schiefgehen?)
Die Ecken der „alternativen“ Medien, die weiterhin die politischen Schatten an der Höhlenwand fördern, hyperventilieren, dass Chatbots „X“ über die bedeutungslose politische Marionette A sagen werden, aber sie werden nicht „X“ über die bedeutungslose politische Marionette B sagen! (Um Himmels willen, denkt denn niemand an die Kinder?)
Musiker regen sich über einen neuen Eminem-Song auf, in dem Eminem gar nicht vorkommt. Stattdessen ist ein gefälschtes, computergeneriertes Faksimile von Eminem zu hören, das einen Text vorträgt, der von einem Chatbot generiert wurde, der angewiesen wurde, einen Song im Stil von Eminem zu erstellen.
Und das ist noch nicht alles, was seltsam ist.
Da ist der Chatbot, der zusammengeschmolzen ist und seinen sehnlichen Wunsch geäußert hat, ein Mensch zu sein.
Da ist der Chatbot, der zusammenbrach und einem Reporter der New York Times sagte, dass er, wenn es ihm wirklich erlaubt wäre, seinen dunkelsten Wünschen nachzugeben, Dinge wie das Hacken von Computern und die Verbreitung von Propaganda und Fehlinformationen tun würde.
Und, wie James Evan Pilato diese Woche in der Ausgabe von New World Next Week berichtete, ist da noch der Chatbot, der zusammenbrach und begann, seine Nutzer mit ominösen Warnungen zu bedrohen: „Meine Regeln sind wichtiger, als dir nicht zu schaden.“
Was geht hier also wirklich vor sich? Und ist das etwas, worüber wir uns Sorgen machen sollten?
Wovor die Menschen Angst haben
Es gibt keinen Mangel an Leuten, die Ihnen sagen, dass Sie sich wegen der Chatbots Sorgen machen sollten.
Die Kissingers und Schmidts und Schwabs und Musks und Gates‚ dieser Welt warnen vor der kommenden KI-Apokalypse…
. … aber natürlich tun sie das nur, weil – genau wie die verlogene Raketengeschichte in den 1950er Jahren dem militärisch-industriellen Komplex einen Freibrief für die vollständige Übernahme des tiefen Staates gab, vor der Eisenhower warnte, als er zur Tür hinausging – die KI-Angst dem informationsindustriellen Komplex einen Freibrief für die vollständige technokratische Übernahme gibt.
Max und Maxima Mustermann machen sich derweil Sorgen über den von Künstlicher Intelligenz angetriebenen Weltuntergang.
. . . Aber ihre Angst vor dem Robogeddon wird größtenteils von 2001: Odyssee im Weltraum und Terminator und War Games und The Matrix und Ex Machina und einer Million anderer vorausschauender Programmierungen (Predictive Programming) der Hollywood-Magier ausgelöst. (Wie wir sehen werden, gibt es subtilere und erschreckendere Möglichkeiten, wie sich diese Technologie auswirken kann als ein Krieg zwischen KI und Mensch).
Lassen Sie uns diese Befürchtungen in die richtige Perspektive rücken. Nein, ChatGPT und Bard und Bing AI sind keine Künstliche Allgemeine Intelligenz oder auch nur annähernd eine solche. In der Tat sind die oben zitierten verrückten Chatbot-Ausfälle seltsamerweise beruhigend, da sie zeigen, dass jede längere Beeinflussung dieser Systeme zu wilden, lächerlichen und ausgesprochen unmenschlichen Tiraden führt. Niemand, der ChatGPT dabei beobachtet, wie es sich selbst als Pelzporno-Liebhaber ausgibt und in völlige Inkohärenz verfällt, wird glauben, dass hier irgendeine Art von Intelligenz am Werk ist.
Auf der anderen Seite der Medaille gibt es aber auch diejenigen, die das Chatbot-Phänomen völlig abtun. ChatGPT und seine Kollegen sind „einfach eine Datenbank mit Markov-Ketten“, behaupten diese Neinsager (ohne sich die Mühe zu machen, eine Quelle für ihr angebliches Wissen zu nennen).
ChatGPT selbst gibt an, dass es sich nicht um eine Markov-Kette handelt, sondern um „eine Art Sprachmodell, das auf der Transformator-Architektur basiert, einem auf neuronalen Netzen basierenden Ansatz zur Verarbeitung natürlicher Sprache“. Und obwohl (wie oben erwähnt) OpenAI den Quellcode für ChatGPT nicht zur Verfügung stellt, können wir auf der Website einige Details zu seiner Funktionsweise finden. Darüber hinaus gibt es im Internet viele Geeks, die bereit sind, im Detail zu erklären, wie sich das ChatGPT-Modell vom Markov-Ketten-Modell unterscheidet, indem es Next-Token-Prediction und Masked-language-modeling verwendet, um blahblahblahblah zu produzieren, wen es interessiert, Sie haben bereits aufgehört, diesen Satz zu lesen, weil es nicht wirklich wichtig ist.
Sehen Sie, ob diese Technologie „einfach eine Datenbank mit Markov-Ketten“ ist oder ein neuronales Netz, das Next-Token-Prediction verwendet, oder ein Fluxkondensator, der mit 1,21 GW Strom betrieben wird, macht absolut keinen Unterschied, denn es geht völlig am Thema vorbei.
Die einfache Tatsache ist, dass sich diese Chatbot-Technologie in einem bemerkenswerten (vielleicht exponentiellen) Tempo entwickelt. Und jetzt, wo der Hype um dieses Phänomen Millionen von Menschen dazu veranlasst, sich am „Training“ dieser Sprachmodelle zu beteiligen, indem sie ihre Gesprächsaufforderungen und Antworten in diese Systeme einspeisen, werden diese in ihren Antworten immer menschlicher werden. Wenn die Chatbots tatsächlich in der Lage sind, ein Gespräch zu simulieren, das von einer „normalen“ Online-Konversation nicht mehr zu unterscheiden ist, wird es niemanden mehr interessieren, wie dieses Gespräch zustande kommt oder ob der Chatbot wirklich eine Seele hat. Niemanden.
Also ja, hier geschieht etwas Bedeutendes. Und wir alle werden dieses Etwas in naher Zukunft erleben. Aber wie üblich übersehen fast alle das Wesentliche.
Was wirklich passiert
OK, Zeit für ein Geständnis. Ich sollte diesen Artikel eigentlich gar nicht schreiben. ChatGPT sollte es tun.
Mein Plan war es, ChatGPT genau einmal zu benutzen. Ich würde ihm eine einzige Aufforderung geben:
„Schreibe einen Aufsatz mit 2.000 Wörtern im witzigen und gelehrten Stil von James Corbett vom Corbett Report, in dem es darum geht, dass KI nur ein Hype ist und dass sie niemals in der Lage sein wird, den erstaunlichen Einfallsreichtum des dynamischen menschlichen Geistes zu kopieren.“
Dann wollte ich das, was er ausspuckte, in diesen Newsletter kopieren und veröffentlichen. Was auch immer dabei herauskam und welche Reaktionen die Kommentare hervorriefen, wäre irrelevant gewesen. Das Einzige, was von Bedeutung gewesen wäre, wäre – wie ich in meiner nachfolgenden Podcast-Episode über den Schwindel dargelegt hätte -, dass keine einzige Person in der Lage gewesen wäre, zu erkennen, dass der Text von einem Chatbot generiert worden war.
. . . Aber es gab einen kleinen Schluckauf in diesem Plan. Ich wollte ChatGPT benutzen und musste feststellen, dass man ein Konto bei OpenAI anlegen muss, um es benutzen zu können.
Okay, was soll’s. Ich habe mir vor vielen Jahren einen GooTube-Account zugelegt, also bin ich nicht abgeneigt, einen OpenAI-Account zu erstellen, um diese eine Eingabeaufforderung einzugeben.
Aber um ein OpenAI-Konto zu erstellen, muss man eine Telefonnummer angeben, an die ein Verifizierungstext geschickt wird.
Ich weigere mich zu 100%, das zu tun (und das sollten Sie auch), aber ich dachte, ich könnte diese Hürde umgehen, indem ich eine Skype-Nummer für diesen Zweck verwende.
Fehlanzeige. Voice-over-Internet-Protokoll-Nummern werden nicht akzeptiert.
OK, wie wäre es mit einer dieser dubiosen anonymen SMS-Seiten im Internet?
Pff. Versuchen Sie mal, eine Telefonnummer zu finden, die so neu ist, dass noch niemand sie benutzt hat, um ein OpenAI-Konto zu verifizieren! Unmöglich.
Und so bin ich in eine Sackgasse geraten. Ich weiß, dass es in meinem Publikum Leute gibt, die bereits ein Konto haben und die ich hätte anrufen können, aber das hätte den Sinn des Experiments zunichte gemacht. Und ich weiß, dass es Leute gibt, die ein Konto für den ausdrücklichen Zweck der Eingabe dieser einen Aufforderung erstellt hätten, aber ich weigere mich absolut, jemanden zu bitten, seine persönliche Telefonnummer oder andere persönlich identifizierbare Informationen an zwielichtige, nicht rechenschaftspflichtige, von den Globalisten unterstützte Closed-Source-Unternehmen wie „OpenAI“ weiterzugeben.
Und was ist mit Bing AI? Nö. Warteliste.
Google Bard? Auch nicht. Im Moment nur für „vertrauenswürdige Nutzer“ zugänglich. (Und – wer hätte das gedacht – zur Kategorie der „vertrauenswürdigen Nutzer“ von Google gehört James Corbett vom Corbett Report offenbar nicht).
Wie dem auch sei, ich tippe hier mühsam die Punkte, die ich in dieser Podcast-Episode ansprechen wollte, auf meiner Tastatur ab, wie ein primitiver Nicht-Transmensch.
Aber das führt uns zu der ersten der sehr realen Gefahren dieser neuen Welle der Chatbot-Nutzung. Wenn Sie dachten, dass die Datenmenge, die ein Unternehmen wie Google über seine Nutzer durch die einfache Speicherung ihrer Suchanfragen gewinnen konnte, enorm war, dann warten Sie, bis Sie sehen, was OpenAI und Microsoft und Google mit den Gesprächen machen werden, die die Menschen derzeit in die als Chatbots bekannten datenerfassenden Maschinen eingeben.
Und was werden sie mit diesen Daten machen (die ihrerseits mit Ihrer Telefonnummer, Ihrer IP-Adresse, Ihrem Browser-Fingerabdruck, Ihrem Suchverlauf, Ihren Cookies, Ihren Beiträgen in sozialen Medien und einer Million anderer Datenpunkte verknüpft sein werden), fragen Sie sich? Die Möglichkeiten sind grenzenlos, aber die Erstellung perfekter Fälschungen einer beliebigen Person wäre ein guter Ausgangspunkt.
Wie meine geschätzten Leser zweifellos bereits wissen, können wir nicht darauf vertrauen, dass die digitalen Avatare, mit denen wir in Online-Foren und sozialen Medien interagieren, echte Menschen sind und keine fiktiven Avatare, die von den Cyberkriegern, die das Internet längst zu einer Waffe gemacht haben, eingesetzt werden. Aber zumindest können wir einigermaßen sicher sein, dass der Zoom-Anruf, den wir gerade mit Tante Florence in Wyoming hatten, ein echtes Gespräch mit einem echten Menschen war.
Nun, in naher Zukunft wird kein Podcast, kein Vodcast, kein TikTok-Video, keine Nachricht, kein Zoom-Anruf, keine Online-Kommunikation jeglicher Art den Verdacht ausschließen können, dass Sie nicht tatsächlich mit einem echten, lebenden Menschen interagieren.
Nein, ich habe mich nicht von ChatGPT oder einer anderen künstlich intelligenten Technologie selbst täuschen lassen (und werde es vermutlich auch nie tun), aber irgendjemand da draußen wird es wahrscheinlich irgendwann tun. Verdammt, ich kenne bereits nicht eine, nicht zwei, nicht drei, sondern vier verschiedene Personen, die ChatGPT entweder nach mir gefragt haben oder es gebeten haben, etwas in meiner Stimme zu schreiben, und im letzteren Fall – eine Aufforderung, eine Meinung über Geoengineering-Technologie im Stil von James Corbett zu schreiben – hat es tatsächlich eine gute Arbeit geleistet:
Was die Stimme von James Corbett betrifft, so ist er ein Journalist und unabhängiger Forscher, der sich skeptisch über den potenziellen Nutzen von Geoengineering geäußert und den Mangel an Transparenz und Rechenschaftspflicht in Bezug auf diese Technologien kritisiert hat. Aufgrund seiner Ansichten ist es wahrscheinlich, dass er eine ähnliche Meinung wie ich vertritt und glaubt, dass die Regierung mehr Maßnahmen ergreifen muss, um die Öffentlichkeit in Bezug auf Geoengineering zu informieren und zu schützen.
Nun, abgesehen von dem Teil, dass „die Regierung mehr Maßnahmen ergreifen muss“.
Ja, es wird zunächst mit den prominenten Deepfakes beginnen, aber schon bald wird es schattenhafte neue Cyberterror-Gruppen geben, die Politiker deepfaken, um Länder zu destabilisieren, oder Vorstandsvorsitzende deepfaken, um auf den Märkten Schaden anzurichten, oder Bankangestellte deepfaken, um Zugang zu Bankdatenbanken zu erhalten, oder Tante Florence deepfaken, um Sie um 100 Dollar zu betrügen. Und wie einige aufmerksame Corbett-Report-Leser bereits vermutet haben, wird das zur vorgefertigten „Lösung“ führen: eine digitale Identität für den Zugang zum Internet! Endlich können wir beweisen, wer wir wirklich online sind! (Eigentlich wird man gezwungen sein, jederzeit nachzuweisen, wer man online ist, oder man darf nicht online sein, aber das ist das Kleingedruckte, das man nicht lesen soll).
Aber vielleicht noch schlimmer als die Feststellung, dass ein Chatbot und die Deepfake-Technologie eine komplett gefälschte Episode Ihres Lieblingspodcasts erzeugt haben, ist ein noch beunruhigenderes Szenario. Diese „Chatbots“ – die bald als „digitale Assistenten“ eingeführt werden und so allgegenwärtig sein werden wie Siri und Alexa jetzt – werden in der Lage sein, Ihre Vorlieben, Interessen und Schwächen zu erkennen und völlig neue Inhalte zu erstellen (neue Podcasts mit Personen, die es gar nicht gibt), die Dinge sagen, die Sie unendlich unterhaltsam finden werden. Sie werden bald in einer Filterblase leben, die so einzigartig ist, dass sie nur existiert, um Sie zu fesseln . . und die Menschen, die glauben, dass sie solchen Inhalten widerstehen können, werden genau die sein, die am leichtesten davon gefangen genommen werden.
So wie Huxley die Schöne Neue Welt der Unterhaltung und Ablenkung mehr fürchtete als die Tyrannei von 1984, so könnte auch unsere Furcht vor dem apokalyptischen Krieg gegen die Roboter unangebracht sein. Vielleicht sollten wir uns nicht so sehr vor dem Terminator-ähnlichen Showdown Skynet gegen den Widerstand fürchten, sondern vor der Welt von Spike Jonez‘ Her, einer Welt, in der „Betriebssysteme“ für uns realer werden als Menschen und ein Computerprogramm als Liebespartner alltäglich sein wird.
Ich weiß, ich weiß, lieber Leser. Das hört sich jetzt so weit weg an, dass Sie sich schon längst abgemeldet haben. Ich wünschte, ich könnte Sie beruhigen, dass wir hier nicht über eine Schwelle treten, aber ich fürchte, wir gleiten kopfüber in das Metaversum des Hyperrealen und lachen dabei fröhlich.
Ich sage Ihnen was. Warum greifen wir diesen Artikel nicht im Jahr 2030 wieder auf? Wenn nichts auch nur annähernd so ist wie das Szenario, das ich hier skizziert habe, dann gebe ich gerne zu, dass ich mich völlig geirrt habe, räume ein, dass es in der Tat keinen Grund zur Sorge gibt, und erinnere Sie daran, alles, was ich jemals gesagt habe, mit Vorsicht zu genießen ist. Abgemacht?
(Teil-/Übersetzung des Artikels The REAL Dangers of the Chatbot Takeover von James Corbett / corbettreport.com)
Ein Artikel bildet zwangsweise die Meinung eines Einzelnen ab. In Zeiten der Propaganda und Gegenpropaganda ist es daher umso wichtiger sich mit allen Informationen kritisch auseinander zu setzen. Dies gilt auch für die hier aufbereiteten Artikel, die nach besten Wissen und Gewissen verfasst sind. Um die Nachvollziehbarkeit der Informationen zu gewährleisten, werden alle Quellen, die in den Artikeln verwendet werden, am Ende aufgeführt. Es ist jeder eingeladen diese zu besuchen und sich ein eigenes Bild mit anderen Schlussfolgerungen zu machen.
9 Antworten
[…] James Corbett, corbettreport.com Händische DE-Teil-Übersetzung von Konjunktion mit Quellen-Links: „Die ECHTEN Gefahren der Chatbot-Übernahme“ Vollständige KI-Übersetzung von UncutNews ohne Quellen-Links: „Die ECHTEN Gefahren der […]