ChatGPT als Hegemonieverstärker – ein politisches Desaster
„Eine Gesellschaft mit unechten Menschen, die wir nicht von echten unterscheiden können, wird bald gar keine Gesellschaft mehr sein.” (Emely Bender, Computerlinguistin) Die Künstliche Intelligenz erlebt aktuell ihren iPhone-Moment. ChatGPT hat einen beispiellosen Hype um künstliche Intelligenz ausgelöst, innerhalb von zwei Monaten haben mehr als 100 Millionen Menschen weltweit die neue Technik ausprobiert. ChatGPT ist konzeptionell eine Fake-Maschine zur Produktion von plausibel erscheinenden, aber nicht unbedingt faktenbasierten Inhalten und damit hervorragend geeignet für die Verbreitung von Mis- oder gar Desinformation. Damit verstärkt sich ein Effekt, der bereits durch das algorithmische Ranking bei den sozialen Medien erkennbar wurde. Nicht-faktengebundene Inhalte können so weit selbstverstärkend im individuellen Nachrichtenstrom ‚nach oben’ gespült werden, dass Meinungsbilder verzerrt werden: ChatGPT ermöglicht das (automatisierte und voraussetzungslose) Produzieren von post-faktischen Inhalten, die im Wechselspiel mit der algorithmischen Reichweitensteuerung sozialer Medien und den Ranking-Algorithmen der Suchmaschinen statistisches Gewicht erlangen. Die Rückkopplung dieser Inhalte aus den sozialen Medien in den Trainingsdatensatz der nächsten Generation von Sprachmodellen ermöglicht sogar eine (Hegemonie verstärkende) Dominanz synthetischer Inhalte im Netz.
ChatGPT as a hegemonial booster - a political disaster
“A society with fake people, that we can’t distinguish from real people will soon no longer be a society at all.” (Emely Bender, computational linguist) Artificial intelligence (AI) is currently having its iPhone moment. ChatGPT has generated unprecedented hype around AI, with more than 100 million people worldwide trying out the new technology within two months. ChatGPT is conceptually a fake machine for producing content that appears plausible but is not necessarily fact-based, making it ideal for spreading misinformation or even disinformation. This reinforces an effect that has already been seen in the algorithmic ranking of social media. Non-fact-based content can be ‘flushed to the top’ of the individual news stream in such a self-reinforcing way that opinions are distorted: ChatGPT enables the (automated and unconditional) production of post-factual content, which gains statistical weight in the interplay with the algorithmic reach control of social media and the ranking algorithms of search engines. The feedback of this content from social media into the training dataset of the next generation of language models even enables a (hegemony-reinforcing) dominance of synthetic content on the web.
capulcu.blackblogs.org