Für die Suche nach Inhalten geben Sie »Content:« vor den Suchbegriffen ein, für die Suche nach Orten geben Sie »Orte:« oder »Ort:« vor den Suchbegriffen ein. Wenn Sie nichts eingeben, wird in beiden Bereichen gesucht.

 

 

Wiki und GPT GefahrZoom Button

Bild: Luke Chesser, Informationen zu Creative Commons (CC) Lizenzen, für Pressemeldungen ist der Herausgeber verantwortlich, die Quelle ist der Herausgeber

Wiki und GPT Gefahr

Wiki und GPT Gefahr

Dinge wie die sogenannte »Wikipedia« oder die »KI« »Chat #GPT« sind eine kulturelle und gesellschaftliche Bedrohung, deren Potential sowohl überschätzt auch als unterschätzt wird. Sie sollten als Experiment und Phänomen gelten.

»Chat GPT« ist ein nettes Experiment, aber die Anwendung außer für gewisse Zwecke ist gefährlich. Und zwar dann, wenn es um Fakten geht. Dann erfindet #Chat GPT nämlich Dinge. Weil das System in der Lage ist, semantische Kontexte zu verarbeiten, und daraus Texte zu generieren, die unter Umständen völliger Nonsens sind. Wenn man das nicht selbst weiß, erkennt man es nicht. Das ist brandgefährlich. Und dann »lernt« Chat GPT diese Kreationen auch noch und lagert sie ab. Was dann letztlich niemand mehr nachvollziehen und kontrollieren kann. Man könnte dann eingreifen, indem man Chat GPT sagt, dies und das sei falsch. Aber wer weiß denn, ob das stimmt? Und wann »glaubt« Chat GPT das und wann nicht? Sind dann Fakten eine Frage der Mehrheiten?

Die Tante #Wikipedia

Die sogenannte »Wikipedia« ist in punkto Fakten auch nicht besser. Dort hat sich eine Moderatorenmafia etabliert, die nach Gutdünken löscht oder nicht löscht, Änderungen zulässt oder nicht zulässt, oder selbst nach Belieben agiert oder nicht agiert. Und auch dort gibt es viele falsche oder unvollständige Inhalte. Niemand hat eine Handgabe gegen die Wikipedia, schon gar nicht gegen die #Moderatorenmafia, weil sie völlig anonym ist. Das ganze sollte abgeschafft und verboten werden. Oder es sollte eine wissenschaftliche #Redaktion vorgeschrieben werden. Das kann man natürlich rein rechtlich nicht machen. Insofern darf man Wikipedia nicht ernstnehmen. Und auch stilistisch sind die meisten »Lemmata« unterirdisch. »Blablabla« bezeichnet ein XY. Ein Begriff kann nichts »bezeichnen«, bestenfalls bedeuten. Bezeichnen kann nur jemand etwas mit einem Begriff – ein Begriff selbst kann nichts »tun«.

Das zu lange Lemma

Allein schon, dass die besagte Moderatorenmafia die Wikipedia Artikel zwanghaft als »Lemma« bezeichnet, zeugt – um es klar und deutlich zu sagen – von deren Klugscheißerei und Wichtigtuerei. In keinem Lexikon würde man derartig schlecht geschrieben und derartig lange Lemmata finden. Das ganze Konzept krankt allein schon an der Idee, Wissen seie eine demokratische Frage. Das ist es nicht. Nicht in dem Sinne, dass Fakten eine Frage von Mehrheiten sind. So waren einst die Konversationslexika oder die Lexikotheken das Ergebnis harter Arbeit von qualifizierten Redaktionen unter Beteiligung qualifizierter Leute und Wissenschaftler. Bei der Wikipedia gibt es so etwas nicht. Dort herrschen die besagten anonymen Moderatorenmafiosi nach Gutdünken. Und auch die #Quellenangaben sind zuweilen absurd und fragwürdig. In einem richtigen Lexikon würde man nicht solche Quellenangaben finden. Es ist selbst die Quelle. Insofern ist die Wikipedia keine Quelle, sondern eher ein trüber Bach. In dem man bestenfalls kleine Fische angeln kann, die teils essbar und teils giftig sind.

Variable Antworten

Bei Chat GPT erhält man in der Regel auf dieselben Fragen immer wieder unterschiedliche Antworten. Wenn man die Software damit konfrontiert, dass sie falsch seien (was sie ja nicht wissen kann, sondern »glauben« müsste), »entschuldig« sie sich und faselt herum. So hat Chat GPT etwa 3 (sehr dumme) Gütersloh #Witze erzählt, und sich dann auf einmal geweigert, Gütersloh Witze zu erzählen, denn sie würde niemanden diskriminieren wollen. Später hat sie dann doch wieder – allerdings noch dümmere – Gütersloh Witze zum Besten gegeben. Ein weiteres Beispiel ist die Behauptung, der Gütersloher #Dalkehafen liege an der Dalke, die über den Rhein Ems Kanal mit dem Ruhrgebiet verbunden sei und eine der wichtigsten Wasserstraßen Westdeutschlands sei. Der Dalkehafen sei in der Region ein #Hauptumschlagplatz für Güter aller Art, insbesondere Schüttgut wie Kohle oder Weizen. Das ist vollkommener Quatsch. Offenbar werden solche Antworten aus einem falsch interpretierten, semantischen Kontext kreiert. Wahrscheinlich »lernt« das System das ganze dann auch noch, denn das »Deep Learning« oder »Machine Learning« ist ein Bestandteil des Systems. Und so besteht eben die Gefahr, dass sich ein korrumpierter Datenbestand aufbaut. Der quasi vor allem durch sich selbst korrumpiert wird. Und mutmaßlich aufgrund der Komplexität und des Umfangs auch nicht zu bereinigen, also unrettbar verloren ist. Für gewisse Zwecke ist die Technik hingegen passabel und geeignet. Zum Beispiel zum Umformulieren von Texten (die man freilich noch in Form bringen muss, weil sie sprachlich oft mangelhaft sind). Oder zum Kreieren von Texten (besser gesagt Textgerüsten), wenn man die Eckdaten vorgibt. Und am besten auch den Stil vorgibt. Dass die Ergebnisse oft »besser« als menschgemachte Texte sind, spricht derweil nicht für Chat GPT, sondern gegen diejenigen, die davon überflügelt werden. So kennt das System auch keinen #Sprachwitz und keinen #Sprachklang. Es ist letztlich nur ein besserer #Taschenrechner und ist mit Vorsicht zu genießen.

Content bei Gütsel Online …

 

Fatal error: Uncaught TypeError: mysqli_num_rows(): Argument #1 ($result) must be of type mysqli_result, bool given in /pages/75/c9/d0016151/home/htdocs/domain-auf-schluer/include/content-browser.inc:249 Stack trace: #0 /pages/75/c9/d0016151/home/htdocs/domain-auf-schluer/include/content-browser.inc(249): mysqli_num_rows(false) #1 /pages/75/c9/d0016151/home/htdocs/domain-auf-schluer/index.php(986): include('/pages/75/c9/d0...') #2 {main} thrown in /pages/75/c9/d0016151/home/htdocs/domain-auf-schluer/include/content-browser.inc on line 249