Foto: Thom Milkovic, Informationen zu Creative Commons (CC) Lizenzen, für Pressemeldungen ist der Herausgeber verantwortlich, die Quelle ist der Herausgeber
Ludwig Maximilians Universität München: Wer hat’s geschrieben? Der KI Ghostwriter Effekt
München, 19. Dezember 2023
Große #Sprachmodelle (Large Language Models, LLMs) beschleunigen das Erstellen von Texten in einer Vielzahl von Anwendungsbereichen radikal. Wenn sie mit Proben unseres individuellen #Schreibstils gefüttert werden, sind sie sogar in der Lage, #Texte zu produzieren, die so klingen, als hätten wir sie selbst geschrieben. Mit anderen Worten: Sie fungieren als KI #Ghostwriter, die in unserem Namen Texte erstellen können.
Wie beim menschlichen #Ghostwriting wirft dies eine Reihe von Fragen über #Urheberrecht und #Eigentumsansprüche auf. Ein Team rund um #LMU Medieninformatikerin Fiona Draxler vom Institut für #Informatik hat sich in einer kürzlich im Fachmagazin »ACM Transactions on Computer Human Interaction« erschienenen Studie mit diesen Fragen zu KI Ghostwriting beschäftigt. »Wir befassen uns jedoch nicht mit der rechtlichen Seite, sondern mit der menschlichen Perspektive«, so Draxler. »Wenn sich eine Künstliche Intelligenz bei der Erstellung eines Textes auf meinen Schreibstil stützt, inwieweit ist es dann mein Text? Habe ich das Gefühl, dass der Text mir gehört? Behaupte ich, dass ich der Autor bin?«
Um diese Fragen zu beantworten, führten die Forscher und »Experten« für #Mensch #Computer #Interaktionen ein #Experiment durch, bei dem die Teilnehmer mit oder ohne Hilfe eines KI Sprachmodells eine Postkarte schreiben sollten, die (pseudo-)personalisiert auf ihren jeweiligen Schreibstil zugeschnitten war. Im Anschluss baten sie die Probanden, die Postkarte mit einem Upload Formular zu veröffentlichen und einige zusätzliche Informationen auf der Postkarte anzugeben, darunter den Autor und einen Titel.
»Je stärker die Teilnehmer in das Schreiben der Postkarten involviert waren, desto stärker hatten sie das Gefühl, dass die Postkarte ihnen gehört«, erklärt Professor Albrecht Schmidt, Co Autor der Studie und Leiter des Lehrstuhls für Human Centered Ubiquitous Media. Das Eigentumsgefühl sei also hoch, wenn sie den Text selbst verfassten, und niedrig, wenn der Postkartentext vollständig von dem LLM generiert wurde.
Allerdings stimmte das gefühlte Eigentum am Text nicht immer mit der angegebenen Urheberschaft überein. In einigen Fällen gaben die Probanden ihren eigenen Namen als Urheber der Postkarte an, auch wenn sie sie nicht geschrieben hatten und sich auch nicht als Eigentümer fühlten. Das erinnert an klassische Ghostwriting Praktiken, bei denen der angegebene Autor ebenfalls nicht der Textersteller ist.
»Unsere Ergebnisse zeigen die Herausforderungen auf, die wir angehen müssen, wenn wir uns im privaten und beruflichen Kontext zunehmend auf die Generierung von KI Texten mit personalisierten LLMs verlassen«, sagt Draxler. »Insbesondere wenn das Fehlen transparenter Autorenschaftserklärungen oder Verfasserangaben uns daran zweifeln lässt, ob eine #KI zum Schreiben eines Textes beigetragen hat, kann dies seine #Glaubwürdigkeit und das Vertrauen der Leser schwächen.« In einer Gesellschaft, die schon heute mit einer Vielzahl von Fake News und Verschwörungstheorien konfrontiert ist, sei #Transparenz jedoch von entscheidender Bedeutung. Die #Autoren der Studie fordern deshalb einfache und intuitive Möglichkeiten, individuelle Beiträge so zu verbreiten, dass dabei eine Offenlegung der Entstehungsprozesse gefördert wird. Mehr …
Nun ja. Zunächst einmal krankt das ganze Thema an der #Beweisbarkeit und #Widerlegbarkeit. Man kann nicht beweisen oder widerlegen, dass ein #Text von oder mit einer #KI erstellt wurde.
Darüber hinaus ist der aktuelle Diskurs – wenn man so will – »rechtsnegativistisch« geprägt. Was ist denn mit dem »rechtspositivistischen« Aspekt? Man könnte dann auch irgendwelche Pamphlete verbreiten, behaupten, eine KI habe sie erstellt, und versuchen, die Verantwortung auf die KI zu schieben.