Die Integrität der Wikipedia ist bedroht: Fünf Prozent neuer englischer Artikel seien KI-generiert, findet eine Studie heraus. Während in der englischen Wikipedia bereits Aufräumtrupps aktiv sind, diskutiert die deutschsprachige Community noch über ihren Umgang mit den maschinellen Autoren.
Solange noch drübergelesen wird, habe ich grundsätzlich kein Problem damit, dass Texte maschinell entstanden sind. Jedoch könnte es schnell dazu führen, dass die Seite damit überflutet wird und bald keiner mehr hinterherkommt. Also aus organisatorischen Gründen ist es dann schon sehr bedenklich. Besonders wenn ich mir ansehe, wie andere Seiten mit hundert mal mehr Ressourcen damit bereits völlig überfordert sind.
Ich bin etwas skeptisch ob ein Drüberlesen oder Prüfungsprozess ausreicht. Gerade auch weil auf Wikipedia nicht nur, oder ich nehme an nicht flächendeckend und ausreichend erfahrene und wissende, sorgfältige Freiwillige mitarbeiten dass das ausreichend sichergestellt werden könnte.
When the AI provided an incorrect result, researchers found inexperienced and moderately experienced radiologists dropped their cancer-detecting accuracy from around 80% to about 22%. Very experienced radiologists’ accuracy dropped from nearly 80% to 45%.
Wikipedia ist mir zu wichtig um dort großflächig zu experimentieren, ohne klaren Aus- oder Rückweg, wenn man befürchten muss dass beim Prüfen nur 20-40 % der Falschaussagen bemerkt werden.
Kann man vielleicht nicht so gleich setzen, aber macht mich zumindest skeptisch. Für Zuversicht bräuchte ich andere Argumentation oder Grundlagen. Text auf Fakten prüfen ist auch nicht unbedingt simpel. Ist ja jetzt vielleicht schon ein Problem.
Ein Ansatz von jemand der sich auskennt schreibt mit einer KI könnte besser sein als wir akzeptieren KI Beiträge und prüfen das. Zum Beispiel.
Interessanter könnte sein KI zum Prüfen und Melden von Verdachtsfällen zu nutzen.
Solange noch drüber gelesen wird? Die Leute generieren Abfall den sie gar nicht verstehen. Das können sie so lange lesen wie sie wollen. Erst wenn der Müll so genial klingt, dass man ihn selbst nicht mehr versteht, sind die Leute doch erst so richtig im Rausch. Es gibt keine kompetenten Personen die mit LLMs ihre Zeit verschwenden. Wenn man tatsächlich weiß was man schreiben will, dann tut man es einfach. Es ist unfassbar wie viele Leute auch mittlerweile echt glauben dieser LLM Output ist mit Fakten gleichzusetzen...
KI kann ein Helfer beim schreiben sein, ist jedoch, zumindest meiner Erfahrung nach, absolut nicht in der Lage die eigene Recherche und Schreibarbeit zu ersetzen.
Mein Kommentar setzt nunmal voraus, das da jemand mit Ahnung drüber liest und einen Fachtext als Vorlage nimmt, statt ChatGPT einfach nur danach zu fragen und das erstbeste zu nehmen. Es ging mir dabei um den Grundsatz, also ob es theoretisch ein Problem sein muss und meine Antwort ist nein, es kann nützlich sein.
Ich hätte grundsätzlich erst mal nichts gegen generierte Formulierungen. Hier geht es ja nicht darum Kunstwerke zu schaffen, sondern darum, Wissen zugänglich zu machen.
Ich denke da eher in Richtung Zusammenfassungen von Fachtexten schreiben lassen über Themen, die man tatsächlich versteht. Als eine art Praktikanten-Assistent funktioniert das schon ganz gut. Denn auch wenn die Qualität oft nicht die beste ist und die Natur des Textes dem Thema manchmal nicht gerecht wird, sind die wichtigen Punkte meist alle drin und korrekt zusammengefasst.
Auf die Probleme bin ich ja auch schon eingegangen, denn Theorie und Anwendung sind hier zwei ganz verschiedene paar Schuh, wie ich bereits schilderte.
Geb ich dir recht!
Das einzige Problem was ich auch noch sehe ist das die Texte sich alle gleich anhören und selten viel Substanz kurz zusammenfassen sondern es lang gestreckt ist was meisten bei llm generierten texten der Fall ist