Wissenschaftliche Arbeiten mit ChatGPT? Effizienz > Qualität

Inhalt

In einer Ära, in der künstliche Intelligenz und maschinelles Lernen unsere Lebensweise revolutionieren, taucht ein faszinierendes Werkzeug auf: ChatGPT, ein fortschrittliches Sprachmodell, das in der Lage ist, Texte auf dem sprachlichen Niveau eines Menschen zu generieren. 
Bis September 2021 reichte das, durch große Mengen von Informationen trainierte “Wissen” von ChatGPT bisher. Jetzt kann der Nutzer über Ergebnisse bis April 2023 verfügen, so die Entwicklungsfirma OpenAI, die hinter dem Produkt steht. So große Aktualisierungslücken soll es zukünftig nicht mehr geben. Des Weiteren bietet das neue GPT-4 Turbo Neuheiten u. a. im Bereich Bildanalyse und Bots. Ziel soll es irgendwann sein, dass der Computer aufgrund von Spracheingaben alle geforderten Aufgaben eigenständig erledigt.
Während einige der KI blind vertrauen und ChatGPT zweifellos eine Vielzahl von Anwendungen hat, gibt es auch eine beträchtliche Skepsis und Zurückhaltung, wenn es darum geht, dieses Tool in wissenschaftlichen Arbeiten zu verwenden.
Forscher:innen der Universitäten Stanford und Berkeley bestätigen sogar: “ChatGPT wird immer dümmer”, ein massiver Rückgang der Genauigkeit wurde festgestellt. Die Ursachenforschung gestaltet sich diesbezüglich schwierig.
Hier sind einige der Hauptgründe, warum Ihre Professoren an der Uni von einer Arbeit mit ChatGPT abraten und warum die KI in der wissenschaftlichen Gemeinschaft oft auf Skepsis stößt.Es beginnt alles mit einer Idee. Vielleicht willst du ein Unternehmen gründen. Vielleicht möchtest du ein Hobby in etwas Größeres verwandeln. Oder vielleicht hast du ein kreatives Projekt, das du mit der Welt teilen möchtest. Was auch immer es ist – die Art und Weise, wie du deine Geschichte online vermittelst, kann einen gewaltigen Unterschied ausmachen.
 

Umgang mit ChatGPT im Studium

Die meisten Expert:innen und Institutionen in Österreich sind, laut Bildungsministerium, der Meinung, dass der Chatbot weder verboten, noch ignoriert werden soll. Stattdessen will man das Tool im Unterricht thematisieren und den Studierenden einen verantwortungsvollen Umgang damit beibringen.
Dass das wichtig ist, zeigt u. a. die Möglichkeit, dass ChatGPT dafür genutzt werden kann, sich komplexe Themen in einfachen Worten erklären zu lassen. Sowas ist sehr nützlich, birgt aber auch die Gefahr, dass eventuelle Falschinformationen nicht erkannt werden. Um dem entgegenzuwirken ist eine kritische Denkweise wichtig und dass man sich z. B. die Quellen der Informationen nennen lässt, um eine Überprüfung der Vertrauenswürdigkeit durchführen zu können.
Eine weitere unterstützende Funktion fürs Studium ist die Möglichkeit, ChatGPT zum Lernen für Klausuren zu verwenden. Auch da besteht die Gefahr der Falschinformation. Um sicherzugehen, dass alle Informationen richtig sind, können aber alternativ eigene Mitschriften in das Tool eingegeben werden. Die Abfrage kann dann individuell,  z. B. auch über ein Quiz erfolgen. Das stellt eine Bereicherung des Lernens dar.
Laut einem Artikel des Standards haben sich einige Student:innen mit der Hilfe von ChatGPT die Noten verbessert. Professoren klagen, dass sie wegen Bots keine wissenschaftlichen Übungen mehr aufgeben könnten. 
“Aufgabe der Universitäten ist es, Wissen zu bewerten und zu beurteilen und Sachverhalte kritisch reflektieren zu können.” “Das kann keine Technik, nur der Mensch", sagt dagegen eine Sprecherin von “der Standard”.
Dementsprechend wird sich die Art und Weise, wie Wissen reflektiert und abgefragt wird, verändern. Unter Anderem werden analoge und mündliche Prüfungen wieder wichtiger.
 

Mangelnde wissenschaftliche Expertise

Die KI ist zwar ein bemerkenswertes Sprachmodell, jedoch fehlt ihm die tiefgreifende wissenschaftliche Expertise, die für die Erstellung fundierter wissenschaftlicher Arbeiten erforderlich ist. Eine Studie des Cold Spring Harbor Laboratory besagt, dass der Bot, beim Versuch Medizinklausuren zu absolvieren, auf dem Wissensstand eines Medizinstudenten im dritten Jahr ist. 
Zum Vergleich: Im Bereich der Diagnostik kommt der Chatbot, laut Einschätzung eines Forscherteams, auf eine Genauigkeit von ca. 72 %. Das entspricht ungefähr dem Leistungslevel eines Assistenzarztes. Die Ergebnisse dazu wurden im Journal of Medical Internet Reseach veröffentlicht.
Forschung erfordert in der Regel ein Verständnis für die Nuancen und Komplexitäten eines bestimmten Fachgebiets, das ChatGPT nicht bieten kann. Vertrauenswürdige, genaue und fachkundige Informationen sind in der Wissenschaft unerlässlich und hier stößt ChatGPT an seine Grenzen.
 

Genauigkeit und Validität

Wissenschaftliche Arbeiten erfordern eine strenge Prüfung und Überprüfung von Informationen, um ihre Genauigkeit und Validität sicherzustellen. ChatGPT kann keine Gewähr für die Richtigkeit der bereitgestellten Informationen bieten und basiert auf den Daten, die ihm im Training zur Verfügung gestellt wurden. Das kann zu Verzerrungen oder Ungenauigkeiten führen. “Der Bot erfindet teilweise Studien, die nie durchgeführt wurden, zitiert aus Fachjournals, die es nicht gibt, argumentiert sehr glaubwürdig Falschinformationen oder packt mitunter Meinung in die Texte”, so Selina Thaler, in einem Artikel des Standards. 
In der Wissenschaft ist Genauigkeit von größter Bedeutung und hier zeigt ChatGPT ebenfalls eine Schwächen.
 

Kontext und Klarheit

ChatGPT kann manchmal Texte generieren, die dann ohne den erforderlichen Kontext oder die notwendige Klarheit sind. In wissenschaftlichen Arbeiten ist jedoch eine klare und präzise Kommunikation von größter Bedeutung. 
Die von ChatGPT generierten Texte können entsprechend leicht missverstanden werden. Das kann die Qualität der Arbeit beeinträchtigen. In Kombination hierzu ist immer zu bedenken, dass das Sprachmodell nur so gut sein kann, wie die zur Verfügung gestellten Quellen und Datensätze. 
 

Plagiatsrisiko

Die Verwendung von ChatGPT kann ein erhebliches Plagiatsrisiko darstellen. ChatGPT generiert Text auf Grundlage der Daten, die ihm während des Trainings zur Verfügung gestellt wurden und es kann vorkommen, dass die von ihm erzeugten Texte Parallelen zu bereits veröffentlichten Arbeiten aufweisen. Eine Untersuchung der Northwestern University zeigte, dass ein menschlicher Gutachter, von 50 durch KI verfassten Abstracts, 1 Drittel nicht als ChatGPT-generiert erkannt hat. Eine Plagiatssoftware hat sogar jeden der Texte als echt eingestuft, kein einziger wurde als KI-generiert festgestellt. Dies kann zu unbeabsichtigtem Plagiat führen, was in der wissenschaftlichen Gemeinschaft als schwerwiegender Verstoß gegen die Integrität angesehen wird. 
Tools wie “AI Text Classifier” sollen aber mittlerweile in der Lage sein, Texte des beliebten OpenAI-Sprachmodells verlässlich zu erkennen. Gesetzliche Regulierungen, wie beispielsweise der auf EU-Ebene zu erwartende AI-Act, sollen zusätzlich zur Identifikation von KI-basierten Text- und Bildprodukten beitragen.
 

Abnahme der menschlichen Intelligenz

Ein weiteres Bedenken bei der Verwendung von ChatGPT in wissenschaftlichen Arbeiten ist die mögliche Abnahme der menschlichen Intelligenz. Auch Elon Musk selbst warnt seit Jahren vor der Macht der KI/AI. Diese werden unser Leben, laut ihm, fundamental verändern. 
Wenn Forscher beginnen, vermehrt auf KI-generierte Inhalte zurückzugreifen, könnten sie dazu neigen, ihre eigenen kritischen Denk- und Forschungsfähigkeiten zu vernachlässigen. Dies könnte zu einem langfristigen Verlust an wissenschaftlicher Kompetenz führen. 
Dennoch bietet das Tool für den ein oder anderen Zweck in der wissenschaftlichen Arbeit auch gute Einsatzmöglichkeiten. Folgende Einsatzmöglichkeiten sind für Bachelor- und Masterarbeiten sinnvoll: 
  1.  Evaluierung und Strukturierung 
    ChatGPT kann ein gutes Grundgerüst für eine Facharbeit erstellen. Hierzu gehört nicht nur eine Forscherfrage zu definieren, sondern auch thematische Ansätze und Perspektiven können gut von diesem Sprachmodell erstellt werden. 
    Besonders die Möglichkeit, verschiedene Versionen in kürzester Zeit generieren zu können, ist ein echter Vorteil gegenüber einem manuellen Brainstorming, aber dennoch kein Ersatz.
    Zu beachten ist nämlich, dass der Output von ChatGPT immer auf die Formulierung der Nutzer:innen ankommt. So ist das sogenannte “Prompten” ein eigener Berufszweig geworden. Nutzer:innen ohne Erfahrung stoßen bei ChatGPT regelmäßig auf weniger kreative oder qualitätsvolle Ergebnisse, was einen negativen Einfluss auf Forscherfrage und Grundgerüst haben könnte. Die Formulierung “Komm, wir gehen in einen sokratischen Dialog” soll bereits die Sprachqualität und Kreativität steigern.
  2. Feedback und sonstige  Arbeitserleichterungen
    Das Tool von OpenAI eignet sich für Feedback einer Facharbeit hervorragend. Besonders hervorzuheben ist in diesem Kontext, dass ChatGPT sich in unterschiedliche Rollen hineinversetzen und deren potenzielle Sichtweise mit Feedback darlegen kann. Dies hilft bei einer zielgruppengerechten Kommunikation der Facharbeit. “Stell dir vor, du bist XY…” reicht bereits aus, um die Perspektive zu wecken. Auch der Sprachstil kann wissenschaftlich angepasst werden. Die Möglichkeit, Texte zu paraphrasieren (indirektes Zitieren) ist unter Beachtung der Angabe der Quelle für wissenschaftliche Arbeiten ebenfalls eine Arbeitserleichterung. Mit den richtigen Befehlen kann das Tool außerdem u. a.  Kommentare zu Absätzen verfassen, eine gezielte Suche nach wenig bekannten Informationen durchführen, oder die Lesezeit von Nutzer:innen abschätzen. Es lassen sich damit Texte in andere Sprachen übersetzen, korrekturlesen und verbessern. Auch Wortwiederholungen können herausgefiltert und entsprechend leicht behoben werden, da der Bot Synonyme vorschlagen kann. 
 

Fassen wir zusammen

Obwohl ChatGPT zweifellos eine beeindruckende Technologie ist und in vielen Bereichen nützlich sein kann, sollten Forscher und Wissenschaftler vorsichtig sein, wenn es darum geht, dieses Tool in wissenschaftlichen Arbeiten zu verwenden. Es kann als eine unterstützende Ressource betrachtet werden, aber niemals die menschliche Expertise und das Verständnis in der wissenschaftlichen Forschung ersetzen. Entsprechend kann ChatGPD mit richtigem Wissen und Kompetenz durchaus begleitend bei wissenschaftlichen Arbeiten eingesetzt werden, muss aber immer mit einem kritischen Auge betrachtet werden. 
Bei allgemeinen Aufgaben, die viel Zeit in Anspruch nehmen, kann diese Technologie hingegen sehr vielseitig und hilfreich sein.
Zurück
Zurück

Die Hüter der Wahrheit. KI vs. Journalismus