Zum Inhalt springen

Künstliche Intelligenz oder Künstliche Ignoranz?

Generative KI verspricht schnellere Recherche, effizienteres Schreiben und produktiveres Arbeiten. Doch wie verlässlich sind die Ergebnisse wirklich – insbesondere im wissenschaftlichen Kontext? Was passiert mit unserer Fähigkeit, kritisch zu denken, wenn wir die Denkarbeit an Maschinen auslagern? Und welche Grundsätze sind entscheidend für einen verantwortungsvollen Einsatz von ChatGPT & Co. in der wissenschaftlichen Arbeit? Der promovierte Betriebsökonom Alexander Schmid ordnet ein.

Am 3. Dezember 2025 verschickten wir unseren Newsletter zum Thema «Effizienter recherchieren mit KI». Daraufhin meldete sich Alexander Schmid, promovierter Betriebsökonom an der Berner Fachhochschule BFH. Er sei mit dem, was wir über die Recherche mit KI schreiben, nicht in jedem Punkt einverstanden. Also haben wir ihn kurzerhand zum Gespräch eingeladen und mit ihm über die Rolle der KI in der wissenschaftlichen Arbeit gesprochen.

Über Alexander Schmid
Alexander Schmid ist promovierter Betriebsökonom. Er arbeitet als Forschungsdozent im Bereich Wirtschaftsinformatik an der Berner Fachhochschule BFH. Schmid forscht und lehrt zu Themen der digitalen Transformation und dem Einsatz digitaler Technologien für organisationale Zwecke. Darüber hinaus unterrichtet er wissenschaftliches Arbeiten.

Wieso sich generative KI nur bedingt für die wissenschaftliche Recherche eignet

David Bisang: Wir führen dieses Gespräch, weil Du auf unseren Newsletter zum Thema «Effizienter recherchieren mit KI» kritisch reagiert hast. Du hast uns unter anderem geschrieben: «ChatGPT für wissenschaftliche Recherchen zu nutzen, ist in etwa so, wie mit einem Auto Nüsse zu knacken.» Wie bist Du zu dieser Einschätzung gelangt?

Alexander Schmid: Das grundlegende Problem bei der Recherche mit KI ist die Architektur dieser Tools. Die meisten gängigen KI-Chatbots sind Plausibilitätsmaschinen. Faktentreue ist also nicht ihr Ziel. Einfache KI-Rechercheergebnisse, die im ersten Moment sprachlich plausibel klingen, halten einer vertieften und fundierten Analyse oft nicht stand. Deshalb sprechen Forschende zynisch auch von «Künstlicher Ignoranz», wenn sie Künstliche Intelligenz meinen. Denn KI-Chatbots produzieren sehr viel Hohlsprech – oder anders gesagt: regelrechten Bullshit.

David Bisang: Kannst Du erklären, was Du mit Bullshit konkret meinst?

Alexander Schmid: Bullshit hat in diesem Zusammenhang keine vulgäre Bedeutung, sondern eine philosophische – frei nach Harry Frankfurt: «Bullshit als mangelndes Interesse an der Wahrheit oder Gleichgültigkeit gegenüber der tatsächlichen Lage der Dinge.» Wenn Recherchen das Ziel haben, objektive Fakten fassbar zu machen, dann sind KI-Tools nicht die besten Mittel zum Zweck. Denn Fakt und Fiktion werden von den Tools nahtlos vermischt. Besonders junge Studentinnen und Studenten lassen sich von den plausibel und wissenschaftlich klingenden Texten schnell blenden. Im fiktionalen Schreiben mag das unterhaltsam sein, aber in der wissenschaftlichen Arbeit ist das eine Bankrotterklärung, wenn die objektive Realität keine Relevanz mehr hat.

Was beim unreflektierten Gebrauch von KI verloren geht

David Bisang: Was geht aus Deiner Sicht verloren, wenn wir KI unreflektiert nutzen?

Alexander Schmid: Verloren geht insbesondere der originäre und kreative Aspekt. Studien zeigen, dass generative Hilfsmittel über eine blosse Entlastung hinaus zu einer Auslagerung der Denkarbeit führen – zu einem Cognitive Offloading. Dieser Effekt kann in Gehirnscans gemessen werden: Je mehr Entlastung durch Auslagerung, desto passiver werden die Denkenden. Entsprechend entmündigt sich der Mensch selbst, wenn er die Denkarbeit übermässig an KI-Maschinen auslagert.

David Bisang: Inwiefern spielt bei der Nutzung von KI-Tools der Wunsch nach Effizienz eine Rolle?

Alexander Schmid: Bei der Arbeit mit KI tappen wir oft in eine Effizienzfalle: Wir lagern die Rcherche-, Denk- und Schreibarbeit aus, um Zeit zu sparen. Wenn wir unsere Arbeit aber ernst nehmen, müssen wir die Ergebnisse und Inhalte mit extrem viel Aufwand validieren. So passiert es rasch, dass wir mehr Zeit aufwenden, um die Fakten zu validieren, als wenn wir sie selbst zusammengetragen hätten. Und delegieren wir die Validierung wieder an die Maschine, liefert sie uns wider den «Müll» zurück, mit dem sie gefüttert wurde.

David Bisang: Wo beginnt für Dich beim wissenschaftlichen Arbeiten der «Müll»?

Alexander Schmid: «Müll» entsteht für mich, wenn der Aufwand für das Lesen und Verarbeiten eines Textes bei der Zielgruppe grösser ist als der Aufwand, den die Autor:in beim Schreiben hatte. Wer sich selbst und seine Adressat:innen achtet, wird keinen austauschbaren, intellektuellen Müll produzieren.

Du möchtest bessere Fachtexte schreiben – und das auch noch möglichst effizient?

Dann sichere Dir einen Platz in unserem videobasierten Online-Intensivkurs und stärke Deine Schreibkompetenz nachhaltig – mit und ohne KI.

Wie ein verantwortungsvoller Umgang mit KI aussehen kann

David Bisang: Was empiehlst Du für einen verantwortungsvollen Umgang mit generativer KI?

Alexander Schmid: Ich rate Studierenden, generative KI-Tools zurückhaltend zu nutzen – insbesondere bei Tätigkeiten, die sie erst erlernen, oder bei Themen, die sie sich neu erschliessen. Denn ein nachhaltiger Lernprozess setzt erst ein, wenn man sich kognitiv intensiv mit einem Thema auseinandersetzt. Nur durch intensive Übung, fokussiertes Arbeiten und kritisches Denken über Jahre erlangt man die Mastery – die Meisterschaft.

David: Was müssen Studierende oder Mitarbeitende an Hochschulen noch können, um verantwortungsvoll mit generativer KI umzugehen?

Alexander Schmid: Sie brauchen ein Verständnis für die einzelnen KI-Tools und ihre Eigenheiten. Sie müssen ein basales Verständnis dafür haben, wie diese Tools technisch funktionieren und was sie machen. Nur so können sie abschätzen, was die Tools können und wo ihre Limitationen liegen. Ausserdem sollten KI-Tools nur für Zwecke genutzt werden, für die sich die jeweiligen Tools auch eignen. Man sollte also auf sie verzichten, wenn sie für eine bestimmte Aufgabe nicht konzipiert wurden. Um meine Metapher aus meiner E-Mail an euch aufzugreifen: Ein Nussknacker ist sinnvoller, um eine Nuss zu öffnen, als ein Auto.

David Bisang: Wie stehst Du dazu, die Nutzung von KI bei wissenschaftlichen Texten zu deklarieren?

Alexander Schmid: Ich halte es für unerlässlich, die Nutzung von KI transparent und proaktiv zu kommunizieren. Machen wir das nicht, begeben wir uns direkt in den Bereich des Plagiats. Das heisst, die geistigen Leistungen anderer als eigene auszugeben. Das kann rechtliche oder akademische Konsequenzen haben und ist an sich unethisch. Es gibt genug Beispiele, auch aus der Zeit vor der Verfügbarkeit von generativer KI, die zeigen, wie auch prominente Personen teuer bezahlt haben. Man denke etwa an den früheren deutschen Verteidigungsminister Karl-Theodor zu Guttenberg.

Welche Haltung Bildungsinstitutionen gegenüber KI haben sollten

David Bisang: Welche Haltung sollten Bildungsinstitutionen Deiner Meinung nach gegenüber generativer KI vertreten?

Alexander Schmid: Ich habe vor drei Jahren, unmittelbar nach Erscheinen von ChatGPT, einen Kommentar dazu veröffentlicht. Meine Einschätzung war damals: Chatbots sind gekommen, um zu bleiben. Es ist eine Realität, dass die generativen KI-Tools im Alltag verbreitet und verfügbar sind und dass sie die Wissensarbeit wie auch die Gesellschaft verändern. Das müssen Bildungsinstitutionen anerkennen und Wege finden, um damit umzugehen.

David Bisang: Wie könnten solche Wege aussehen?

Alexander Schmid: Ich votiere im Umgang mit KI für eine Rückbesinnung der Bildungsinstitutionen auf den Kern des aufklärerischen Bildungsideals. Das heisst: Bildungsinstitutionen sollten ihre Mitarbeitenden ebenso wie ihre Studierenden dazu anhalten, kritisch selbst zu denken und denken zu lernen. Es führt kein Weg vorbei an inhaltlicher Richtigkeit und Genauigkeit, Transparenz und Überprüfbarkeit, intellektueller Redlichkeit und der Wahl passender Methoden bei der Erkenntnisarbeit.

Der deutsche Ökonom Heinz-Dietrich Ortlieb formulierte das im letzten Jahrhundert wie folgt: «Bildung heisst vor allem auch Erziehung zu sachlicher Haltung, zur kritischen Urteilsfähigkeit, zur Fähigkeit, sich gleichfalls in einen Stoff vertiefen und von ihm distanzieren zu können, sich bewusst zu werden, auf welchen Voraussetzungen ein Urteil beruht und unter welchen es allein Gültigkeit haben kann, und vor allem: Bildung ist geknüpft an die Fähigkeit, sich liebgewordener, aber fragwürdiger Voreingenommenheiten zu enthalten.» Entsprechend kritisch sehe ich die Auslagerung des kritischen Denkens an KI-Maschinen.

KI-Tools, die Alexander Schmid nutzt, und wie er zu Prompt-Engineering steht

David Bisang: Gibt es KI-Tools, die Du für das wissenschaftliche Arbeiten nutzt?

Alexander Schmid: Ja, jedoch nutze ich die Tools zweckorientiert. Generalistische Chatbots wie ChatGPT, Google Gemini, Claude oder Perplexity nutze ich für die Planung und Themensondierung. Sie helfen beispielsweise, verwandte Themengebiete zu finden, begrifflichen Zusammenhängen nachzugehen, Forschungsfragen zu formulieren sowie das Zusammenspiel von Thema-Forschungsproblem-Forschungsfrage und Forschungsdesign zu simulieren.

Für die Arbeit mit Texten gibt es spezialisierte Tools wie PaperDigest, ChatPDF, Elicit, Scite.ai oder NotebookLM. Die eignen sich für die dialogische Interaktion mit PDF-Sammlungen. Aber Vorsicht: Auch diese Tools haben Limitationen. Manche verarbeiten zum Beispiel nur die ersten 20% eines Dokuments und halluzinieren den Rest. Wenn man solche Restriktionen nicht beachtet, die Quelle oder auch die Tools nicht im Detail kennt, verpasst man wichtiges Wissen.

In der Wissensorganisation und für Spezialrecherchen kann beispielsweise Litmaps interessant sein, da es Zusammenhänge in Zitationsnetzwerken darstellen kann. In der qualitativen Forschung nutze ich zudem noScribe für Transkriptionen (auch Schweizerdeutsch) und Tools wie Grammarly oder DeepL für die Textarbeit.

David Bisang: Viele Nutzer:innen versuchen, die KI durch besseres Prompting «faktentreuer» zu machen, zum Beispiel indem sie die KI bitten, Fakten und Vermutungen zu trennen. Was hältst Du von solchen Versuchen?

Alexander Schmid: Das sehe ich ambivalent. Ein besseres Prompting durch sogenanntes Prompt Engineering kann helfen. So gibt es zum Beispiel die These, dass Chatbots inhaltlich genauer sind, wenn sie längere Antworten geben müssen und ihre «Gedanken» in Einzelschritten darlegen. Das macht die Ergebnisse für uns besser nachvollziehbar. Aber es gibt zwei Limitationen:

  1. Prompt-Engineering ist aufwendig. Oft dauert es länger, gut zu prompten und das Ergebnis zu verifizieren, als die Recherche manuell durchzuführen – besonders, wenn man die Fähigkeiten dazu besitzt.
  2. Wenn ein Tool architektonisch nicht auf Faktentreue ausgelegt ist oder keinen Zugang zu Fachdatenbanken hat, nützt auch der beste Prompt nichts. Studien zeigen zudem, dass die Chain-of-Thought-Erklärungen der KI oft gar nicht mit dem übereinstimmen, was sie im Hintergrund tatsächlich berechnet oder getan hat.

3 Tipps für einen verantwortungsvollen Umgang mit KI

David Bisang: Zum Abschluss: Was sind Deine 3 Tipps für einen verantwortungsvollen Umgang mit KI?

Alexander Schmid: Mein erster Tipp lautet: Verstehe Dein KI-Tool. Wer nicht versteht, wie ein KI-Tool funktioniert, hat ein höheres Risiko, ihm auf den Leim zu gehen. Mein zweiter Tipp: Nutze KI, um Deine Argumentation zu schärfen – und nicht, um sie automatisch erstellen zu lassen. KI kann Dir die Denkarbeit nicht abnehmen. Das eigene kritische Denken muss gerade im wissenschaftlichen Arbeiten führend bleiben. Und mein letzter Tipp: Dokumentiere den Einsatz von KI transparent und proaktiv. Lege offen, wie, wann, wo und wozu Du KI benutzt hast. Damit stellst Du Deine wissenschaftliche Integrität sicher und schützt Dich vor Plagiatsvorwürfen.

David Bisang: Vielen Dank für das Gespräch.

Schreib Fachtexte, die überzeugen

Schreibberater der Fachtext-Akademie: David Bisang und Daniel Stalder

Die KI liefert zwar schnell Entwürfe, aber die Verantwortung für die Inhalte und die Verständlichkeit liegt immer bei Dir. Um KI sinnvoll in Deinen Schreibprozess einbinden zu können, brauchst Du eine starke Schreibkompetenz. Diese baust Du Dir in unserem Online-Intensivkurs systematisch auf. Interessiert?