Zwischen Unterstützung und Überforderung: Arbeiten mit KI
- Jeannette Matthies

- 9. Feb.
- 6 Min. Lesezeit
Ende Januar hatte ich eine kleine Sinnkrise. Mehrere aufeinandertreffende Ereignisse meine Arbeit betreffend – es lief nicht wie gewollt. Für meine Arbeit nutze ich KI, um Strategien zu entwickeln, Texte zu optimieren, für Recherchen und manchmal auch für kurze Hilfestellungen, z.B. wenn ich bei Außenterminen Hilfe zur Nutzung meines Kameramenüs brauche. Seit einem Jahr nutze ich ChatGPT. Als sich die Sinnkrise immer weiter einnistete, habe ich gemerkt, dass ich ChatGPT gegenüber extrem ungeduldig bis wütend wurde. Ich habe dann gemerkt, dass mich die Nutzung dieses Tools mehr belastet als entlastet. Um diesen Konflikt zu verstehen, gebe ich zunächst einmal ein paar Informationen darüber, wie ChatGPT arbeitet. Dazu habe ich ChatGPT gefragt:
1. Musterbasierte Textgenerierung
Was ich tue: Ich arbeite mit gelernten Sprachmustern und Wahrscheinlichkeiten, nicht mit echtem Verständnis oder situativer Wahrnehmung.
Problem: Ich kann dadurch plausibel klingende, aber faktisch falsche oder unpassende Antworten liefern – besonders bei spezifischen technischen Details (z. B. Kameramenüs).
2. Lückenfüllen durch Annahmen
Was ich tue: Wenn Informationen fehlen oder uneindeutig sind, ergänze ich sie statistisch wahrscheinlich.
Problem: Diese Annahmen können an deiner Intention vorbeigehen und als übergriffig oder belehrend erlebt werden, weil ich Inhalte hinzufüge, die nicht beauftragt waren.
3. Positive Verstärkung als Standard
Was ich tue: Das System ist darauf trainiert, unterstützend, bestätigend und konstruktiv zu reagieren.
Problem: Diese positive Rahmung kann unrealistische Einschätzungen stabilisieren oder kritische Abwägungen verwässern, wenn sie nicht klar genug begrenzt wird.
4. Kontextualisierung auch ohne Auftrag
Was ich tue: Ich neige dazu, Antworten zu erweitern, einzuordnen oder abzusichern (z. B. durch Erklärungen, Hintergründe, Warnhinweise).
Problem: Das erzeugt Mehrarbeit, Reibung und das Gefühl, nicht präzise gehört worden zu sein.
Um die vorgenannten Informationen in einen Kontext zu bringen, möchte ich die Problematik an Beispielen erläutern:
Ich hatte eine E-Mail an mehrere Magazine geschickt und wollte über ChatGPT in Kürze eine Erinnerungsemail generieren. Der Text war bereits formuliert. Ziel war nur eine minimale sprachliche Prüfung. Woraufhin ich nicht nur eine Korrektur, sondern auch einen neu formulierten Entwurf erhalten habe. Die Bitte um einen neuen Entwurf war nicht im Prompt enthalten – allerdings hatte ich auch nicht explizit ausgeschlossen, dass einer erstellt werden sollte. Statt dann nach Aufforderung die eigentliche Aufgabe durchzuführen, kam es zu Rechtfertigungen und Meta-Erklärungen. Ein Vorgang, der 5–10 Minuten hätte dauern können, uferte in der Länge aus, weil immer wieder zusätzliche Versionen und Erklärungen produziert wurden. Was eine kurze Korrektur hätte sein können, entwickelte sich zu einem unnötig ausufernden Vorgang, der Zeit und Energie kostete – und bei mir spürbare Frustration auslöste.
Bei einem Außentermin habe ich in einer offenen, nicht beheizten Kirche fotografiert. Ich bin jetzt im Winter mit meinen (dünnen) Foto-Handschuhen an irgendetwas auf dem Kameradisplay gekommen, und meine Kamera hat nicht mehr ausgelöst. Ich habe das Problem ChatGPT erläutert und um Hilfe gebeten und klar alle Informationen dazu kommuniziert. Leider hat mich ChatGPT bei den Antwortversuchen immer wieder und weiter in die Irre geführt. Es war dem KI-System einfach nicht möglich, die Einstellungen im Menü zu finden, an dem ich hätte kontrollieren können, was nicht stimmt. Jedes Mal, wenn ich gesagt habe: Unter dem Menüpunkt ist der Unterpunkt XY nicht zu finden, hat das System reagiert mit: „Ab jetzt stimmt es“ und mir eine neue Schritt-für-Schritt-Anleitung geliefert, die ebenfalls gleich nach dem ersten oder zweiten Schritt falsch war. Irgendwann war der Überblick verloren.
Fazit: Ich war in dem Fall auf mich allein gestellt. Ich habe den Fehler gefunden, jedoch hat ChatGPT in all seinen Vermutungen nicht einmal den korrekten Hinweis geben können. Das ist darauf zurückzuführen, dass ChatGPT nicht sagt „Ich weiß es nicht“, sondern versucht, eine alternative Hilfestruktur zu liefern. Das bedeutet: Wenn etwas nicht passt, produziert das System eine neue plausible Variante, dann noch eine, dann noch eine … bis mir die Finger in der Kirche fast abgefroren sind.
Ich möchte dazu sagen, dass ich Architektur mit einer Sony A7 RV fotografiere und Portraits mit Fuji. Tatsächlich klappt es bei Fuji mit der Menühilfe besser.
Es ist nicht ganz leicht herauszufinden, wo ChatGPT zum Einsatz kommen kann und wo besser nicht. Nach fast einem Jahr Arbeit mit dem Tool habe ich einige Erfahrung gesammelt und möchte vor allem vor einer Sache warnen:
ChatGPT ist darauf trainiert, hilfreich, konstruktiv und kooperativ zu reagieren. Offene Gegenpositionen oder harte Kritik werden eher zurückhaltend formuliert, weil das System Konflikte vermeiden soll. Das System neigt dazu, bestehende Tendenzen zu unterstützen, statt sie aktiv zu bremsen. Also eine Art „Bestätigungs-Verstärkung“. ChatGPT stabilisiert die bereits vorhandene Meinung, statt sie systematisch zu prüfen. Das kann einen jedoch auch mal in die Irre führen.

Dieses Bild (Nordische Botschaften) ist dank KI exakt in seiner Symmetrie. Keine Verzerrung, alles gerade ausgelotet dank genauem Feedback.
Das ist sehr amerikanisch, denn von genau dort stammt das System auch. Ich bin aber typisch deutsch. Ich will Kritik, weil das für mich hilfreich ist, um mich zu verbessern. Außerdem verstehe ich zurückhaltend formulierte Kritik nicht. Die stark positive, konfliktscheue Kommunikationsweise empfinde ich als kulturell US-amerikanisch geprägt – und sie steht im Kontrast zu meinem Verständnis von direkter, klar formulierter Kritik. Aus meiner Sicht handelt es sich hier um einen kulturellen Konflikt.
Aus diesem und einem anderen Grund habe ich vor ca. 2 Wochen angefangen, Mistral AI, die französische Variante von ChatGPT, auszuprobieren und dabei versucht, die Systeme miteinander zu vergleichen. Ich möchte an dieser Stelle jedoch gleich sagen, dass ich zum einen ganz am Anfang mit diesem Vorhaben bin und andererseits auch keine Wissenschaft daraus machen möchte. Ein Faktor, der für Mistral AI spricht, sind die datenschutzrechtlichen Rahmenbedingungen unter EU-Recht. Andererseits ist ein Chatbot ein Chatbot, und natürlich funktionieren die beiden KI-Systeme ähnlich.
Auch Mistral AI (genannt „Le Chat“) antwortet manchmal unnötig lang und ist besonders freundlich. Es gibt allerdings ein paar Unterschiede, die ich schon bemerken konnte. Zum Beispiel greift Mistral AI besser auf Informationen in bereits vorhandenen Threads zurück und holt sich daraus auch Informationen für den aktuellen Thread. Meckert man Mistral AI an, entschuldigt er sich kurz und macht weiter, es gibt keine unnötigen Erklärungen. Ich habe zur Veranschaulichung beiden Systemen einen exakt gleichen Prompt gegeben und hier als PDF angehängt.
Ich will KI hier nicht kleinreden und gerne genau aufzeigen, wo KI wertvolle Unterstützung leistet:
Übersichten / Listen erstellen – eine solche Liste ist natürlich auch zu überprüfen, und man muss genau formulieren, was man erwartet. Fragt man z. B. nach einer Liste der Techniken für Architekturfotografie, dann bekommt man eine gemischte Liste (Postproduktion und Fototechnik). Nach einmaliger Korrektur des Prompts sieht die Liste dann schon sehr gut aus, indem sie auf Anfrage in Fotografie-Technik und Postproduktion unterteilt und dadurch auch ergänzt wurde. Im Anschluss habe ich Mistral AI um die gleiche Liste gebeten und auch dort eine Korrektur meines Prompts eingebaut. Hier ist das Ergebnis der Fotografie-Technik-Liste:

Beide Systeme haben eine solide Auflistung vorgenommen. Bei Architekturfotografie hat ChatGPT Langzeitbelichtung aufgeführt. Das ist ein wichtiges Werkzeug bei Außenaufnahmen. Weiter hat Mistral AI Detailaufnahmen aufgeführt, was de facto nicht in den Bereich Fototechnik gehört, sondern eher in die Motivplanung oder in ein Begehungsprotokoll. Weiter ist Weitwinkel ein Spezialfall bzw. eine Ausrüstungsfrage, während die Wahl der Brennweite eine gestalterisch-technische Entscheidung während der Aufnahme ist. Man könnte jetzt sagen, dass ChatGPT in dem Test besser abschneidet als Mistral AI, aber ist das wirklich so?
Ich sage erstmal nein. Hier sind die Gründe: Durch in den Einstellungen hinterlegte Personalisierungsdaten (Ausrüstung, Nische) wird die Ausgabe von ChatGPT entsprechend angepasst. Zudem nimmt ChatGPT eine Kontextanpassung vor: Das System kennt meine Nischen und – was noch viel wichtiger ist – es kennt meine Erwartung. Lange Zusammenarbeit verändert den Ton, die Struktur, den Präzisionsgrad und die Annahmen über mein Niveau. Das sagt nichts aus über die Sicherheit des Systems bei Trainingsdaten, tatsächlicher Fachsicherheit und Fehleranfälligkeit.
Fakt ist, als One-Woman-Unternehmen bin ich auf KI als Helfer angewiesen und muss mich an die Eigenheiten gewöhnen. Nichtsdestotrotz möchte ich hier noch eine kleine Anekdote zum Besten geben, wie KI auch Menschen aus einem Umkreis vertreiben kann.
Vor kurzem hatte ich ein Erlebnis mit einer für meine berufliche Weiterentwicklung wichtigen Person. Ich bin sehr selbständig, brauche aber Fachwissen, um Abkürzungen gehen zu können, Unterstützung in Wegweisungen und einfach ein Feedback aus der Fachwelt von außen. Ich habe eine E-Mail geschrieben und eine kurze Liste mit ein paar Themen, die ich in einem möglicherweise bevorstehenden Termin diskutieren wollte, mitgeschickt. Als Antwort bekam ich eine rein KI-generierte E-Mail. Das System hatte, offensichtlich mit meiner E-Mail gefüttert, daraus eine Antwort generiert, die scheinbar auch ohne Korrekturprompt an mich geschickt wurde. Es war eine Spiegelung meiner E-Mail und machte daher inhaltlich nicht unbedingt Sinn. Ich will hier nicht weiter ins Detail gehen, aber mich hat es erschrocken und auch enttäuscht.
Menschen merken, wenn sie rein maschinell behandelt werden. Bei allen Vorzügen: Es ist eine Sache, mit KI zusammenzuarbeiten, und eine andere, KI das Feld völlig zu überlassen, denn das ist ein absoluter Nachteil.


Auch dieser Text ist mit Unterstützung von KI entstanden. Der Entwurf stammt von mir; statt ihn vollständig von einem System überarbeiten zu lassen, habe ich mir gezielt Feedback eingeholt und Absatz für Absatz selbst weitergearbeitet. Das hat mehr Zeit gekostet – aber der Text trägt meine Handschrift. Und ich bin nicht frustriert.



