Was ist da los? Copilot wurde eingeführt, aber die Ergebnisse spiegeln die Erwartungshaltung nicht wider. Nach der anfänglichen Euphorie stagniert die Nutzung. Dafür kann es verschiedene Gründe geben. Zunächst: Copilot ist ein wertvolles Werkzeug für den Einsatz in Organisationen. Das Tool kann bei vielen Aufgaben unterstützen, aber es ist wichtig zu verstehen, dass es sie nicht selbstständig bewältigt. Wenn Mitarbeiter glauben, dass Copilot alle ihre Aufgaben vollständig und ohne Fehler erledigen kann, werden sie zwangsläufig enttäuscht. Die Erwartungshaltung der Mitarbeiter muss gemanagt werden. Es ist entscheidend, die Rolle von Copilot klar zu kommunizieren. Anwender müssen ihre Anforderungen von Anfang an klar formulieren, den Entstehungsprozess begleiten und das Ergebnis sorgfältig prüfen.
Der Nutzer steht im Fokus
Copilot kann durch Prompts viele Aufgaben teilweise erledigen oder den Nutzern zeigen, wie sie diese Aufgaben erledigen können. Aber entscheidend ist die möglichst eindeutige und sinngebende Formulierung der Anfrage, des Prompts. Mitarbeiter müssen lernen, wie sie effektive Prompts erstellen, um die gewünschten Ergebnisse zu erzielen. Dies erfordert Training und, gerade am Anfang, viel Übung, da sich Prompts deutlich von den bisher üblichen Suchbefehlen bei Google oder Bing unterscheiden.
Ein Large Language Model (LLM) wie Copilot versteht natürliche Sprache und erwartet detaillierte Aufforderungen, die genau beschreiben, was der Nutzer möchte. Diesen Schwenk schaffen Mitarbeiter nicht von heute auf morgen, selbst wenn sie Unterstützung in Form von Training erhalten. Mitarbeiter brauchen Zeit, um zu lernen, wie sie ihre Anfragen präzise formulieren.
Datenqualität und Zugriff
Woran kann es noch liegen, wenn Copilot keine Freunde findet? Zum Beispiel an den Daten, auf die das Tool im Microsoft 365 Tenant zugreifen kann. Je besser, aktueller und relevanter die Daten sind, desto besser werden auch die Ergebnisse sein. Ein LLM verbessert die Datenqualität nicht, im Gegenteil: Ist der Tenant eine ungepflegte Datendeponie, wird Copilot nur mäßig gut unterstützen können. Nun rächen sich Versäumnisse der Vergangenheit. Tenant-Hygiene, also das Aufräumen von alten Daten, saubere Rechtestrukturen und eine sinnvolle, aber strikte Governance, sollte eigentlich immer Bestandteil des M365-Betriebs sein. Doch viele Organisationen haben hier geschlampt. Nun ist es höchste Zeit, automatisches Löschen alter Daten mittels Retention Policies einzuführen und das Zugriffsmanagement zu überarbeiten. Auch mittlerweile Moderne Arbeitsweisen, wie das Teilen von Links statt dem Versenden von Dateien, tragen zur Verbesserung der Datenqualität bei.
Anleitung und Schulungen
Auch wenn ein LLM wie Copilot versucht, die Anweisungen möglichst gut zu verstehen, sind viele Prompts am Anfang nicht perfekt. Schulungen und Anleitungen helfen, müssen aber auf die Anwender eingehen. Je nachdem wo sich ein Mitarbeiter auf seiner KI-Reise befindet, benötigt er unterschiedliche Tipps und Hinweise. Sind die Anleitungen zu generisch, leistet die KI nicht das, was sie kann. Fehlt die Anleitung komplett, bleiben Funktionen ungenutzt. Und ohne klare Do’s und Dont’s können Anfragen wie auch Ergebnisse ethisch unzulässig sein. Am besten planen die Organisationen ein sinnvolles Schulungskonzept und benennen kompetente KI-Champions als Ansprechpartner. Nicht zu vernachlässigen ist der regelmäßige Austausch unter den Kollegen. Ideen von einem Nutzer können den Nächsten inspirieren und zu einer höheren Adoption führen. Am Ende kommt es aber vor allem darauf an, dass Copilot eine produktive Rolle in der täglichen Arbeit bekommt. Das Tool sollte für konkrete Aufgaben genutzt und Nutzer ermutigt werden, Copilot in jeden Task einzubinden. Nach kurzer Zeit werden die Anwender herausfinden, wo Copilot die größte Hilfestellung und Entlastung bietet.















