Dieser Beitrag analysiert – inspiriert durch den lesenswerten Beitrag „Entscheidende KI in Führung“ von Timm Richter (hier lesen) – aus organisationstheoretischer Perspektive, wie (und warum) KI Führung in der Sozialwirtschaft verändert.
Der Fokus liegt dabei weder auf den technischen Details von KI noch auf der rein effizienzsteigernden Nutzung von KI durch Prozessautomatisierung, sondern auf den Auswirkungen der KI-Nutzung auf Entscheidungsprozesse und Organisationsstrukturen.
Und – so viel sei vorab verraten – es wird einen zweiten Beitrag geben, der sich konkreten Handlungsempfehlungen für Führungskräfte widmet.
TL;DR: KI verändert Führung in der Sozialwirtschaft nicht durch Automatisierung und Standardisierung, sondern vor allem, indem sie Entscheidungen vorstrukturiert – oft informal und ungeregelt. Weil sie wie „Personal“ wirkt (Optionen, Rahmung, Begründungen), passt sie perfekt zur dominierenden Informalität sozialer Organisationen: entlastend und sicherheitsstiftend, aber mit verschiedenen Risiken, die berücksichtigt werden müssen.
KI ist da – nur nicht offiziell
Maria, die uns durch den Beitrag begleiten wird, leitet eine Wohngruppe für junge Erwachsene. Gestern Abend um 22 Uhr kam es zu einem Vorfall, der dokumentiert werden musste. Ihre handschriftlichen Notizen waren voller Abkürzungen und Gedankensprünge. Bevor sie die Dokumentation ins System übertrug, ließ sie den Text mithilfe von ChatGPT auf ihrem privaten Smartphone „professioneller” formulieren. Zwei Minuten später hatte sie eine strukturierte Fallnotiz, die sie nur noch leicht anpassen und einfügen musste.
Ihr Kollege Thomas – auch ihn werden wir im Beitrag wieder treffen – nutzt KI anders: Er lässt sich vor schwierigen Gesprächen mit Kostenträgern Argumentationslinien vorschlagen. Die Teamleitung weiß von beidem nichts. Es gibt keine Regelung dazu. Es wurde nie besprochen.
Das ist die Realität in vielen Teams und Organisationen der Sozialwirtschaft:
KI ist längst präsent – in Form kleiner, auf den ersten Blick unspektakulärer Handgriffe (vgl. auch Löhe 2025: 160): Fallnotizen werden sprachlich geglättet, Konzeptentwürfe strukturiert, E-Mails an Kostenträger „professioneller” formuliert, Teamprotokolle zusammengefasst usw.
Dies geschieht häufig beiläufig, informal, auf privaten Endgeräten und damit in den Grauzonen der brauchbaren Illegalität. Vor allem aber passiert das, ohne dass die Organisation diese Nutzung als Teil ihrer eigenen Entscheidungsprozesse behandelt.
Warum KI kein „weiteres digitales Tool“, sondern „Personal“ ist
A propos Entscheidungen:
Organisationen können über drei Typen von Organisationsstrukturen entscheiden. Systemtheoretisch ausgedrückt sind dies die „Entscheidungsprämissen“ (hier mehr dazu):
- Programme (unterteilt in Zweck- und Konditionalprogramme),
- Entscheidungswege und
- Personal.
Klar, KI kann KI – je nach Einsatz – alle drei Entscheidungsprämissen berühren:
- Als Programm: Wenn KI in standardisierte Workflows eingebaut wird (z.B. Textklassifikation).
- Als Entscheidungsweg: Wenn KI-Vorschläge formale Prozesse ersetzen („wir brauchen kein Meeting mehr, die KI hat zusammengefasst“).
- Als Personal-Äquivalent: Wenn KI als delegationsfähige Instanz behandelt wird, die „mitdenkt und EWntscheidungen trifft“.
Interessant ist hier vor allem die Perspektive, KI nicht wie „klassische Digitalisierung“ (wie ein weiteres Dokumentationsprogramm oder eine neue Textverarbeitung) auf Ebene von Konditionalprogrammen, die nach dem Schema „Wenn – Dann” funktionieren, einzuordnen und zu behandeln, sondern KI der Entscheidungsprämisse „Personal“ zuzuordnen und „als funktional äquivalent zu einer Person“ (Richter, 2026) zu betrachten, die auf eine Stelle mit einem bestimmten Aufgabenprofil eingesetzt wird.
Das klingt erstmal komisch, wird aber greifbar, wenn man bedenkt, dass Personen in Organisationen einen großen – wenn nicht den größten – Unsicherheitsfaktor darstellen. Denn die Mitglieder von Organisationen können, müssen aber nicht, so entscheiden, wie es ihre Rolle von ihnen verlangt. Sie verfolgen eigene Interessen, bringen Inhalte ihrer anderen Rollen (bspw. als Mutter, Großvater, Vorsitzende des Kirchenchores…) und immer auch ihre eigenen Erfahrungen aus der Vergangenheit mit in die Organisation ein. Personal wird damit zu einer schwer kalkulierbaren, definitiv aber nicht „steuerbaren“ Einflussgröße.
Das ist bei KI nicht wesentlich anders, denn in beiden Fällen – bei Mitarbeitenden ebenso wie in der Nutzung von KI – werden bestimmte Aufgaben und Entscheidungen übertragen, inklusive der organisationalen Anweisung, dass Entscheidungen der Rolleninhaberin (der KI oder der Person in ihrer Rolle) zu befolgen sind.
Organisationen geben Entscheidungsspielräume, Bedarfe und Macht an eine undurchschaubare „Blackbox“ (die KI oder die Person in ihrer Rolle) – im Vertrauen darauf, dass die Blackbox gute Entscheidungen treffen wird, ohne zu wissen, wie genau sie entscheidet (vgl. Richter, 2026).
Kurz gesagt: KI ist wie eine zusätzliche Mitarbeiterin zu betrachten. Die „Kollegin KI“ (meine heißt – wenig kreativ – Chattie) macht Vorschläge, liefert Argumente und strukturiert Entscheidungen zumindest mit.
Mit dieser Perspektive – weil KI in Organisationen Anschluss findet (oder eben nicht) – verschiebt sich etwas Grundlegendes: Es sind nicht nur Arbeitsabläufe, die „anders“ werden (manchmal effizienter, manchmal effektiver, manchmal beides nicht), sondern auch die Art und Weise, wie Entscheidungen entstehen, legitimiert und Verantwortung für Entscheidungen zugerechnet wird.
Die dominierende Informalität als Strukturmerkmal von Organisationen der Sozialwirtschaft
Um die Auswirkungen der Betrachtung von KI als Personal zu verstehen, warum KI in der Sozialwirtschaft so nahtlos „einsickert” und welche Auswirkungen das auf die Führung in Organisationen der Sozialwirtschaft hat, lohnt sich ein Blick auf ein besonderes Strukturmerkmal dieses Organisationstyps.
Das Paradox: Viel Formalität, noch mehr Informalität
Bei Organisationen der Sozialwirtschaft fällt auf, dass…
- … es umfangreiche formale Anforderungen gibt, die zum einen extern vorgegeben (Leistungsvereinbarungen, Dokumentationspflichten, Fachstandards, Auditlogiken, gesetzliche Vorgaben in den SGB) und zum anderen als „offizielle Mitgliedschaftsbedingungen“ intern gestaltet sind (formale Hierarchien, Gremienstrukturen, Regeln, Dienstanweisungen) und
- … in der Praxis gleichzeitig die andere, die informale Seite dominiert. Das liegt insbesondere (aber nicht nur) daran, dass „die Leistungserbringung der Organisation durch jeweils individuelle, situationsspezifisch ausgerichtete und flexible sowie in Koproduktion erfolgende Handlungsweisen gewährleistet werden muss“ (Gesmann, Merchel 2021256). Entscheidungen sind damit „nur sehr begrenzt durch Konditionalprogrammierung und durch festgelegte Entscheidungswege (u. a. Hierarchie) eingrenzbar“ (ebd.). Personen brauchen Spielräume, „kurze Dienstwege“ und die pragmatische Auslegung von Vereinbarungen, um professionell arbeiten zu können. Damit werden informale Muster wichtiger als die offiziellen Regeln und Vorgaben. Außerdem werden Entscheidungen situativ und „personennah“ statt formal korrekt getroffen („Der Klaus weiß Bescheid, frag den am besten!“).
Die dominierende Informalität ist nicht nur Chaos, sondern notwendig
Die „dominierende Informalität” sollte nicht ausschließlich normativ bewertet werden („Was für ein Chaosladen – hier muss Struktur rein!”). Denn die „brauchbare Illegalität” (vgl. Kühl, 2020) ist für soziale Organisationen überlebensnotwendig.
Maria kann sich im Krisengespräch mit einem suizidgefährdeten Jugendlichen nicht erst bei drei Instanzen rückversichern, bevor sie handelt. Sie hat auch keinen standardisierten Gesprächsleitfaden, der ihr vorgibt, was, wann und wie sie etwas sagen soll. Maria agiert zu 100 % selbstbestimmt und eigenverantwortlich. Entsprechend braucht sie zwingend informelle Entscheidungs- und „nicht durch Standardisierung normierte Handlungsspielräume” (Gesmann/Merchel 2021: 28).
Mit anderen Worten kompensiert die Informalität die Unmöglichkeit, hoch komplexe, individuelle und somit nicht standardisierbare Hilfeprozesse vollständig zu standardisieren. Gerade in der „diffusen Allzuständigkeit” (vgl. Thiersch, zit. n. Hollstein-Brinkmann, 1993: 166) der Sozialen Arbeit – im Kontakt mit Menschen, in Krisen und mehrdeutigen Situationen – ist eine Formalisierung dieser Entscheidungs- und Ermessensspielräume undenkbar.
Allein die Vorstellung, Soziale Arbeit ausschließlich als „Dienst nach Vorschrift” zu betreiben, zeigt, dass damit nicht nur die Wirksamkeit, sondern auch das Überleben der Organisation gefährdet wäre.
Der Kipppunkt: Wenn Informalität in Unverbindlichkeit umschlägt
Problematisch wird es jedoch, wenn die dominierende Informalität überhandnimmt. Dies zeigt sich unter anderem darin, dass formale Entscheidungswege ignoriert und regelmäßig umgangen werden, die Verbindlichkeit im Team sinkt und notwendige organisationale Veränderungen vor allem durch „Aussitzen” beantwortet werden. Diese „Kultur der Informalität”, die als nicht formal entschiedene, aber erwartbar gewordene informale Ordnung verstanden wird, kann von Führungskräften kaum noch beeinflusst werden.
Besonders schwierig wird es, wenn dadurch das Vertrauen in die Leistungsfähigkeit der Organisation schwindet und beispielsweise Kostenträger oder „die Gesellschaft” anzweifeln, dass die verwendeten Ressourcen (meist öffentliche Steuergelder) „sinnvoll” investiert sind.
Warum KI perfekt an die Informalität sozialer Organisationen anschließt
Generative KI ist – so die These des Beitrags – besonders anschlussfähig an informale Organisationspraktiken und damit auch an die skizzierte dominierende Informalität sozialer Organisationen, weil sie drei Eigenschaften vereint:
- Niedrige Zugangsschwelle: Sie ist schnell verfügbar, liefert sofort verwertbare Ergebnisse (wie Texte, Listen, Vorschläge…).
- Hohe Kontextsensitivität: Mit wenigen Stichworten wirkt die Antwort „passend“ (zumindest auf den ersten Blick)
- Begründungsproduktion: Die KI liefert nicht nur Resultate, sondern gleich die dazugehörige Plausibilisierung.
Damit ist die informale Nutzung von KI prädestiniert, um in Organisationen der Sozialwirtschaft „einzusickern“:
Sie passt zum „kurzen Dienstweg“, da sie nicht verlangt, dass Entscheidungsvorlagen lange Wege durch Gremien durchlaufen oder „offiziell abgesegnet“ werden müssen. Darüber hinaus unterstützt KI die pragmatische Auslegung komplexer Situationen, da sie in jeder Situation neue Formulierungen, Abwägungen und Deutungen erzeugt.
Damit geht laut einer These auch eine „gefühlte Sicherheit“ einher, die insbesondere weniger erfahrene Mitarbeitende in den hochkomplexen Alltagssituationen und der diffusen Allzuständigkeit der Sozialen Arbeit häufig vermissen.
Martina könnte vor oder sogar während des Gesprächs mit dem suizidgefährdeten Jugendlichen die KI nach Optionen fragen – und sie würde zumindest schlüssig klingende Antworten bekommen.
So kann es passieren, dass Marias KI-Nutzung schnell zum informalen Muster im Team wird: „Mach mal schnell …” oder „Da fragen wir doch schnell mal die KI!” wird zur Alltagspraxis, die von anderen Kolleg:innen nicht nur übernommen, sondern erwartet wird – ohne dass darüber gesprochen oder gar formale Entscheidungen getroffen wurden. Es entsteht eine neue, informale Erwartungsstruktur, die auf der Nutzung von KI basiert.
KI hat somit nicht nur Einfluss auf den administrativen Teil der Sozialen Arbeit, sondern zunehmend auch auf deren Kerntätigkeiten. Die Folge ist, dass sich „Fehler der KI (…) als möglicher Schaden direkt auf die Klient:innen der Sozialen Arbeit auswirken” (Löhe 2025: 161).
Dass KI perfekt an die Informalität sozialer Organisationen anschließt widerspricht auch nicht den Ergebnissen einer Studie, nach der „der tatsächliche Einsatz von KI-gestützten Anwendungen (…) in der Sozialwirtschaft noch gering ausgeprägt“ (vgl. Kreidenweis/Diepold 2024:8, hier herunterladen) ist, denn: Fragen nach dem Umfang der informalen KI-Nutzung und damit Fragen nach „brauchbaren Illegalitäten“ werden kaum ehrlich beantwortet.
Wie KI Führung in Organisationen der Sozialwirtschaft verändert
Die skizzierten Entwicklungen betreffen jedoch nicht nur die Praxis „an der Basis” und damit den „diffusen Kern“ Sozialer Arbeit, sondern auch die Führung. Die Frage, wie KI die Führung in Organisationen der Sozialwirtschaft verändert, ist somit mindestens ebenso relevant.
Unter „Führung” wird hier die hochkomplexe Aufgabe der „Steuerung des Unsteuerbaren” (Wimmer, 2011) verstanden und definiert als „situativ erfolgreiche Einflussnahme in kritischen Momenten“ (Muster et al., 2020:294) definiert.
Um aber situativ erfolgreich Einfluss nehmen zu können, müssen Führungskräfte kontinuierlich die „Führungsschleife“ durchlaufen, die – leicht angepasst – aus den drei Schritten a) Beobachten, b) Bewerten und Entscheiden und c) Umsetzen besteht (vgl. Richter/Groth 2023: 22 und Gesmann, 2025:26).
Wenn – den Ausführungen von Richter/Groth (2023) folgend – Organisationen als „Netzwerke fortlaufender Entscheidungen“ definiert werden können und das Treffen von Entscheidungen eine der Hauptaufgaben von Führungskräften ist, muss genauer auf das Treffen von Entscheidungen geschaut werden. Und das ist wiederum alles andere als trivial, denn:
„Nur die Fragen, die im Prinzip unentscheidbar sind, können wir entscheiden.“ (v. Förster, 1993:73).
Das heißt, dass echte Entscheidungen, die Kreativität und Komplexität erfordern (das „Unentscheidbare“), nicht trivial berechenbar sind und gerade deshalb überhaupt entscheidbar werden und entschieden werden müssen (wenn klar ist, was richtig ist, braucht es keine Entscheidung).
Damit geht – vergleichbar zur Arbeit an der Basis der Sozialen Arbeit – eine hohe Unsicherheit einher: Entscheidungen können auch immer falsch sein.
Entsprechend ist die Erzeugung gefühlter Sicherheit in komplexen Entscheidungssituationen durch die Nutzung von KI auch für Führungskräfte hoch attraktiv ist.
Darüber hinaus erhöht die Nutzung von KI die Effizienz. Sie spart damit Zeit, die – nicht nur, aber auch – unter den Bedingungen von Fachkräftemangel sowieso extrem begrenzt ist (vgl. zu den Herausforderungen, die mit der Effizienzsteigerung von KI einhergehen die Studie hier).
Kurz gesagt dient die Nutzung von KI in Führung also der Unsicherheitsabsorption und der Effizienzsteigerung.
Das ist doch super, oder?
KI tritt in Entscheidungszusammenhänge ein
Na, nicht ganz, denn aus der Perspektive, dass Organisationen aus Entscheidungen bestehen und eine der Kernaufgaben von Führung darin besteht, Entscheidungen zu treffen, ist die wesentliche Frage, inwiefern das Treffen von in der Organisation anschlussfähigen Entscheidungen und die Entscheidungen selbst durch die Nutzung generativer KI beeinflusst werden.
Denn Entscheidungen werden – auch in Organisationen der Sozialwirtschaft – längst unter Zuhilfenahme von KI getroffen und gehen weit über eine Effizienzsteigerung hinaus (vgl. dazu auch Löhe, 2025:160). Das erzeugt jedoch verschiedene Probleme:
KI wird genutzt, um Ideen zu generieren, die als Vorentscheidungen definiert werden können. Sie legen fest, welche Optionen überhaupt zur Auswahl stehen. Die KI generiert aus einer Vielzahl möglicher Handlungsalternativen bestimmte Varianten und präsentiert sie als relevante Wahlmöglichkeiten, während andere Optionen unsichtbar bleiben oder gar nicht erst generiert werden. Diese Vorselektion bestimmt maßgeblich den Möglichkeitsraum, innerhalb dessen sich die spätere Entscheidung bewegt.
Die Auswahl der Optionen durch die KI wird darüber hinaus über Bewertungskriterien bestimmt, die definieren, was als gutes oder schlechtes Argument, als relevant oder irrelevant, als überzeugend oder schwach gilt. Diese Kriterien basieren auf den Trainingsdaten und Algorithmen des Systems. Sie können von den Prioritäten und Wertvorstellungen der menschlichen Entscheider:innen abweichen, ohne dass dies transparent wird.
Generative KI produziert zudem Textbausteine und Formulierungen, die je nach Prompt anders ausfallen und gleichzeitig die Rahmung eines Themas oder Problems bestimmen. Diese sprachliche Rahmung ist ebenfalls nicht neutral, sondern lenkt die Wahrnehmung in bestimmte Richtungen, betont bestimmte Aspekte und blendet andere aus. Die Art und Weise, wie eine zu entscheidende Situation beschrieben wird, beeinflusst maßgeblich, wie sie verstanden und bewertet wird.
Darüber hinaus nimmt das KI-System Priorisierungen vor, indem es festlegt, welche Angelegenheiten als dringend gelten und welche zurückgestellt werden können. Diese zeitliche Strukturierung und Gewichtung von Optionen, Themen, Aufgaben und Problemen hat Einfluss darauf, womit sich Entscheider:innen zuerst beschäftigen und welche Ressourcen bestimmten Themen zugewiesen werden.
Auch Risikoabschätzungen werden durch KI-Systeme generiert, die auf Basis statistischer Modelle und historischer Daten einschätzen, welche Konsequenzen aus bestimmten Handlungen folgen könnten. Diese Prognosen prägen die Risikowahrnehmung der menschlichen Entscheider:innen erheblich, obwohl sie auf Annahmen und Modellen beruhen, die möglicherweise wichtige Faktoren nicht berücksichtigen, veraltet sein können oder systematische Verzerrungen enthalten.
Schließlich liefert die KI Begründungslogiken, die erklären, warum eine Option vermeintlich besser ist als eine andere. Diese Argumentationsmuster strukturieren den darauffolgenden Rechtfertigungsdiskurs und geben vor, welche Gründe als gewichtig gelten und wie verschiedene Faktoren gegeneinander abgewogen werden sollten.
Entscheidend (höhö) ist, dass all diese Aspekte – Vorentscheidungen, Bewertungskriterien, Textbausteine, Priorisierungen, Risikoabschätzungen und Begründungslogiken – in die finale Entscheidung einfließen und diese maßgeblich prägen, ohne dass die KI offiziell als Entscheidungsinstanz auftritt.
Die Entscheidung wird zwar formal weiterhin von Menschen, in dem Fall von Führungskräften, getroffen, denen die Verantwortung für die Entscheidung zugerechnet wird. Jedoch sind die Grundlagen, auf denen die Entscheidung beruht, durch das KI-System vorstrukturiert.
Diese Form der (mindestens indirekten) Einflussnahme auf Entscheidungen ist besonders wirkmächtig, weil sie (meist) unsichtbar bleibt und die Illusion menschlicher Autonomie aufrechterhält, während faktisch bereits wesentliche Weichen durch die KI gestellt wurden.
Zusammenfassend: Künstliche Intelligenz wird in Entscheidungsprozessen eingesetzt. Und dort entfaltet sie ihre Wirkung auf subtile, aber weitreichende Weise, die häufig unterschätzt wird. Auch wenn KI-Systeme formal nicht die finale Entscheidung treffen, prägen sie den gesamten Entscheidungskontext und schaffen damit eine Realität, in der menschliche Entscheider:innen bereits in einem vorstrukturierten Rahmen agieren.
Es ist dann nicht mehr nachvollziehbar, warum genau und anhand von welchen Kriterien und Entscheidungswegen welche Entscheidungen wie getroffen wurde, wodurch die Vergleichbarkeit und Nachvollziehbarkeit von Entscheidungen sinkt.
Nachvollziehbarkeit, Vergleichbarkeit, Kriterien und nachvollziehbare Entscheidungswege sind jedoch notwendig, um organisationale Lernschleifen zu etablieren. Anders formuliert privatisiert „KI-Nutzung im Graubereich“ das Lernen: Einzelne Personen werden (vielleicht) schneller und ggf. schlauer, aber die Organisation als soziales System lernt nicht.
Der Automation Bias: Wenn Systemvorschläge einfach(er) übernommen werden
In dem skizzierten Kontext das außerdem das bekannte Phänomen des „Automation Bias“ nicht übersehen werden. Gemeint ist damit, dass eine übermäßige Nutzung und ggf. sogar Abhängigkeit von technischen Entscheidungsunterstützungssystemen zu Automatisierungsverzerrungen führt.
Der Automation Bias tritt auf, „wenn eine übermäßige Abhängigkeit von Entscheidungsunterstützungssystemen zu einer verringerten Wachsamkeit bei der Suche und Verarbeitung von Informationen führt. Das kann sowohl zu Unterlassungsfehlern (wichtige Hinweise übersehen, weil das System sie nicht hervorhebt) als auch zu aktiven Fehlern (Befolgen falscher Systemempfehlungen führen“ (Löhe: 2025:168).
Das zeigt sich am fiktiven Beispiel vonThomas, der sich von der KI bspw. Argumente für den Kostenträger zur Fortführung einer Hilfemaßnahme generieren lässt. Die KI schlägt eine bestimmte Begründungslinie vor. Thomas übernimmt sie, weil sie plausibel klingt (und er sowieso keine Zeit hat…). Er übersieht dabei aber, dass ein wichtiges Detail aus der Fallgeschichte fehlt, das die Argumentation verändern würde.
Human-in-the-loop kann zur gut gemeinten Illusion werden
Viele Organisationen reagieren mit der Formel: „Am Ende entscheidet immer ein Mensch.“ Das ist rechtlich und normativ verständlich – aber organisationspraktisch oft eine Beruhigungserzählung.
Der entscheidende Einfluss einer KI liegt nämlich bereits in der Vorstrukturierung:
- Welche Optionen werden überhaupt sichtbar gemacht?
- Welche Kriterien erscheinen plausibel?
- Wie wird ein Fall gerahmt (als „Krise“ oder „normale Entwicklung“)?
- Welche Formulierungen erzeugen welche Anschlussfähigkeit gegenüber Kostenträgern, Aufsicht, Angehörigen?
Wenn KI Führung in der Sozialwirtschaft verändert – wer trägt dann die Verantwortung?
Entscheidungen in Organisationen entstehen häufig emergent: Sie entwickeln sich aus vielen kleinen Beiträgen, Deutungen und Anschlusskommunikationen und verdichten sich zu einem Ergebnis, das im Nachhinein als „die Entscheidung“ erscheint.
Für „die Entscheidung“ muss dann – trotz aller Irrungen und Wirrungen – am Ende jemand „den Hut aufsetzen“. Kurz gesagt:
Verantwortung wird im Nachhinein zugeschrieben – meist Personen und vor allem den in der Organisation „oben aufgehängten“ Führungskräften.
Jetzt ist jedoch KI faktisch und sehr aktiv im Entscheidungsprozess beteiligt. Sie ist damit zwar als funktional äquivalent zu einer Person zu betrachten – am Ende des Tages aber nicht zurechnungsfähig im Sinne der Organisation (keine Rolle, keine Haftung).
Das erhöht die Wahrscheinlichkeit von Legitimationskonflikten: Wer trägt die Verantwortung, wenn die KI-Vorstrukturierung einen Fall in eine bestimmte und im Rückblick falsche Richtung gedrängt hat?
Beispielhaft dokumentiert Martina einen Vorfall mit KI-Unterstützung. Die KI rahmt das Verhalten eines Jugendlichen als „aggressiv“ statt „verzweifelt“. Diese Rahmung beeinflusst die Folgeentscheidungen der Teamleitung, die die Dokumentation durch KI zusammenfassen lässt („Ich hatte echt keine Zeit!“). Und dann kommt es zu Beschwerden: Wer ist verantwortlich? Die dokumentierende Person? Die KI? Die Teamleitung, die die KI ebenfalls genutzt hat?
Gerade in der Sozialwirtschaft – mit vulnerablen Nutzer:innen, hoher normativer Dichte und externem Legitimationsdruck – ist die Verantwortungszurechnung ein hoch relevantes Thema.
Professionelle Autonomie: Unterstützung oder verdeckte Standardisierung?
Noch ein abschließender Gedanke – auch wenn der Beitrag jetzt schon zu lang ist:
In der Sozialwirtschaft ist Professionalität wie oben skizziert eng an Ermessensspielräume und an die Fähigkeit gebunden, Situationen mehrperspektivisch zu deuten.
KI kann hier sehr hilfreich sein:
- Sie entlastet bei Routinetexten.
- Sie dokumentiert strukturierter.
- Sie hilft bei Vorab-Recherche.
- Sie generiert Varianten und alternative Perspektiven.
Das kann Professionalität sogar stärken, weil Zeit frei wird für den Kern Sozialer Arbeit und damit für das, was nicht delegierbar ist: Beziehungsarbeit, Intervention, Aushandlung, Verantwortungsübernahme.
Gleichzeitig lauert die Nebenfolge, dass KI informale Standards und Muster generiert. Nicht als offizielles Fachkonzept, sondern als stille Normierung über:
- Formulierungen („so schreibt man das“)
- Argumentationsmuster („das sind gute Gründe“)
- Falllogiken („so deutet man diese Situation“)
Wenn sich in Teams eine Praxis etabliert, in der KI-Antworten als „gute“ Antworten gelten, kann professionelle Autonomie unbemerkt kippen: Von reflektierter Ermessensentscheidung zu „KI sagt…“
Konkret könnte in einem Team das Muster entstehen, schwierige Elterngespräche mit KI vorzubereiten. Die KI schlägt immer ähnliche Gesprächsstrukturen vor. Nach einiger Zeit werden diese Strukturen zur unausgesprochenen Norm – jedoch nicht, weil sie fachlich begründet wurden, sondern weil „es halt funktioniert“. Die ursprüngliche Vielfalt und die professionell notwendige Individualität wird unmerklich verengt.
Fazit: Die zentrale Verschiebung verstehen
KI verändert Führung in der Sozialwirtschaft nicht primär, indem sie Führung ersetzt. Sie verändert Führung – insbesondere, indem sie in Entscheidungsprozesse als Einflüsterungsstruktur mit Vorstrukturierungsmacht eintritt. Das gilt für alle Organisationen. Unter Berücksichtigung der Ausführungen zu den Besonderheiten von Organisationen der Sozialwirtschaft (vgl. ausführlich Gesmann, Merchel 2021:49ff) und vor allem der „dominierenden Informalität“ ist die informale KI-Nutzung jedoch besonders anschlussfähig mit der Gefahr, dass sie bestehende Informalität verstärkt (und damit den Kipppunkt zur Unverbindlichkeit näher bringt), neue Legitimationskonflikte erzeugt (weil Verantwortungszurechnung komplizierter wird und KI nicht zurechnungsfähig ist) und notwendige professionelle Autonomie ambivalent beeinflusst (gleichzeitig unterstützend und standardisierend).
Wichtig ist damit, KI nicht unreflektiert als „neues, digitales Tool“ zu betrachten. Das führt zu Nebenfolgen. Diesen kann begegnet werden, wenn KI als „Personal“ und damit als Teil von Entscheidungsprozessen und Organisationsstrukturen betrachtet wird.
Wie angedroht geht’s im noch zu erstellenden zweiten Teil dieses Beitrags um die praktische Frage: Wie können Führungskräfte mit dieser Verschiebung konkret umgehen?
Quellen:
- Foerster, H. von (1993): KybernEthik. Berlin: Merve.
- Gesmann, S.; Merchel, J. (2021): Systemisches Management in Organisationen der Sozialen Arbeit. Handbuch für Studium und Praxis. Heidelberg.
- Gesmann, S. (2025): Systemisches Führen – Perspektiverweiterung im Sozialmanagement. In: SOZIALWIRTSCHAFT 5/2025. S. 25 – 28.
- Kühl, S. (2020): Brauchbare Illegalität. Vom Nutzen des Regelbruchs in Organisationen. Campus Verlag.
- Kreidenweis, H., Diepholz, M. (2024): Studie. Künstliche Intelligenz in der Sozialwirt
schaft. Forschungsbericht. Hannover: Althammer & Kill. - Löhe, J. (2025): Mensch, Maschine und Management: KI im Spannungsfeld von Sozialarbeit und Sozialmanagement. In: Linnemann, G., Löhe, J., Rottkemper, B. (Hrsg.): Künstliche Intelligenz in der Sozialen Arbeit: Grundlagen für Theorie und Praxis. Weinheim: Beltz Verlagsgruppe. S. 156 – 173.
- Muster, J.; Büchner, S., Hoebel, T.; Koepp, T. (2020): Führung als erfolgreiche Einflussnahme in kritischen Momenten. In: Barthel, Chr. (Hrsg.): Managementmoden in der Verwaltung. Sinn und Unsinn. Wiesbaden. S. 285–306.
- Richter, T., Groth, T. (2023): Wirksam führen mit Systemtheorie: Kernideen für die Praxis. Heidelberg.
- Richter, T. (2025): Entscheidende KI in Führung. URL: https://www.simon-weber.de/blog/entscheidende-ki-in-fuehrung/
- Wimmer, R. (2011): Die Steuerung des Unsteuerbaren. In: Pörksen B. (Hrsg.): Schlüsselwerke des Konstruktivismus. Wiesbaden: Verlag für Sozialwissenschaften. S. 520–547.
Ähnliche Beiträge:
- Wirksame Führungsgrundsätze gestalten: Klarheit und Orientierung vor Schauseite und Werten Führungsleitbilder funktionieren hervorragend – nach außen. Intern bleiben sie zu...
- Fachkräftemangel als Chance – 10 Möglichkeiten für die Soziale Arbeit Die Auswirkungen des Fachkräftemangels in der Sozialen Arbeit heute und...
- Podcast: Ist eine agile Organisation krisenfester? „Ich hoffe, dass jede Organisation in einen gemeinsamen Reflexionsprozess kommt....
- 4 Gründe, warum sich Sozialarbeiter mit Selbstmanagement beschäftigen müssen Zuletzt aktualisiert am 29. Oktober 2018 durch HendrikEpe Heute mal...
