Schlagwort: KI

KI und Digitalisierung in der Sozialwirtschaft: Neun Leitorientierungen für Führungskräfte

Tags: , , , , , , , , , ,

Die Frage nach dem richtigen Umgang mit KI und Digitalisierung in der Sozialwirtschaft stellt sich Vorständen, Geschäftsführungen und Führungskräften nicht erst seit heute, aber mit zunehmender Dringlichkeit. Die im Folgenden dargelegten neun Leitorientierungen sind der Versuch, einen Orientierungsrahmen zu bieten und das komplexe Thema in der systemischen Organisationstheorie zu verorten. Dies ist relevant, da digitale Technologien und KI-Systeme zunehmend alle gesellschaftlichen Bereiche durchdringen. Klar ist, dass Organisationen der Sozialwirtschaft davon aus verschiedenen Perspektiven nicht ausgenommen sind und mit den damit einhergehenden Auswirkungen konfrontiert sind. Es gilt somit, in diesem Thema „in Führung zu gehen“ und die Veränderung der Organisation, der Arbeitsweisen und Entscheidungsprozesse bewusst zu gestalten.

Für Führungskräfte in Organisationen der Sozialwirtschaft ergibt sich daraus eine doppelte Verantwortung: Einerseits gilt es, die Potenziale digitaler Werkzeuge und KI-Systeme für die eigene Organisation nutzbar zu machen – etwa zur Reduktion administrativer Lasten, zur Verbesserung von Datenanalysen oder zur Erweiterung von Dienstleistungen und Beratungsangeboten. Andererseits muss sichergestellt werden, dass der professionelle Kern der Sozialen Arbeit – die beziehungsbasierte, individualisierte Unterstützung von Menschen in schwierigen Lebenslagen – nicht durch eine unkritische Technologisierung geschwächt oder gar ersetzt wird.

Die neun Leitorientierungen fußen auf einem systemtheoretischen Verständnis von Organisationen und sind ein zusammenfassendes Ergebnis aus verschiedenen Workshops zum Thema und den Ergebnissen des Moduls „Digitalisierung/KI aus systemischer Perspektive”, das ich in diesem Jahr erstmals im Rahmen des Hochschulzertifikatskurses „Systemisches Sozialmanagement” der FH Münster angeboten habe (kleiner Werbeblock: Der Kurs startet wieder im Oktober 2026, es gibt noch ein paar freie Plätze und hier kannst du dich für eine kostenlose Infoveranstaltung dazu anmelden).

Danke an dieser Stelle schon jetzt an Marion und Christian für euer Mitdenken an dieser „Version 1.0“ der Leitorientierungen. Sie sind als erster Entwurf zu verstehen, der – so meine Hoffnung – durch weiteres Feedback aus der Community weiterentwickelt wird. Deswegen: Schreib mir gerne – hier als Kommentar oder per Mail:

  • Sind die Leitorientierungen für Dich und Deine Organisation brauchbar?
  • Wo braucht es Verbesserungen im Wissen, dass das hochkomplexe Thema schwer zu fassen ist?
  • Was fehlt komplett?

Warum sich Führungskräfte spätestens jetzt um KI und Digitalisierung kümmern müssen

Der seit 2007 jährlich erscheinende IT-Report für die Sozialwirtschaft der Katholischen Universität Eichstätt-Ingolstadt zeigt in der aktuellen Ausgabe ein eher ernüchterndes Bild :

Soziale Einrichtungen und Dienste gelingt es trotz stetig steigender IT-Investitionen nur unzureichend, die Potenziale digitaler Technologien tatsächlich auszuschöpfen. KI und Robotik haben noch nicht flächendeckend Einzug in die Branche gehalten, obwohl die grundsätzliche Bereitschaft hierfür vorhanden ist (ebd., S. 16ff):

  • 53% der Führungskräfte in der Sozialwirtschaft schätzen ihren KI-Wissensstand als nur mittelmäßig ein
  • 22% beurteilen ihren Wissensstand sogar als gering oder sehr gering
  • 12% möchten KI weder jetzt noch in der Zukunft einsetzen

Besonders problematisch ist eine weitere Beobachtung: Häufig ist die mittlere Führungsebene besser über Möglichkeiten und Grenzen von KI-Technologien informiert als Vorstände und Geschäftsführungen. Dies deutet darauf hin, dass strategische Weichenstellungen in vielen Organisationen ausbleiben, während auf operativer Ebene und häufig auf der informalen Seite der Organisation insbesondere mit KI bereits experimentiert wird – dann jedoch ohne übergeordneten Rahmen, ohne Datenschutzkonzepte und ohne ethische Leitlinien.

Die Notwendigkeit, sich als Leitungsebene aktiv mit diesem Thema zu befassen, ergibt sich also nicht nur aus technologischen Chancen, sondern auch aus der Verantwortung für einen verantwortungsvollen und rechtskonformen Umgang mit sensiblen Klient:innendaten, aus der Pflicht zur professionellen Steuerung des eigenen Betriebs und aus der Pflicht, die Profession der Sozialen Arbeit zu stärken.

Der Schlüssel für eine erfolgreiche digitale Zukunft in der Sozialwirtschaft liegt darin, die vorhandenen Chancen zu erkennen und gleichzeitig verantwortungsbewusst zu handeln und damit den professionellen Kern der sozialen Arbeit zu bewahren und zu stärken (vgl. auch Civic Data Lab, 2024).

KI und Digitalisierung in der Sozialwirtschaft: 9 Leitorientierungen für Führungskräfte

Die folgenden Leitorientierungen verstehen sich als analytische Kategorien, die Führungskräften helfen sollen, die richtigen Fragen zu stellen – bevor Entscheidungen über Technologieeinsatz getroffen werden.

I: Kläre, was „gute Soziale Arbeit“ und damit der professionelle Kern ist und prüfe, ob KI und Digitalisierung diesen stärken oder gefährden

Software und KI-Systeme sollen als „digitale Werkzeuge“ einen Mehrwert schaffen und nicht nur eingesetzt werden, um eingesetzt zu werden. Damit der Mehrwert digitaler Werkzeuge in Organisationen der Sozialwirtschaft zur Geltung kommen kann, muss zunächst das „Wozu“ der eigenen Arbeit klar sein. Was macht unsere Soziale Arbeit wirklich aus? Erst wenn diese Frage beantwortet ist, lässt sich beurteilen, ob und wie digitale Tools oder KI-Systeme tatsächlich einen Mehrwert schaffen, welche Prozesse durch sie unterstützt oder verbessert werden können und welche aus fachlich-ethischen Erwägungen den Menschen vorbehalten bleiben sollten, damit sie den Kern der Sozialen Arbeit nicht überlagern, formalisieren oder gefährden.

Nicht nur, aber insbesondere bei der Einführung und Weiterentwicklung von digitalen Tools oder KI-Systemen ist die Klärung der Frage als Aushandlungsprozess zu verstehen, der regelmäßig durchlaufen werden wollte. Denn was „gute Soziale Arbeit“ bedeutet, verändert sich mit gesellschaftlichen Diskursen, politischen Vorgaben und den Bedarfen der Nutzer:innen. KI und Digitalisierung können diesen Auftrag unterstützen, indem z. B. administrative Lasten reduziert oder Daten analysiert werden – doch sie dürfen ihn nicht unreflektiert ersetzen. Technik darf insbesondere in der Sozialen Arbeit nicht zum Selbstzweck werden.

Praxisbeispiel

Ein Träger der Wohnungslosenhilfe definiert im Rahmen eines Strategieprozesses, dass die „aufsuchende Beziehungsarbeit“ sein unverzichtbarer professioneller Kern ist. Auf dieser Grundlage entscheidet er, KI vorerst für administrative Dokumentationsaufgaben einzusetzen. Die Nutzung für Falleinschätzung oder Beratungsgespräche erfolgt erst, wenn klar ist, welche Möglichkeiten KI-Modelle für ambulante Settings bieten, die auf mobilen Geräten lokal genutzt werden können.

II: Unterscheide Digitalisierung und KI

Die Begriffe „Digitalisierung” und „KI” werden oft synonym verwendet. Dabei adressieren sie jedoch verschiedene Logiken:

  • Die Digitalisierung betrifft vor allem die Erfassung, Speicherung und Verfügbarmachung von Daten sowie die Automatisierung vormals analoger Prozesse, beispielsweise durch digitale Aktenführung oder Online-Beratung. Ihr Ziel ist es, vornehmlich über die Konditionalprogrammierung Komplexität zu reduzieren, administrative Aufgaben zu erleichtern und die Zugänglichkeit zu erhöhen. Die Digitalisierung verändert somit nicht die inhaltliche Arbeit selbst, sondern kann diese unterstützen.
  • KI bzw. spezifischer „generative KI“ betrifft hingegen die Datennutzung, um Entscheidungen vorzubereiten und Muster zu erkennen. KI kann somit nicht nur Prozesse, sondern auch das Treffen von Entscheidungen verändern. Dadurch kann Entlastung geschaffen werden, beispielsweise durch die Analyse großer Datenmengen. Gleichzeitig können sich jedoch auch Machtverhältnisse verschieben, beispielsweise wenn Entscheidungsvorbereitungen für Risikobewertungen durch KI erarbeitet werden oder wenn neue Abhängigkeiten entstehen, etwa von externen Anbietern proprietärer KI-Systeme.

Beide Technologien können sich überlagern, da wenn digitale Daten (Digitalisierung) als Grundlage für KI-Analysen dienen. Sie berühren jedoch unterschiedliche Entscheidungsprämissen:

  • Die Digitalisierung betrifft im Wesentlichen Arbeitsabläufe im Sinne der Konditionalprogrammierung (Prozesse, Regeln) sowie die Sammlung und Nutzung von Daten durch Menschen, die dabei weiterhin die handelnden Akteure sind.
  • Generative KI kann, sofern keine bewusste Eingrenzung erfolgt, direkten Einfluss auf Kommunikationswege („Wer trifft welche Entscheidungen?”) und das Personal („Welche Rolle übernimmt KI in der Organisation?”) haben, da hier die Datenauswertung durch KI-Systeme stattfindet und Menschen die generierten Ergebnisse nutzen. Sie haben jedoch keinen unmittelbaren Zugang mehr zu den verwendeten Daten.

Dies hat wiederum Auswirkungen auf die informale Seite der Organisation (Kultur). Werden die Auswirkungen nicht reflektiert, können Interventionen an den falschen Stellen ansetzen. Die Unterscheidung ermöglicht außerdem eine gezielte Entscheidung darüber, wo welche Technologie sinnvoll eingesetzt wird (Digitalisierung dort, wo Komplexität reduziert werden soll, und KI dort, wo konkrete Probleme gelöst werden müssen, die ohne KI nicht bzw. nur mit erheblichem Mehraufwand bearbeitbar wären).

Praxisbeispiel

Eine Einrichtung der Kinder- und Jugendhilfe unterscheidet in ihrer Digitalstrategie klar zwischen der Einführung einer digitalen Dokumentationssoftware (Digitalisierung) und dem Pilotprojekt zur KI-gestützten Risikoeinschätzung bei Kindeswohlgefährdungen (KI). Für Letzteres werden gesonderte ethische Leitlinien und Datenschutzkonzepte entwickelt.

III: Entscheide, wo generative KI gehostet werden soll und wie die Datenbasis sowie die Systemprompts aussehen sollen und reflektiere anschließend die ethischen, rechtlichen und organisatorischen Konsequenzen.

Nicht jede KI-Lösung ist für die Anforderungen der Sozialen Arbeit geeignet – und die Wahl der Infrastruktur hat weitreichende Konsequenzen. Generative KI-Systeme, die auf den LLM der bekannten kommerziellen Anbieter beruhen, sind zwar schnell einsatzbereit, niedrigschwellig und skalierbar, werfen jedoch ethische und rechtliche Fragen auf. Vor allem ist die Datenhoheit nicht garantiert, was zu Konflikten mit dem Datenschutz führen kann. Außerdem entsteht durch die Nutzung externer Dienste eine Abhängigkeit von großen Tech-Konzernen.

Selbst gehostete KI bietet hier mehr Souveränität, da sensible Daten unter eigener Kontrolle bleiben, die KI individuell angepasst werden kann (z. B. durch spezifisches Training mit eigenen Daten) und langfristig unabhängig betrieben werden kann. Gleichzeitig bestehen technische und finanzielle Hürden, da selbst gehostete Lösungen Investitionen in Server, Wartung und IT-Expertise erfordern. Die Implementierung und Pflege ist ressourcenintensiv und erfordert kontinuierliche Anpassung.

Eine Einrichtung, die sich für generative KI entscheidet, muss Transparenz, Datenschutz und kritische Reflexion sehr gezielt gestalten – etwa durch die Nutzung zertifizierter Anbieter, die Einhaltung von Open-Source-Prinzipien, das BIAS Testing oder die Entwicklung und Kontrolle interner Nutzungsrichtlinien. Selbst gehostete KI stärkt hingegen die Autonomie der Organisation, was auch langfristig deutlich sinnvoller ist – für den Preis, dass selbst gehostete KI nur auf die von der Organisation bereitgestellten Daten zugreifen kann.

Außerdem ist auf die dritte Option hinzuweisen: die Nutzung von KI-Systemen spezialisierter Anbieter aus dem Bereich der Sozialen Arbeit (vgl. bspw. hier).

Praxisbeispiel

Ein mittelgroßer Wohlfahrtsverband entscheidet sich für einen europäischen, DSGVO-konformen KI-Anbieter – und schließt per Vertrag aus, dass Klientinnendaten in das Training des Modells einfließen dürfen. Parallel dazu prüft er eine Kooperation mit anderen Trägern für eine gemeinsam selbst gehostete Lösung – bspw. zur Pflegedokumentation.

IV: Analysiere alle Prozesse der Organisation – und frage, wo KI und Digitalisierung echten Mehrwert schaffen

Bevor KI oder Digitalisierung eingeführt werden, ist es zielführend, eine umfassende Prozessanalyse der Kern-, Unterstützungs- und Managementprozesse durchzuführen: Welche Prozesse haben wir? Welche sind ineffizient? Wo entstehen unnötige Arbeitslasten? Wo gibt es Schnittstellenprobleme?

Die Analyse sollte fachlich fokussiert sein und die Bedarfe der Sozialen Arbeit ebenso wie die organisationalen Dynamiken berücksichtigen. Denn oft sind es nicht die Prozesse, die das Problem darstellen, sondern informale Routinen, Muster und bislang brauchbare Illegalitäten, die durch die Analyse sichtbar gemacht werden.

Erst jedoch, wenn die Prozesse in der Organisation transparent sind, kann entschieden werden, ob und wo digitale Tools und/oder KI sinnvoll zum Einsatz kommen können.
Auch die Prozessanalyse ist kein einmaliger Akt, sondern regelmäßig zu wiederholen, da sich Prozesse in Organisationen der Sozialwirtschaft kontinuierlich verändern.

Wichtig ist, dass die Einführung und Nutzung von KI oder Digitalisierung zu den individuellen Bedarfen der Organisation, der Fachkräfte und der Klient:innen passen. Entsprechend sind nicht nur die formalen Prozesse zu optimieren, sondern auch die informellen Dynamiken zu reflektieren.

Praxisbeispiel

Eine stationäre Einrichtung der Eingliederungshilfe führt vor der Einführung einer neuen Software eine Prozesslandkarte ein und stellt dabei fest, dass ein erheblicher Teil der Koordinationsarbeit über informelle Übergabegespräche läuft, die bislang nirgendwo abgebildet waren. Diese Erkenntnis führt dazu, dass das digitale System gezielt um asynchrone Kommunikationsfunktionen erweitert wird.

V: Gestalte die Einführung und Nutzung von KI und Digitalisierung partizipativ

Nur wenn die Personen, die die Systeme nutzen, aktiv in deren Gestaltung eingebunden sind, können diese brauchbar implementiert und bedarfsgerecht weiterentwickelt werden. Eine Einführung „von oben nach unten“ wird das „Immunsystem“ des sozialen Systems aktivieren.

Partizipation bedeutet jedoch nicht, dass alle über alles mitentscheiden, sondern dass Entscheidungen nachvollziehbar sind, weil die Perspektive nicht nur von IT-Spezialist:innen oder der Leitung, sondern vor allem die der Betroffenen berücksichtigt wird. Dazu gehören gezielte Weiterbildungen, Pilotprojekte und Raum für Erprobung, um die Akzeptanz zu erhöhen. Und auch wenn es eine Binsenweisheit ist: Kritische Rückmeldungen sind ernst zu nehmen, da der Widerstand gegen KI und Digitalisierung oft fachlich begründet ist – etwa, wenn Fachkräfte befürchten, dass informelle, aber für die Arbeit notwendige Handlungsspielräume verloren gehen. Entsprechend sollten auch kritische und wenig technikaffine Mitarbeitende bspw. an Testgruppen beteiligt sein.

Durch das partizipative Vorgehen können darüber hinaus kulturelle Annahmen der Organisation hinterfragt und Transparenz sowie Vertrauen geschaffen werden.

Praxisbeispiel

Eine Beratungsstelle richtet eine abteilungsübergreifende Arbeitsgruppe ein, in der Fachkräfte, Teamleitungen und Verwaltungsmitarbeitende gemeinsam Anforderungen an ein neues Klientenverwaltungssystem erarbeiten. Die Pilotierung erfolgt zunächst in einem Team mit begleiteter Reflexion; erst danach wird der Rollout auf die gesamte Organisation ausgeweitet.

VI: Reflektiere kontinuierlich die kulturellen Auswirkungen der Einführung und Nutzung digitaler Systeme – und gestalte auch die formale Seite bewusst

Digitale Systeme sind keine neutralen Werkzeuge, sondern bringen eine eigene Logik mit sich.

Durch die Digitalisierung werden Abläufe formalisiert, Prozesse standardisiert und Komplexität reduziert. Die Formalisierungslogik steht jedoch in einem Spannungsverhältnis zur Sozialen Arbeit, da deren professionelle Handlungsspielräume nicht formalisierbar sind, da jede Klientin und jeder Klient einzigartige Bedürfnisse haben. Durch die Digitalisierung werden außerdem brauchbare Illegalitäten (z. B. informelle Absprachen, die „die Dinge am Laufen halten“) sichtbar, was wiederum zu neuen Entscheidungsnotwendigkeiten führt. Zudem kann das Vertrauen der Fachkräfte durch befürchtete Kontrollmechanismen (z. B. durch digitale Dokumentation) untergraben werden.

Organisationen der Sozialwirtschaft sind somit gezwungen, ihre eigenen Werte und Prioritäten zu klären und mit nicht auflösbaren Paradoxien (z. B. Effizienz vs. Menschlichkeit oder Kontrolle vs. Vertrauen) umzugehen. Damit die Möglichkeiten der Digitalisierung Wirkung zeigen, müssen unter anderem Regeln und Prozesse so gestaltet werden, dass sie fachliche Handlungsspielräume nicht einschränken, sondern unterstützen.

Praxisbeispiel

Nach Einführung einer digitalen Zeiterfassung beobachtet eine Beratungseinrichtung einen Rückgang informeller Teamkommunikation. In einer Mitarbeitendenbefragung zeigt sich, dass Fachkräfte den Eindruck haben, stärker kontrolliert zu werden. Die Leitungsebene reagiert mit einer transparenten Kommunikation über den Zweck der Zeiterfassung und erarbeitet gemeinsam mit dem Team neue, für das Team brauchbare Regelungen.

VII: Führe KI wie Mitarbeitende

KI-Systeme haben einen deutlich größeren Einfluss als bisherige digitale Systeme und können – sofern man die in Organisationen entscheidbaren Entscheidungsprämissen heranzieht (vgl. hier mehr dazu) – als „Personal“ verortet werden: Der Input (Daten und Prompts) führt durch die Verarbeitung in einer kaum durchschaubaren „Blackbox“ zu einem nur sehr schwer genau nachvollziehbaren Output, der so oder auch anders hätte ausfallen können. Dies ist vergleichbar mit der „Blackbox Mitarbeiter:in“, an die Entscheidungsspielräume, -bedarfe und -macht delegiert werden und die ebenfalls undurchschaubar ist (vgl. dazu ausführlich Richter o. J. und weitergehend Österreich 2026; Kerstan, S., Georganta, E., Ulfert-Blank, A. 2023). Diese Perspektive auf KI wird dann zum Problem, wenn in der Organisation nicht offiziell über die KI-Nutzung entschieden wurde und somit die „Schatten-KI“ dominiert (Mitarbeitende nutzen generative KI als „brauchbare Illegalität“).

Entsprechend ist der Kontext für KI-Systeme bewusst zu gestalten. Sie benötigen – ebenso wie „Personal“ – klare Rollenbeschreibungen (z. B. ‚Assistenz bei Datenauswertung‘), Kompetenzgrenzen (z. B. keine autonomen Entscheidungen in der Fallarbeit) und Regeln zur Nutzung (z. B. Transparenzpflicht bei KI-gestützten Empfehlungen). Bei externen KI-Lösungen (Punkt 3) sind diese Regeln vertraglich mit Anbietern zu klären.

Gleichwohl ist zu beachten, dass die Verantwortung für getroffene Entscheidungen nicht an KI-Systeme delegiert werden kann. KI-Systeme lassen sich aus systemtheoretischer Perspektive als „Mitglieder ohne Haftung“ (Oesterreich 2026) definieren.

Abschließend ist zu betonen, dass Mitarbeiterführung auch die Kontrolle von Arbeitsergebnissen und bei Bedarf die Intervention bei Abweichungen bedeutet. In Bezug auf KI wird diese Kontrolle hoch relevant, da KI-Modelle Bias mitbringen und halluzinieren werden. Eine kritische Reflexion der durch KI-Systeme generierten Ergebnisse auf Basis für die Organisation brauchbarer Qualitätskriterien ist daher unverzichtbar. Es muss außerdem sichergestellt werden, dass Menschen immer die finale Entscheidung und Kontrolle haben.

Praxisbeispiel

Ein Jugendhilfeträger erarbeitet eine organisationale KI-Richtlinie, die festlegt, dass KI für Protokollerstellung und Textformulierungen eingesetzt werden darf, nicht jedoch für Empfehlungen in Kinderschutzverfahren. Alle KI-gestützten Textprodukte sind als solche zu kennzeichnen. Mitarbeitende werden durch eine verpflichtende Schulung für die Risiken eines unkritischen KI-Einsatzes sensibilisiert.

VIII: Die Einführung und Nutzung digitaler Systeme erfordert kontinuierliche Selbstirritation

Die digitale Transformation ist ein permanenter Veränderungsprozess, der alle Bereiche einer Organisation durchdringt – von den formalen Strukturen bis hin zu den informellen Routinen und Werten. Technologie verändert somit kontinuierlich die Art und Weise, wie eine Organisation funktioniert und sich selbst versteht – sei es durch technologische Sprünge, gesetzliche Veränderungen, gesellschaftliche Verschiebungen oder die sich wandelnden Bedürfnisse der Klient:innen.

Das dynamische Wechselspiel zwischen Struktur und Kultur, das sich aus der digitalen Transformation ergibt, ist somit dauerhaft hinsichtlich seiner Brauchbarkeit für das Überleben der Organisation zu beobachten. Auf Basis der Beobachtungen sind fortlaufend Entscheidungen zu treffen, die wiederum umzusetzen sind. Der Prozess aus Beobachtung, Entscheidung und Umsetzung ist bewusst zu gestalten, indem…

  • …die Einführung und Nutzung von Digitalisierung und KI kontinuierlich hinsichtlich ihrer Wirksamkeit, Akzeptanz und Nebenfolgen überprüft wird. In diese Reflexion müssen neben technischen Fragen auch soziale und organisationale Aspekte einbezogen werden: Verstärkt das System die Arbeit mit Klient:innen oder steht es im Weg? Führt es zu mehr Effizienz oder zu neuer Bürokratie?
  • …relevante Umwelten, Trends, technologische Entwicklungen und neue Bedarfe, beispielsweise durch die Analyse von Marktentwicklungen, den Dialog mit Klient:innen oder die Nutzung von Netzwerken mit Kooperationspartner:innen, reflektiert werden.
  • …Weiterbildungsangebote so gestaltet werden, dass sie nicht nur technische Kompetenzen vermitteln, sondern auch kritische Reflexionsfähigkeit stärken: Wie nutzen wir digitale Tools verantwortungsvoll? Wo stoßen sie an ihre Grenzen?
  • …Digitalisierung und KI-Einführung als kontinuierlicher Lernprozess begriffen werden, bei dem auch Fehler passieren. Es gilt, Räume zu schaffen, in denen kritische Fragen gestellt und Fehler angesprochen werden können, um Verbesserung und Lernen zu ermöglichen.

Zusammenfassend geht es um eine Kultur der Selbstirritation, die Organisationen dazu befähigt, sich selbst zu hinterfragen, und die ihnen gleichzeitig die Chance bietet, neue Wege zu erproben und Technologie im Dienst ihres sozialen Auftrags zu gestalten.

Praxisbeispiel

Eine Einrichtung der Eingliederungshilfe führt halbjährliche „Digitalisierungsdialoge“ ein, in denen Führungskräfte und Fachkräfte gemeinsam evaluieren: Welche digitalen Tools funktionieren gut – und warum? Wo entstehen neue, unerwünschte (Bürokratisierungs-)Effekte? Welche technologischen Entwicklungen sollten beobachtet werden? Die Ergebnisse fließen direkt in die Jahresplanung ein.

IX: Beziehe die ökologischen und sozialen Implikationen digitaler Systeme in alle Entscheidung mit ein

Digitale Technologien sind nicht klimaneutral. Insbesondere KI-Systeme verbrauchen enorme Mengen an Energie und Rechenleistung – von der Entwicklung und dem Training der Modelle bis hin zum laufenden Betrieb. Die Reflexion der ökologischen Implikationen ist relevant, da so die Werte einer Organisation (z. B. „Nachhaltigkeit“, „Gerechtigkeit“) nicht nur in der direkten sozialen Arbeit, sondern auch in der Wahl der technischen Infrastruktur sichtbar werden. Konkret gilt es …

  • …ressourcenschonende Technologien zu wählen (z. B. energieeffiziente Server, Cloud-Dienste mit grünem Strom).
  • … zu entscheiden, für welches Problem die KI-Nutzung wirklich eine Lösung ist.
  • …Transparenz zu schaffen und die ökologischen Auswirkungen digitaler Systeme offenzulegen, etwa durch CO₂-Bilanzen oder die Offenlegung des Energieverbrauchs.

Bei den sozialen Implikationen der KI-Nutzung ist insbesondere (aber nicht nur) aus Perspektive der Sozialen Arbeit daran zu denken, dass Datenarbeiter*innen – vornehmlich im globalen Süden auf Kosten ihrer mentalen Gesundheit – Content vorsortieren, damit die KI-Modelle nur auf „cleanen“ Inhalten trainiert werden können.

Praxisbeispiel

Ein konfessioneller Träger integriert ökologische Kriterien in seine IT-Beschaffungsrichtlinie: Anbieter werden nach Energieeffizienz und CO₂-Bilanz bewertet; für interne Berichte wird eine jährliche Darstellung des digitalen Energieverbrauchs eingeführt. Dies wird auch als Ausdruck des Nachhaltigkeitsleitbilds der Organisation kommuniziert.

KI und Digitalisierung in der Sozialwirtschaft: Umsetzungsimpulse für Deine Organisation

Die neun Leitorientierungen sind keine Checkliste, die einmalig abgearbeitet wird und dann ist alles gut. Sie sollen vielmehr als dauerhafte Reflexionsfolie oder Landkarte für strategische Entscheidungen dienen, woraus sich drei konkrete Handlungsfelder ergeben:

  • Schaffe Räume zum offenen Austausch über die gemeinsame Basis – beginnend mit dem „Wozu“: Was ist der professionelle Kern Deiner Einrichtung, und wie verhält er sich zu den Möglichkeiten und Risiken digitaler Technologien? Die Beantwortung dessen ist in regelmäßigen Zyklen zu wiederholen, wobei Fach- und Führungskräfte ebenso wie IT-Expert:innen und andere Stakeholder (bspw. Klient:innen, Partnerorganisationen) beteiligt werden wollte.
  • Entwickle klare organisationale Regelwerke für den Umgang mit KI: Wie sind welche Systeme zu welchem Zweck zu nutzen? Welche Entscheidungen dürfen nicht an KI delegiert werden? Welche Datenschutz- und Transparenzpflichten gelten? Diese Fragen lassen sich nicht allein technisch oder rechtlich beantworten, sondern sind ebenso organisationsethische Fragen.
  • Etabliere Formate der kontinuierlichen Reflexion wie bspw. Evaluationsschleifen, Weiterbildungsangebote mit Reflexionsanteil und eine Fehlerkultur, die digitale Transformationsprozesse als das versteht, was sie sind – lernintensive Veränderungsprozesse ohne gesicherten Ausgang.

Zusammenfassend geht’s um die Fragen: Was kann Technologie? Was wollen wir mit ihr erreichen? Und was schützen wir dabei?


Wie gestaltest Du den Umgang mit KI in Deiner Organisation? Teile Deine Erfahrungen, Kritik oder Fragen – ob als Kommentar hier oder per E-Mail. Besonders interessiert mich:

  • Welche der 9 Leitorientierungen ist für Dich am relevantesten?
  • Wo siehst Du noch blinde Flecken im Thema KI & Sozialwirtschaft?
  • Hast Du bereits gute Praxisbeispiele, die andere inspirieren könnten?

Gemeinsam können wir den Diskurs voranbringen – ich freue mich auf Deine Perspektive!


Quellen und weiterführende Literatur

  • Civic Data Lab (2024). KI in der Sozialwirtschaft – Analyse der Studie Kreidenweis/Diepold. URL: https://civic-data.de/blog/ki-sozialwirtschaft/
  • Deutscher Bildungsserver (2025). Dossier: KI und Digitalisierung in der Sozialen Arbeit. URL: https://www.bildungsserver.de/sozialpaedagogik/kuenstliche-intelligenz-ki-in-der-sozialen-arbeit-13030-de.html
  • Kreidenweis, H. & Wolff, D. (2024). IT-Report für die Sozialwirtschaft 2024. Arbeitsstelle Sozialinformatik, KU Eichstätt-Ingolstadt. URL: www.sozialinformatik.de
  • Kreidenweis, H. & Diepold, M. (2024). Studie: KI in der Sozialwirtschaft – Potenziale nutzen, Risiken erkennen. KU Eichstätt-Ingolstadt / Althammer & Kill. URL: www.althammer-kill.de/ki-studie-sozialwirtschaft
  • Linnemann, G., Löhe, J., Rottkemper, B. (Hrsg. 2025): Künstliche Intelligenz in der Sozialen Arbeit: Grundlagen für Theorie und Praxis. Weinheim: Beltz Juventa. URL: https://www.beltz.de/fachmedien/sozialpaedagogik_soziale_arbeit/produkte/details/57311-kuenstliche-intelligenz-in-der-sozialen-arbeit-grundlagen-fuer-theorie-und-praxis.html
  • Stieler, M., Domes, M., Burghardt, J. & Lehmann, R. (2024). KI: Innovation oder alter Wein in neuen Schläuchen? Herausforderungen und (An-)Fragen an die Soziale Arbeit als Beziehungsprofession. Sozialwissenschaftliche Literatur Rundschau, 89, S. 101–112.
  • Sozial Extra (2025). Akzeptanz von KI und organisationale Rahmenbedingungen in der Sozialen Arbeit. URL: https://link.springer.com/article/10.1007/s12054-025-00783-3

Wie KI Führung in der Sozialwirtschaft verändert – Teil 1

Tags: , , , , , , ,

Dieser Beitrag analysiert – inspiriert durch den lesenswerten Beitrag „Entscheidende KI in Führung“ von Timm Richter (hier lesen) – aus organisationstheoretischer Perspektive, wie (und warum) KI Führung in der Sozialwirtschaft verändert.

Der Fokus liegt dabei weder auf den technischen Details von KI noch auf der rein effizienzsteigernden Nutzung von KI durch Prozessautomatisierung, sondern auf den Auswirkungen der KI-Nutzung auf Entscheidungsprozesse und Organisationsstrukturen.

Und – so viel sei vorab verraten – es wird einen zweiten Beitrag geben, der sich konkreten Handlungsempfehlungen für Führungskräfte widmet.

TL;DR: KI verändert Führung in der Sozialwirtschaft nicht durch Automatisierung und Standardisierung, sondern vor allem, indem sie Entscheidungen vorstrukturiert – oft informal und ungeregelt. Weil sie wie „Personal“ wirkt (Optionen, Rahmung, Begründungen), passt sie perfekt zur dominierenden Informalität sozialer Organisationen: entlastend und sicherheitsstiftend, aber mit verschiedenen Risiken, die berücksichtigt werden müssen.

KI ist da – nur nicht offiziell

Maria, die uns durch den Beitrag begleiten wird, leitet eine Wohngruppe für junge Erwachsene. Gestern Abend um 22 Uhr kam es zu einem Vorfall, der dokumentiert werden musste. Ihre handschriftlichen Notizen waren voller Abkürzungen und Gedankensprünge. Bevor sie die Dokumentation ins System übertrug, ließ sie den Text mithilfe von ChatGPT auf ihrem privaten Smartphone „professioneller” formulieren. Zwei Minuten später hatte sie eine strukturierte Fallnotiz, die sie nur noch leicht anpassen und einfügen musste.

Ihr Kollege Thomas – auch ihn werden wir im Beitrag wieder treffen – nutzt KI anders: Er lässt sich vor schwierigen Gesprächen mit Kostenträgern Argumentationslinien vorschlagen. Die Teamleitung weiß von beidem nichts. Es gibt keine Regelung dazu. Es wurde nie besprochen.

Das ist die Realität in vielen Teams und Organisationen der Sozialwirtschaft:

KI ist längst präsent – in Form kleiner, auf den ersten Blick unspektakulärer Handgriffe (vgl. auch Löhe 2025: 160): Fallnotizen werden sprachlich geglättet, Konzeptentwürfe strukturiert, E-Mails an Kostenträger „professioneller” formuliert, Teamprotokolle zusammengefasst usw.

Dies geschieht häufig beiläufig, informal, auf privaten Endgeräten und damit in den Grauzonen der brauchbaren Illegalität. Vor allem aber passiert das, ohne dass die Organisation diese Nutzung als Teil ihrer eigenen Entscheidungsprozesse behandelt.

Warum KI kein „weiteres digitales Tool“, sondern „Personal“ ist

A propos Entscheidungen:

Organisationen können über drei Typen von Organisationsstrukturen entscheiden. Systemtheoretisch ausgedrückt sind dies die „Entscheidungsprämissen“ (hier mehr dazu):

  • Programme (unterteilt in Zweck- und Konditionalprogramme),
  • Entscheidungswege und
  • Personal.

Klar, KI kann – je nach Einsatz – alle drei Entscheidungsprämissen berühren:

  • Als Programm: Wenn KI in standardisierte Workflows eingebaut wird (z.B. Textklassifikation).
  • Als Entscheidungsweg: Wenn KI-Vorschläge formale Prozesse ersetzen („wir brauchen kein Meeting mehr, die KI hat zusammengefasst“).
  • Als Personal-Äquivalent: Wenn KI als delegationsfähige Instanz behandelt wird, die „mitdenkt und EWntscheidungen trifft“.

Interessant ist hier vor allem die Perspektive, KI nicht wie „klassische Digitalisierung“ (wie ein weiteres Dokumentationsprogramm oder eine neue Textverarbeitung) auf Ebene von Konditionalprogrammen, die nach dem Schema „Wenn – Dann” funktionieren, einzuordnen und zu behandeln, sondern KI der Entscheidungsprämisse „Personal“ zuzuordnen und „als funktional äquivalent zu einer Person“ (Richter, 2026) zu betrachten, die auf eine Stelle mit einem bestimmten Aufgabenprofil eingesetzt wird.

Das klingt erstmal komisch, wird aber greifbar, wenn man bedenkt, dass Personen in Organisationen einen großen – wenn nicht den größten – Unsicherheitsfaktor darstellen. Denn die Mitglieder von Organisationen können, müssen aber nicht, so entscheiden, wie es ihre Rolle von ihnen verlangt. Sie verfolgen eigene Interessen, bringen Inhalte ihrer anderen Rollen (bspw. als Mutter, Großvater, Vorsitzende des Kirchenchores…) und immer auch ihre eigenen Erfahrungen aus der Vergangenheit mit in die Organisation ein. Personal wird damit zu einer schwer kalkulierbaren, definitiv aber nicht „steuerbaren“ Einflussgröße.

Das ist bei KI nicht wesentlich anders, denn in beiden Fällen – bei Mitarbeitenden ebenso wie in der Nutzung von KI – werden bestimmte Aufgaben und Entscheidungen übertragen, inklusive der organisationalen Anweisung, dass Entscheidungen der Rolleninhaberin (der KI oder der Person in ihrer Rolle) zu befolgen sind.

Organisationen geben Entscheidungsspielräume, Bedarfe und Macht an eine undurchschaubare „Blackbox“ (die KI oder die Person in ihrer Rolle) – im Vertrauen darauf, dass die Blackbox gute Entscheidungen treffen wird, ohne zu wissen, wie genau sie entscheidet (vgl. Richter, 2026).

Kurz gesagt: KI ist wie eine zusätzliche Mitarbeiterin zu betrachten. Die „Kollegin KI“ (meine heißt – wenig kreativ – Chattie) macht Vorschläge, liefert Argumente und strukturiert Entscheidungen zumindest mit.

Mit dieser Perspektive – weil KI in Organisationen Anschluss findet (oder eben nicht) – verschiebt sich etwas Grundlegendes: Es sind nicht nur Arbeitsabläufe, die „anders“ werden (manchmal effizienter, manchmal effektiver, manchmal beides nicht), sondern auch die Art und Weise, wie Entscheidungen entstehen, legitimiert und Verantwortung für Entscheidungen zugerechnet wird.

Die dominierende Informalität als Strukturmerkmal von Organisationen der Sozialwirtschaft

Um die Auswirkungen der Betrachtung von KI als Personal zu verstehen, warum KI in der Sozialwirtschaft so nahtlos „einsickert” und welche Auswirkungen das auf die Führung in Organisationen der Sozialwirtschaft hat, lohnt sich ein Blick auf ein besonderes Strukturmerkmal dieses Organisationstyps.

Das Paradox: Viel Formalität, noch mehr Informalität

Bei Organisationen der Sozialwirtschaft fällt auf, dass…

  • es umfangreiche formale Anforderungen gibt, die zum einen extern vorgegeben (Leistungsvereinbarungen, Dokumentationspflichten, Fachstandards, Auditlogiken, gesetzliche Vorgaben in den SGB) und zum anderen als „offizielle Mitgliedschaftsbedingungen“ intern gestaltet sind (formale Hierarchien, Gremienstrukturen, Regeln, Dienstanweisungen) und
  • … in der Praxis gleichzeitig die andere, die informale Seite dominiert. Das liegt insbesondere (aber nicht nur) daran, dass „die Leistungserbringung der Organisation durch jeweils individuelle, situationsspezifisch ausgerichtete und flexible sowie in Koproduktion erfolgende Handlungsweisen gewährleistet werden muss“ (Gesmann, Merchel 2021256). Entscheidungen sind damit „nur sehr begrenzt durch Konditionalprogrammierung und durch festgelegte Entscheidungswege (u. a. Hierarchie) eingrenzbar“ (ebd.). Personen brauchen Spielräume, „kurze Dienstwege“ und die pragmatische Auslegung von Vereinbarungen, um professionell arbeiten zu können. Damit werden informale Muster wichtiger als die offiziellen Regeln und Vorgaben. Außerdem werden Entscheidungen situativ und „personennah“ statt formal korrekt getroffen („Der Klaus weiß Bescheid, frag den am besten!“).

Die dominierende Informalität ist nicht nur Chaos, sondern notwendig

Die „dominierende Informalität” sollte nicht ausschließlich normativ bewertet werden („Was für ein Chaosladen – hier muss Struktur rein!”). Denn die „brauchbare Illegalität” (vgl. Kühl, 2020) ist für soziale Organisationen überlebensnotwendig.

Maria kann sich im Krisengespräch mit einem suizidgefährdeten Jugendlichen nicht erst bei drei Instanzen rückversichern, bevor sie handelt. Sie hat auch keinen standardisierten Gesprächsleitfaden, der ihr vorgibt, was, wann und wie sie etwas sagen soll. Maria agiert zu 100 % selbstbestimmt und eigenverantwortlich. Entsprechend braucht sie zwingend informelle Entscheidungs- und „nicht durch Standardisierung normierte Handlungsspielräume” (Gesmann/Merchel 2021: 28).

Mit anderen Worten kompensiert die Informalität die Unmöglichkeit, hoch komplexe, individuelle und somit nicht standardisierbare Hilfeprozesse vollständig zu standardisieren. Gerade in der „diffusen Allzuständigkeit” (vgl. Thiersch, zit. n. Hollstein-Brinkmann, 1993: 166) der Sozialen Arbeit – im Kontakt mit Menschen, in Krisen und mehrdeutigen Situationen – ist eine Formalisierung dieser Entscheidungs- und Ermessensspielräume undenkbar.

Allein die Vorstellung, Soziale Arbeit ausschließlich als „Dienst nach Vorschrift” zu betreiben, zeigt, dass damit nicht nur die Wirksamkeit, sondern auch das Überleben der Organisation gefährdet wäre.

Der Kipppunkt: Wenn Informalität in Unverbindlichkeit umschlägt

Problematisch wird es jedoch, wenn die dominierende Informalität überhandnimmt. Dies zeigt sich unter anderem darin, dass formale Entscheidungswege ignoriert und regelmäßig umgangen werden, die Verbindlichkeit im Team sinkt und notwendige organisationale Veränderungen vor allem durch „Aussitzen” beantwortet werden. Diese „Kultur der Informalität”, die als nicht formal entschiedene, aber erwartbar gewordene informale Ordnung verstanden wird, kann von Führungskräften kaum noch beeinflusst werden.

Besonders schwierig wird es, wenn dadurch das Vertrauen in die Leistungsfähigkeit der Organisation schwindet und beispielsweise Kostenträger oder „die Gesellschaft” anzweifeln, dass die verwendeten Ressourcen (meist öffentliche Steuergelder) „sinnvoll” investiert sind.

Warum KI perfekt an die Informalität sozialer Organisationen anschließt

Generative KI ist – so die These des Beitrags – besonders anschlussfähig an informale Organisationspraktiken und damit auch an die skizzierte dominierende Informalität sozialer Organisationen, weil sie drei Eigenschaften vereint:

  1. Niedrige Zugangsschwelle: Sie ist schnell verfügbar, liefert sofort verwertbare Ergebnisse (wie Texte, Listen, Vorschläge…).
  2. Hohe Kontextsensitivität: Mit wenigen Stichworten wirkt die Antwort „passend“ (zumindest auf den ersten Blick)
  3. Begründungsproduktion: Die KI liefert nicht nur Resultate, sondern gleich die dazugehörige Plausibilisierung.

Damit ist die informale Nutzung von KI prädestiniert, um in Organisationen der Sozialwirtschaft „einzusickern“:

Sie passt zum „kurzen Dienstweg“, da sie nicht verlangt, dass Entscheidungsvorlagen lange Wege durch Gremien durchlaufen oder „offiziell abgesegnet“ werden müssen. Darüber hinaus unterstützt KI die pragmatische Auslegung komplexer Situationen, da sie in jeder Situation neue Formulierungen, Abwägungen und Deutungen erzeugt.

Damit geht laut einer These auch eine „gefühlte Sicherheit“ einher, die insbesondere weniger erfahrene Mitarbeitende in den hochkomplexen Alltagssituationen und der diffusen Allzuständigkeit der Sozialen Arbeit häufig vermissen.

Martina könnte vor oder sogar während des Gesprächs mit dem suizidgefährdeten Jugendlichen die KI nach Optionen fragen – und sie würde zumindest schlüssig klingende Antworten bekommen.

So kann es passieren, dass Marias KI-Nutzung schnell zum informalen Muster im Team wird: „Mach mal schnell …” oder „Da fragen wir doch schnell mal die KI!” wird zur Alltagspraxis, die von anderen Kolleg:innen nicht nur übernommen, sondern erwartet wird – ohne dass darüber gesprochen oder gar formale Entscheidungen getroffen wurden. Es entsteht eine neue, informale Erwartungsstruktur, die auf der Nutzung von KI basiert.

KI hat somit nicht nur Einfluss auf den administrativen Teil der Sozialen Arbeit, sondern zunehmend auch auf deren Kerntätigkeiten. Die Folge ist, dass sich „Fehler der KI (…) als möglicher Schaden direkt auf die Klient:innen der Sozialen Arbeit auswirken” (Löhe 2025: 161).

Dass KI perfekt an die Informalität sozialer Organisationen anschließt wird auch durch die Ergebnisse der DIGITASA-Studie (mehr Infos hier) gestützt. Demnach nutzen 29% der Befragten generative KI ( LLMs) mindestens einmal pro Woche beruflich – und je höher die Position in der Organisation, desto häufiger der Einsatz (vgl. näher Matthies et al. 2026).​ Und die Beobachtung, dass KI perfekt an die Informalität sozialer Organisationen anschließt widerspricht auch nicht den Ergebnissen einer Studie, nach der „der tatsächliche Einsatz von KI-gestützten Anwendungen (…) in der Sozialwirtschaft noch gering ausgeprägt“ (vgl. Kreidenweis/Diepold 2024:8, hier herunterladen) ist, denn: Fragen nach dem Umfang der informalen KI-Nutzung und damit Fragen nach „brauchbaren Illegalitäten“ werden kaum ehrlich beantwortet.

Wie KI Führung in Organisationen der Sozialwirtschaft verändert

Die skizzierten Entwicklungen betreffen jedoch nicht nur die Praxis „an der Basis” und damit den „diffusen Kern“ Sozialer Arbeit, sondern auch die Führung. Die Frage, wie KI die Führung in Organisationen der Sozialwirtschaft verändert, ist somit mindestens ebenso relevant.

Unter „Führung” wird hier die hochkomplexe Aufgabe der „Steuerung des Unsteuerbaren” (Wimmer, 2011) verstanden und definiert als „situativ erfolgreiche Einflussnahme in kritischen Momenten“ (Muster et al., 2020:294) definiert.

Um aber situativ erfolgreich Einfluss nehmen zu können, müssen Führungskräfte kontinuierlich die „Führungsschleife“ durchlaufen, die – leicht angepasst – aus den drei Schritten a) Beobachten, b) Bewerten und Entscheiden und c) Umsetzen besteht (vgl. Richter/Groth 2023: 22 und Gesmann, 2025:26).

Wenn – den Ausführungen von Richter/Groth (2023) folgend – Organisationen als „Netzwerke fortlaufender Entscheidungen“ definiert werden können und das Treffen von Entscheidungen eine der Hauptaufgaben von Führungskräften ist, muss genauer auf das Treffen von Entscheidungen geschaut werden. Und das ist wiederum alles andere als trivial, denn:

„Nur die Fragen, die im Prinzip unentscheidbar sind, können wir entscheiden.“ (v. Förster, 1993:73).

Das heißt, dass echte Entscheidungen, die Kreativität und Komplexität erfordern (das „Unentscheidbare“), nicht trivial berechenbar sind und gerade deshalb überhaupt entscheidbar werden und entschieden werden müssen (wenn klar ist, was richtig ist, braucht es keine Entscheidung).

Damit geht – vergleichbar zur Arbeit an der Basis der Sozialen Arbeit – eine hohe Unsicherheit einher: Entscheidungen können auch immer falsch sein.

Entsprechend ist die Erzeugung gefühlter Sicherheit in komplexen Entscheidungssituationen durch die Nutzung von KI auch für Führungskräfte hoch attraktiv ist.

Darüber hinaus erhöht die Nutzung von KI die Effizienz. Sie spart damit Zeit, die – nicht nur, aber auch – unter den Bedingungen von Fachkräftemangel sowieso extrem begrenzt ist (vgl. zu den Herausforderungen, die mit der Effizienzsteigerung von KI einhergehen die Studie hier).

Kurz gesagt dient die Nutzung von KI in Führung also der Unsicherheitsabsorption und der Effizienzsteigerung.

Das ist doch super, oder?

KI tritt in Entscheidungszusammenhänge ein

Na, nicht ganz, denn aus der Perspektive, dass Organisationen aus Entscheidungen bestehen und eine der Kernaufgaben von Führung darin besteht, Entscheidungen zu treffen, ist die wesentliche Frage, inwiefern das Treffen von in der Organisation anschlussfähigen Entscheidungen und die Entscheidungen selbst durch die Nutzung generativer KI beeinflusst werden.

Denn Entscheidungen werden – auch in Organisationen der Sozialwirtschaft – längst unter Zuhilfenahme von KI getroffen und gehen weit über eine Effizienzsteigerung hinaus (vgl. dazu auch Löhe, 2025:160). Das erzeugt jedoch verschiedene Probleme:

KI wird genutzt, um Ideen zu generieren, die als Vorentscheidungen definiert werden können. Sie legen fest, welche Optionen überhaupt zur Auswahl stehen. Die KI generiert aus einer Vielzahl möglicher Handlungsalternativen bestimmte Varianten und präsentiert sie als relevante Wahlmöglichkeiten, während andere Optionen unsichtbar bleiben oder gar nicht erst generiert werden. Diese Vorselektion bestimmt maßgeblich den Möglichkeitsraum, innerhalb dessen sich die spätere Entscheidung bewegt.

Die Auswahl der Optionen durch die KI wird darüber hinaus über Bewertungskriterien bestimmt, die definieren, was als gutes oder schlechtes Argument, als relevant oder irrelevant, als überzeugend oder schwach gilt. Diese Kriterien basieren auf den Trainingsdaten und Algorithmen des Systems. Sie können von den Prioritäten und Wertvorstellungen der menschlichen Entscheider:innen abweichen, ohne dass dies transparent wird.

Generative KI produziert zudem Textbausteine und Formulierungen, die je nach Prompt anders ausfallen und gleichzeitig die Rahmung eines Themas oder Problems bestimmen. Diese sprachliche Rahmung ist ebenfalls nicht neutral, sondern lenkt die Wahrnehmung in bestimmte Richtungen, betont bestimmte Aspekte und blendet andere aus. Die Art und Weise, wie eine zu entscheidende Situation beschrieben wird, beeinflusst maßgeblich, wie sie verstanden und bewertet wird.

Darüber hinaus nimmt das KI-System Priorisierungen vor, indem es festlegt, welche Angelegenheiten als dringend gelten und welche zurückgestellt werden können. Diese zeitliche Strukturierung und Gewichtung von Optionen, Themen, Aufgaben und Problemen hat Einfluss darauf, womit sich Entscheider:innen zuerst beschäftigen und welche Ressourcen bestimmten Themen zugewiesen werden.

Auch Risikoabschätzungen werden durch KI-Systeme generiert, die auf Basis statistischer Modelle und historischer Daten einschätzen, welche Konsequenzen aus bestimmten Handlungen folgen könnten. Diese Prognosen prägen die Risikowahrnehmung der menschlichen Entscheider:innen erheblich, obwohl sie auf Annahmen und Modellen beruhen, die möglicherweise wichtige Faktoren nicht berücksichtigen, veraltet sein können oder systematische Verzerrungen enthalten.

Schließlich liefert die KI Begründungslogiken, die erklären, warum eine Option vermeintlich besser ist als eine andere. Diese Argumentationsmuster strukturieren den darauffolgenden Rechtfertigungsdiskurs und geben vor, welche Gründe als gewichtig gelten und wie verschiedene Faktoren gegeneinander abgewogen werden sollten.

Entscheidend (höhö) ist, dass all diese Aspekte – Vorentscheidungen, Bewertungskriterien, Textbausteine, Priorisierungen, Risikoabschätzungen und Begründungslogiken – in die finale Entscheidung einfließen und diese maßgeblich prägen, ohne dass die KI offiziell als Entscheidungsinstanz auftritt.

Die Entscheidung wird zwar formal weiterhin von Menschen, in dem Fall von Führungskräften, getroffen, denen die Verantwortung für die Entscheidung zugerechnet wird. Jedoch sind die Grundlagen, auf denen die Entscheidung beruht, durch das KI-System vorstrukturiert.

Diese Form der (mindestens indirekten) Einflussnahme auf Entscheidungen ist besonders wirkmächtig, weil sie (meist) unsichtbar bleibt und die Illusion menschlicher Autonomie aufrechterhält, während faktisch bereits wesentliche Weichen durch die KI gestellt wurden.

Zusammenfassend: Künstliche Intelligenz wird in Entscheidungsprozessen eingesetzt. Und dort entfaltet sie ihre Wirkung auf subtile, aber weitreichende Weise, die häufig unterschätzt wird. Auch wenn KI-Systeme formal nicht die finale Entscheidung treffen, prägen sie den gesamten Entscheidungskontext und schaffen damit eine Realität, in der menschliche Entscheider:innen bereits in einem vorstrukturierten Rahmen agieren.

Es ist dann nicht mehr nachvollziehbar, warum genau und anhand von welchen Kriterien und Entscheidungswegen welche Entscheidungen wie getroffen wurde, wodurch die Vergleichbarkeit und Nachvollziehbarkeit von Entscheidungen sinkt.

Nachvollziehbarkeit, Vergleichbarkeit, Kriterien und nachvollziehbare Entscheidungswege sind jedoch notwendig, um organisationale Lernschleifen zu etablieren. Anders formuliert privatisiert „KI-Nutzung im Graubereich“ das Lernen: Einzelne Personen werden (vielleicht) schneller und ggf. schlauer, aber die Organisation als soziales System lernt nicht.

Der Automation Bias: Wenn Systemvorschläge einfach(er) übernommen werden

In dem skizzierten Kontext das außerdem das bekannte Phänomen des „Automation Bias“ nicht übersehen werden. Gemeint ist damit, dass eine übermäßige Nutzung und ggf. sogar Abhängigkeit von technischen Entscheidungsunterstützungssystemen zu Automatisierungsverzerrungen führt.

Der Automation Bias tritt auf, „wenn eine übermäßige Abhängigkeit von Entscheidungsunterstützungssystemen zu einer verringerten Wachsamkeit bei der Suche und Verarbeitung von Informationen führt. Das kann sowohl zu Unterlassungsfehlern (wichtige Hinweise übersehen, weil das System sie nicht hervorhebt) als auch zu aktiven Fehlern (Befolgen falscher Systemempfehlungen führen“ (Löhe: 2025:168).

Das zeigt sich am fiktiven Beispiel vonThomas, der sich von der KI bspw. Argumente für den Kostenträger zur Fortführung einer Hilfemaßnahme generieren lässt. Die KI schlägt eine bestimmte Begründungslinie vor. Thomas übernimmt sie, weil sie plausibel klingt (und er sowieso keine Zeit hat…). Er übersieht dabei aber, dass ein wichtiges Detail aus der Fallgeschichte fehlt, das die Argumentation verändern würde.

Human-in-the-loop kann zur gut gemeinten Illusion werden

Viele Organisationen reagieren mit der Formel: „Am Ende entscheidet immer ein Mensch.“ Das ist rechtlich und normativ verständlich – aber organisationspraktisch oft eine Beruhigungserzählung.

Der entscheidende Einfluss einer KI liegt nämlich bereits in der Vorstrukturierung:

  • Welche Optionen werden überhaupt sichtbar gemacht?
  • Welche Kriterien erscheinen plausibel?
  • Wie wird ein Fall gerahmt (als „Krise“ oder „normale Entwicklung“)?
  • Welche Formulierungen erzeugen welche Anschlussfähigkeit gegenüber Kostenträgern, Aufsicht, Angehörigen?

Wenn KI Führung in der Sozialwirtschaft verändert – wer trägt dann die Verantwortung?

Entscheidungen in Organisationen entstehen häufig emergent: Sie entwickeln sich aus vielen kleinen Beiträgen, Deutungen und Anschlusskommunikationen und verdichten sich zu einem Ergebnis, das im Nachhinein als „die Entscheidung“ erscheint.

Für „die Entscheidung“ muss dann – trotz aller Irrungen und Wirrungen – am Ende jemand „den Hut aufsetzen“. Kurz gesagt:

Verantwortung wird im Nachhinein zugeschrieben – meist Personen und vor allem den in der Organisation „oben aufgehängten“ Führungskräften.

Jetzt ist jedoch KI faktisch und sehr aktiv im Entscheidungsprozess beteiligt. Sie ist damit zwar als funktional äquivalent zu einer Person zu betrachten – am Ende des Tages aber nicht zurechnungsfähig im Sinne der Organisation (keine Rolle, keine Haftung).

Das erhöht die Wahrscheinlichkeit von Legitimationskonflikten: Wer trägt die Verantwortung, wenn die KI-Vorstrukturierung einen Fall in eine bestimmte und im Rückblick falsche Richtung gedrängt hat?

Beispielhaft dokumentiert Martina einen Vorfall mit KI-Unterstützung. Die KI rahmt das Verhalten eines Jugendlichen als „aggressiv“ statt „verzweifelt“. Diese Rahmung beeinflusst die Folgeentscheidungen der Teamleitung, die die Dokumentation durch KI zusammenfassen lässt („Ich hatte echt keine Zeit!“). Und dann kommt es zu Beschwerden: Wer ist verantwortlich? Die dokumentierende Person? Die KI? Die Teamleitung, die die KI ebenfalls genutzt hat?

Gerade in der Sozialwirtschaft – mit vulnerablen Nutzer:innen, hoher normativer Dichte und externem Legitimationsdruck – ist die Verantwortungszurechnung ein hoch relevantes Thema.

Professionelle Autonomie: Unterstützung oder verdeckte Standardisierung?

Noch ein abschließender Gedanke – auch wenn der Beitrag jetzt schon zu lang ist:

In der Sozialwirtschaft ist Professionalität wie oben skizziert eng an Ermessensspielräume und an die Fähigkeit gebunden, Situationen mehrperspektivisch zu deuten.

KI kann hier sehr hilfreich sein:

  • Sie entlastet bei Routinetexten.
  • Sie dokumentiert strukturierter.
  • Sie hilft bei Vorab-Recherche.
  • Sie generiert Varianten und alternative Perspektiven.

Das kann Professionalität sogar stärken, weil Zeit frei wird für den Kern Sozialer Arbeit und damit für das, was nicht delegierbar ist: Beziehungsarbeit, Intervention, Aushandlung, Verantwortungsübernahme.

Gleichzeitig lauert die Nebenfolge, dass KI informale Standards und Muster generiert. Nicht als offizielles Fachkonzept, sondern als stille Normierung über:

  • Formulierungen („so schreibt man das“)
  • Argumentationsmuster („das sind gute Gründe“)
  • Falllogiken („so deutet man diese Situation“)

Wenn sich in Teams eine Praxis etabliert, in der KI-Antworten als „gute“ Antworten gelten, kann professionelle Autonomie unbemerkt kippen: Von reflektierter Ermessensentscheidung zu „KI sagt…“

Konkret könnte in einem Team das Muster entstehen, schwierige Elterngespräche mit KI vorzubereiten. Die KI schlägt immer ähnliche Gesprächsstrukturen vor. Nach einiger Zeit werden diese Strukturen zur unausgesprochenen Norm – jedoch nicht, weil sie fachlich begründet wurden, sondern weil „es halt funktioniert“. Die ursprüngliche Vielfalt und die professionell notwendige Individualität wird unmerklich verengt.

Fazit: Die zentrale Verschiebung verstehen

KI verändert Führung in der Sozialwirtschaft nicht primär, indem sie Führung ersetzt. Sie verändert Führung – insbesondere, indem sie in Entscheidungsprozesse als Einflüsterungsstruktur mit Vorstrukturierungsmacht eintritt. Das gilt für alle Organisationen. Unter Berücksichtigung der Ausführungen zu den Besonderheiten von Organisationen der Sozialwirtschaft (vgl. ausführlich Gesmann, Merchel 2021:49ff) und vor allem der „dominierenden Informalität“ ist die informale KI-Nutzung jedoch besonders anschlussfähig mit der Gefahr, dass sie bestehende Informalität verstärkt (und damit den Kipppunkt zur Unverbindlichkeit näher bringt), neue Legitimationskonflikte erzeugt (weil Verantwortungszurechnung komplizierter wird und KI nicht zurechnungsfähig ist) und notwendige professionelle Autonomie ambivalent beeinflusst (gleichzeitig unterstützend und standardisierend).

Wichtig ist damit, KI nicht unreflektiert als „neues, digitales Tool“ zu betrachten. Das führt zu Nebenfolgen. Diesen kann begegnet werden, wenn KI als „Personal“ und damit als Teil von Entscheidungsprozessen und Organisationsstrukturen betrachtet wird.


Wie angedroht geht’s im noch zu erstellenden zweiten Teil dieses Beitrags um die praktische Frage: Wie können Führungskräfte mit dieser Verschiebung konkret umgehen?


Quellen:

  • Foerster, H. von (1993): KybernEthik. Berlin: Merve.
  • Gesmann, S.; Merchel, J. (2021): Systemisches Management in Organisationen der Sozialen Arbeit. Handbuch für Studium und Praxis. Heidelberg.
  • Gesmann, S. (2025): Systemisches Führen – Perspektiverweiterung im Sozialmanagement. In: SOZIALWIRTSCHAFT 5/2025. S. 25 – 28.
  • Kühl, S. (2020): Brauchbare Illegalität. Vom Nutzen des Regelbruchs in Organisationen. Campus Verlag.
  • Kreidenweis, H., Diepholz, M. (2024): Studie. Künstliche Intelligenz in der Sozialwirt
    schaft. Forschungsbericht. Hannover: Althammer & Kill.
  • Löhe, J. (2025): Mensch, Maschine und Management: KI im Spannungsfeld von Sozialarbeit und Sozialmanagement. In: Linnemann, G., Löhe, J., Rottkemper, B. (Hrsg.): Künstliche Intelligenz in der Sozialen Arbeit: Grundlagen für Theorie und Praxis. Weinheim: Beltz Verlagsgruppe. S. 156 – 173.
  • Matthies, A., Sailer, J., Tetens, J., Wahren, J. (2026): Large Language Models in der Sozialen Arbeit. Nutzung, Perspektiven und Rahmenbedingungen – Ergebnisse der DIGITASA-Befragung 2025. In: Deutscher Verein für öffentliche und private Fürsorge e.V. (Hg.), NDV – Nachrichtendienst 01/2026 (2026), Lambertus Verlag, Freiburg. S. 09 – 13.
  • Muster, J.; Büchner, S., Hoebel, T.; Koepp, T. (2020): Führung als erfolgreiche Einflussnahme in kritischen Momenten. In: Barthel, Chr. (Hrsg.): Managementmoden in der Verwaltung. Sinn und Unsinn. Wiesbaden. S. 285–306.
  • Richter, T., Groth, T. (2023): Wirksam führen mit Systemtheorie: Kernideen für die Praxis. Heidelberg.
  • Richter, T. (2025): Entscheidende KI in Führung. URL: https://www.simon-weber.de/blog/entscheidende-ki-in-fuehrung/
  • Wimmer, R. (2011): Die Steuerung des Unsteuerbaren. In: Pörksen B. (Hrsg.): Schlüsselwerke des Konstruktivismus. Wiesbaden: Verlag für Sozialwissenschaften. S. 520–547.