Die Frage nach dem richtigen Umgang mit KI und Digitalisierung in der Sozialwirtschaft stellt sich Vorständen, Geschäftsführungen und Führungskräften nicht erst seit heute, aber mit zunehmender Dringlichkeit. Die im Folgenden dargelegten neun Leitorientierungen sind der Versuch, einen Orientierungsrahmen zu bieten und das komplexe Thema in der systemischen Organisationstheorie zu verorten. Dies ist relevant, da digitale Technologien und KI-Systeme zunehmend alle gesellschaftlichen Bereiche durchdringen. Klar ist, dass Organisationen der Sozialwirtschaft davon aus verschiedenen Perspektiven nicht ausgenommen sind und mit den damit einhergehenden Auswirkungen konfrontiert sind. Es gilt somit, in diesem Thema „in Führung zu gehen“ und die Veränderung der Organisation, der Arbeitsweisen und Entscheidungsprozesse bewusst zu gestalten.
Für Führungskräfte in Organisationen der Sozialwirtschaft ergibt sich daraus eine doppelte Verantwortung: Einerseits gilt es, die Potenziale digitaler Werkzeuge und KI-Systeme für die eigene Organisation nutzbar zu machen – etwa zur Reduktion administrativer Lasten, zur Verbesserung von Datenanalysen oder zur Erweiterung von Dienstleistungen und Beratungsangeboten. Andererseits muss sichergestellt werden, dass der professionelle Kern der Sozialen Arbeit – die beziehungsbasierte, individualisierte Unterstützung von Menschen in schwierigen Lebenslagen – nicht durch eine unkritische Technologisierung geschwächt oder gar ersetzt wird.
Die neun Leitorientierungen fußen auf einem systemtheoretischen Verständnis von Organisationen und sind ein zusammenfassendes Ergebnis aus verschiedenen Workshops zum Thema und den Ergebnissen des Moduls „Digitalisierung/KI aus systemischer Perspektive”, das ich in diesem Jahr erstmals im Rahmen des Hochschulzertifikatskurses „Systemisches Sozialmanagement” der FH Münster angeboten habe (kleiner Werbeblock: Der Kurs startet wieder im Oktober 2026, es gibt noch ein paar freie Plätze und hier kannst du dich für eine kostenlose Infoveranstaltung dazu anmelden).
Danke an dieser Stelle schon jetzt an Marion und Christian für euer Mitdenken an dieser „Version 1.0“ der Leitorientierungen. Sie sind als erster Entwurf zu verstehen, der – so meine Hoffnung – durch weiteres Feedback aus der Community weiterentwickelt wird. Deswegen: Schreib mir gerne – hier als Kommentar oder per Mail:
- Sind die Leitorientierungen für Dich und Deine Organisation brauchbar?
- Wo braucht es Verbesserungen im Wissen, dass das hochkomplexe Thema schwer zu fassen ist?
- Was fehlt komplett?
Warum sich Führungskräfte spätestens jetzt um KI und Digitalisierung kümmern müssen
Der seit 2007 jährlich erscheinende IT-Report für die Sozialwirtschaft der Katholischen Universität Eichstätt-Ingolstadt zeigt in der aktuellen Ausgabe ein eher ernüchterndes Bild :
Soziale Einrichtungen und Dienste gelingt es trotz stetig steigender IT-Investitionen nur unzureichend, die Potenziale digitaler Technologien tatsächlich auszuschöpfen. KI und Robotik haben noch nicht flächendeckend Einzug in die Branche gehalten, obwohl die grundsätzliche Bereitschaft hierfür vorhanden ist (ebd., S. 16ff):
- 53% der Führungskräfte in der Sozialwirtschaft schätzen ihren KI-Wissensstand als nur mittelmäßig ein
- 22% beurteilen ihren Wissensstand sogar als gering oder sehr gering
- 12% möchten KI weder jetzt noch in der Zukunft einsetzen
Besonders problematisch ist eine weitere Beobachtung: Häufig ist die mittlere Führungsebene besser über Möglichkeiten und Grenzen von KI-Technologien informiert als Vorstände und Geschäftsführungen. Dies deutet darauf hin, dass strategische Weichenstellungen in vielen Organisationen ausbleiben, während auf operativer Ebene und häufig auf der informalen Seite der Organisation insbesondere mit KI bereits experimentiert wird – dann jedoch ohne übergeordneten Rahmen, ohne Datenschutzkonzepte und ohne ethische Leitlinien.
Die Notwendigkeit, sich als Leitungsebene aktiv mit diesem Thema zu befassen, ergibt sich also nicht nur aus technologischen Chancen, sondern auch aus der Verantwortung für einen verantwortungsvollen und rechtskonformen Umgang mit sensiblen Klient:innendaten, aus der Pflicht zur professionellen Steuerung des eigenen Betriebs und aus der Pflicht, die Profession der Sozialen Arbeit zu stärken.
Der Schlüssel für eine erfolgreiche digitale Zukunft in der Sozialwirtschaft liegt darin, die vorhandenen Chancen zu erkennen und gleichzeitig verantwortungsbewusst zu handeln und damit den professionellen Kern der sozialen Arbeit zu bewahren und zu stärken (vgl. auch Civic Data Lab, 2024).
KI und Digitalisierung in der Sozialwirtschaft: 9 Leitorientierungen für Führungskräfte
Die folgenden Leitorientierungen verstehen sich als analytische Kategorien, die Führungskräften helfen sollen, die richtigen Fragen zu stellen – bevor Entscheidungen über Technologieeinsatz getroffen werden.
I: Kläre, was „gute Soziale Arbeit“ und damit der professionelle Kern ist und prüfe, ob KI und Digitalisierung diesen stärken oder gefährden
Software und KI-Systeme sollen als „digitale Werkzeuge“ einen Mehrwert schaffen und nicht nur eingesetzt werden, um eingesetzt zu werden. Damit der Mehrwert digitaler Werkzeuge in Organisationen der Sozialwirtschaft zur Geltung kommen kann, muss zunächst das „Wozu“ der eigenen Arbeit klar sein. Was macht unsere Soziale Arbeit wirklich aus? Erst wenn diese Frage beantwortet ist, lässt sich beurteilen, ob und wie digitale Tools oder KI-Systeme tatsächlich einen Mehrwert schaffen, welche Prozesse durch sie unterstützt oder verbessert werden können und welche aus fachlich-ethischen Erwägungen den Menschen vorbehalten bleiben sollten, damit sie den Kern der Sozialen Arbeit nicht überlagern, formalisieren oder gefährden.
Nicht nur, aber insbesondere bei der Einführung und Weiterentwicklung von digitalen Tools oder KI-Systemen ist die Klärung der Frage als Aushandlungsprozess zu verstehen, der regelmäßig durchlaufen werden wollte. Denn was „gute Soziale Arbeit“ bedeutet, verändert sich mit gesellschaftlichen Diskursen, politischen Vorgaben und den Bedarfen der Nutzer:innen. KI und Digitalisierung können diesen Auftrag unterstützen, indem z. B. administrative Lasten reduziert oder Daten analysiert werden – doch sie dürfen ihn nicht unreflektiert ersetzen. Technik darf insbesondere in der Sozialen Arbeit nicht zum Selbstzweck werden.
Praxisbeispiel
Ein Träger der Wohnungslosenhilfe definiert im Rahmen eines Strategieprozesses, dass die „aufsuchende Beziehungsarbeit“ sein unverzichtbarer professioneller Kern ist. Auf dieser Grundlage entscheidet er, KI vorerst für administrative Dokumentationsaufgaben einzusetzen. Die Nutzung für Falleinschätzung oder Beratungsgespräche erfolgt erst, wenn klar ist, welche Möglichkeiten KI-Modelle für ambulante Settings bieten, die auf mobilen Geräten lokal genutzt werden können.
II: Unterscheide Digitalisierung und KI
Die Begriffe „Digitalisierung” und „KI” werden oft synonym verwendet. Dabei adressieren sie jedoch verschiedene Logiken:
- Die Digitalisierung betrifft vor allem die Erfassung, Speicherung und Verfügbarmachung von Daten sowie die Automatisierung vormals analoger Prozesse, beispielsweise durch digitale Aktenführung oder Online-Beratung. Ihr Ziel ist es, vornehmlich über die Konditionalprogrammierung Komplexität zu reduzieren, administrative Aufgaben zu erleichtern und die Zugänglichkeit zu erhöhen. Die Digitalisierung verändert somit nicht die inhaltliche Arbeit selbst, sondern kann diese unterstützen.
- KI bzw. spezifischer „generative KI“ betrifft hingegen die Datennutzung, um Entscheidungen vorzubereiten und Muster zu erkennen. KI kann somit nicht nur Prozesse, sondern auch das Treffen von Entscheidungen verändern. Dadurch kann Entlastung geschaffen werden, beispielsweise durch die Analyse großer Datenmengen. Gleichzeitig können sich jedoch auch Machtverhältnisse verschieben, beispielsweise wenn Entscheidungsvorbereitungen für Risikobewertungen durch KI erarbeitet werden oder wenn neue Abhängigkeiten entstehen, etwa von externen Anbietern proprietärer KI-Systeme.
Beide Technologien können sich überlagern, da wenn digitale Daten (Digitalisierung) als Grundlage für KI-Analysen dienen. Sie berühren jedoch unterschiedliche Entscheidungsprämissen:
- Die Digitalisierung betrifft im Wesentlichen Arbeitsabläufe im Sinne der Konditionalprogrammierung (Prozesse, Regeln) sowie die Sammlung und Nutzung von Daten durch Menschen, die dabei weiterhin die handelnden Akteure sind.
- Generative KI kann, sofern keine bewusste Eingrenzung erfolgt, direkten Einfluss auf Kommunikationswege („Wer trifft welche Entscheidungen?”) und das Personal („Welche Rolle übernimmt KI in der Organisation?”) haben, da hier die Datenauswertung durch KI-Systeme stattfindet und Menschen die generierten Ergebnisse nutzen. Sie haben jedoch keinen unmittelbaren Zugang mehr zu den verwendeten Daten.
Dies hat wiederum Auswirkungen auf die informale Seite der Organisation (Kultur). Werden die Auswirkungen nicht reflektiert, können Interventionen an den falschen Stellen ansetzen. Die Unterscheidung ermöglicht außerdem eine gezielte Entscheidung darüber, wo welche Technologie sinnvoll eingesetzt wird (Digitalisierung dort, wo Komplexität reduziert werden soll, und KI dort, wo konkrete Probleme gelöst werden müssen, die ohne KI nicht bzw. nur mit erheblichem Mehraufwand bearbeitbar wären).
Praxisbeispiel
Eine Einrichtung der Kinder- und Jugendhilfe unterscheidet in ihrer Digitalstrategie klar zwischen der Einführung einer digitalen Dokumentationssoftware (Digitalisierung) und dem Pilotprojekt zur KI-gestützten Risikoeinschätzung bei Kindeswohlgefährdungen (KI). Für Letzteres werden gesonderte ethische Leitlinien und Datenschutzkonzepte entwickelt.
III: Entscheide, wo generative KI gehostet werden soll und wie die Datenbasis sowie die Systemprompts aussehen sollen und reflektiere anschließend die ethischen, rechtlichen und organisatorischen Konsequenzen.
Nicht jede KI-Lösung ist für die Anforderungen der Sozialen Arbeit geeignet – und die Wahl der Infrastruktur hat weitreichende Konsequenzen. Generative KI-Systeme, die auf den LLM der bekannten kommerziellen Anbieter beruhen, sind zwar schnell einsatzbereit, niedrigschwellig und skalierbar, werfen jedoch ethische und rechtliche Fragen auf. Vor allem ist die Datenhoheit nicht garantiert, was zu Konflikten mit dem Datenschutz führen kann. Außerdem entsteht durch die Nutzung externer Dienste eine Abhängigkeit von großen Tech-Konzernen.
Selbst gehostete KI bietet hier mehr Souveränität, da sensible Daten unter eigener Kontrolle bleiben, die KI individuell angepasst werden kann (z. B. durch spezifisches Training mit eigenen Daten) und langfristig unabhängig betrieben werden kann. Gleichzeitig bestehen technische und finanzielle Hürden, da selbst gehostete Lösungen Investitionen in Server, Wartung und IT-Expertise erfordern. Die Implementierung und Pflege ist ressourcenintensiv und erfordert kontinuierliche Anpassung.
Eine Einrichtung, die sich für generative KI entscheidet, muss Transparenz, Datenschutz und kritische Reflexion sehr gezielt gestalten – etwa durch die Nutzung zertifizierter Anbieter, die Einhaltung von Open-Source-Prinzipien, das BIAS Testing oder die Entwicklung und Kontrolle interner Nutzungsrichtlinien. Selbst gehostete KI stärkt hingegen die Autonomie der Organisation, was auch langfristig deutlich sinnvoller ist – für den Preis, dass selbst gehostete KI nur auf die von der Organisation bereitgestellten Daten zugreifen kann.
Außerdem ist auf die dritte Option hinzuweisen: die Nutzung von KI-Systemen spezialisierter Anbieter aus dem Bereich der Sozialen Arbeit (vgl. bspw. hier).
Praxisbeispiel
Ein mittelgroßer Wohlfahrtsverband entscheidet sich für einen europäischen, DSGVO-konformen KI-Anbieter – und schließt per Vertrag aus, dass Klientinnendaten in das Training des Modells einfließen dürfen. Parallel dazu prüft er eine Kooperation mit anderen Trägern für eine gemeinsam selbst gehostete Lösung – bspw. zur Pflegedokumentation.
IV: Analysiere alle Prozesse der Organisation – und frage, wo KI und Digitalisierung echten Mehrwert schaffen
Bevor KI oder Digitalisierung eingeführt werden, ist es zielführend, eine umfassende Prozessanalyse der Kern-, Unterstützungs- und Managementprozesse durchzuführen: Welche Prozesse haben wir? Welche sind ineffizient? Wo entstehen unnötige Arbeitslasten? Wo gibt es Schnittstellenprobleme?
Die Analyse sollte fachlich fokussiert sein und die Bedarfe der Sozialen Arbeit ebenso wie die organisationalen Dynamiken berücksichtigen. Denn oft sind es nicht die Prozesse, die das Problem darstellen, sondern informale Routinen, Muster und bislang brauchbare Illegalitäten, die durch die Analyse sichtbar gemacht werden.
Erst jedoch, wenn die Prozesse in der Organisation transparent sind, kann entschieden werden, ob und wo digitale Tools und/oder KI sinnvoll zum Einsatz kommen können.
Auch die Prozessanalyse ist kein einmaliger Akt, sondern regelmäßig zu wiederholen, da sich Prozesse in Organisationen der Sozialwirtschaft kontinuierlich verändern.
Wichtig ist, dass die Einführung und Nutzung von KI oder Digitalisierung zu den individuellen Bedarfen der Organisation, der Fachkräfte und der Klient:innen passen. Entsprechend sind nicht nur die formalen Prozesse zu optimieren, sondern auch die informellen Dynamiken zu reflektieren.
Praxisbeispiel
Eine stationäre Einrichtung der Eingliederungshilfe führt vor der Einführung einer neuen Software eine Prozesslandkarte ein und stellt dabei fest, dass ein erheblicher Teil der Koordinationsarbeit über informelle Übergabegespräche läuft, die bislang nirgendwo abgebildet waren. Diese Erkenntnis führt dazu, dass das digitale System gezielt um asynchrone Kommunikationsfunktionen erweitert wird.
V: Gestalte die Einführung und Nutzung von KI und Digitalisierung partizipativ
Nur wenn die Personen, die die Systeme nutzen, aktiv in deren Gestaltung eingebunden sind, können diese brauchbar implementiert und bedarfsgerecht weiterentwickelt werden. Eine Einführung „von oben nach unten“ wird das „Immunsystem“ des sozialen Systems aktivieren.
Partizipation bedeutet jedoch nicht, dass alle über alles mitentscheiden, sondern dass Entscheidungen nachvollziehbar sind, weil die Perspektive nicht nur von IT-Spezialist:innen oder der Leitung, sondern vor allem die der Betroffenen berücksichtigt wird. Dazu gehören gezielte Weiterbildungen, Pilotprojekte und Raum für Erprobung, um die Akzeptanz zu erhöhen. Und auch wenn es eine Binsenweisheit ist: Kritische Rückmeldungen sind ernst zu nehmen, da der Widerstand gegen KI und Digitalisierung oft fachlich begründet ist – etwa, wenn Fachkräfte befürchten, dass informelle, aber für die Arbeit notwendige Handlungsspielräume verloren gehen. Entsprechend sollten auch kritische und wenig technikaffine Mitarbeitende bspw. an Testgruppen beteiligt sein.
Durch das partizipative Vorgehen können darüber hinaus kulturelle Annahmen der Organisation hinterfragt und Transparenz sowie Vertrauen geschaffen werden.
Praxisbeispiel
Eine Beratungsstelle richtet eine abteilungsübergreifende Arbeitsgruppe ein, in der Fachkräfte, Teamleitungen und Verwaltungsmitarbeitende gemeinsam Anforderungen an ein neues Klientenverwaltungssystem erarbeiten. Die Pilotierung erfolgt zunächst in einem Team mit begleiteter Reflexion; erst danach wird der Rollout auf die gesamte Organisation ausgeweitet.
VI: Reflektiere kontinuierlich die kulturellen Auswirkungen der Einführung und Nutzung digitaler Systeme – und gestalte auch die formale Seite bewusst
Digitale Systeme sind keine neutralen Werkzeuge, sondern bringen eine eigene Logik mit sich.
Durch die Digitalisierung werden Abläufe formalisiert, Prozesse standardisiert und Komplexität reduziert. Die Formalisierungslogik steht jedoch in einem Spannungsverhältnis zur Sozialen Arbeit, da deren professionelle Handlungsspielräume nicht formalisierbar sind, da jede Klientin und jeder Klient einzigartige Bedürfnisse haben. Durch die Digitalisierung werden außerdem brauchbare Illegalitäten (z. B. informelle Absprachen, die „die Dinge am Laufen halten“) sichtbar, was wiederum zu neuen Entscheidungsnotwendigkeiten führt. Zudem kann das Vertrauen der Fachkräfte durch befürchtete Kontrollmechanismen (z. B. durch digitale Dokumentation) untergraben werden.
Organisationen der Sozialwirtschaft sind somit gezwungen, ihre eigenen Werte und Prioritäten zu klären und mit nicht auflösbaren Paradoxien (z. B. Effizienz vs. Menschlichkeit oder Kontrolle vs. Vertrauen) umzugehen. Damit die Möglichkeiten der Digitalisierung Wirkung zeigen, müssen unter anderem Regeln und Prozesse so gestaltet werden, dass sie fachliche Handlungsspielräume nicht einschränken, sondern unterstützen.
Praxisbeispiel
Nach Einführung einer digitalen Zeiterfassung beobachtet eine Beratungseinrichtung einen Rückgang informeller Teamkommunikation. In einer Mitarbeitendenbefragung zeigt sich, dass Fachkräfte den Eindruck haben, stärker kontrolliert zu werden. Die Leitungsebene reagiert mit einer transparenten Kommunikation über den Zweck der Zeiterfassung und erarbeitet gemeinsam mit dem Team neue, für das Team brauchbare Regelungen.
VII: Führe KI wie Mitarbeitende
KI-Systeme haben einen deutlich größeren Einfluss als bisherige digitale Systeme und können – sofern man die in Organisationen entscheidbaren Entscheidungsprämissen heranzieht (vgl. hier mehr dazu) – als „Personal“ verortet werden: Der Input (Daten und Prompts) führt durch die Verarbeitung in einer kaum durchschaubaren „Blackbox“ zu einem nur sehr schwer genau nachvollziehbaren Output, der so oder auch anders hätte ausfallen können. Dies ist vergleichbar mit der „Blackbox Mitarbeiter:in“, an die Entscheidungsspielräume, -bedarfe und -macht delegiert werden und die ebenfalls undurchschaubar ist (vgl. dazu ausführlich Richter o. J. und weitergehend Österreich 2026; Kerstan, S., Georganta, E., Ulfert-Blank, A. 2023). Diese Perspektive auf KI wird dann zum Problem, wenn in der Organisation nicht offiziell über die KI-Nutzung entschieden wurde und somit die „Schatten-KI“ dominiert (Mitarbeitende nutzen generative KI als „brauchbare Illegalität“).
Entsprechend ist der Kontext für KI-Systeme bewusst zu gestalten. Sie benötigen – ebenso wie „Personal“ – klare Rollenbeschreibungen (z. B. ‚Assistenz bei Datenauswertung‘), Kompetenzgrenzen (z. B. keine autonomen Entscheidungen in der Fallarbeit) und Regeln zur Nutzung (z. B. Transparenzpflicht bei KI-gestützten Empfehlungen). Bei externen KI-Lösungen (Punkt 3) sind diese Regeln vertraglich mit Anbietern zu klären.
Gleichwohl ist zu beachten, dass die Verantwortung für getroffene Entscheidungen nicht an KI-Systeme delegiert werden kann. KI-Systeme lassen sich aus systemtheoretischer Perspektive als „Mitglieder ohne Haftung“ (Oesterreich 2026) definieren.
Abschließend ist zu betonen, dass Mitarbeiterführung auch die Kontrolle von Arbeitsergebnissen und bei Bedarf die Intervention bei Abweichungen bedeutet. In Bezug auf KI wird diese Kontrolle hoch relevant, da KI-Modelle Bias mitbringen und halluzinieren werden. Eine kritische Reflexion der durch KI-Systeme generierten Ergebnisse auf Basis für die Organisation brauchbarer Qualitätskriterien ist daher unverzichtbar. Es muss außerdem sichergestellt werden, dass Menschen immer die finale Entscheidung und Kontrolle haben.
Praxisbeispiel
Ein Jugendhilfeträger erarbeitet eine organisationale KI-Richtlinie, die festlegt, dass KI für Protokollerstellung und Textformulierungen eingesetzt werden darf, nicht jedoch für Empfehlungen in Kinderschutzverfahren. Alle KI-gestützten Textprodukte sind als solche zu kennzeichnen. Mitarbeitende werden durch eine verpflichtende Schulung für die Risiken eines unkritischen KI-Einsatzes sensibilisiert.
VIII: Die Einführung und Nutzung digitaler Systeme erfordert kontinuierliche Selbstirritation
Die digitale Transformation ist ein permanenter Veränderungsprozess, der alle Bereiche einer Organisation durchdringt – von den formalen Strukturen bis hin zu den informellen Routinen und Werten. Technologie verändert somit kontinuierlich die Art und Weise, wie eine Organisation funktioniert und sich selbst versteht – sei es durch technologische Sprünge, gesetzliche Veränderungen, gesellschaftliche Verschiebungen oder die sich wandelnden Bedürfnisse der Klient:innen.
Das dynamische Wechselspiel zwischen Struktur und Kultur, das sich aus der digitalen Transformation ergibt, ist somit dauerhaft hinsichtlich seiner Brauchbarkeit für das Überleben der Organisation zu beobachten. Auf Basis der Beobachtungen sind fortlaufend Entscheidungen zu treffen, die wiederum umzusetzen sind. Der Prozess aus Beobachtung, Entscheidung und Umsetzung ist bewusst zu gestalten, indem…
- …die Einführung und Nutzung von Digitalisierung und KI kontinuierlich hinsichtlich ihrer Wirksamkeit, Akzeptanz und Nebenfolgen überprüft wird. In diese Reflexion müssen neben technischen Fragen auch soziale und organisationale Aspekte einbezogen werden: Verstärkt das System die Arbeit mit Klient:innen oder steht es im Weg? Führt es zu mehr Effizienz oder zu neuer Bürokratie?
- …relevante Umwelten, Trends, technologische Entwicklungen und neue Bedarfe, beispielsweise durch die Analyse von Marktentwicklungen, den Dialog mit Klient:innen oder die Nutzung von Netzwerken mit Kooperationspartner:innen, reflektiert werden.
- …Weiterbildungsangebote so gestaltet werden, dass sie nicht nur technische Kompetenzen vermitteln, sondern auch kritische Reflexionsfähigkeit stärken: Wie nutzen wir digitale Tools verantwortungsvoll? Wo stoßen sie an ihre Grenzen?
- …Digitalisierung und KI-Einführung als kontinuierlicher Lernprozess begriffen werden, bei dem auch Fehler passieren. Es gilt, Räume zu schaffen, in denen kritische Fragen gestellt und Fehler angesprochen werden können, um Verbesserung und Lernen zu ermöglichen.
Zusammenfassend geht es um eine Kultur der Selbstirritation, die Organisationen dazu befähigt, sich selbst zu hinterfragen, und die ihnen gleichzeitig die Chance bietet, neue Wege zu erproben und Technologie im Dienst ihres sozialen Auftrags zu gestalten.
Praxisbeispiel
Eine Einrichtung der Eingliederungshilfe führt halbjährliche „Digitalisierungsdialoge“ ein, in denen Führungskräfte und Fachkräfte gemeinsam evaluieren: Welche digitalen Tools funktionieren gut – und warum? Wo entstehen neue, unerwünschte (Bürokratisierungs-)Effekte? Welche technologischen Entwicklungen sollten beobachtet werden? Die Ergebnisse fließen direkt in die Jahresplanung ein.
IX: Beziehe die ökologischen und sozialen Implikationen digitaler Systeme in alle Entscheidung mit ein
Digitale Technologien sind nicht klimaneutral. Insbesondere KI-Systeme verbrauchen enorme Mengen an Energie und Rechenleistung – von der Entwicklung und dem Training der Modelle bis hin zum laufenden Betrieb. Die Reflexion der ökologischen Implikationen ist relevant, da so die Werte einer Organisation (z. B. „Nachhaltigkeit“, „Gerechtigkeit“) nicht nur in der direkten sozialen Arbeit, sondern auch in der Wahl der technischen Infrastruktur sichtbar werden. Konkret gilt es …
- …ressourcenschonende Technologien zu wählen (z. B. energieeffiziente Server, Cloud-Dienste mit grünem Strom).
- … zu entscheiden, für welches Problem die KI-Nutzung wirklich eine Lösung ist.
- …Transparenz zu schaffen und die ökologischen Auswirkungen digitaler Systeme offenzulegen, etwa durch CO₂-Bilanzen oder die Offenlegung des Energieverbrauchs.
Bei den sozialen Implikationen der KI-Nutzung ist insbesondere (aber nicht nur) aus Perspektive der Sozialen Arbeit daran zu denken, dass Datenarbeiter*innen – vornehmlich im globalen Süden auf Kosten ihrer mentalen Gesundheit – Content vorsortieren, damit die KI-Modelle nur auf „cleanen“ Inhalten trainiert werden können.
Praxisbeispiel
Ein konfessioneller Träger integriert ökologische Kriterien in seine IT-Beschaffungsrichtlinie: Anbieter werden nach Energieeffizienz und CO₂-Bilanz bewertet; für interne Berichte wird eine jährliche Darstellung des digitalen Energieverbrauchs eingeführt. Dies wird auch als Ausdruck des Nachhaltigkeitsleitbilds der Organisation kommuniziert.
KI und Digitalisierung in der Sozialwirtschaft: Umsetzungsimpulse für Deine Organisation
Die neun Leitorientierungen sind keine Checkliste, die einmalig abgearbeitet wird und dann ist alles gut. Sie sollen vielmehr als dauerhafte Reflexionsfolie oder Landkarte für strategische Entscheidungen dienen, woraus sich drei konkrete Handlungsfelder ergeben:
- Schaffe Räume zum offenen Austausch über die gemeinsame Basis – beginnend mit dem „Wozu“: Was ist der professionelle Kern Deiner Einrichtung, und wie verhält er sich zu den Möglichkeiten und Risiken digitaler Technologien? Die Beantwortung dessen ist in regelmäßigen Zyklen zu wiederholen, wobei Fach- und Führungskräfte ebenso wie IT-Expert:innen und andere Stakeholder (bspw. Klient:innen, Partnerorganisationen) beteiligt werden wollte.
- Entwickle klare organisationale Regelwerke für den Umgang mit KI: Wie sind welche Systeme zu welchem Zweck zu nutzen? Welche Entscheidungen dürfen nicht an KI delegiert werden? Welche Datenschutz- und Transparenzpflichten gelten? Diese Fragen lassen sich nicht allein technisch oder rechtlich beantworten, sondern sind ebenso organisationsethische Fragen.
- Etabliere Formate der kontinuierlichen Reflexion wie bspw. Evaluationsschleifen, Weiterbildungsangebote mit Reflexionsanteil und eine Fehlerkultur, die digitale Transformationsprozesse als das versteht, was sie sind – lernintensive Veränderungsprozesse ohne gesicherten Ausgang.
Zusammenfassend geht’s um die Fragen: Was kann Technologie? Was wollen wir mit ihr erreichen? Und was schützen wir dabei?
Wie gestaltest Du den Umgang mit KI in Deiner Organisation? Teile Deine Erfahrungen, Kritik oder Fragen – ob als Kommentar hier oder per E-Mail. Besonders interessiert mich:
- Welche der 9 Leitorientierungen ist für Dich am relevantesten?
- Wo siehst Du noch blinde Flecken im Thema KI & Sozialwirtschaft?
- Hast Du bereits gute Praxisbeispiele, die andere inspirieren könnten?
Gemeinsam können wir den Diskurs voranbringen – ich freue mich auf Deine Perspektive!
Quellen und weiterführende Literatur
- Civic Data Lab (2024). KI in der Sozialwirtschaft – Analyse der Studie Kreidenweis/Diepold. URL: https://civic-data.de/blog/ki-sozialwirtschaft/
- Deutscher Bildungsserver (2025). Dossier: KI und Digitalisierung in der Sozialen Arbeit. URL: https://www.bildungsserver.de/sozialpaedagogik/kuenstliche-intelligenz-ki-in-der-sozialen-arbeit-13030-de.html
- Kreidenweis, H. & Wolff, D. (2024). IT-Report für die Sozialwirtschaft 2024. Arbeitsstelle Sozialinformatik, KU Eichstätt-Ingolstadt. URL: www.sozialinformatik.de
- Kreidenweis, H. & Diepold, M. (2024). Studie: KI in der Sozialwirtschaft – Potenziale nutzen, Risiken erkennen. KU Eichstätt-Ingolstadt / Althammer & Kill. URL: www.althammer-kill.de/ki-studie-sozialwirtschaft
- Linnemann, G., Löhe, J., Rottkemper, B. (Hrsg. 2025): Künstliche Intelligenz in der Sozialen Arbeit: Grundlagen für Theorie und Praxis. Weinheim: Beltz Juventa. URL: https://www.beltz.de/fachmedien/sozialpaedagogik_soziale_arbeit/produkte/details/57311-kuenstliche-intelligenz-in-der-sozialen-arbeit-grundlagen-fuer-theorie-und-praxis.html
- Stieler, M., Domes, M., Burghardt, J. & Lehmann, R. (2024). KI: Innovation oder alter Wein in neuen Schläuchen? Herausforderungen und (An-)Fragen an die Soziale Arbeit als Beziehungsprofession. Sozialwissenschaftliche Literatur Rundschau, 89, S. 101–112.
- Sozial Extra (2025). Akzeptanz von KI und organisationale Rahmenbedingungen in der Sozialen Arbeit. URL: https://link.springer.com/article/10.1007/s12054-025-00783-3









Neueste Kommentare