Loading...

KI in der Sozialen Arbeit: Mythen und Fakten

Über KI-Tools und deren Fähigkeiten gibt es zahlreiche Mythen und Fehleinschätzungen, so auch im Feld der Kinder- und Jugendarbeit. Daher ist es wichtig, diese zu entkräften und ein realistisches Bild von den Potenzialen und Grenzen der KI zu zeichnen. Auf dieser Seite widmen wir uns daher vier gängigen Mythen, die wir in unserer Arbeit mit Fachkräften der Kinder- und Jugendarbeit entdecken konnten und unterziehen sie einem Faktencheck.

Mythos 1: KI hat keine Erinnerungslücken und macht keine Fehler

Faktencheck:

KI macht Fehler und hat Erinnerungslücken. Anders als eine Suchmaschine, die (im Idealfall) existierende Quellen verlinkt und Informationen abruft, können KI-Tools und Large Language Modells (LLMs) Zusammenhänge generativ kombinieren und dabei sogenannte 'Halluzinationen' erzeugen oder Inhalte übersehen. Halluzinationen beziehen sich auf KI generierte Inhalte, die zwar realistisch erscheinen, aber mangelnde faktische Richtigkeit aufweisen.

Mythos 2: KI hat keine Gefühle oder Empfindungen

Faktencheck:

Der Mythos, dass KI keine Emotionen hat, basiert auf einem wahren Kern: Tatsächlich hat KI keine eigenen Gefühle oder subjektive Empfindungen. Sie können jedoch menschliche Emotionen analysieren und in ihren Interaktionen scheinbar darauf reagieren. Dies kann zu einer Verstärkung der emotionalen Erfahrungen bei Menschen führen, die mit KI-Tools interagieren. KI können somit auf unterschiedliche Weise (z.B. personalisierte Inhalte und Einstellungen) menschliche Emotionen beeinflussen und diese verstärken.

Mythos 3: KI trifft transparente Entscheidungen

Faktencheck:

Regelbasierte KI-Tools bauen auf vordefinierten Regeln auf, was die Nutzer:innen in die Lage versetzt, die Entscheidungsprozesse leicht nachzuvollziehen. Im Gegensatz dazu arbeitet die generative KI auf eine Art und Weise, die unverständlich bleibt. Diese Intransparenz ergibt sich aus der Komplexität der zugrundeliegenden Deep-Learning-Modelle, die aus riesigen Datenmengen lernen und Muster erkennen. Dies führt zu einem Dilemma: Obwohl generative KI-Tools Ergebnisse liefern, bleibt die Frage unbeantwortet, wie diese Ergebnisse zustande kommen werden. Diese Prozesse generativer KI sind eine Black Box.

Mythos 4: KI trifft neutrale und objektive Entscheidungen

Faktencheck:

Dieser Mythos basiert auf der Fehleinschätzung, dass KI-Tools frei von persönlichen Meinungen agieren. Dabei wird häufig übersehen, dass KI und andere Technologien von Menschen gestaltet werden. Technologieentwickler:innen bringen ihre Alltagserfahrungen, Werte und Vorstellungen ein. Dieser implizite Selbstbezug ('I-Methodology'), mit dem sich die Technologiegestalter:innen als Nutzer:innen imaginieren, schreibt sich somit in die Algorithmen ein und prägt deren Arbeitsweise. Algorithmen sind daher nicht objektiv, sie reproduzieren vielmehr bestehende stereotype Rollenbilder und soziale Ungleichheit. Zudem ist die Datengrundlage in der Regel nicht neutral und beinhaltet Vorurteile und stereotype Zuschreibungen.

Zitiervorschlag: Sabine Klinger, Susanne Sackl-Sharif, Esther Brossmann-Handler & Andrea Mayr (28.02.2025). KI in der Sozialen Arbeit. Mythen und Fakten. https://digitalesozialearbeit.github.io/ai-socialwork/ai-myths-facts

Top