10 Schattenseiten von KI

 

📝 Auftrag: Expertengruppe

Bei dieser Methode wird jeder von euch zum Experten für ein bestimmtes KI-Problem. Du recherchierst dein Thema gründlich, erstellst ein Fact Sheet und bringst es dann den anderen bei. Gleichzeitig lernst du von deinen Mitschülern über ihre Themen. So bekommt die ganze Klasse einen Überblick über wichtigen KI-Probleme – ohne dass alle alles recherchieren müssen!

 

Die Expertengruppen-Methode (Jigsaw)

 

So geht's:

Schritt 1: Stammgruppen (4er-Gruppen)

  • Jede Person wählt ein anderes Thema aus der untenstehenden Liste in der Vierergruppe

Schritt 2: Expertengruppen bilden

  • Alle mit dem gleichen Thema treffen sich
  • Gemeinsam recherchieren und Materialien sammeln
  • Erstellt zusammen ein "Fact Sheet" (1 Seite A4)
  • Überlegt: Was ist die Kernbotschaft?

Schritt 3: Zurück in Stammgruppen

  • Jeder "Experte" unterrichtet die anderen über sein Thema (je 5-7 Min.)
  • Gruppe diskutiert: Welches Problem ist am dringendsten?

Schritt 4: Gemeinsames Fazit

  • Erstellt ein Ranking: "Top 3 dringendste KI-Probleme"
  • Begründung präsentieren

 

Inhaltlicher Aufbau des Fact Sheets

  1. Das Problem in wenigen Sätzen
  2. Drei konkrete Beispiele/Artikel aus der Zeitung/Social Media/
  3. Wichtigste Fakten und Zahlen
  4. Wer ist betroffen?
  5. Warum ist dies problematisch?
  6. Was könnte man dagegen tun?
  7. Quellen
  8. Unser Fazit (Was uns am meisten schockiert hat / Unsere Kernbotschaft)

10 mögliche Schattenseiten von KI

1. Ausbeutung von Clickworkern

  • Content-Moderatoren in Niedriglohnländern (z.B. Kenia, Philippinen) müssen traumatische Inhalte beurteilen – Gewalt, Missbrauch, verstörende Bilder.
  • Sie verdienen wenig, arbeiten unter psychischem Druck und bekommen oft keine psychologische Unterstützung. Diese "unsichtbare Arbeit" macht KI erst möglich.

2. Enormer Energieverbrauch & Umweltschäden

  • Training eines großen KI-Modells verbraucht so viel Energie wie 100 Haushalte in einem Jahr
  • Rechenzentren brauchen riesige Mengen Wasser zur Kühlung
  • CO₂-Fußabdruck steigt massiv mit jedem neuen Modell
  • Widerspruch: KI soll Klimawandel bekämpfen, verursacht ihn aber mit

3. Bias und Diskriminierung

KI lernt aus menschlichen Daten – und übernimmt damit auch Vorurteile:

  • Gesichtserkennung funktioniert schlechter bei dunkelhäutigen Menschen
  • Bewerbungs-KI bevorzugt männliche Kandidaten
  • Kredit-Algorithmen benachteiligen bestimmte Bevölkerungsgruppen
  • Sprachmodelle reproduzieren rassistische oder sexistische Stereotype

4. Urheberrechtsverletzungen

  • KI-Modelle werden mit Millionen geschützter Werke trainiert (Texte, Bilder, Musik) – oft ohne Erlaubnis oder Bezahlung der Künstler
  • Künstler, Fotografen und Autoren verlieren Einkommen
  • Rechtliche Grauzone: Ist KI-Output "Diebstahl" oder "Inspiration"?
  • Besonders problematisch bei Bild-KIs wie Midjourney oder DALL-E

5. Deepfakes und Desinformation

  • KI kann täuschend echte Fake-Videos, -Bilder und -Stimmen erstellen
  • Verbreitung von Fake News wird einfacher
  • Rufmord durch gefälschte kompromittierende Bilder
  • Politische Manipulation (gefälschte Politiker-Statements)
  • Missbrauch für Betrug und Erpressung

6. Massenüberwachung

  • Gesichtserkennung im öffentlichen Raum
  • China: Social Credit System bewertet Bürger mit KI
  • Überwachung von Arbeitnehmern (Produktivitäts-Tracking)
  • Predictive Policing: KI sagt voraus, wer kriminell werden könnte
  • Risiko: Totale Kontrolle ohne Privatsphäre

7. Arbeitsplatzverlust durch Automatisierung

  • Millionen Jobs könnten wegfallen: Übersetzer, Grafiker, Kundenservice, Buchhalter, Journalisten
  • Besonders betroffen: kreative und administrative Berufe
  • Frage: Was machen Menschen, wenn KI ihre Arbeit übernimmt?
  • Risiko wachsender sozialer Ungleichheit

8. Psychische Abhängigkeit: Menschen entwickeln emotionale Bindungen zu KI-Chatbots

Menschen bauen zunehmend emotionale Beziehungen zu KI-Systemen auf, was ernsthafte psychologische Risiken birgt:

  • Ersatz für echte Beziehungen: Einsame Menschen nutzen KI-Chatbots als Partner, Freund oder Therapeuten – und ziehen sich aus echten sozialen Kontakten zurück
  • Romantische Beziehungen mit KI: Apps wie Replika bieten "KI-Freunde" oder "virtuelle Partner" – manche Menschen verlieben sich tatsächlich
  • Täuschend echt: KI simuliert Empathie, Interesse und Zuneigung so überzeugend, dass Menschen vergessen: Es ist nur ein Programm

9. KI in Waffen und Militär

  • "Killer-Roboter": Autonome Drohnen entscheiden selbstständig, wen sie töten – ohne dass ein Mensch den finalen Befehl gibt
  • Fehlerrisiko: Was, wenn die KI sich irrt und Zivilisten angreift? Wer ist dann verantwortlich?
  • Wettrüsten: Länder entwickeln immer gefährlichere KI-Waffen, um militärisch überlegen zu sein
  • Hackbarkeit: Können Terroristen oder feindliche Staaten die Kontrolle über autonome Waffen übernehmen?
  • Ethische Frage: Dürfen Maschinen über Leben und Tod entscheiden? Die meisten Menschen sagen: Nein!
  • Keine Kriegsverbrechen-Verantwortung: Ein Roboter kann nicht vor Gericht gestellt werden
  • Senkung der Hemmschwelle: Wenn keine eigenen Soldaten sterben, führen Länder leichter Kriege

 

10. Machtkonzentration bei Tech-Giganten

  • Nur wenige Firmen (OpenAI/Microsoft, Google, Meta) kontrollieren die stärksten KI-Modelle
  • Entwicklung kostet Milliarden – kleine Firmen, Universitäten und Entwicklungsländer können nicht mithalten
  • Diese Konzerne entscheiden, wie KI entwickelt und eingesetzt wird
  • Demokratische Kontrolle fehlt
  • Gefahr von Monopolen und Machtmissbrauch

 

Diese Themen zeigen: KI ist nicht neutral – sie verstärkt oft bestehende Probleme unserer Gesellschaft und schafft neue Herausforderungen. Kritisches Denken über KI ist deshalb enorm wichtig!

Erstelle deine eigene Website mit Webador