Tuesday Jun 04, 2024

Folge 6.2 - Hintergrund: Warum KI (häufig) sexistisch ist

Wenn ChatGPT Geschlechterklischees reproduziert und bildgenerierende KI-Tools Wissenschaftlerinnen (halb-)nackt darstellen, dann handelt es sich dabei um Sexismus. Doch (wie) kann Software sexistisch sein?

In der sechsten Hintergrundfolge von Informatik für die moderne Hausfrau blicken wir auf verschiedene Beispiele sexistischer Diskriminierung von Frauen durch KI-basierte Anwendungen. Da jedes KI-Modell nur so gut ist wie die Daten, mit denen es trainiert wurde, beschäftigen wir uns mit zwei sehr problematischen Phänomenen, nämlich dem Gender Data Gap und dem Gender Data Bias.

Den erwähnten Thread des Softwareentwicklers David Heinemeier Hansson auf Twitter/X könnt ihr hier nachlesen: https://x.com/dhh/status/1192540900393705474

Mehr zum Artificial Intelligence Act der EU könnt findet ihr hier: https://artificialintelligenceact.eu/de/

Alle Informationen zum Podcast findet ihr auf der zugehörigen Webseite https://www.informatik-hausfrau.de. Zur Kontaktaufnahme schreibt mir gerne eine Mail an mail@informatik-hausfrau.de oder meldet euch über Social Media. Auf Twitter, Instagram und Bluesky ist der Podcast unter dem Handle @informatikfrau (bzw. @informatikfrau.bsky.social) zu finden. 

Wenn euch dieser Podcast gefällt, abonniert ihn doch bitte und hinterlasst eine positive Bewertung, um ihm zu mehr Sichtbarkeit zu verhelfen. 

Falls ihr die Produktion des Podcasts finanziell unterstützen möchtet, habt ihr die Möglichkeit, dies über die Plattform Steady zu tun. Weitere Informationen dazu sind hier zu finden: https://steadyhq.com/de/informatikfrau

 

Comments (0)

To leave or reply to comments, please download free Podbean or

No Comments

Copyright 2024 Informatik für die moderne Hausfrau.

Podcast Powered By Podbean

Version: 20240731