Der Bayerische Rundfunk hat in der Sendung "Sozusagen" eine Podcast-Folge mit der Informatikerin Stefanie Urchs veröffentlicht. Sie arbeitet an der Hochschule München unter anderem am IFiF-Projekt "Prof:inSicht -  Sichtbarkeit von Professorinnen an Hochschulen für angewandte Wissenschaften“.  

In der Folge berichtet Urchs von ihrer Forschung über die Reproduktion von Stereotypen durch KI-Modelle, wie z.B. ChatGPT. Sie zeigt auf, dass die Daten, die in solche Modelle einfließen, menschengemacht und deshalb nie neutral sind. Dies kann geschlechtsspezifische Ungleichheiten fördern und Vorurteile verstärken. Ein Beispiel hierfür sind Recruiting-Tools, die durch ihre Datensätze tendenziell Männer bevorzugen. Um dem Problem entgegenzuwirken, muss man sich genau anschauen, welche Trainingsdaten in die KI einfließen sollen. Urchs plädiert dafür diese Entscheidung nicht der Informatik zu überlassen, sondern das Thema gesamtgesellschaftlich zu behandeln. KI-Systeme können auch positive Effekte für die Bekämpfung von Diskriminierung haben. Ein Praxisbeispiel dafür ist die Filterung von beleidigenden Inhalten auf Social Media.  

Zum Schluss zeigt Urchs Möglichkeiten auf, wie KI-Modelle gerechter gestaltet werden können und gibt Tipps, wie jede*r bei der Nutzung von KI dabei unterstützen kann.  

Hier geht’s zur Podcastfolge: Wie sexistisch sind ChatGPT und Co.? - Sozusagen | BR Podcast 

Hier geht’s zum Projektsteckbrief: Prof:in Sicht - Innovative Frauen im Fokus