KI ist nicht neutral. Wenn Algorithmen mit Daten trainiert werden, die Vorurteile enthalten, reproduzieren sie diese. Beispiele gibt es viele: Gesichtserkennung, die Menschen mit dunkler Hautfarbe schlechter erkennt, oder Bewerbungsfilter, die Frauen benachteiligen.
Deshalb wird KI-Ethik immer wichtiger. Unternehmen und Entwickler müssen sich fragen: Wer profitiert von der Technologie? Wer könnte benachteiligt werden? In Europa gibt es erste Gesetze, die Diskriminierung durch KI verbieten. Aber auch jeder Einzelne kann etwas tun – etwa kritisch hinterfragen, welche Daten eine KI nutzt und wer sie kontrolliert.
Die gute Nachricht: Es gibt Fortschritte. Immer mehr Firmen setzen auf diverse Teams und transparente Algorithmen. Denn am Ende geht es nicht nur um Technologie, sondern um die Frage: Was für eine Gesellschaft wollen wir mit KI gestalten?