Die Chefin der Messenger-App „Signal“, Meredith Whittaker, übt scharfe Kritik an aktuellen Entwicklungen im KI-Bereich. So warf sie führenden KI-Unternehmen vor, nicht genug gegen Diskriminierung durch künstliche Intelligenz zu tun.
Die Trainingsdaten der Unternehmen seien „vorwiegend englisch und voll von Frauenfeindlichkeit, Rassismus und anderer Diskriminierung“, sagte Whittaker dem „Spiegel“. „Das führt dazu, dass die negativen Folgen von KI vor allem jene am stärksten treffen, die ohnehin in der Gesellschaft oft ausgegrenzt sind.“ Zentrale Technologien wie KI sollten „nicht allein einer Handvoll privater Unternehmen anvertraut“ werden. Whittaker wandte sich auch gegen einen offenen Brief, in dem führende KI-Unternehmer und -Experten vergangene Woche vor dem Ende der Menschheit durch die KI-Entwicklung gewarnt hatten.
„Die Autoren warnen vor Risiken in der fernen Zukunft, dabei hat künstliche Intelligenz schon heute negative gesellschaftliche und soziale Folgen.“ Der Messenger „Signal“, dessen Entwicklung Whittaker als Präsidentin der „Signal Foundation“ mitverantwortet, werde nicht in die KI-Entwicklung einsteigen, sondern sich auf seine Kernfunktionalität konzentrieren. „Ich habe schon einige Hypes in der Techbranche erlebt und würde sagen, dass wir diesen einfach aussitzen“, so Whittaker, die zuvor lange bei Google gearbeitet hat und auf der diesjährigen Digitalkonferenz Republica die Eröffnungskeynote hält. Whittaker drohte auch damit, dass „Signal“ sich möglicherweise aus Europa zurückziehen könnte, angesichts der EU-Pläne, im Kampf gegen Kindesmissbrauch auch Chats zu durchleuchten.
„Wenn wir am Ende vor der Wahl stehen, unsere Verschlüsselung zu schwächen oder die EU zu verlassen, dann gehen wir.“ Außerdem werde man mit technischen Maßnahmen wie Proxyservern dabei helfen, den Zugang zu „Signal“ aufrechtzuerhalten – „ungeachtet dessen, was das Gesetz sagt“, so Whittaker.
Foto: Smartphone-Nutzerin [dts]