Feedback von AlgorithmWatch im Rahmen der Spendenaktion

Der Einsatz von KI-gestützten Tools wie ChatGPT, Bard & Co. wird sowohl im beruflichen als auch im privaten Kontext immer selbstverständlicher. Neben den mittlerweile bekannten Anwendungen zur Texterstellung und Bildgenerierung gibt es weitere spezialisierte KI-Tools, die Vorteile wie effizienteres Arbeiten sowie schnelle und präzise Lösungen versprechen. Doch wie sieht es mit den Risiken aus, die von KI und algorithmischen Entscheidungsfindungen ausgehen können? Und wie wahrscheinlich ist es, dass es global einheitliche Sicherheitsstandards geben wird? Diese und weitere Fragen haben wir AlgorithmWatch gestellt, eine NGO, deren Arbeit wir im vergangenen Jahr mit einer Spende des Monats unterstützt haben. Die Organisation, die sich mit den gesellschaftlichen Auswirkungen von algorithmischen Entscheidungssystemen und Künstlicher Intelligenz befasst, hat uns ausführlich geantwortet.

Sie setzen sich für mehr Transparenz und zivilgesellschaftliche Kontrolle von Algorithmen und KI ein. Inwiefern können Sie Einfluss auf Entscheidungsträger*innen nehmen?
AlgorithmWatch arbeitet evidenz-basiert – das heißt, unsere Positionen, die wir gegenüber Entscheidungsträger*innen vertreten, entwickeln wir u.a. aus Forschungsprojekten, journalistischen Recherchen und im Austausch mit verschiedenen zivilgesellschaftlichen Organisationen. Weil wir wichtige Arbeit leisten, für die Entscheidungsträger*innen selbst nicht immer die Zeit finden, werden unsere Empfehlungen häufig als hilfreich aufgefasst und finden so Einzug in ihre politische Arbeit.

Welches sind Ihrer Ansicht nach die größten Risiken, die von ADM-Prozessen ausgehen?
Große Risiken sehen wir zum Beispiel in den negativen Auswirkungen von ADM-Prozessen in der Arbeitswelt, sei es hinsichtlich einer übermäßigen Kontrolle oder potenziellen Diskriminierung, z.B. hinsichtlich der Mitarbeiter*innenauswahl. Mit Blick auf Wahlen und den Einzug von generativer KI in die Breite der Gesellschaft verstärken sich noch die Gefahren für Manipulation und die Einschränkung einer freien Meinungsbildung. Auch den hohen Ressourcenverbrauch von großen Sprachenmodellen sehen wir als ein großes Problem an, das zu wenig besprochen wird. Die fehlende Transparenz seitens Unternehmen über Risiken und Ressourcenverbrauch stellt zusammengenommen ein Risiko in sich selbst dar, denn damit wird verschleiert, dass Innovation auch mit Kosten einhergeht.

Mit der KI-Verordnung wurde in der EU kürzlich eine rechtliche Grundlage für den Einsatz und die Entwicklung von KI geschaffen. Werden die gefundenen Regeln ausreichen?
Ob die gefundenen Regeln ausreichen werden, um Probleme, die im Kontext des Einsatzes von ADM-Systemen entstehen können, aufzufangen, wird sich erst mit der Zeit zeigen. Sicher ist aber, dass die Einhaltung dieser Regeln in Zukunft kritisch beobachtet werden muss. Klar ist aber jetzt schon, dass die KI-Verordnung nur ein Puzzleteil in der Rechtsprechung sein kann und, dass sie Schwächen aufweist. Unzufrieden sind wir z.B. mit den Ausnahmen für Anwendungen, die in Bereich der nationalen Sicherheit und des Militärs fallen. Nationale Regierungen behalten hier hauptsächlich freie Hand, was zu unverhältnismäßigen Einschränkungen der Grundrechte von Bürger*innen in der EU aber auch für Menschen, die in die EU einwandern oder fliehen wollen, führen könnte.

Für wie realistisch halten Sie es, dass es einheitliche Sicherheitsstandards für KI auf globaler Ebene geben wird?
Global einheitlich geltende Regeln zu finden, ist in fast jedem Bereich ein schwieriges Unterfangen. Noch dazu haben nicht alle Länder gleichermaßen ein Interesse daran, feste Regeln für Unternehmen, die vor Ort wirtschaften, vorzugeben. Bisher geht der Trend eher in die Richtung, in regionalen oder politischen Bündnissen grundlegende ethische Leitlinien zu beschließen – die EU, die über einen ganzen Wirtschaftsraum gesetzliche Regelungen beschließt, ist mit der KI-Verordnung also bisher eher die Ausnahme als die Regel.

Wie kann man Sie bei Ihrer Arbeit unterstützen?
Erzählen Sie gerne anderen Menschen von unserer Arbeit und abonnieren Sie unseren Newsletter, um auf dem Laufenden zu bleiben. Ganz neu ist zudem die Möglichkeit, AlgorithmWatch als Fördermitglied zu helfen. Fördermitglieder unterstützen unsere Arbeit mit mindestens 5 Euro im Monat und erhalten dafür unter anderem ein Willkommenspaket und regelmäßige Informationen.
Wir setzen uns dafür ein, dass noch mehr Leute beim Thema KI und wie es unsere Gesellschaft verändert, mitreden. Denn wirkliche Veränderung hin zum Einsatz von KI, der allen nützt, können wir nur gemeinsam bewirken. Dabei hilft uns jede einzelne Spende.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert