Google-Mitarbeiter gegen Beteiligung an "Geschäft mit dem Krieg"

16. Mai 2018 - 13:05

Zahlreiche Mitarbeiter von Google haben den US-Technologiekonzern aufgerufen, sich vom "Geschäft mit dem Krieg" fernzuhalten. Google müsse klar erklären, dass weder der Internetriese noch seine Subunternehmen "jemals Kriegstechnologie herstellen", hieß es in einer Petition, die bis Dienstag Berichten zufolge rund 4.000 Angestellte unterzeichneten.

Petition gegen Entwicklung künstlicher Intelligenz für US-Drohnenprogramm
Petition gegen Entwicklung künstlicher Intelligenz für US-Drohnenprogramm

Darin fordern sie Google auf, Drohnenprogramme des US-Militärs nicht mithilfe künstlicher Intelligenz zu verbessern. Dem Internetportal "Gizmodo" zufolge reichten bereits mehrere Entwickler aus ethischen Gründen ihre Kündigung ein.

Hintergrund der Proteste ist das sogenannte "Project Maven", bei dem laut US-Medien intelligente Algorithmen bei der Erkennung und Unterscheidung von Menschen in Drohnenvideos für das Pentagon zum Einsatz kommen. "Wir fordern, dass das 'Project Maven' gestoppt wird", heißt es in der Petition, von der Kopien im Internet veröffentlicht wurden. "Wir glauben, dass Google nicht im Geschäft mit dem Krieg sein sollte."

Militärische Nutzung von Robotern begrenzen

Das Unternehmen war für eine Stellungnahme zunächst nicht zu erreichen. Unterstützung für die Petition kam von der US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) und dem International Committee for Robot Arms Control (ICRAC), das sich dafür einsetzt, die militärische Nutzung von Robotern zu begrenzen.

Auch wenn die durch künstliche Intelligenz gewonnenen Erkenntnisse noch einmal von menschlichen Analysten überprüft werden sollten, könne diese Technologie den Weg für automatisierte Zielerfassungssysteme bei Kampfdrohnen ebnen, schrieb das ICRAC in einem offenen Brief. "Wenn Befehlshaber des Militärs zu der Erkenntnis gelangen, dass die Algorithmen verlässlich sind, gibt es die Versuchung, die Überprüfung durch Menschen für diese Systeme abzuschwächen oder sogar abzuschaffen."

Dann sei die Menschheit "nur einen kleinen Schritt davon entfernt, autonomen Drohnen zu erlauben, automatisiert zu töten - ohne menschliche Aufsicht oder aussagekräftige Kontrolle", warnte das Komitee.

Nicht zu Angriffszwecken? Daran darf gezweifelt werden

Google habe in der Vergangenheit betont, die Arbeit des Technologiekonzerns zur Verbesserung der Fähigkeiten zur Objekterkennung diene keinen Angriffszwecken, erklärte die EFF. Nun zeige sich allerdings ein "düsteres Bild", schrieben Cindy Cohn und Peter Eckersley in einem Online-Beitrag im vergangenen Monat.

Durch die von Google bereitgestellte Technologie könnten von Drohnen erkannte Objekte oder Menschen für eine Überprüfung durch Menschen markiert werden. Dies könne dann in einigen Fällen tatsächlich zu Luftangriffen führen, schrieben Cohn und Eckersley. Dadurch stehe aus ethischer Sicht enorm viel auf dem Spiel - "selbst wenn in dieser Tötungskette noch weiter oben Menschen sind".

Sowohl EFF als auch ICRAC riefen dazu auf, eine ernsthafte Debatte über die Notwendigkeit ethischer Rahmenbedingungen für die Nutzung künstlicher Intelligenz in der Waffentechnik zu führen. Diese Debatte sei von entscheidender Bedeutung und müsse international geführt werden, forderte die Electronic Frontier Foundation. Firmen wie Google müssten sich der Folgen ihres Handels bewusst sein und von den Militärvertretern Verhaltensstandards und Verantwortlichkeit einfordern - ebenso wie von sich selbst.

(APA/red, Foto: APA/APA (AFP))

tutor18

Studium.at Logo

© 2010-2021  Hörsaal Advertainment GmbH

Kontakt - Werbung & Mediadaten - Datenschutz - Impressum

Studium.at versichert, sämtliche Inhalte nach bestem Wissen und Gewissen recherchiert und aufbereitet zu haben.
Für etwaige Fehlinformationen übernimmt Studium.at jedenfalls keine Haftung.