FIfFKon22

Killerroboter, Künstliche Intelligenz und Kryptographie: Regulierung und Design von Dual-use Technologien
2022-10-23, 12:00–12:50 (Europe/Berlin), Einstein-Saal

Was haben autonome Waffensysteme, Grippeforschung und Kryptografie gemeinsam? Sie alle sind Technologien mit doppeltem Verwendungszweck, d.h. Dual-use. In meinem Vortrag werde ich anhand von Beispielen zeigen, wie der Dual-Use Begriff verwendet wird, und wie wir ihn für verantwortungsvolle Forschung und Design benutzen können.


Die Informations- und Kommunikationstechnologien sind für die menschliche, nationale und sogar internationale Sicherheit von enormer Bedeutung. IT-Forschung, -Artefakte und -Fähigkeiten, die in militärischen und zivilen Kontexten eingesetzt werden können – als Teil von Waffensystemen oder aber nutzbringend – sind sogenannte Dual-Use Güter. Während autonome Waffensysteme (AWS) bisher nicht reguliert sind, ist die Ausfuhr von Kryptographie seit Jahrzehnten durch Dual-Use-Exportbeschränkungen reguliert. Wird hier mit zweierlei Maß gemessen?

Wie lässt sich der Dual-Use von maschinellem Lernen, KI oder großen sozialen Daten beurteilen? Die Forschung in den Lebenswissenschaften hat sich mit der Bewertung von Dual-Use-Gütern bereits ausführlich beschäftigt. Allerdings gibt Unterschiede zwischen den Dual-Use-Risiken der Influenza-Forschung und der Forschung und Entwicklung von AWS oder im Bereich der Cybersicherheit. Bislang fehlt ein systematischer Ansatz für die Bewertung von IKT mit Dual-Use. Genauso werden Forscher:innen und Entwickler:innen vor die Herausforderungen gestellt, Dual-Use zu erkennen und verantwortungsbewusst solche Technologien zu entwickeln. Um diese Forschungslücke zu schließen, verwendet mein Ansatz die Grundlagen der Technologiefolgenabschätzung (TA) als erkenntnistheoretischen Rahmen, um die Ansätze der Critical Security Studies (CSS) zur Systematisierung der Dual-Use-Risiken und -Szenarien sowie die partizipative Designmethode und die Theorie des Value Sensitive Design (VSD) aus dem Bereich der Human-Computer Interaction (HCI) zusammenzuführen.

Thea Riebe, M.A. ist wissenschaftliche Mitarbeiterin und Doktorandin am Lehrstuhl von Prof. Christian Reuter „Wissenschaft und Technik für Frieden und Sicherheit“ (PEASEC) im Fachbereich Informatik der Technischen Universität Darmstadt. Sie ist Mitarbeiterin im BMBF-Projekt CYWARN (2020-2023, BMBF) zu „Entwicklung von Strategien und Technologien zur Analyse und Kommunikation der Sicherheitslage im Cyberraum“.
Sie promoviert interdisziplinär in der Informatik zur Technikfolgenabschätzung von Dual-use Technologien und verbindet Ansätze aus der Technikfolgenabschätzung, Kritischer Sicherheitsforschung und Mensch-Computer Interaktion.

  • Webseite: https://peasec.de/team/riebe/