Smart Security – Mauer aus Algorithmen
Lesen Sie alle Artikel unserer Reihe über das Internet der Dinge!
Nicht nur Durchschnittsbürger.innen und Unternehmen nutzen „intelligente“ Geräte. Längst haben auch Behörden und staatliche Stellen deren Potential entdeckt. Immer häufiger wird „smartes“ zur Sicherung von Menschen, Staaten und Grenzen eingesetzt. Hinter „Smart Security“ verbirgt sich der Wunsch, mithilfe von technischen Systemen Menschen zu überwachen, sodass sie sich weniger kriminell verhalten. Die Industrie ist bereit, diesen Traum umzusetzen, auch wenn die gewonnene „Sicherheit“ einen hohen Preis hat...
Inhalt
1. Was ist Smart Security?
2. Wo stehen wir aktuell?
3. Welche Daten werden gesammelt?
4. Wo liegen die Gefahren?
5. Fazit
Weiterführende Links
1. Was ist Smart Security?
„Smart Security“ beruht weniger auf einzelnen „smarten“ Geräten, sondern mehr auf statistischen Aussagen aus großen Datenbeständen. Algorithmen bewerten Personen und deren Verhalten mithilfe von Vergleichen der bereits erfassten Datenbestände daraufhin, ob diese ein mögliches Sicherheitsrisiko darstellen. Die Ziele von „Smart Security“ sind, die Sicherheit zu erhöhen, Kosten zu senken und den zeitlichen Aufwand für „ehrliche“ Personen bei Kontrollen und Ähnlichem zu verringern.
2. Wo stehen wir aktuell?
Aktuell befinden sich noch viele Systeme in der Entwicklung. Aber es gibt bereits einzelne Komponenten von Systemen sowie vollständige Anwendungenen, die in Betrieb sind. Körper- oder auch Nacktscanner an Flughäfen sind das erste weit verbreitete Beispiel für „smarte“ Sicherheit.
3. Welche Daten werden gesammelt?
Die gesammelten Daten sollen dazu dienen, Rückschlüsse auf die Gefährlichkeit einer Person zu erlauben. Dazu werden Geschlecht, Haarfarbe, Hautfarbe, Herkunft, Kleidung und viele weitere Merkmale herangezogen. Zusätzlich kann auch das Verhalten einer Person während einer Sicherheitskontrolle oder in einer beliebigen Menschenmenge aufschlussreich sein.
Im Rahmen von Sicherheitskontrollen wird häufig ebenfalls die Vorgeschichte einer Person miteinbezogen. Unter anderem, welche Länder ein Mensch im Vorfeld bereist hat, ob er schon einmal bei Kontrollen aufgefallen oder womöglich vorbestraft ist.
Diese Informationen können dabei aus einer Vielzahl an Quellen stammen und zusammengeführt werden: das Melderegister des Staates, Informationen von Geheimdiensten, Datenbanken aus bereits durchgeführten Kontrollen und viele mehr.
Auf Grundlage dieser Daten werden Menschen bewertet und unterschiedlich behandelt. Aber wie verlässlich sind diese Methoden und sind sie mit unseren Grundrechten vereinbar?
4. Wo liegen die Gefahren?
Alle Ergebnisse, die Algorithmen liefern, sind Wahrscheinlichkeiten. Auch wenn das Programm „gefährlich“ oder „nicht gefährlich“ als Resultat liefert, ist diese Aussage nur eine Prognose. Es besteht immer die Möglichkeit, dass die Ausgabe des Programms „falsch“ ist.
Die Sicherheitssysteme stammen oft von unterschiedlichen Herstellern, deren Ergebnisse sich auf verschiedene Algorithmen stützen. Dies kann schließlich dazu führen, dass ein und dieselbe Person unterschiedlich eingestuft wird. Doch welches System hat in einem solchen Fall recht? Welches wird beachtet; sollten zwei Einstufungen völlig Gegensätzliches behaupten?
Genügt ein zurückliegender Urlaubsaufenthalt in einem – beispielsweise arabischen – Land, um mich zukünftig als eine höhere Gefahr einzuschätzen? Was ist mit Daten, die nicht nur aus dem Kontext gerissen, sondern schlicht falsch sind? Wenn in einer Datenbank, die für Sicherheitschecks verwendet wird, falsche Informationen über eine Person hinterlegt sind, führt dies zu irreführenden Bewertungen und „false positives“ (also einen Treffer, der sich als falsch herausstellt). Meistens gibt es keine Möglichkeit, herauszufinden, ob es falsche Informationen sind, die über eine Person bekannt sind, geschweige denn eine Änderung an diesen vornehmen zu lassen. Wird eine Person in Zukunft wegen besagter Falschinformation negativ bewertet?
Viele Parameter, die zur Einstufung einer Person betrachtet werden, sind mit Vorurteilen belastet und verstärken diese zudem noch. Denn, da die Einschätzung des Gefährdungspotentials auch oft vom äußeren Erscheinen abhängt, sind Rassismus, Sexismus und somit eine negativ konnotierte Generalisierung von Menschengruppen nicht auszuschließen.
Die heute angewandten Big-Data-basierten Personalisierungsverfahren schaffen vielmehr das Problem zunehmender Diskriminierung. (Spektrum Digital-Manifest S. 39)
Um eine Person oder eine Situation zu bewerten zu können, braucht ein automatisches System eine Datenbasis. Für eine Bewertung muss vorgegeben werden, welche Merkmale als „gefährlich“ und welche „gefährlicher“ als andere einzustufen sind. Sind alle Leute verdächtig, die sich nicht wie die Mehrheit oder sich nicht „normal“ verhalten? Ist es bedrohlicher, wenn jemand an einem Ort rennt, an dem dies nicht üblich ist, oder wenn Schreie ertönen? Wer definiert diese Merkmale und deren „Bedrohlichkeit“? Und wo liegt die Grenze, an welcher das Überwachungsprogramm aktiv wird und Polizei oder Rettungsdienste informiert, beziehungsweise sogar selbst eingreift?
Wie weit gehen die Befugnisse eines Programmes, aktiv zu handeln? Wer trüge die Verantwortung dafür?
Smart Security verleitet dazu, sich zu sehr auf die technischen Sicherheitsmaßnahmen zu verlassen. Dabei vernachlässigen wir jedoch, soziale Probleme zu lösen. Überwachungskameras können keine gründlichen Ermittlungen ersetzen. Mehr noch: Die neuen Sicherheitstechniken beruhen oft auf bloßer Überwachung und verletzen somit unsere Grundrechte auf Privatsphäre und informationelle Selbstbestimmung. Derartige Maßnahmen fördern die Errichtung eines Überwachungsstaates und haben – vor allem durch Korrelation mehrerer Datenbanken – erheblichen Einfluss auf unser Verhalten.
5. Fazit
Einige der beschriebenen Szenarien sind bislang Zukunftsmusik. Trotzdem ist es an der Zeit sich über derartige Fragen Gedanken zu machen, denn sie werden unsere Zukunft verändern, die ethischen und moralischen Grundsätze bleiben vermutlich jedoch die gleichen.
Viele Ideen bezüglich einer smarten Sicherheit beinhalten gute Ansätze, auch sind manche Vorteile nicht von der Hand zu weisen.
Allerdings ist der großflächige Einsatz von Geräten der „Smart Security“ nur noch einen kleinen Schritt vom Überwachungsstaat entfernt. Zudem sollten wir uns noch einmal vor Augen halten, dass es kein „Supergrundrecht“ auf Sicherheit gibt. Mehr noch: Freiheit lässt sich nie gegen Sicherheit aufwiegen.
Freiheit muss immer wieder neu errungen werden – selbst gegen den Zugriff intelligenter Maschinen. (Spektrum Digital-Manifest S. 36)
Auch wir müssen unsere Freiheit immer wieder neu erkämpfen, einfordern und uns gegen Überwachung wehren!
Weiterführende Links
- Happy Crowd Control, Sicherheitskonzept zur „besseren“ Kontrolle von Menschenmengen
- Das „Digital-Mainfest“ beschäftigt sich ausführlich mit Big Data & Co.
- Forschungsarbeit der Uni Tübingen: How „smart“ is Smart Security?
- „‚Smart City‘ – alternativloser Selbstläufer oder abgekartetes Spiel?“
Bilder
brain picture: Allan Ajifo auf flickr CC BY 2.0
Überwachungskameras: Px4u by Team Cu29 auf flickr CC BY-ND 2.0