Buchen Sie noch heute einen Termin beim Algorithmen-Tüv

Es gibt so Wochen, da weiß man einfach nicht so richtig was man sagen soll, wie das mit dieser Digitalisierung in Deutschland läuft. Da hab ich mir auf der Smart Country Convention in Berlin endlich die Online-Funktion meines Personalausweises scharf schalten lassen. Und festgestellt, dass man dann alleine mit Smartphone und passender App tolle Dinge machen kann. Wie sich bei der Rentenversicherung einloggen, den Punktestand in Flensburg abfragen oder ein polizeiliches Führungszeugnis beantragen (inkl. Bezahlung per Kreditkarte). Und eine aktuelle Bitkom-Studie zeigt, dass deutsche Unternehmen digitale Plattformen eigentlich ganz knorke finden - auch wenn sie selbst da doch noch oft zurückhaltend sind. Aber könnte ja was werden.

Und dann legt in der selben Woche die “Datenethikkommission” ihren Abschlussbericht vor und plädiert für eine strenge Algorithmenkontrolle. Also nicht nur für Algorithmen, die Killer-Drohnen steuern. Sondern für alle Algorithmen mit Gefährdungspotenzial. Die da wären? Also eigentlich alle. Mit Ausnahme von - das wird wirklich als Beispiel im Abschlussbericht genannt - dem Algorithmen in einem Getränkeautomaten. Der wird schweren Herzens als risikolos deklariert, obwohl selbst da die Autorinnen und Autoren anmerken: “Die in einem Getränkeautomaten zum Einsatz gelangenden Algorithmen haben zwar auch ein gewisses Schädigungspotenzial, weil ein Nutzer z. B. keine Ware erhalten und sein Geld verlieren könnte. Dieses Schädigungspotenzial überschreitet aber nicht die Schwelle zu einem besonderen Schädigungspotenzial im Algorithmenkontext.” Das steht da wirklich, Seite 178.

Und was sind da die wirklich kritischen Algorithmen, wo man dringend was tun muss? “Dynamische Preissetzung (etwa nach den Kriterien von Angebot und Nachfrage) im Online-Handel, die aber keine Personalisierung von Preisen beinhaltet, hat ein meist geringes, aber doch die Relevanzschwelle überschreitendes Schädigungspotenzial, etwa betreffend einer versteckten Diskriminierung.” Puh, wenn man das so liest, steht jeder BWLer im 1. Semester jetzt schon mit einem Bein im Knast. Angebot und Nachfrage - versteckte Diskriminierung. Und wenn jemand das auf die analoge Welt überträgt, dann muss das Ordnungsamt eine ganze Menge tun, um zum Beispiel auf dem Markt zu verhindern, dass kurz vor Schluss die Ware noch billig(er) rausgehauen wird.

Ich möchte ja nicht mit den ganzen weiteren Risiko-Stufen langweilen, hab mich dann aber doch noch für die höchste Stufe riskanter Algorithmen interessiert, die die Datenethiker gerne von vornherein verbieten wollen. Auch hier gibt es ein Beispiel: Killerroboter. “Autonome Waffensysteme (Lethal Autonomous Weapons) werden vielfach als „rote Linie“ angesehen, weil die Tötung von Menschen nicht Maschinen überlassen werden dürfe.” Das finde ich persönlich durchaus beruhigend. Allerdings geht das Beispiel noch weiter und zeigt, dass es hier ja nur um DATENethik ging und in der Kommission dann doch die Juristerei die Oberhand hatte (wenn es schon an Digitalexpertise mangelte): “Das kann allerdings wohl nur gelten, soweit man von algorithmendeterminierten Tötungen ausgeht. Soweit autonome Waffensysteme menschliche Soldaten lediglich bei der Objekterkennung unterstützen oder sofern sie lediglich dazu dienen, einen Flugkörper trotz Seitenwinds in der Bahn zu halten, ist eine ethische „rote Linie“ nicht überschritten.” Also zur Beruhigung: Es hat niemand die Absicht, Tötungsunterstützungsalgorithmen zu verbieten, es reicht schon für eine bessere Welt, wenn das Ticket nicht teurer wird, falls nur noch drei da sind, aber noch 30 Leute eins kaufen wollen. Das passt einfach ganz perfekt in eine Zeit, in der der Mietendeckel als Lösung für das Problem fehlenden Wohnraums angesehen wird.

Algorithmen-Tüv, Algorithmenbeauftragte in Behörden und Unternehmen, schwarze Algorithmenlisten - the German way of this merkwürdige Digitalisierung. Mein Blick in die Zukunft: Wir werden dann 2028 feiern, dass man ab sofort die Algorithmenzulassungsanträge auch online stellen kann und den Code nicht mehr per Fax an das Bundesamt für Algorithmenaufsicht schicken muss.

Dieser Text ist als Einleitung zur Ausgabe #81 meines wöchentlichen Newsletters “Undisruptable Technology” erschienen, den man kostenlos hier abonnieren kann.

Tags
#KI #Digitalisierung #Datenethikkommission
Auch interessant
Nächster Beitrag
Vorheriger Beitrag