Algorithmen sind keine Schnüffler

Es gibt nur wenige moralische Ansichten, auf die sich beinahe die gesamte Menschheit einigen kann. Dass Kindesmissbrauch und dessen Dokumentation, also Kinderpornografie der schlimmsten Sorte, zu den widerlichsten Dingen gehören, die Menschen hervorbringen, gehört dazu. Es ist daher wenig verwunderlich, dass diese Art von Kinderpornografie fast überall verboten ist und mit schweren Strafen und gesellschaftlicher Ächtung geahndet wird.

Aktuell vertritt Udo Vetter einen Mandanten, in dessen Cloud-Speicher (OneDrive von Microsoft) ein kinderpornografisches Bild gefunden wurde. Ich mag Udo Vetter, aber in diesem Fall, in dem er als Strafverteidiger klar auf der Seite seines Mandanten stehen muss, halte ich es für nötig seinen Blogartikel zu kommentieren, denn ich halte das Vorgehen von Microsoft für angemessen und verhältnismäßig. Dass er das Vorgehen als „juristisch fragwürdig“ bezeichnet, stört mich nicht; das kann er besser einschätzen als ich. Aber der Satz

„Ins Zwielicht geraten dann möglicherweise zum Beispiel auch Eltern, die Aufnahmen ihrer Kinder in der Cloud speichern.“

ist meiner Meinung nach eine Angstkeule, die keiner Diskussion gut tut. Spiegel Online entblödete sich daraufhin auch nicht das Vorgehen als „Schnüffeln im Onlinespeicher“ zu bezeichnen.

Wie findet man Kinderpornografie?

Die automatisierte Identifikation von kinderpornografischem Material funktioniert so, dass die Bilder zunächst stark verkleinert und die Farbtiefe massiv verringert wird. Anschließend wird über das Ergebnis ein Hash berechnet. Einen Hash kann man sich vereinfacht als eine Quersumme vorstellen. Jede Zahl hat eine Quersumme, aber aus einer Quersumme kann man nicht die ursprüngliche Zahl bestimmen. Der errechnete Hash wird dann in einer Datenbank gesucht, die Hash-Werte bekannter kinderpornografischer Bilder enthält.

Durch die anfängliche Qualitätsreduzierung werden verschiedene Versionen des gleichen Ursprungsbildes (Format und Auflösung) auf ein einziges Resultat abgebildet, dessen Hashwert berechnet wird. Somit kann eine einfache Konvertierung kinderpornografisches Material nicht vor den Algorithmen verstecken. Weiterhin lassen sich Hash-Werte sehr effizient vergleichen und sortieren; es ist deutlich einfacher einen Hash in einer Datenbank zu suchen als ein ganzes Bild. Allerdings ist der wohl wichtigste Vorteil dieses Vorgehens, dass Strafverfolgungsbehörden aus kinderpornografischem Material, dass sie sichten und beschlagnahmen, eine Datenbank erstellen können, die sie an private Firmen weitergeben können, ohne dabei das kinderpornografische Material selber weiterzugeben.

Es ist nicht so, dass ein intelligenter Algorithmus sich das Bild anguckt, feststellt.

Auf dem Bild ist ein Kind.

Das Kind ist nackt.

Auf dem Bild ist ein Mann.

Der Mann ist nackt.

Der Mann hat eine Hand in der Nähe des Geschlechtsorgans des Kindes.

ALARM.

Nicht nur, dass solch ein Algorithmus äußerst fehleranfällig wäre, weil er eben auch das harmlose Bild des liebevollen Vaters mit der eigenen Tochter in der Badewanne als kinderpornografisch einsortieren könnte, er wäre darüber hinaus äußerst rechenintensiv. Objekterkennung, -klassifikation und Szeneninterpretation sind immer noch Dinge an denen sich Algorithmen die Zähne ausbeißen. Es geht, aber es geht nur mit vielen Daten und es geht nicht gut. Kurz: so etwas ist zu teuer für meist kostenlose Cloud-Speicher.

Das ist kein Schnüffeln

Die automatische Erkennung von Kinderpornografie kann man damit wohl kaum als Schnüffeln bezeichnen. Bei diesem Begriff stelle ich mir Mitarbeiter vor, die sich heimlich Bilder fremder Leute angucken oder Emails lesen. Es sind aber keine Menschen. Es sind dumme Algorithmen ohne jeden Funken von Bewusstsein. Über die Algorithmen, die unsere Datenpakete durcharbeiten um Übertragungsfehler zu erkennen und zu korrigieren, beschwert sich auch niemand, obwohl die ebenfalls jedes einzelne Byte angucken und ganz ähnliche Berechnungen anstellen.

Bei fast allen Cloud-Anbietern wird in die Privatsphäre der Kunden eingegriffen; jeder Kunde hat das bei seiner Anmeldung abgenickt. Ich befürworte diesen Grundrechtseingriff sogar, weil er für den einzelnen kaum Nachteile bringt, aber dabei hilft, Opfern von Kindesmissbrauch zu ihrem Recht zu verhelfen. Diese Opfer haben das Recht, dass die Bilder ihres Missbrauchs nicht weiter verbreitet werden, und dieses Interesse wiegt einfach schwerer.

Dennoch sind Algorithmen nicht unproblematisch

Obwohl ich Udo Vetters Angstkeule nicht unterstützen möchte und Microsofts Vorgehen im vorliegenden Fall gutheiße, möchte ich dennoch auf die Gefahren und Grenzen dieser Technologie hinweisen.

Problematisch ist, dass zwar das allgemeine Prinzip dieser Filterprogramme bekannt ist, aber keine verlässlichen Daten über deren Einsatz existieren. Es müsste aufgelistet werden, wie viele Dateien jedes Jahr gescannt werden, wie viele davon einen Alarm ausgelöst haben und bei wie vielen es sich schließlich wirklich um Kinderpornografie gehandelt hat. Es ist durchaus möglich, dass ein harmloses Bild einen Fehlalarm auslöst.

Problematisch ist des Weiteren, was in den Datenbanken der Cloud-Anbieter als Kinderpornografie registriert ist. Wie Kriminalbeamte berichten, kommen einschlägige Bilder in Form ganzer Fotoserien, die auch Bilder enthalten, in denen die Kinder noch bekleidet und in scheinbar alltäglichen Szenen dargestellt werden. Sollten diese Bilder ebenfalls als Teil einer Serie registriert werden, würden sie sich dazu eignen diese Bilder jemandem unterzuschieben, was schlimmstenfalls eine Hausdurchsuchung und soziale Ächtung eines Unschuldigen zur Folge hätte.

Problematisch ist des Weiteren die fortschreitende Automatisierung. Über WhatsApp kann mir jeder Nachrichten und Bilder zusenden, wenn er meine Telefonnummer im Adressbuch hat. Das funktioniert auch bei Tippfehlern, wie ich schon seit längerer Zeit einer klischeehaften Blondine zu vermitteln versuche, die mich „Tommy“ nennt und Alkohol von mir will. Was hier noch lustig ist, kann ganz schnell ernst werden, denn alle Bilder, die ich über WhatsApp erhalte werden von meinem Smartphone automatisch bei GoogleDrive hochgeladen.

Problematisch ist des Weiteren, dass es keine einheitliche Definition von Kinderpornografie gibt. In manchen Staaten sind selbst rein fiktionale Texte, denen kein echter Kindesmissbrauch zu Grund liegt, verboten, während andere Staaten nur die Dokumentation tatsächlichen Kindesmissbrauchs verbieten. Die Situation in Deutschland ist so unscharf, dass Herr Edathy und die Staatsanwaltschaft ganz unterschiedlicher Meinung sind, was strafbar ist.

Problematisch ist des Weiteren, dass Staatsanwaltschaften immer häufiger medienwirksam agieren, auch wenn die Beweislage noch völlig unklar ist. Es darf eigentlich nicht passieren, dass wie im Fall Zumwinkel Pressefotografen vor einer Verhaftung informiert werden, aber das ist nichts im Vergleich zur existenzvernichtenden Bekanntmachung, dass gegen jemanden wegen des Besitzes von Kinderpornografie ermittelt wird. Wer das nicht glaubt, soll Herrn Edathy fragen. Sollte dieser sich tatsächlich kein strafbares Material verschafft haben, hätte die Öffentlichkeit niemals von den Ermittlungen erfahren dürfen und er wäre wohl noch in Amt und Würden. Ich freue mich zwar, dass ein Mensch, der mit seinem Geld solch eine widerliche Szene unterstützt hat, mit seinen Handlungen konfrontiert wird, aber rechtsstaatlich ist das nicht. Und auch, wenn ich vor dem Hintergrund der eigentlichen Opfer von Kindesmissbrauch, Herrn Edathy einfach nicht als Opfer wahrnehmen kann, so hat einfach jeder Mensch das Recht, von der Staatsgewalt nur im Rahmen der Gesetze beeinträchtigt zu werden. Man stelle sich einfach vor, ein ähnlich schneidiger Staatsanwalt würde mit ähnlich dünner Beweislage, den Namen eines Unschuldigen in den Dreck ziehen. Unschuld schützt vor Ächtung nicht.

Die größte Gefahr liegt wo anders

Das gesamte System ist problematisch. Dass Udo Vetter die Filterung an sich kritisiert und die Angstkeule schwingt, geht aber am Problem vorbei. Für die Zukunft habe ich übrigens die meiste Angst davor, dass James Cameron und andere Kryptogegner, Kinderpornografie als zweite Keule neben der Terrorpanik entdecken, um verschlüsselte Cloud-Speicher zu verbieten. Eine Echte Ende-zu-Ende-Verschlüsselung von Daten in der Cloud würde das Vorgehen von Microsoft nämlich unmöglich machen. Der Bevölkerung wirksame Kryptografie zu verbieten, ist jedoch ein deutlich stärkerer Eingriff in die Grundrechte als der Scan unverschlüsselter Daten durch den Anbieter. Ein Verbot von Kryptografie ist unverhältnismäßig.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.