Es fängt an mit einem Vater, dessen kleiner Sohn Schmerzen im Genitalbereich hat. Im Vorfeld einer Videokonferenz mit dem Kinderarzt sollte der Vater Fotos der schmerzenden Stelle schicken. Der Vater macht also Fotos vom Penis seines Sohnes und verschickt sie. Gleichzeitig landen diese Fotos auf Google-Servern, ein automatischer Scan schlägt Alarm und die Polizei wird hinzugezogen.
Die anonyme Synchronisierung auf Android-Geräten (welche sich ausschalten lässt, – was sie in diesem Fall jedoch nicht war) hat die besagten Fotos auf die Server von Google geladen, wo sie als Kinderpornografie identifiziert wurden.
Auch wenn die Polizei nach ihrer Ermittlung keine Straftat feststellte, wurde dennoch der Google-Account des Vaters gesperrt und ist es bis heute. Die privaten Daten, die darauf lagen, sind verloren.
Es ist ein Fall, der die Kritikpunkte der geplanten Chatkontrolle im Speziellen und von automatischer Bilderkennung durch KI im Allgemeinen illustriert. Eine KI, selbst wenn sie in der Erkennung der Bilder fehlerfrei funktioniert, wird trotzdem keinen Kontext verstehen und wie in diesem illustrierten Fall False Positives ausgeben. Man darf davon ausgehen, dass solche Fälle sich infolge der Chatkontrolle häufen werden. Selbst wenn dies nicht zu tatsächlichen Strafanzeigen oder Verhaftungen führt (wie im Falle des Vaters), werden trotzdem Menschen unter Verdacht von schweren Verbrechen gestellt. Zusätzlich zu der Unsicherheit, wie mit diesem Verdacht vonseiten der Behörden umgegangen wird, müssen Betroffene außerdem noch damit leben, z. B. ihr Google-Konto zu verlieren (ebenfalls wie im Falle des Vaters).
Weitere Informationen finden Sie hier: