Das CSAM-Erkennungssystem von Apple ist vielleicht nicht perfekt, aber es ist unvermeidlich


AppleInsider wird von seinem Publikum unterstützt und kann als Amazon Associate und Affiliate-Partner Provisionen für qualifizierte Käufe erhalten. Diese Affiliate-Partnerschaften haben keinen Einfluss auf unsere redaktionellen Inhalte.

Vor über einem Jahr kündigte Apple Pläne an, mit der Veröffentlichung von iOS 15.2 nach Material zum sexuellen Missbrauch von Kindern (CSAM) zu suchen. Die Technologie ist trotz Unvollkommenheiten und Schweigen darüber unvermeidlich.

Apple hat am 5. August 2021 angekündigt, dass diese Scan-Technologie in iCloud Photos, iMessage und Siri erscheinen wird. Diese Tools wurden entwickelt, um die Sicherheit von Kindern auf seinen Plattformen zu verbessern.

Zu diesem Zeitpunkt würden diese Tools bis Ende 2021 im Rahmen eines Updates für watchOS, iOS, macOS und iPadOS veröffentlicht. Apple hat seitdem verschoben, die Erwähnung der CSAM-Erkennung in iCloud Photos zu entfernen und ein Update auf seiner Seite zur Kindersicherheit zu veröffentlichen.

Und dann fingen die Beschwerden an. Und sie begannen scheinbar unwissend, dass Microsoft hochgeladene Dateien seit etwa 10 Jahren und Google seit acht Jahren scannt.

Auch Apple tat dies bereits seit einigen Jahren, mit einer serverseitigen Teilimplementierung noch vor der iOS 15.2-Ankündigung. Seine Datenschutzrichtlinie vom mindestens 9. Mai 2019 besagt, dass das Unternehmen hochgeladene Inhalte vorab auf potenziell illegale Inhalte, einschließlich Material zum sexuellen Missbrauch von Kindern, überprüft oder scannt. Dies scheint jedoch auf iCloud Mail beschränkt gewesen zu sein.

Wahrscheinlich als Reaktion auf den massiven Rückschlag von Kunden und Forschern im September 2021 sagte Apple, dass es zusätzliche Zeit dauern würde, um Eingaben zu sammeln und Verbesserungen vorzunehmen, bevor seine Kindersicherheitsfunktionen für iCloud Photos veröffentlicht werden. Es hielt einige Initiativen am Laufen und setzte sich mit Messages und Siri fort.

Kindersicherheit auf Apple-Plattformen

In Nachrichten warnt iOS Kinder zwischen 13 und 17 Jahren, die in einem iCloud Family-Konto enthalten sind, vor potenziell sexuell expliziten Inhalten, die in einem empfangenen Text erkannt wurden. Wenn das System beispielsweise ein Nacktbild erkennt, wird es automatisch unkenntlich gemacht und ein Popup mit einer Sicherheitsmeldung und einer Option zum Unschärfen des Bildes angezeigt.

Für Kinder unter 13 Jahren sendet iOS den Eltern eine Benachrichtigung, wenn das Kind sich dafür entscheidet, das Bild anzusehen. Jugendliche zwischen 13 und 17 Jahren können das Bild unscharf machen, ohne dass das Gerät die Eltern benachrichtigt.

Kommunikationssicherheit für Kinder in der Nachrichten-App

Als nächstes kommt Siri, zusammen mit den Suchleisten in Safari und Spotlight, ins Spiel. Es greift ein, wenn ein Apple-Benutzer jeden Alters Suchanfragen im Zusammenhang mit CSAM durchführt. Ein Popup warnt davor, dass die Suche illegal ist, und stellt Ressourcen bereit, um „mehr zu erfahren und Hilfe zu erhalten“. Siri kann Personen auch anweisen, mutmaßlichen Kindesmissbrauch zu melden.

Schließlich würde iCloud Photos auch vermutete CSAM erkennen und melden. Apples Plan war es, eine Datenbank mit Bild-Hashes von Missbrauchsmaterial für On-Device-Intelligence einzubinden. Diese Datenbank des National Center for Missing & Exploited Children (NCMEC) soll sicherstellen, dass Apple-Plattformen nur Material über Kindesmissbrauch melden, das bereits bei Ermittlungen der Strafverfolgungsbehörden gefunden wurde.

Apple sagt, dass das Ereignis einer falsch positiven Übereinstimmung selten ist, und sagt, dass die Chancen auf jedem Konto eins zu einer Billion sind. Es gibt auch ein menschliches Überprüfungsteam, das die letzte Entscheidung trifft, ob die Strafverfolgungsbehörden benachrichtigt werden sollen oder nicht, damit die Piste nicht sofort mit einem Polizeibericht endet.

Der rutschige, aber holprige Hang

Am umstrittensten waren die Erkennungstools in iCloud Photos. Ein offener Brief, der von Edward Snowden und anderen hochkarätigen Personen verfasst wurde, wirft beispielsweise Bedenken auf, dass bestimmte Gruppen die Technologie zur Überwachung nutzen könnten. Demokratische und autoritäre Regierungen könnten Apple unter Druck setzen, Hash-Datenbanken für andere Dinge als CSAM hinzuzufügen, beispielsweise Bilder von politischen Dissidenten.

Kindersicherungsfunktion in Siri

Kindersicherungsfunktion in Siri

Tatsächlich stellte die Electronic Frontier Foundation fest, dass sie dies bereits in Aktion gesehen hatte, und sagte: „Eine der Technologien, die ursprünglich entwickelt wurde, um Bilder des sexuellen Missbrauchs von Kindern zu scannen und zu hashen, wurde umfunktioniert, um eine Datenbank mit „terroristischen“ Inhalten zu erstellen, zu der Unternehmen beitragen können und Zugang zum Zweck des Verbots solcher Inhalte.”

Der rutschige Hang hat jedoch Unebenheiten. Im August 2021 reagierte Apples Datenschutzchef Erik Neuenschwander in einem Interview auf Bedenken und sagte, Apple habe Schutzmaßnahmen ergriffen, um zu verhindern, dass seine Technologie für andere Inhalte als CSAM verwendet wird.

Beispielsweise gilt das System nur für Apple-Kunden in den USA, einem Land, das eine vierte Änderung hat, die illegale Durchsuchungen und Beschlagnahmen verbietet. Da die Technologie direkt in die Betriebssysteme integriert ist, müssen sie für alle Benutzer überall gelten. Es ist Apple nicht möglich, Updates auf bestimmte Länder oder einzelne Benutzer zu beschränken.

Auch eine gewisse Inhaltsschwelle muss erreicht werden, bevor die Zahnräder in Gang kommen. Ein einzelnes Bild eines bekannten CSAM wird nichts auslösen, stattdessen sind etwa 30 Bilder von Apple erforderlich.

Apple hat im August 2021 ein Dokument mit häufig gestellten Fragen zu den Kindersicherungsfunktionen veröffentlicht. Wenn eine Regierung versucht, Apple zu zwingen, Nicht-CSAM-Bilder zur Hash-Liste hinzuzufügen, sagt das Unternehmen, dass es solche Forderungen ablehnen wird. Das System ist so konzipiert, dass es überprüfbar ist, und es ist nicht möglich, dass Nicht-CSAM-Images in das System “injiziert” werden.

Apple sagt, dass es auch eine Knowledge Base mit dem Root-Hash der verschlüsselten Datenbank veröffentlichen wird. „Benutzer können den Root-Hash der verschlüsselten Datenbank auf ihrem Gerät überprüfen und ihn mit dem erwarteten Root-Hash im Knowledge Base-Artikel vergleichen“, schrieb das Unternehmen.

Auch Sicherheitsforscher können in eigenen Reviews die Genauigkeit der Datenbank beurteilen. Wenn der Hash der Datenbank von einem Apple-Gerät nicht mit dem in der Knowledge Base enthaltenen Hash übereinstimmt, wissen die Leute, dass etwas nicht stimmt.

„Und so erfordert die Hypothese, dass viele Hürden übersprungen werden müssen, einschließlich der Änderung des internen Prozesses von Apple, um Material zu verweisen, das nicht illegal ist, wie bekannte CSAM, und von dem wir nicht glauben, dass es eine Grundlage gibt, auf der die Leute in der Lage sein werden, etwas zu machen diese Anfrage in den USA”, sagte Neuenschwander.

Apple hat Recht, die Funktion zu verzögern und Wege zu finden, die Genauigkeit seines Systems bei Bedarf zu verbessern. Einige Unternehmen, die nach dieser Art von Inhalten suchen, machen Fehler.

Und eines dieser Probleme wurde kürzlich durch einen ziemlich monumentalen Fehler von Google hervorgehoben.

Das Problem mit der Vorkriminalität

Ein bedeutendes Beispiel für fehlerhafte Software ereignete sich am 21. August bei Google. Die New York Times veröffentlichte eine Geschichte, die die Gefahren solcher Überwachungssysteme hervorhob.

Ein Vater in San Francisco hat auf Wunsch seines Arztes wegen eines medizinischen Problems ein Foto von den Genitalien seines Kleinkindes gemacht. Er schickte das Bild über das Telemedizinsystem des Gesundheitsdienstleisters, aber sein Android-Telefon lud es auch automatisch auf Google Fotos hoch, eine Einstellung, die das Unternehmen standardmäßig aktiviert.

Als CSAM gekennzeichnet, obwohl das Bild zu diesem Zeitpunkt noch nicht als CSAM bekannt war, meldete Google die Bilder den Strafverfolgungsbehörden und sperrte alle mit seinen Produkten verbundenen Konten des Vaters. Glücklicherweise verstand die Polizei die Natur der Bilder und erstattete keine Anzeige, obwohl Google seinen Kontozugriff nicht zurückgab.

Google Fotos im App Store

Google Fotos im App Store

Das Erkennungssystem von Google funktioniert nicht genau wie die Technologie von Apple. Auf der Support-Seite des Unternehmens wird Hash-Matching erwähnt, z. B. „YouTube’s CSAI Match, to detect known CSAM“.

Aber wie der medizinische Fall zeigt, können die Algorithmen von Google neben den Hashes aus der NCMEC-Datenbank auch die Genitalien jedes Kindes erkennen. Die Seite erwähnt maschinelles Lernen, „um nie zuvor gesehene CSAM zu entdecken“, die offensichtlich nicht zwischen Verbrechen und Unschuld unterscheiden können.

Das ist ein großes Problem und einer der Gründe, warum Datenschützer so besorgt über Apples Technologie sind.

Vorwärts gehen

Und doch ist Apples Implementierung der CSAM-Erkennung in iCloud Photos nur eine Frage der Zeit, einfach weil sein System einen Mittelweg einschlägt. Regierungen können Apple nicht anweisen, terroristische Inhalte in die CSAM-Datenbank aufzunehmen.

Die Verzögerung ist nur auf öffentlichen Aufschrei zurückzuführen; Apples Fehler lag in seiner ursprünglichen Nachricht bei der Ankündigung der Funktion, nicht in Fehlern innerhalb des Erkennungssystems.

In einem Bericht vom Februar 2022 sagte das Sicherheitsunternehmen PenLink, Apple sei bereits „phänomenal“ für die Strafverfolgung. Es verdient jährlich 20 Millionen US-Dollar, indem es der US-Regierung hilft, kriminelle Verdächtige aufzuspüren, und verkauft seine Dienstleistungen an die örtlichen Strafverfolgungsbehörden. Durchgesickerte Präsentationsfolien enthalten beispielsweise detaillierte iCloud-Warrants.

Apple macht kein Geheimnis daraus, wie es den Strafverfolgungsbehörden hilft, wenn eine Vorladung vorgelegt wird. Beispiele für Informationen, die Apple weitergeben kann, sind Daten aus iCloud-Backups, auf seinen Servern gespeicherte E-Mails und manchmal Textnachrichten.

Regierungen auf der ganzen Welt entwickeln ständig Wege zur Verbesserung der Online-Überwachung, wie das im Mai 2021 in Großbritannien eingeführte Gesetz zur Online-Sicherheit. Eine vorgeschlagene Änderung des Gesetzentwurfs würde Technologieunternehmen wie Apple dazu zwingen, CSAM selbst in Ende-zu-Ende-verschlüsselten Nachrichtendiensten zu erkennen. Apple müsste dieses Scannen auf geräteinterne Algorithmen verschieben, um iMessages zu überprüfen, bevor sie verschlüsselt und hochgeladen werden.

Bisher ist es Apple gelungen, die Bemühungen der USA zu bekämpfen, Hintertüren in seine Geräte einzubauen, obwohl Kritiker das Scannen von iCloud-Fotos als Hintertür bezeichnen. Der berühmte Kampf des Unternehmens mit dem FBI hat Apple-Kunden vor speziellen Versionen von iOS bewahrt, die es einfacher machen würden, in Geräte einzudringen.

Ob ein iOS 16-Update das Scannen von iCloud-Fotos bringt oder nicht, ist unklar, aber es wird eines Tages bald passieren. Danach müssen sich Apple-Kunden entscheiden, ob sie iCloud weiter nutzen oder zu einer alternativen End-to-End-Lösung wechseln möchten. Oder sie können iCloud Photos deaktivieren, da Apple allen versichert hat, dass der Erkennungsprozess nur mit seinem Synchronisierungsdienst stattfindet.

.

Author: admin

Leave a Reply

Your email address will not be published.