Dígits i andròmines

Els equilibris d’Apple amb la privadesa

Abans de final d’any, els iPhones detectaran les imatges de pornografia infantil i denunciaran l’usuari del telèfon a les autoritats

La pantalla inicial per entrar el codi de seguretat d'un dispositiu iphone
20/08/2021
4 min

Apple va confirmar fa uns dies que les pròximes versions dels seus sistemes operatius iOS, iPadOS, macOS i watchOS, que s’esperen per a mitjans de setembre coincidint amb la presentació dels iPhone 13, inclouran diverses funcions per detectar automàticament la presència d’imatges de pornografia infantil (CSAM, per les sigles en anglès de child sexual abuse material) en els dispositius dels usuaris i comunicar-ho a les autoritats. Com que es tracta d’una marca que ha fet bandera –i argument comercial– de la protecció de les dades personals dels seus clients, l’anunci de la novetat li ha comportat ser acusada d’hipocresia. Però, com veurem, les coses no són tan senzilles.

Per una banda, els nous mòduls de programari –que s’instal·laran obligatòriament amb el sistema operatiu, ara com ara només als EUA– vigilaran en temps real les imatges que els usuaris de menys de 13 anys rebin o enviïn per iMessage, el servei de xat propi d’Apple. En cas que alguna d’elles sigui sexualment explícita, el menor veurà un missatge d’avís abans de poder obrir-la, i si decideix fer-ho, un altre recordant-li que l’operació serà notificada als seus pares, tutors o adults responsables del compte familiar.

Al mateix temps, les peticions d’imatges de pornografia infantil que es facin a la majordoma digital Siri o al cercador web preconfigurat seran interceptades i redirigides a pàgines informatives sobre el citat tipus de material gràfic.

Anàlisi d'imatges

Tot i això, la novetat que ha aixecat més polèmica és l’exploració proactiva de totes les imatges que hi ha a la galeria del dispositiu, abans de copiar-les al núvol iCloud d’Apple. Si alguna coincideix amb les que el Centre Nacional de Menors Desapareguts i Explotats (NCMEC) dels EUA té al seu arxiu de pornografia infantil, es pujarà a iCloud acompanyada d’una etiqueta xifrada que detallarà la coincidència. Quan el perfil d’un usuari acumuli al voltant d’una trentena d’aquestes etiquetes delatores, personal d’Apple revisarà les imatges corresponents i si es confirma que totes mostren abusos sexuals de menors, ho comunicarà a les autoritats competents.

Apple s’ha afanyat a explicar que aquesta exploració del contingut gràfic del dispositiu respecta la privadesa dels usuaris gràcies a diverses salvaguardes. La principal d'elles és l’ús d’un sistema que no explora directament les imatges del telèfon, sinó que únicament compara les seves signatures criptogràfiques (hash, un llarg codi alfanumèric que en representa el contingut i es genera dins de l’aparell) amb les signatures equivalents de les imatges de referència, que es mantenen estables encara que se’ls hagin aplicat modificacions com ampliacions o retalls. Les úniques imatges que són objecte d’examen posterior per part d’Apple són les que mostren una coincidència exacta, i sempre que el compte iCloud de l’usuari hagi superat el llindar aproximat de 30 notificacions. Per evitar falsos positius, es fan servir com a referències només les imatges que almenys dues entitats –el NCMEC i una altra d’homòloga d’un altre estat no especificat– han verificat per separat com a pornografia infantil. Apple no disposa de les imatges originals, només de les seves signatures; els usuaris no tenen accés a la base de dades d’imatges que les entitats de protecció de menors han qualificat de pornogràfiques, i tampoc poden saber quines són les imatges del seu dispositiu que el sistema ha marcat com a candidates a ser revisades. Amb tot plegat, l’empresa assegura que la possibilitat d’error és de només tres casos per cada bilió (dels nostres, trilió dels seus) d’imatges considerades.

Les opcions de privacitat d'iMessage, el servei de missatgeria d'Apple.

Val a dir que tant Apple com els altres gegants digitals porten anys examinant les imatges que circulen per les seves plataformes de comunicació (correu electrònic, xat) i d’emmagatzematge al núvol: Google ho fa des de 2008, Facebook des de 2011 i Twitter des de 2013. En algun dels casos, fent servir tecnologia pròpia; en d’altres, el codi PhotoDNA que Microsoft va crear per als seus serveis i després va obrir a qualsevol que vulgui utilitzar-lo. En aquesta ocasió, però, els puristes de la privadesa han posat el crit al cel per l’exploració del contingut abans que aquest surti del dispositiu de l’usuari, sense adonar-se que en realitat això facilitarà que Apple acabi activant el xifratge de les còpies de seguretat a iCloud que sovint li reclamen. També se li retreu a l’empresa que estigui obrint una suposada porta per on governs autoritaris podrien injectar a la base de dades signatures d’imatges de referència que no tinguin res a veure amb l’abús de menors, però en realitat seria difícil que això passi perquè Apple es basa en els hash que li aporten un mínim de dues entitats de protecció diferents. I, a més, incorporar l’exploració com a part del sistema operatiu permet que els experts en criptografia n’auditin el funcionament, cosa que no podrien fer si el procés es portés a terme als servidors del núvol d’Apple.

En qualsevol cas, els pervertits amb iPhone tenen una manera relativament senzilla d’esquivar el nou escrutini per part d’Apple: n’hi ha prou amb desactivar la sincronització automàtica de les imatges del dispositiu amb el núvol d’iCloud. Tanmateix, diversos especialistes consideren que la mesura contribuirà igualment de manera substancial a la detecció d’individus que trafiquen amb aquesta mena de material.

Potser el més important és que Apple ha posat de manifest el difícil equilibri entre la privadesa que tots diem desitjar i l’ocultació d’activitats delictives que la gran majoria voldríem veure desaparèixer, i ha fet una proposta que de moment només s’aplicarà als EUA però també encaixaria perfectament en les aspiracions que les autoritats de la Unió Europea van manifestar el mes passat. Sigui com sigui, el debat també fa evident que el concepte de privadesa vol dir coses diferents segons aspirem a protegir la nostra informació dels governs, d’altres usuaris o de les empreses que ens proporcionen els serveis digitals, i és difícil que cap solució abordi amb eficàcia els tres interessos.

stats