Biometria

El reconeixement facial, un element clau en la nova colonització digital

Abril 2021.

Xina és un dels països que està posant les bases del seu nou imperi digital. Hem entrat en una era de colonització digital en la qual determinats països exporten la seua tecnologia de manera subvencionada amb dos objectius. El primer és l'accés a les dades d'aquestes noves colònies digitals sense tindre cap mena de restricció, i el segon és assentar el seu domini tecnològic en aquest escenari de guerra freda que s'està donant, principalment entre els Estats Units i la Xina.

la Xina exporta la seua tecnologia a països que volen la seua tecnologia de reconeixement facial per a control de la població. Les empreses xineses han exportat tecnologia de vigilància d'intel·ligència artificial a més de 60 països, entre ells l'Iran, Myanmar, Veneçuela, Zimbàbue i altres amb pèssims historials de drets humans, segons un informe d'un grup d'experts estatunidenc.

El reconeixement facial pot ser utilitzada per a detectar el tipus de personalitat i si s'és un delinqüent, com reclamava en 2016 Facepcition, una empresa d'Israel, o senzillament per a decidir qui mereix un lloc de treball com anunciava en 2019 HireVue.

Evidentment el camp de les emocions és en el qual s'està treballant més, però això no lleva que el biaix racial haja sigut present durant molt de temps en aquesta mena de tecnologia. I malgrat els test i de les millores aconseguides, encara es continuen produint aquest tipus de biaixos, per exemple el programari de Lockport Schools classificava als alumnes negres amb un major percentatge de risc.

En Sesgo Codificado un documental que podeu veure en Netflix, investiga el biaix dels algorismes després que la investigadora del M.I.T. Mitjana Lab Joy Buolamwini descobrira errades en la tecnologia de reconeixement facial.

Com posar remei?

Per a intentar posar remei a aquesta situació hi ha diverses organitzacions treballant en això. Una és Code 2040, una organització sense ànim de lucre creada per a derrocar les barreres del racisme i la desigualtat en la indústria de la tecnologia.

Podeu provar en Emojify intentar mostrar les emocions que us demana la màquina per a veure si és capaç de llegir-les correctament… No és una tasca fàcil, cal tirar-li teatre. I és que aquest joc està fet precisament perquè te n'adones que les emocions, els sentiments no estan lligats a una expressió facial concreta, ja que es pot simular perfectament. Molts qualifiquen a aquest reconeixement d'emocions de pseudociència.

A Espanya, més de 70 investigadors i acadèmics demanen al Govern una moratòria en l'ús del reconeixement facial fins a la seua regulació, "per les seues greus deficiències i riscos". Organitzacions com XNet s'han sumat a aquesta lluita pels drets civils. En altres països com França organitzacions com La Quadrature du Net han arribat als tribunals per aquest tema.

L'activisme de la societat civil pot modificar les coses. En la seua lluita de David contra Goliat de tant en tant aconsegueixen donar-li la volta a la truita.


Un problema sense solució

La legislació hauria de ser un element que hauria d'aportar part de la solució. A Europa el RGPD no es va fer pensat per al reconeixement facial o la mineria de dades, tres anys després, ja demanen renovar-lo. Però el problema, com hem vist, va més enllà. L'ús sense permís d'aquesta tecnologia és una cosa habitual fins amb les coses més insospitades. Heu pensat si les vostres fotografies han sigut utilitzades per a entrenar algun d'aquests sistemes? Si teniu fotos en Flickr podeu utilitzar una eina que us diu si s'han utilitzat o no.

Si realment us preocupa que s'utilitzen les vostres fotos de Xarxes Socials per a entrenar aquests sistemes un equip d'investigadors ha creat una eina que modifica les fotografies per a evitar que siguen processades per sistemes d'aprenentatge automàtic.

Fins i tot, a Moscou pots espiar a qualsevol per menys de 200 euros gràcies a les càmeres de vigilància instal·lades a la ciutat. Una jove activista russa ha comprat per 170 euros un informe amb 80 fotografies i ubicacions seues, preses pel sistema de vigilància de Moscou. Aquests informes es venen per Telegram i es confeccionen gràcies a les més de 105.000 càmeres de vigilància que hi ha instal·lades en la capital russa.

El reconeixement facial és una de les tecnologies més invasives per a la privacitat de les persones. El seu ús pot condicionar la llibertat de moviments i fins i tot limitar drets i llibertats. S'ha d'utilitzar amb summa cura, s'ha de permetre el seu ús sota unes estrictes condicions i en cap cas per a envair l'esfera privada de les persones.

Cada xicoteta cessió que fem en deixar que una xarxa social ens utilitze per a entrenar els seus sistemes de reconeixement facial, cada vegada que una empresa vol que siguem els seus clients per la cara pensem dues vegades en l'ús que se li donarà i reaccionem en conseqüència.