Skip to Content

Ella pensaba que un momento oscuro de su pasado había quedado atrás, hasta que hizo una búsqueda de su rostro en línea

Pixabay

Alexandra Ferguson

(CNN Business) — Cher Scarlett, ingeniera de software, había sido identificada erróneamente por la tecnología de escaneo facial antes, incluyendo un caso en el que podría haber aparecido un antepasado lejano en una foto. Por eso, cuando supo de una herramienta de reconocimiento facial en línea de la que no había oído hablar, quiso comprobar si confundía las fotos de su madre o de su hija con las suyas.

El 1 de febrero, Scarlett subió algunas imágenes de su hija adolescente y de su madre a PimEyes, un sitio web de reconocimiento facial destinado a encontrar fotos de uno mismo en la web, aparentemente para ayudar a erradicar problemas como la pornografía de venganza y el robo de identidad. No obtuvo ninguna imagen suya a cambio: las fotos de su hija dieron como resultado otros niños, dijo, mientras que una de su madre dio lugar a algunas fotos de su madre, además de imágenes de otras mujeres de aspecto similar.

Decidió probar otra cosa. A continuación, Scarlett subió un par de fotos de sí misma, con la curiosidad de saber si le llevarían a fotos de sus familiares. No lo hicieron, pero los resultados la sorprendieron de todos modos: debajo de algunas imágenes recientes de ella y de coincidencias erróneas que mostraban fotos de Britney Spears y de la hermana de la estrella del pop, Jamie Lynn, había fotos de una versión más joven de Scarlett. Eran fotos de una época oscura que no recordaba del todo, una época a los 19 años en la que, según ella, viajó a Nueva York y fue coaccionada para realizar actos sexuales humillantes y, a veces, violentos ante la cámara.

“Estoy viendo estas fotos y lo único que puedo pensar es que alguien ha photoshopeado mi cara en el porno”, dijo Scarlett a CNN Business en una entrevista.

Scarlett, conocida por ser una exempleada de Apple que fundó el movimiento de organización de los trabajadores conocido como #AppleToo, se ha mostrado abierta en Internet y en los medios de comunicación sobre su vida y sus luchas, que incluyen haber sufrido abusos sexuales cuando era niña, haber abandonado la escuela secundaria, haber luchado contra la adicción y el que hayan compartido fotos de ella desnuda en internet sin su consentimiento.

Lo que le ocurrió en Nueva York en 2005 fue tan traumático que intentó quitarse la vida en las semanas siguientes, según ha dicho, y en 2018 empezó a utilizar apellido Scarlett (se cambió oficialmente el nombre en diciembre de 2021).

Cher Scarlett, ingeniera de software, dijo a CNN Business en una entrevista: “Estoy viendo estas fotos y lo único que puedo pensar es que alguien ha photoshopeado mi cara en el porno”.

Scarlett ha trabajado duro para superar el trauma del pasado. Ahora vive en Kirkland, Washington y lleva años trabajando como ingeniera de software. Está criando a su hija y es una drogadicta en recuperación. Desde que dejó Apple a finales de 2021, tiene quejas pendientes contra Apple que están siendo investigadas por la Junta Nacional de Relaciones Laborales (Apple no respondió a una solicitud de comentarios), comenzó un trabajo como ingeniera de software senior en el desarrollador de videojuegos ControlZee en marzo.

Pero con unos pocos clics, PimEyes le devolvió una pesadilla de la vida real que ocurrió hace casi dos décadas. Desde entonces ha intentado, sin éxito, que se eliminen todas las fotos explícitas de los resultados de búsqueda de PimEyes, a pesar de que el sitio dijo que eliminaría las imágenes de Scarlett de los resultados. Esta semana, las imágenes sexualmente explícitas de Scarlett todavía se pueden encontrar a través de PimEyes.

Giorgi Gobronidze, que se identificó ante CNN Business como el actual propietario y director de PimEyes (dijo que compró la empresa a sus anteriores dueños en diciembre), dijo que desea que nadie experimente lo que pasó Scarlett, que reconoció como “muy, muy doloroso”.

“Sin embargo, decir simplemente ‘no quiero ver las imágenes’ o ‘no quiero ver el problema’ no hace que el problema desaparezca”, dijo. “El problema no es que haya un motor de búsqueda que pueda encontrar esas fotos; el problema es que están las fotos y hay gente que las ha subido y lo ha hecho a propósito”.

Es cierto que el descubrimiento de imágenes desconocidas puede ser útil para algunas personas que intentan eliminar esas fotos suyas en Internet. Pero la saga de Scarlett muestra con crudeza la facilidad con que la tecnología de reconocimiento facial, que ahora está al alcance de cualquiera con acceso a Internet, puede provocar daños inesperados que pueden ser imposibles de deshacer. Esta tecnología se ha hecho cada vez más común en Estados Unidos en los últimos años, y actualmente no hay normas federales que regulen su uso. Sin embargo, ha sido objeto de críticas por parte de grupos de defensa de la privacidad y los derechos digitales por cuestiones de privacidad y prejuicios raciales y otros peligros reales y potenciales.

Más personas tendrán “sin duda” experiencias como la de Scarlett, dijo Woodrow Hartzog, profesor de derecho y ciencias de la computación en la Universidad Northeastern. “Y sabemos por experiencia que las personas que sufrirán primero y más duramente son las mujeres y las personas de color y otras comunidades marginadas para las que la tecnología de reconocimiento facial sirve como herramienta de control”.

Como dijo Scarlett, “no puedo imaginar el horrible dolor de que esa parte de mi vida quede expuesta no por mí, sino por otra persona”.

Investigan a empresa de reconocimiento facial en EE.UU. 0:39

“Esto te puede interesar”

El descubrimiento de Scarlett de las fotos en PimEyes fue culpa mía.

Hace tiempo que conozco su trabajo como activista laboral y la sigo en Twitter. Como escribo a menudo sobre el software de reconocimiento facial, me puse en contacto con ella después de que publicara un tuit confuso a finales de enero relacionado con una experiencia que tuvo en Facebook en octubre de 2021. Scarlett había sido etiquetada en una foto en blanco y negro de aspecto antiguo de una mujer y un hombre, una foto que había sido publicada en Facebook por un amigo de un amigo, con el que, según ella, tiene un parentesco lejano.

En aquel momento dijo que había sido “autoetiquetada” mediante el software de reconocimiento facial de Facebook, que se desactivó después de publicar la foto; ahora cree que la etiqueta fue una sugerencia activada por el software.

Y lo que es más extraño aún: algunas investigaciones en Ancestry.com le llevaron a creer que la mujer de la foto era su tatarabuela.

(Facebook dijo que nunca etiquetó automáticamente a los usuarios en las imágenes; sin embargo, antes de desactivar la función de reconocimiento facial, podía sugerir que se etiquetara a un usuario en una imagen si tenía activada la opción de reconocimiento facial, y notificaba al usuario si aparecía en una imagen de Facebook, pero no había sido etiquetado).

Un sistema de reconocimiento facial envió a este hombre inocente a la cárcel

Scarlett y yo hablamos, a través de los mensajes privados de Twitter, de lo extraño de esta experiencia y de las repercusiones del software de reconocimiento facial.

Fue entonces cuando le envié un enlace a un artículo que había escrito en mayo de 2021 sobre un sitio web llamado PimEyes. Aunque el sitio web indica a los usuarios que se busquen a sí mismos, no les impide subir fotos de cualquier persona. Y aunque no identifica explícitamente a nadie por su nombre, como descubrió CNN Business al utilizar el sitio, esa información puede estar a solo unos clics de distancia de las imágenes que PimEyes saca.

Sus imágenes proceden de una serie de sitios web, incluidos sitios de empresas, medios de comunicación y pornografía, este último, PimEyes dijo a CNN Business en 2021 que lo incluye para que la gente pueda buscar en línea cualquier porno de venganza en el que puedan aparecer sin saberlo. PimEyes dice que no toma imágenes de las redes sociales.

“Puede que esto te interese”, escribí, introduciendo mi artículo.

Minutos después, Scarlett me dijo que había pagado US$ 30 por el servicio mensual más barato de PimEyes. (PimEyes muestra a los usuarios una vista previa gratuita y algo borrosa de cada imagen que su software de reconocimiento facial determina que es probable que incluya a la misma persona que en la foto que el usuario subió inicialmente; hay que pagar una cuota para hacer clic e ir a los sitios web donde aparecen las imágenes).

Poco después, me envió un mensaje: “oh no”.

Procesando los resultados

A Scarlett le llevó tiempo procesar lo que estaba viendo en los resultados, que incluían imágenes relacionadas con los actos sexuales forzados que estaban publicadas en numerosos sitios web.

Al principio, pensó que era su cara pegada en el cuerpo de otra persona; luego, se preguntó, ¿por qué se veía tan joven? Vio una imagen de su cara, en la que recuerda que estaba sentada; reconoció la camisa que llevaba en la foto, y el pelo.

Me envió esta foto, que parece benigna sin el contexto de Scarlett: muestra una versión más joven de ella, con el pelo castaño oscuro peinada con raya al centro, un collar plateado alrededor del cuello y una camiseta de tirantes turquesa.

Guardó una copia de esta imagen y la utilizó para realizar otra búsqueda, que, según ella, arrojó docenas de imágenes más explícitas, muchas de ellas agregadas en varios sitios web. Algunas imágenes estaban publicadas en sitios web dedicados a la pornografía de tortura, con palabras como “abuso”, “asfixia” y “tortura” en las URL.

“Y fue como”, dijo Scarlett, haciendo una pausa y emitiendo una especie de sonido de explosión del cerebro mientras describía lo que era mirar las imágenes. En un instante, se dio cuenta de que los recuerdos que tenía de su breve estancia en Nueva York no coincidían con lo que aparecía en las fotos.

“Es como si hubiera una parte de mi cerebro que oculta algo, y otra parte de mi cerebro que mira algo, y esta otra parte de mi cerebro que sabe que esto es cierto, y todas chocan entre sí”, dijo. “Como si esta cosa ya no estuviera oculta para ti”.

Adam Massey, un socio de CA Goldberg Law que se especializa en temas como la pornografía no consentida y el abuso facilitado por la tecnología, dijo que para muchas personas con las que ha trabajado puede sentirse como “una violación completamente nueva” cada vez que una víctima se encuentra con este tipo de imágenes.

“Es increíblemente doloroso para la gente y cada vez que está en un lugar nuevo es un nuevo sobresalto”, dijo. Scarlett no solo vio con más claridad lo que le había ocurrido, sino que también sabía que cualquiera que la buscara a través de PimEyes podría encontrarlas. Mientras que en décadas pasadas esas imágenes podían estar en DVD, fotos o cintas VHS, “están para siempre en Internet y ahora cualquiera puede usar un software de reconocimiento facial y encontrarlas”, dijo.

Ley Olimpia: se castigará la violencia digital contra las mujeres

Optar por la exclusión

Scarlett no tardó en cambiar su suscripción a PimEyes por el servicio de US$ 80 al mes, que ayuda a las personas a “gestionar” sus resultados de búsqueda, por ejemplo, omitiendo los resultados de sus imágenes de las búsquedas públicas de PimEyes.

Scarlett recibió ayuda para enviar solicitudes de retirada a partir de la Ley de Derechos de Autor de la Era Digital (DMCA) a los sitios web que albergan imágenes que quería retirar, dijo. Sin embargo, ella no es la propietaria de los derechos de autor de las imágenes, y las solicitudes fueron ignoradas.

Scarlett está molesta porque la gente no tiene derecho a decidir tomar parte de PimEyes. El sitio web no requiere que los usuarios demuestren quiénes son antes de poder buscarse a sí mismos, lo que podría impedir algunas formas de uso o abuso del servicio (por ejemplo, que un empleador busque a posibles empleados o que un acosador busque a sus víctimas).

Gobronidze afirma que PimEyes funciona así porque no quiere acumular una gran base de datos de información de los usuarios, como fotografías y datos personales. Actualmente almacena la geometría facial asociada a las fotos, pero no las fotos, dijo.

“No queremos convertirnos en un monstruo que tenga esta enorme cantidad de fotografías de la gente”, dijo.

PimEyes es un sitio web de reconocimiento facial destinado a encontrar fotos de uno mismo en la web, aparentemente para ayudar a acabar con problemas como la pornografía vengativa y el robo de identidad.

Los usuarios pueden pedir ser excluidos de los resultados de búsqueda de PimEyes de forma gratuita, pero la historia de Scarlett muestra que este detalle puede ser fácil de pasar por alto. Los usuarios tienen que encontrar primero el enlace (está en un pequeño texto gris sobre un fondo negro en la parte inferior derecha del sitio web de PimEyes); requiere rellenar un formulario, subir una imagen clara de la cara de la persona y verificar su identidad con una imagen de un documento de identidad o pasaporte.

“Definitivamente no es muy accesible”, dijo Lucie Audibert, responsable legal de Privacy International, un grupo de derechos humanos con sede en Londres.

Gobronidze dijo que la opción de excluirse será más fácil de encontrar con una actualización del sitio web que está en proceso. También compartió un enlace que cualquier persona puede utilizar para solicitar a PimEyes que elimine de su índice los datos relativos a fotos específicas de su rostro, lo que, según dijo, también será más fácil de encontrar en el futuro. También quiere que los usuarios sepan que no necesitan pagar para excluir sus resultados, y dijo que la compañía planea publicar una entrada en el blog sobre el proceso de exclusión esta semana.

Scarlett optó por la exclusión de sus resultados, diciendo que pidió a PimEyes que eliminara sus imágenes de sus resultados de búsqueda a mediados de marzo.

Hasta el 2 de abril no había tenido noticias de PimEyes, cuando relató su experiencia en Medium, una decisión que tomó en parte porque esperaba que PimEyes respondiera a su petición.

Sin embargo, se trataba de algo más que eso, dijo.

“Tenemos que analizar el software de reconocimiento facial y cómo se está utilizando, en términos de que estamos perdiendo nuestro anonimato, pero también las consecuencias de largo alcance de perder ese anonimato y dejar que cualquiera ponga una foto de nuestra cara y encuentre todos los lugares en los que hemos estado en Internet o en los videos”, dijo.

También a principios de abril, Scarlett se pasó al nivel “avanzado” de PimEyes, de US$ 300, que incluye la posibilidad de realizar una búsqueda más profunda de imágenes de tu rostro en la red. Esto dio como resultado más fotos explícitas de ella.

El 5 de abril, tres días después de publicar su historia en Medium y tuitear sobre su experiencia, PimEyes aprobó la solicitud de Scarlett de excluirse de su servicio, según un correo electrónico de PimEyes que Scarlett compartió con CNN Business.

“Los posibles resultados que contengan su rostro han sido eliminados de nuestro sistema”, decía el correo electrónico.

Gobronidze dijo a CNN Business que PimEyes generalmente no tarda más de 24 horas en aprobar la solicitud de exclusión de un usuario.

“Las imágenes resurgirán”

Pero a partir del 19 de mayo, un montón de imágenes de Scarlett, incluyendo las sexualmente explícitas, todavía se podían buscar a través de PimEyes. Lo sé porque pagué US$ 30 por un mes de acceso a PimEyes y busqué imágenes de Scarlett con su permiso.

En primer lugar, intenté utilizar la imagen reciente de Scarlett que aparece en este artículo, una foto que se tomó en mayo. PimEyes informó 73 resultados, pero solo me mostró dos de ellos: uno de Scarlett con el pelo decolorado, que llevó a un enlace muerto, y otro de ella sonriendo ligeramente, que llevaba a un episodio de un podcast en el que fue entrevistada.

Debajo de los resultados, el sitio web de PimEyes me animaba a pagar más: “Si desea ver los resultados que se pueden encontrar mediante una búsqueda más exhaustiva denominada Búsqueda Profunda, adquiera el plan Avanzado”, decía, con las cuatro últimas palabras subrayadas y vinculadas a los planes de precios de PimEyes.

A continuación, probé una imagen de Scarlett de 2005 que ella me indicó que utilizara: la de ella con una camiseta turquesa y un collar, que según ella era la misma imagen que envió a PimEyes para excluirla de sus resultados de búsqueda. Los resultados eran mucho más inquietantes.

Junto a un puñado de fotos recientes de Scarlett procedentes de artículos de prensa había numerosas imágenes sexualmente explícitas que parecían ser de la misma época que la imagen que había utilizado para realizar la búsqueda.

Esto demuestra que el proceso de exclusión voluntaria “prepara a la gente para librar una batalla perdida”, dijo Hartzog, el profesor de derecho, “porque esto es esencialmente como jugar al ‘whack-a-mole’ o a Sísifo haciendo rodar eternamente la roca colina arriba”.

“Nunca se detendrá”, dijo. “Las imágenes resurgirán”.

Esta aplicación de reconocimiento facial está causando mucho temor

Gobronidze reconoció que el proceso de exclusión de PimEyes no funciona como la gente espera. “Simplemente se imaginan que subirán una foto y ésta desaparecerá de los resultados de búsqueda”, dijo.

La realidad es más complicada: incluso después de que PimEyes apruebe una solicitud de exclusión y bloquee las URL de las fotos de aspecto similar, no siempre puede eliminar todas las imágenes de una persona que han sido indexadas por la empresa. Y siempre es posible que aparezcan de nuevo las mismas fotos o fotos similares de una persona, ya que la empresa rastrea continuamente Internet.

Gobronidze dijo que los usuarios pueden incluir varias fotos suyas en una solicitud de exclusión.

Scarlett sigue teniendo preguntas, como qué piensa hacer PimEyes para evitar que lo que le ocurrió a ella le ocurra a otra persona. Gobronidze dijo que parte de esto vendrá a través de aclarar a la gente cómo utilizar PimEyes, y a través de la mejora de su software de reconocimiento facial para que pueda eliminar mejor las imágenes que los usuarios no quieren que aparezcan en los resultados de búsqueda del sitio.

“Queremos asegurarnos de que estos resultados se eliminen de una vez por todas”, dijo.

Scarlett, por su parte, sigue preocupada por el potencial de la tecnología de reconocimiento facial en el futuro.

“Tenemos que hacer un alto en el camino y analizar la tecnología, especialmente este tipo de tecnología, y decir: ‘¿Qué estamos haciendo? ¿Estamos regulando esto lo suficiente?”, dijo.

The-CNN-Wire
™ & © 2022 Cable News Network, Inc., a WarnerMedia Company. All rights reserved.

Article Topic Follows: CNN - Spanish

Jump to comments ↓

Author Profile Photo

CNN Newsource

BE PART OF THE CONVERSATION

KVIA ABC 7 is committed to providing a forum for civil and constructive conversation.

Please keep your comments respectful and relevant. You can review our Community Guidelines by clicking here

If you would like to share a story idea, please submit it here.

Skip to content