tps radiotps tvstreaming web

Instagram priorizaría las fotos de usuarios con poca ropa

La investigación fue realizada por la Red de Periodismo de Datos Europea con AlgorithmWatch e incluyó el análisis de 1.737 publicaciones que contenían 2.400 fotos.

Redes Sociales 29 de junio de 2020
instagram

Según una investigación de la Red de Periodismo de Datos Europea EDJNet y AlgorithmWatch, Instagram (propiedad de Facebook) prioriza las fotos de hombres y mujeres con poca ropa dentro de su plataforma.

Para llegar a esta conclusión se analizaron 2.400 fotos proveniente de usuarios de la Unión Europea donde se estima que hay 140 millones de usuarios de Instagram (es decir que uno de cada tres tiene una cuenta en esa plataforma).

Los investigadores les pidieron a 26 voluntarios que instalaran un complemento (add on) en el navegador y siguieran a un grupo de creadores de contenido profesionales. Se seleccionaron a 37 profesionales de 12 países (14 de ellos hombres) que usan Instagram para publicitar marcas o adquirir nuevos clientes para sus negocios, principalmente en los sectores de alimentos, viajes, fitness, moda o belleza.

El complemento utilizado abre automáticamente la página de inicio de Instagram a intervalos regulares y registra qué publicaciones aparecen en la parte superior del feed de noticias de los voluntarios, para tener una visión de lo que las plataformas consideran más relevantes para cada usuario.

Entre febrero y mayo, se analizaron 1.737 publicaciones publicadas por los creadores de contenido, que contenían 2.400 fotos. El 21% de estas publicaciones contenía imágenes que mostraban mujeres en bikini o ropa interior, u hombres con el torso desnudo. Sin embargo, en el feed de los voluntarios, las publicaciones con tales imágenes representaron el 30% de todas las publicaciones que se mostraban desde esas mismas cuentas (algunas publicaciones se mostraron más de una vez), según se detalla en el estudio.

Las publicaciones que contenían imágenes de mujeres en ropa interior o bikini tenían un 54% más de probabilidades de aparecer en el feed de los voluntarios. A su vez, las publicaciones que contenían imágenes de hombres con el torso desnudo tenían un 28% más chances de mostrarse. Por el contrario, los posts con imágenes de alimentos o paisajes tenían un 60% menos de probabilidades de aparecer en el feed de noticias.

En el estudio se menciona que sólo lograron documentar lo que sucedía en el caso de los voluntarios que se descargaron el complemento. Aclaran que el suyo no es una auditoría exhaustiva del sistema porque para eso deberían tener mayor acceso al sistema. “Sin acceso a los servidores internos de datos y producción de Facebook, siempre será imposible sacar conclusiones definitivas”, subrayaron los investigadores.

La imposibilidad de realizar un escrutinio exhaustivo es un problema que se sucintan los investigadores cuando quieren analizar casi cualquier plataforma, salvo las que dan a conocer el código fuente de sus algoritmos, que son las únicas que pueden ser analizadas de manera pública. En el resto de los casos, no hay forma de saber exactamente cómo funcionan los algoritmos.

Otro punto a tener en cuenta es que Facebook, como otras plataformas, analiza las imágenes por medio de visión por computadora que realiza inferencias en base a un conjunto de datos con los que fue entrenado. Los datos pueden replicar y amplifican sesgos. Este problema ha sido puntualizado en varias oportunidades por investigadores informáticos y no sólo hace alusión a Facebook sino a tantos otros sistemas que emplean aprendizaje automático: cómo y con qué datos se nutren los sistemas es clave para evaluar el impacto que tienen.

Cabe señalar que en Europa rige, desde 2018, el Reglamento General de Protección de datos (GDPR), que reconoce y regula muchos derechos digitales en favor de los usuarios. Pero puntualmente, en lo que se refiere a la transparencia respecto de los algoritmos, la norma que hace alusión a esta temática es el Reglamento de Plataformas para empresas (P2B), que entrará en vigor a partir del 12 de julio de 2020.

El GDPR establece que los usuarios tienen derecho a recibir una explicación con respecto a las decisiones automatizadas, y la regulación P2B obligará a los servicios de intermediación online a revelar los “parámetros principales que determinan la clasificación (algorítmica)”. De todos modos esto no fuerza a que Instagram mencione de forma completa cómo funciona su algoritmo.

“Ninguna autoridad, a nivel europeo o dentro de los Estados miembros tiene el poder o las herramientas necesarias para auditar las plataformas digitales, incluida Instagram, lo que deja sin cumplir muchas de las disposiciones de GDPR”, se menciona en el comunicado.

Qué dijo Facebook al respecto

En relación a este informe, desde Facebook dijeron lo siguiente: “Esta investigación es errónea en varias maneras y muestra un malentendido sobre cómo funciona Instagram. Clasificamos las publicaciones en su feed en función del contenido y las cuentas en las que ha mostrado interés, no por factores arbitrarios como la presencia de trajes de baño”.

Y añadieron: “Presentamos publicaciones basadas en intereses, cuan oportunas son las publicaciones y otros factores para ayudar a las personas a descubrir el contenido más relevante para ellos”.

Por otra parte, cuestionaron la muestra analizada. “El estudio analizó un tamaño de muestra extremadamente pequeña, que probablemente apareció en el tipo de contenido que estaban investigando: cuanto más interactúes con ciertos tipos de publicaciones, más probabilidades hay de que te mostremos publicaciones similares”.

Los argumentos de los investigadores

A pesar de esto, los investigadores aseguran que sus hallazgos son representativos de cómo funciona Instagram. En este sentido, mencionan que en una patente publicada en 2015, los ingenieros de Facebook, explicaron cómo el feed de noticias podía seleccionar qué imágenes priorizar. Cuando un usuario publica una imagen, se analiza automáticamente en el momento. Las imágenes reciben una métrica de interacción o engagement, que se usa para decidir si mostrar o no una imagen en el suministro de noticias del usuario.

La métrica de interacción se basa, en parte, en el comportamiento que haya mostrado el usuario en el pasado. Si a un usuario le gustó una marca específica y una foto muestra un producto de la misma marca, esa métrica aumenta. Pero la métrica de interacción también se puede calcular en función del comportamiento pasado de todos los usuarios del servicio. La patente establece que el género, el origen étnico y el “estado de desnudez” de las personas en una foto podrían usarse para calcular esa métrica.

Si bien Instagram afirma que el feed de noticias está organizada de acuerdo con lo que a un usuario “le importa más”, la patente de la compañía indica que en realidad podría clasificarse el contenido de acuerdo con lo que les importa a todos los usuarios. Que los usuarios vean o no las imágenes publicadas por las cuentas que siguen depende no solo de su comportamiento anterior, sino también de lo que Instagram identifica que es más atractivo para otros usuarios de la plataforma.

La desnudez no está permitida pero se favorece

El estudio postula que hay una contradicción en Instagram. Si bien la red social establece que la desnudez no está permitida en la plataforma, favorece las publicaciones donde se muestran cuerpos con poca ropa.

“La sutil diferencia entre lo que se fomenta y lo que se prohíbe se decide mediante algoritmos de visión por computadora no auditados y probablemente sesgados”, se subraya en el informe.

Un análisis de 238 patentes presentadas por Facebook que contienen la frase “visión por computadora” mostró que, de las 340 personas enumeradas como inventores, solo 27 eran mujeres. “Los ambientes dominados por los hombres generalmente conducen a resultados que son perjudiciales para las mujeres”, concluye el informe.

Fuente: Infobae. 

Te puede interesar
Lo más visto