Información | ||
Derechos | Equipo Nizkor
|
30jun14
Facebook experimentó con 689.000 usuarios sin su consentimiento
Una semana de experimento y millones de comentarios, en su mayoría negativos, han sido las consecuencias de un estudio llevado a cabo por varios ingenieros de Facebook. La mayor red social del mundo tomó 689.000 perfiles, sin aviso o consentimiento, para analizar su comportamiento alterando el algoritmo que selecciona las noticias que se ven de los amigos. Un grupo veía noticias positivas, el otro, negativas.
La indignación ha surgido al conocerse la publicación del estudio en la web de la Academia Nacional de Ciencias de Estados Unidos. Para la prueba se tomaron, exclusivamente, perfiles que escriben en inglés. El rechazo a comentar o interaccionar con los contenidos de tinte negativo, demasiado emotivos o cercanos a la tristeza, era mucho más alto. En ocasiones hasta un 90% de lo habitual. El estudio concluye que sí, que el ánimo de los comentarios de los contactos de Facebook invita a seguir en la deriva negativa o positiva, según el grupo que les tocase, al cabo de una semana.
Este tipo de experimentos basados en interacción son muy comunes en ciertas webs y, sobre todo, en comercio electrónico, pero sin tener el cuenta el tinte del contenido. Se denomina A/B testing a mostrar una presentación (ya sea la distribución de la página o el estilo de los iconos) diferente bajo una misma web para poder estudiar si se emplea más tiempo en la misma, se hace más clic... pero nunca usando el tono del contenido como un componente más.
En un primer momento Facebook se limitó a decir que los posts, actualizaciones de estado, se podían consultar de manera habitual, sin matizar que la selección de una u otra opción (noticia positiva o negativa) con un fin experimental era dónde residía la ruptura de confianza con sus suscriptores. A última hora del domingo, a través del perfil de Adam Kramer, coautor del estudio y analista de datos dentro de la firma, se daba una explicación algo más concreta: "Nos importa el impacto emocional de Facebook en las personas que lo usan, por eso hemos hecho el estudio. Sentíamos que era importante investigar si ver contenido positivo de los amigos les hacía seguir dentro o si, el hecho de que lo que se contaba era negativo, les invitaba a no visitar Facebook. No queríamos enfadar a nadie".
En la explicación asegura que solo afectó al 0,04% de los usuarios, uno por cada 2.500 perfiles, durante una semana a comienzos de 2012. La red social ha contestado al diario británico The Guardian que su intención era mejorar el servicio para mostrar contenido más relevante y que crease una mayor cercanía con la audiencia.
En lo que no parecen reparar dentro de la web de Mark Zuckerberg es que el malestar se crea en el momento en que se rompe lo establecido, un algoritmo similar para todos, y se experimenta con las sensaciones de sus usuarios. Tampoco matiza que el conocimiento adquirido a partir de este experimento se pueda aplicar a la publicidad contratada en su interior.
En todo caso, queda la sensación de que gracias a la publicación del estudio se ha conocido este experimento, pero cualquiera podría ser objeto de muchos otros por parte de los analistas de datos de Facebook sin necesidad de avisar. Según sus términos de uso, de manera explícita, al tener un perfil se da permiso a acceder para "operaciones internas, resolución de problemas, análisis de datos, experimentos, investigación y mejoras en el servicio".
[Fuente: Por Rosa Jiménez Cano, San Francisco, El País, Madrid, 30jun14]
Privacy and counterintelligence
This document has been published on 01Jul14 by the Equipo Nizkor and Derechos Human Rights. In accordance with Title 17 U.S.C. Section 107, this material is distributed without profit to those who have expressed a prior interest in receiving the included information for research and educational purposes. |