FYI.

This story is over 5 years old.

Noticias

Dejen de dar lora con los experimentos sicológicos de Facebook

Si quieren hacerle un balance ético tendrían que juzgar a la mitad de internet. Finalmente somos todos nosotros los que quedamos mamando.

and via

La revelación del fin de semana pasado acerca de los “experimentos sicológicos” para manipular el ánimo de los usuarios de Facebook desencadenó una explosión de emociones publicadas en los muros de las personas en todo el planeta.

Pero la verdad es que no hay nada de novedoso en esto, y ciertamente, tampoco resulta interesante el famoso estudio titulado “Experimental evidence of massive-scale emotional contagion through social networks” (“Evidencia experimental de emociones masivas a través del contagio en las redes sociales”). Los investigadores alteraron el algoritmo que escoge las historias que aparecen en la página principal de Facebook, con el fin de mostrar más posts en torno a lo negativo a partir de las palabras que estos contenían; tristeza, rompimiento, odio, guerra… ése tipo de cosas, supongo. La mayoría de los sujetos estudiados empezaron a utilizar ése mismo lenguaje triste y deprimente. Esto es lo que se le denomina como “contagio emocional” al que apuntaban los investigadores.

Publicidad

Puedes extra polarizar esto y asegurar que si publicas posts depresivos vas a ocasionar que tus amigos se depriman también. Creer o no en esa teoría depende de la fe que se tenga en el análisis de sentimientos. Éste intenta marcar piezas de textos de acuerdo a qué tantas palabras positivas o negativas contengan (amor, odio, bueno malo, etcétera). Es el tipo de cosas que la gente de relaciones públicas hace para impresionar al jefe. Pero también, entre más corto sea el texto menos preciso, razón por la que no es el método ideal para hacer análisis en Facebook o Twitter.

La respuesta que se le puede dar al encabezado de Laurie Penny, en el artículo de New Statesman: “Facebook can manipulate your mood. It can affect whether you vote. When do we start to worry?” (“Facebook puede manipular tu estado anímico. Puede afectar la manera en la que votas. ¿Cuándo deberíamos empezar a preocuparnos?), es que Laurie Penny puede manipular tu ánimo y Laurie Penny puede afectar si tu votas, o cuándo debes empezar a preocuparte por ella, o por el montón de periodistas haciendo lo mismo que ella. Es un poco injusto, pero es el punto central del asunto, que posiciona a Facebook como un jugador más dentro de los algoritmos y las bases de datos.

La mayoría de las marcas de medios en línea hacen algo similar todo el tiempo. El Huffington Post fue el pionero en realizar pruebas A/B en el año 2000, por medio de diferentes versiones de titulares en tiempo real para observar cuál ganaba más audiencia. “Pero Martin”,  alguien me escribe por correo, “nada se compara con el experimento de Facebook”. Excepto esto. El experimento del Huffington Post con sus usuarios los expuso a diferentes contenidos en un intento de encontrar textos que generaran mayores respuestas emocionales. Las dos diferencias más grandes radican en que el HuffPo lo usó para incrementar sus ganancias en tiempo real y que a nadie le importó.

Publicidad

¿Debieron hacerlo? El blog Coding Conduct tiene una publicación fascinante mirando el estudio y la ética que los investigadores deberían obtener. Dave Gorski en el Science Based Medicine, señaló que las políticas de PNAS (Proceedings of the National Academy of Sciences of the United States of America, el periódico que publicó el estudio) requerían que “cualquier investigación que involucrara participantes humanos, pruebas animales y tratamientos clínicos, deberían ser aprobados previamente por la supervisión institucional del autor”.  Desde que Facebook, como la mayoría de compañías, no tenía la aprobación, lo que deja a todo el mundo en un estado ambiguo.

El problema es que no tiene sentido hacer un balance ético para este tipo de estudio. Una gran cantidad de las cosas que se ven en internet están controladas, de alguna manera, por algoritmos similares a esos que usa Facebook para jerarquizar lo que aparece en la página principal, desde video de YouTube hasta noticias de Google. El resto está controlado por humanos (la página de VICE, por ejemplo). Es difícil exigir a Facebook hacer una investigación ética sin que para hacerlo tengas que cortar con la mitad de internet.

No es que Facebook necesite de la comunidad científica. Esa es la verdadera cuestión aquí. La idea de que Facebook debería tener una aprobación ética para modificar el ranking de sus historias es una fantasía; pero las personas están en todo su derecho de ser escépticas al poder que tiene la red social y sus pares en sus datos y la manera de analizarlos.

Hay otro gran problema con la investigación que nadie ha planteado: la repetitividad. Si quisieras hacer las mismas pruebas tú mismo, terminarías recurriendo a Facebook. Eso debería decirte todo sobre lo insana que es la economía de la información, en donde una compañía contiene todos los datos y los científicos quedan mamando.

Sigue a Martin Robbins en Twitter.