Revista Pijao
¿Escribir por datos?
¿Escribir por datos?

Por Astrid Harders*

Revista Arcadia New York

“Toda información es importante si está conectada a otra”.

Umberto Eco

Como periodista uno tiene la responsabilidad de informar, así la noticia sea buena o mala, así la noticia le guste a la gente o no. Pero ¿qué pasa cuando la gente no consume lo que no le gusta? Y si la gente prefiere consumir solo lo que le gusta, ¿deberíamos publicar más de eso? La respuesta es mucho más compleja de lo que parece.

Vivimos en un mundo lleno de ruido, con una abundancia de información sin precedentes. La pelea por captar la atención de una audiencia es, entonces, cada día más aguda. Por eso los medios de comunicación han optado por estudiar a sus audiencias, detectar qué les gusta, cómo les gusta, para así buscar asegurar un diálogo con ellas. Y lo están haciendo a través del análisis de datos, de las métricas y, a veces, de inteligencia artificial.

Aunque la intención es lógica, esta dinámica abre dilemas frente al oficio periodístico. ¿Dónde queda el límite entre satisfacer los gustos del público y reportar cosas que la gente debería saber, pero no necesariamente coinciden con sus gustos? Empecemos por ver unos ejemplos concretos.

En 1992, en una era preinternet, el huracán Andrew devastó las Bahamas y el sur de Estados Unidos, sobre todo la Florida. Los daños estimados fueron de 26.500 millones de dólares. Stephen Doig, un periodista y editor que trabajaba para The Miami Herald, decidió hacer un análisis profundo de las cifras de las viviendas y propiedades afectadas o destruidas, y las comparó con los registros de planeación y edificación del gobierno.

Logró concluir que las estructuras que habían sido construidas más recientemente habían sido las más afectadas. Él y su equipo además hicieron un extenso reportaje en el que denunciaban que los recortes del presupuesto gubernamental y los descuidos de planeación y zonificación habían contribuido ampliamente al daño que causó la tormenta tropical. The Miami Herald ganó un Premio Pulitzer por el reportaje y Doig se convirtió en uno de los pioneros en el área de periodismo basado en análisis de datos.

Otro ejemplo más actual, específicamente centrado en internet, y que para muchos va liderando el pelotón mediático enrutado hacia el futuro, es el trabajo de la compañía estadounidense BuzzFeed. Con más de 30 herramientas desarrolladas exclusivamente para el análisis de datos, en apenas once años de existencia, esta empresa está redefiniendo la creación y distribución de contenido. “BuzzFeed es una empresa pro-datos, muy dada a construir sus propios sistemas. Es muy experimental”, explica Gilad Lotan, vicepresidente del equipo de datos. “No estamos anclados a un modelo de negocio viejo. No estamos tratando de mantener una base de suscriptores. Fuimos uno de los primeros medios de comunicación en volverse completamente distributivo: nuestras páginas y aplicaciones son importantes, pero nuestra audiencia está en Snapchat, Facebook e Instagram. Nuestro contenido puede vivir en todas partes, e invertimos en ello. No necesariamente queremos que la audiencia únicamente venga a nuestras páginas”.

Hoy en día el equipo de Buzzfeed crea alrededor de 700 piezas diarias de contenido, monitoreado en su totalidad a través del análisis de datos. Apenas se publica algo, BuzzFeed rastrea cuánta gente lo lee, qué edad tiene esa gente, dónde vive, si leyó completo un texto, o si vio entero un video, si lo compartió con sus seguidores y cuántos seguidores lo compartieron, entre muchas otras consideraciones. Si las métricas evidencian que la pieza ha roto un récord de audiencia en Estados Unidos, una tecnología con inteligencia artificial se lo notifica a sus editores a nivel global y les sugiere traducirla a su respectivo idioma.

La tecnología que la compañía utiliza para estas notificaciones es un bot. O sea, un programa informático o de inteligencia artificial que imita el comportamiento humano, todo a través de un intercambio de datos. En el caso de un servicio de mensajería instantánea, es una especie de “usuario fantasma” al que se le pueden hacer preguntas o que reacciona acorde con lo que se le haya programado. BuzzFeed, entonces, usa un bot de la mensajería intraempresarial Slack, que automáticamente envía una notificación a los editores en cada país.

En este caso, el análisis y el intercambio de datos acortan la distancia, reflejan la tendencia y posibilitan la divulgación fugaz de contenido.

BuzzFeed además se ha dedicado a democratizar el manejo de datos. Usualmente las compañías de medios tienen un departamento de análisis de datos pequeño y enfocado. Si un periodista necesita obtener información, envía su petición a este equipo, debe esperar y luego le envían un informe. A través de la herramienta Looker, BuzzFeed ha acortado este proceso. Looker está diseñada para que los periodistas mismos accedan a información, sin necesidad de acudir a un equipo experto, sin necesidad de ser expertos en códigos o algoritmos.

Otra herramienta con la que están experimentando se llama Beyond the Bubble (más allá de la burbuja). Sirve para detectar cómo se crean conversaciones sobre temas específicos en diversos ámbitos de la web. En otras palabras, para identificar todos los distintos grupos que están hablando, cada uno a su manera y por sus propias razones, sobre un mismo tema.

Hasta acá todo suena positivo. Sin embargo, los datos pueden llegar más lejos: pueden influir en la manera en la que se produce periodismo. Por ejemplo, un periodista de BuzzFeed hoy en día debe analizar el desempeño de sus artículos. Al analizar las métricas de sus piezas, ese periodista puede saber qué extensión de texto tuvo mayor audiencia, qué clase de fotos fueron las que atrajeron a más lectores o qué clase de título generó más vistas. El periodista entonces podría tener en cuenta esos aprendizajes y confeccionar su siguiente artículo acorde a esas tendencias: escribiría dentro de cierta extensión, elegiría ciertas fotos y titularía de cierta manera. Y es ahí donde nos topamos con una delgada y borrosa línea entre guiarse por las métricas y escribir netamente para complacer. ¿No estarían los datos poniéndole una correa de perro al periodismo, en casos como el del periodista que confecciona un artículo siguiendo las cifras? ¿No estarían las ovejas liderando al pastor?

“¿Cómo informas a la gente si no le estás llegando a la gente? Es un arte cuidadoso”, dice Lotan. Según él, las herramientas y estrategias para distribuir la información que produce BuzzFeed están en permanente evolución. “Usualmente optimizamos el contenido para mantener un balance: queremos la visibilidad y queremos que la gente lo comparta”. Lotan mismo ha hecho experimentos para pulir sus estrategias. Hace unos años compró por 5 dólares unos 8.000 seguidores para su propia cuenta de Twitter. Dice que hubiera podido comprar aún más por ese monto, pero que se sentía raro haciéndolo. Antes de comprar seguidores falsos, analizó a sus seguidores reales: examinó quiénes eran, cada cuánto publicaban, qué contenido publicaban, a quiénes seguían y qué impacto tenían. Después de la compra, hizo lo mismo y comparó los resultados: “Era absolutamente claro quiénes eran seguidores falsos y quiénes eran reales. Eventualmente, al cabo de unos meses, los falsos se extinguieron. Sin embargo, lo interesante fue ver el impacto que habían causado”.

La compra había incrementado la cifra que aparecía en su perfil. Una cifra más alta, así fuera falsa, atrajo a más seguidores reales. Al ver un número más alto, la gente asumió que Lotan era un tuitero importante y lo empezó a seguir. Sin embargo, ninguno de sus nuevos seguidores reales se molestó por revisar qué clase de gente seguía a Lotan. Si lo hubieran hecho, de inmediato se hubieran dado cuenta de que era una cifra inflada y que Lotan no estaba teniendo un impacto orgánico en la red social. Las cuentas falsas usualmente publican tuits programados y es evidente que el contenido no es creado por un humano.

Para completar, uno de los algoritmos de Twitter funciona con base en el número de seguidores, así que Twitter empezó a recomendar el perfil de Lotan únicamente porque había subido su cifra. El efecto dominó atrajo a más usuarios reales. “En conclusión, la compra de seguidores claramente valió la pena. Pero al hacer eso manipulé a gente real. ¿Cuán moral es eso?”, se pregunta Lotan.

El efecto dominó en redes sociales es especialmente peligroso cuando la información que circula es falsa. El 9 noviembre de 2016, un día después de que Donald Trump fue elegido presidente, Eric Tucker, un ciudadano común y corriente de 35 años, tomó unas fotos de unos buses blancos estacionados cerca de una sede de campaña de Trump. Tucker subió esas fotos a Twitter y las acompañó con el siguiente texto: “Manifestantes anti-Trump en Austin hoy no son tan orgánicos como parecen. He aquí los buses en los que llegaron. #protestasfalsas #Trump2016 #austin”. Tucker posteó este tuit en el contexto de las protestas anti-Trump que se estaban desatando en todo Estados Unidos. Al publicar su tuit, Tucker tenía alrededor de 40 seguidores. Dos días después, el 11 de noviembre, el tuit había sido retuiteado 16.000 veces y compartido más de 350.000 veces en Facebook. Hasta el electo presidente Trump tuiteó al respecto: “Acabo de culminar una elección presidencial muy abierta y exitosa. Ahora manifestantes profesionales incitados por los medios están protestando. ¡Muy injusto!”.

El problema: las fotos de Tucker no eran de buses que habían transportado a manifestantes políticos. Eran buses que llevaban a 13.000 personas a una fiesta llamada (irónicamente) “Data Night Out”, de la compañía Tableau. Era un evento totalmente diferente, pero el daño ya estaba hecho.

Lotan asegura que el análisis de datos puede ayudar a medios de comunicación a detectar qué información y qué fuentes son falsas. Lo que hace falta es más educación de la audiencia: “Nuestro rol como una organización de medios será ayudar a la audiencia a que entienda y se eduque sobre lo que es confiable. Para los medios también habrá más oportunidades de desacreditar fuentes”.

Con respecto a la inteligencia artificial, hay más ejemplos de esa tecnología que ya están siendo puestos en práctica: “Con un sistema entrenado de manera adecuada, hoy puedes tomar una imagen y una máquina te describe qué aparece en la imagen, sin tener ninguna información previa”, explica Lotan. “También podemos lograr que una máquina o que un sistema de código de algoritmos aprendan cuáles son los atributos de un gato. Y luego pueden generar una nueva imagen de un gato”. Un mecanismo parecido se puede usar para la generación de voces y textos.

Lotan dice que los medios masivos con modelos más tradicionales igualmente deben enfocarse en el uso y análisis de datos. “Es como si fueras a cruzar una calle muy concurrida: cuanto más observes y entiendas sobre el comportamiento de los carros, mejor será la acción que tomes. Como medio de comunicación, mientras más información tengas, mejores decisiones tomarás”.

Eso sí: los medios necesitan cuidar el manejo de esa información. Según Lotan, “hay que ser cauteloso, porque hay un enorme bombo sobre la ciencia de los datos. He visto muchos casos de compañías que han invertido en un departamento de análisis de datos, pero no sabían bien para qué. No se trata simplemente de recolectar datos, siempre tiene que haber una meta”.

*Periodista y editora. Actualmente escribe artículos y guiones para Studio@Gizmodo (Univisión).


Más notas de Actualidad