Los nuevos guardianes: Cómo los algoritmos patentados determinan cada vez más las noticias que vemos

14 de marzo, 2021 -

<

"The Gatekeepers" de Ali Banisadr, (nacido en Teherán en 1976, vive y trabaja en Nueva York), óleo sobre lino, 72 x 108 pulgadas (2010). Cortesía del artista.

Andy Lee Roth

  

Los algoritmos, programas de inteligencia artificial controlados por grandes empresas tecnológicas como Google, Facebook y Twitter -empresas sin ningún compromiso con el periodismo ético- son los nuevos guardianes. Cada vez son más los algoritmos patentados, y no los redactores de las redacciones, los que determinan qué noticias se difunden ampliamente, lo que plantea serias dudas sobre la transparencia y la responsabilidad en la determinación del interés periodístico.

El auge de lo que se entiende mejor como censura algorítmica vuelve a poner de actualidad el viejo concepto de "control de acceso" de un modo que aborda directamente las críticas anteriores a la forma en que recibimos las noticias. Para ilustrar el poder de los algoritmos para controlar el flujo de información, consideremos el ejemplo de lo que ocurrió con el registro digital de una conferencia académica a la que asistí el año pasado.


YouTube y la Conferencia de las Américas sobre Alfabetización Mediática Crítica

En octubre de 2020 participé en una conferencia académica sobre la alfabetización mediática. El acto reunió a las figuras más destacadas del sector durante dos días de paneles y debates académicos. Muchos de los participantes, incluidos los de una sesión que moderé, plantearon cuestiones sobre el impacto de las grandes empresas tecnológicas como Google y Facebook en el futuro del periodismo y criticaron cómo los medios de comunicacióncorporativos -incluyendono sólo Fox News y MSNBC, sino también el New York Times y el Washington Post- a menudo imponen definiciones estrechas de interés periodístico. En otras palabras, la conferencia fue como muchas otras a las que he asistido, salvo que, debido a la pandemia, nos reunimos virtualmente a través de Zoom. 

Una vez concluida la conferencia, sus organizadores subieron las grabaciones de vídeo de la sesión inaugural y de más de veinte horas adicionales de presentaciones de la conferencia a un canal de YouTube creado para poner esas sesiones a disposición de un público más amplio.


Encuestas sobre el estado de la prensa libre del Proyecto Censurado | 2021 <

Proyecto Censurado Estado de la Prensa Libre | 2021 analiza "el desolador panorama de la información corporativa, donde poderosas fuerzas se entrelazan para restringir el libre flujo de información..."

Varias semanas después, YouTube retiró todos los vídeos de la conferencia, sin notificación ni explicación alguna a los organizadores de la misma. Como informó MintPress News, una conferencia académica en la que muchos participantes alertaron sobre "los peligros de la censura de los medios de comunicación" había sido, irónicamente, "censurada por YouTube". A pesar de las apelaciones formales posteriores de los organizadores, YouTube se negó a restaurar el contenido eliminado; en cambio, se negó a reconocer que el contenido se había publicado en primer lugar.

Gracias a mi trabajo con Project Censored, una organización de vigilancia de la información sin ánimo de lucro con reputación mundial por oponerse a la censura de noticias y defender las libertades de prensa, estaba familiarizado con el filtrado de contenidos en línea. Pensar en el poder de YouTube para borrar el registro de vídeo público de una conferencia académica, sin explicación alguna, me recordó inicialmente a los "agujeros de memoria" de la obra de George Orwell Diecinueve Ochenta y Cuatro. En la novela distópica de Orwell, los agujeros de la memoria se llevan para su destrucción cualquier prueba que pueda entrar en conflicto con los intereses del gobierno o socavarlos, según determine el Ministerio de la Verdad.

Pero también me he acordado de una teoría sobre la producción y distribución de noticias que gozó de popularidad en los años cincuenta, pero que desde entonces ha caído en desgracia. He llegado a entender la retirada de los vídeos de la conferencia por parte de YouTube como (una nueva forma de) "gatekeeping", elconcepto desarrollado por David Manning White y Walter Gieber en la década de 1950 para explicar cómo los editores de periódicos determinaban qué historias publicar como noticias.

El modelo original de control de acceso

White estudió las decisiones de un redactor de un pequeño periódico del medio oeste, examinando las razones que el redactor, al que White llamó "Sr. Gates", daba para seleccionar o rechazar determinadas historias para su publicación. El Sr. Gates rechazó algunas historias por razones prácticas: "demasiado vagas", "redacción aburrida" o "demasiado tarde, sin espacio". Pero en 18 de las 423 decisiones que White examinó, el Sr. Gates rechazó artículos por razones políticas, por ejemplo, por considerarlos "pura propaganda" o "demasiado rojos". White concluía su artículo de 1950 subrayando "lo altamente subjetiva que es la comunicación de 'noticias', lo basada que está en el conjunto de experiencias, actitudes y expectativas del propio guardián".

En 1956, Walter Gieber realizó un estudio similar, esta vez examinando las decisiones de 16 editores de cable diferentes. Los resultados de Gieber refutaron la conclusión de White de que el gatekeeping era subjetivo. En cambio, Gieber descubrió que, independientemente unos de otros, los redactores tomaban prácticamente las mismas decisiones. El gatekeeping era real, pero los redactores trataban la selección de historias como una tarea rutinaria y estaban más preocupados por lo que Gieber describió como "objetivos de producción" y "rutina burocrática", no, en otras palabras, por promover una agenda política concreta. Estudios más recientes han reforzado y refinado la conclusión de Gieber de que son las evaluaciones profesionales del "interés periodístico", y no el partidismo político, las que guían las decisiones de los trabajadores de los medios sobre qué historias cubrir.

El modelo del "gatekeeping" cayó en desuso a medida que otros modelos teóricos más recientes -como el "framing" y la "agenda setting"- parecían explicar mejor el proceso de producción de noticias. En un influyente artículo de 1989, el sociólogo Michael Schudson describió el gatekeeping como "una metáfora útil, aunque no del todo apropiada". El modelo del gatekeeping era problemático, escribía, porque "deja la 'información' sociológicamente intacta, un material prístino que llega a la puerta ya preparado". En esa visión defectuosa las "noticias" están preformadas, y el guardián de la puerta "simplemente decide qué piezas de noticias prefabricadas se permitirán a través de la puerta". Aunque White y otros habían señalado que el "control de acceso" se produce en múltiples etapas del proceso de producción de noticias, la crítica de Schudson se mantuvo.

Con la llegada de Internet, algunos estudiosos intentaron revivir el modelo del gatekeeping. Nuevos estudios demostraron que las audiencias actúan cada vez más como guardianes, decidiendo qué noticias difundir a través de sus propias cuentas en las redes sociales. Pero, en general, el gatekeeping parecía aún más anticuado: "Internet desafía la noción de 'puerta' y la idea de que los periodistas (o cualquier otra persona) puedan o deban limitar lo que pasa a través de ella", escribió Jane B. Singer en 2006.

Filtrado algorítmico de noticias

Si avanzamos hasta el presente, la optimista valoración de Singer parece más anticuada que la propia teoría del gatekeeping. Internet, y las redes sociales en particular, engloban numerosas "puertas" limitadoras, cada vez menos operadas por organizaciones de noticias o por los propios periodistas. 

Incidentes como la eliminación masiva por parte de YouTube de los vídeos de la conferencia sobre alfabetización mediática no son aislados; de hecho, son cada vez más frecuentes a medida que las empresas privadas y sus plataformas mediáticas ejercen cada vez más poder para regular quién habla en línea y los tipos de discurso que están permitidos.

Medios de comunicación independientes han documentado cómo Twitter, Facebook y otros han suspendido cuentas venezolanas, iraníes y sirias y censurado contenidos contrarios a la política exterior de Estados Unidos; cómo el agregador de noticias Google News filtra las historias pro-LGBTQ mientras amplifica las voces homófobas y transfóbicas; y cómo los cambios introducidos por Facebook en su feed de noticias han estrangulado el tráfico web hacia los medios de comunicación progresistas. 

Las decisiones de algunas grandes empresas tecnológicas han sido noticia. Tras las elecciones presidenciales de 2020, por ejemplo, Google, Facebook, YouTube, Twitter e Instagram restringieron las comunicaciones en línea de Donald Trump y sus partidarios; tras el asalto al Capitolio del 6 de enero, Google, Apple y Amazon suspendieron Parler, la plataforma de medios sociales favorita de muchos de los partidarios de Trump.

Pero las decisiones de desindexar a Donald Trump y suspender a Parler difieren en dos aspectos fundamentales de la mayoría de los demás casos de regulación de contenidos en línea por parte de las grandes empresas tecnológicas. En primer lugar, los casos de Trump y Parler recibieron una amplia cobertura informativa; esas decisiones se convirtieron en asuntos públicos y se debatieron como tales. En segundo lugar, como esa cobertura informativa transmitió tácitamente, las decisiones de restringir la voz en línea de Trump y el alcance en red de Parler fueron tomadas por los líderes de Google, Facebook, Apple y Amazon. Fueron decisiones humanas.

<

"Thought Police" de Ali Banisadr, óleo sobre lino, 82 x 120 pulgadas (2019). Cortesía del artista.

Este último punto no fue el centro de atención de la cobertura informativa resultante, pero es muy importante para entender lo que está en juego en otros casos, en los que la decisión de filtrar contenidos -de hecho, silenciar voces y estrangular conversaciones- fue tomada por algoritmos y no por humanos.

Cada vez más, las noticias con las que nos encontramos son producto tanto de las rutinas diarias y los juicios profesionales de periodistas, editores y otros profesionales de la información como de las evaluaciones de relevancia e idoneidad realizadas por programas de inteligencia artificial que han sido desarrollados y están controlados por empresas privadas con ánimo de lucro que no se consideran a sí mismas empresas de medios de comunicación y mucho menos dedicadas al periodismo. Cuando busco noticias sobre "conejos salvajes" o la Ley de Igualdad en Google Noticias, un algoritmo emplea una serie de criterios confidenciales para determinar qué noticias y fuentes de noticias aparecen en respuesta a mi consulta. Google Noticias no produce noticias propias pero, al igual que Facebook y otras plataformas que funcionan como agregadores de noticias, desempeña un papelenorme -y poco comprendido-en la determinación de las noticias que ven muchos estadounidenses.

El nuevo control algorítmico

Recordemos que Schudson criticó el modelo de gatekeeping por "dejar la 'información' sociológicamente intacta". Como las noticias se construían, no se prefabricaban, el modelo de gatekeeping no abordaba la complejidad del proceso de producción de noticias, sostenía Schudson. Esa crítica, sin embargo, ya no se aplica a las circunstancias cada vez más comunes en las que empresas como Google y Facebook, que no practican el periodismo, determinan qué noticias es más probable que vea el público y qué temas o medios de noticias es poco probable que ese público encuentre, a menos que los busque activamente.

En estos casos, Google, Facebook y otras empresas de redes sociales no tienen nada que ver -ni interés- en la producción de las historias que sus algoritmos promueven o entierran. Sin tener en cuenta los principios básicos del periodismo ético recomendados por la Sociedad de Periodistas Profesionales -buscar la verdad e informar de ella, minimizar el daño, actuar de forma independiente y ser responsable y transparente-, los nuevos guardianes afirman que el contenido es neutral mientras promueven noticias que a menudo incumplen flagrantemente incluso una de las directrices éticas de la SPJ.

Este problema se ve agravado por la imposibilidad de que una versión contemporánea de David Manning White o Walter Gieber estudie los procesos de control de Google o Facebook: Los algoritmos utilizados en el nuevo gatekeeping están protegidos del escrutinio público como propiedad intelectual. Como Abril Anderson y yo hemos informado anteriormente, una demanda colectiva presentada contra YouTube en agosto de 2019 por creadores de contenido LGBT podría "obligar a Google a poner sus potentes algoritmos a disposición del escrutinio." Google/YouTube han tratado de desestimar el caso alegando que sus algoritmos de distribución "no se basan en el contenido."

Algoritmos, agencia humana y desigualdades

<

"Confianza en el futuro", de Ali Banisadr, óleo sobre lino, 82 x 120 pulgadas (2017). Cortesía del artista.

Ser responsable y transparente es uno de los principios rectores del periodismo ético, como defiende la Sociedad de Periodistas Profesionales. El control de las noticias mediante algoritmos patentados se cruza en el camino de esta directriz ética, lo que supone una grave amenaza para la integridad del periodismo y la posibilidad de que el público esté bien informado.

Cuando Google, Facebook y otras grandes empresas tecnológicas son consideradas en relación con el periodismo y las condiciones necesarias para que cumpla su papel fundamental como "cuarto poder" -sostener la responsabilidad de los poderosos e informar al público-, la atención se centra en cómo las grandes empresas tecnológicas se han apropiado de los ingresos publicitarios de los que dependen la mayoría de los medios de comunicación tradicionales para mantenerse en el negocio. El auge del control algorítmico de las noticias debería ser igual de preocupante.

Las tecnologías impulsadas por la inteligencia artificial reducen el papel de la agencia humana en la toma de decisiones. A menudo, los defensores de la IA lo presentan como un argumento de venta: Los algoritmos sustituyen la subjetividad y falibilidad humanas por determinaciones "objetivas".

Los estudios críticos sobre el sesgo algorítmico -como Algorithms of Oppression, de Safiya Umoja Noble, Automating Inequality, de Virginia Eubank, y Weapons of Math Destruction, de Cathy O' Neill- nos aconsejanque seamos cautelosos ante lo fácil que resulta incorporar prejuicios humanos arraigados en algoritmos "neutrales desde el punto de vista" que, a su vez, añaden nuevas capas a desigualdades estructurales profundamente arraigadas.

Con el nuevo control algorítmico de las noticias desarrollándose más rápidamente que la comprensión pública del mismo, los periodistas y aquellos preocupados por el papel del periodismo en la democracia se enfrentan a múltiples amenazas. Debemos ejercer toda la presión posible para obligar a empresas como Google y Facebook a poner sus algoritmos a disposición del escrutinio de terceros; al mismo tiempo, debemos hacer más para educar al público sobre esta nueva y sutil arruga en el proceso de producción de noticias.

Los periodistas están bien situados para contar esta historia desde la experiencia de primera mano, y la regulación gubernamental o las demandas pendientes pueden acabar obligando a las grandes empresas tecnológicas a poner sus algoritmos a disposición del escrutinio de terceros. Pero lo que está en juego es demasiado importante como para esperar a que otros resuelvan el problema. Entonces, ¿qué podemos hacer ahora en respuesta al control algorítmico? Recomiendo cuatro respuestas proactivas, presentadas en orden creciente de compromiso:

- Evite utilizar "Google" como verbo, un hábito común que identifica tácitamente una actividad genérica en línea con la marca de una corporación que ha hecho tanto como cualquiera por multiplicar la desigualdad epistémica, el concepto desarrollado por Shoshana Zuboff, autora de La era del capitalismo de la vigilancia, para describir una forma de poder basada en la diferencia entre lo que podemos saber y lo que se puede saber de nosotros.

- Recuerde que los motores de búsqueda y las redes sociales no son fuentes de información neutrales. Los algoritmos que los manejan a menudo sirven para reproducir las desigualdades existentes de forma sutil pero poderosa. Investiga por ti mismo. Selecciona un tema que te interese y compara los resultados de búsqueda de Google y DuckDuckGo.

- Conéctese directamente con organizaciones de noticias que muestren un firme compromiso con el periodismo ético, en lugar de depender de sus noticias en las redes sociales. Vaya al sitio web del medio, suscríbase a su lista de correo electrónico o a su canal RSS, suscríbase a la versión impresa del medio si existe. La conexión directa elimina la plataforma de redes sociales, o el motor de búsqueda, como intermediario innecesario y potencialmente sesgado.

- Denuncia el sesgo algorítmico cuando lo encuentres. Denúncialo directamente a la entidad responsable; denúncialo públicamente haciendo que otros lo sepan.

Afortunadamente, nuestros cerebros humanos pueden emplear la nueva información de formas que los algoritmos no pueden. Comprender la influencia de los algoritmos en nuestras vidas -incluido el modo en que actúan como guardianes de las noticias que es más probable que veamos- nos permite tomar un mayor control de nuestras experiencias individuales en línea. Sobre la base de una mayor conciencia y control individuales, podemos empezar a organizarnos colectivamente para denunciar y oponernos a la parcialidad y la censura algorítmicas.

<

1 comentario

  1. Gran artículo. Una cuestión relacionada que me viene a la mente es la desaparición general del periodismo, con menos suscriptores de revistas como Time y periódicos como Los Angeles Times. Hoy en día, muchos estadounidenses ya no encuentran valor en pagar por las noticias y, por extensión, para que los periodistas hagan su trabajo. ¿Cómo sobrevive el periodismo en esta nueva era en la que se espera que el contenido de las noticias sea gratuito? Estas plataformas dan forma a las noticias a través de sus algoritmos, pero también han creado esta nueva era en la que los usuarios esperan que las noticias sean gratuitas.

Deja un comentario

Su dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *.