Zuckerberg avisa a Trump que “censurar plataformas” no es la “reacción correcta”

Publicado por: La Redacción - kfiguereo@juventud.gob.do

Facebook renunció a reducir la polarización a costa de crecer más, según el ‘Wall Street Journal’.

Censurar una plataforma no constituye la “reacción correcta” para un Gobierno preocupado por la censura, ha asegurado el CEO de Facebook, Mark Zuckerberg, en respuesta a las recientes amenazas del presidente de EE UU, Donald Trump, de regular o cerrar las redes sociales. “Tendré que entender bien qué es lo que realmente pretenden, pero en general creo que un Gobierno que elige censurar es porque están preocupados y no me parece la reacción correcta”, dijo Zuckerberg en una entrevista con el canal de noticias conservador Fox. Zuckerberg se distanció, eso sí, de Twitter al asegurar que su compañía “tiene una política diferente a la de Twitter en este sentido”. “Creo firmemente que Facebook no debería ser el árbitro de la verdad de todo lo que la gente dice Internet”, agregó. “Las compañías privadas probablemente no deberían serlo, especialmente plataformas como estas”.

Promote health. Save lives. Serve the vulnerable. Visit who.int

El presidente de EE.UU., Donald Trump, tiene previsto firmar este jueves una orden ejecutiva sobre las redes sociales 48 horas después de que Twitter iniciase la verificación del contenido de algunos de los mensajes del mandatario, informó la Casa Blanca. La portavoz, Kayleigh McEnany, anunció a periodistas las intenciones del presidente, aunque no ofreció detalles sobre el contenido de la orden.

Silenciar

En los últimos días, Trump ha lanzado un par de mensajes desde su iPhone en los que acusa a los medios sociales de tratar de “silenciar” las voces conservadoras, y les ha advertido que necesitan cambiar de actitud o enfrentarse a las consecuencias. “Los republicanos sienten que las plataformas de medios sociales silencian totalmente las voces conservadoras. Regularemos fuertemente, o las cerraremos, antes de que podamos permitir que esto suceda”, dijo el miércoles. En un segundo tuit, añadió: “Al igual que no podemos permitir que las votaciones por correo a gran escala echen raíces en nuestro país”.

Aparte de las opiniones de Zuckerberg, resulta obvio que Trump tiene poca capacidad de clausurar negocios de este calibre, máxime si se tiene en cuenta que estos son fundamentales para su campaña de reelección y su estrategia de comunicación con el público. Segun informa Bloomberg, su amenaza viola la Primera Enmienda, que protege la libertad de expresión, según explica a la agencia Herbert Hovenkamp, profesor de derecho de la Universidad de Pensilvania. “Trump no tiene autoridad para cerrar una compañía que no está violando la ley.” Sus amenazas, en cambio, sí tienen consecuencias económicas: las acciones de la compañía se depreciaron un 2,76% en la sesión de ayer.

Este último desencuentro del magnate contra la red social comenzó a principios de semana después de una diatriba desquiciada del presidente contra los planes de California de ampliar el voto por correo en caso de que la pandemia de la covid-19 impida celebrar las elecciones de noviembre con normalidad, informa Pablo Ximénez de Sandoval. Dos horas después de que la red social actuara contra la cuenta del presidente, Trump tuiteó: “¡Twitter está reprimiendo completamente la LIBERTAD DE EXPRESIÓN y yo, como presidente, no permitiré que ocurra!”. Las mayúsculas son suyas.

Donald Trump, en la Casa Blanca. Donald Trump, en la Casa Blanca. AFP

Polarización

Los algoritmos de Facebook agravan la polarización entre sus usuarios, como se desprende de estudios internos enfocados a atajar este problema y que la compañía acabó por apartar en pos del crecimiento de la plataforma, según una información de The Wall Street Journal.

Como es sabido, la red social emplea algoritmos para sugerir nuevos contenidos a los usuarios sobre la base de su experiencia en la plataforma. Estos algoritmos, como se desprende de estudios internos, han contribuido a polarizar la conversación y a dividir a la gente. Según se dice en una presentación interna de 2018, recogida por el medio citado, los algoritmos “explotan la atracción del cerebro humano hacia la división. Si se dejan sin comprobar, Facebook alimentará a los usuarios con contenido cada vez más divisivo en un esfuerzo por atraer su atención e incrementar el tiempo en la plataforma”.

Esta presentación forma parte de los esfuerzos de la compañía por comprender cómo la red social conforma el comportamiento de los usuarios y cómo se debería atajar el daño potencial que pudiera causar.

Según han señalado personas próximas a estos trabajos a The Wall Street Journal, estas propuestas fueron descartadas por altos directivos, entre ellos el CEO, Mark Zuckerberg, y el responsable de Política Pública, Joe Kaplan. Algunas propuestas se rechazaron por la posibilidad de que afectaran desproporcionadamente a los usuarios y medios más conservadores, o por entenderse como paternalistas.

Esta presentación forma parte de los esfuerzos de la compañía por comprender cómo la red social conforma el comportamiento de los usuarios y cómo se debería atajar el daño potencial que pudiera causar. descubrió que en Alemania los grupos estaban “desproporcionadamente influenciados”, según el medio citado, por un subconjunto de usuarios hiperactivos. Preocupaba entonces el número de grupos extremistas, cuyo crecimiento se debía al algoritmo de la plataforma y sus recomendaciones.

Equipos de integridad

En 2017, la compañía creó los llamados Equipos de integridad para investigar sobre el contenido divisorio y el comportamiento de los usuarios, que plantearon la cuestión de la forma en que Facebook priorizaba el compromiso de los usuarios, expresado en acciones como dejar comentarios, compartir publicaciones, dar Me Gusta o el tiempo que pasan en la red social.

La decisión de esos equipos de integridad se centró en un compromiso con la neutralidad, es decir, no controlar las opiniones de la gente ni detener el conflicto en la plataforma, según un documento interno. En otro documento de 2018, se recoge que la compañía no va a crear “explícitamente” contenido que “atente contra las creencias de la gente” y, en su lugar, se centraría en “productos que incrementen la empatía, la comprensión y la humanización de la ‘otra parte’”.

Hubo propuestas diversas para cumplir con este fin. Por ejemplo, y según fuentes internas y documentos dictados por The Wall Street Journal, se planteó la creación de subgrupos temporales y moderados que acogieran la conversación más encendida. También la modificación de los algoritmos para que ofrecieran recomendaciones más amplias. Sin embargo, su implantación, según otro informe de mediado de 2018, afectaría al crecimiento de la plataforma.

Desde las acusaciones, en 2016, de sesgo por parte de los grupos conservadores en Estados Unidos, muchas de las decisiones sobre cambios en la plataforma debían pasar no solo por los responsables de producto e ingenieros, sino también por los equipos de marketing, relaciones públicas y jurídicos de la compañía. Las diferencias de opiniones llevaron a procesos de veto interno, que afectaron, por ejemplo, a la creación de un sistema de clasificación para el contenido hiperpolarizado o a los esfuerzos para suprimir clickbait sobre política más que sobre otros temas. En su lugar, se implementaron cambios más débiles.

Fuente: El País