7 resultados para Twitter

Alcaldesa de Santa Marta, Virna Johnson, estigmatiza al medio Seguimiento.co

Pronunciamiento - viernes, 15 diciembre 2023

#AlertaFLIP | El 12 de diciembre, la alcaldesa de Santa Marta, Virna Johnson, publicó un hilo en X (Twitter) en el que estigmatiza a Seguimiento.co por un artículo sobre las obras inconclusas en la ciudad. Estos mensajes van en contravía de sus deberes como funcionaria.

Consideraciones sobre el uso de Twitter de la Presidencia y riesgos para la libertad de prensa

Pronunciamiento - jueves, 02 febrero 2023

En el último mes el Presidente Gustavo Petro ha difundido en su cuenta de Twitter por lo menos 34 trinos en los que menciona a nueve medios de comunicación. La frecuencia con la que el Presidente controvierte a la prensa deja entrever una estrategia para posicionar su narrativa y su agenda en redes. Del mismo modo, pretende sembrar la duda ante la audiencia, sobre la idoneidad de los medios para hacer su trabajo.

Las discusiones en Twitter en tiempos electorales

Pronunciamiento - sábado, 12 diciembre 2020

La época electoral de cualquier país puede significar que en redes sociales haya intentos de manipulación o interferencia en las elecciones. Es por esto que Twitter, durante las elecciones de Estados Unidos, por primera vez se decidió etiquetar los trinos que contenían información falsa o no verificada.

Una de las prohibiciones claras era publicar información que declarara una victoria electoral antes de tiempo. Los tuits que incumplieran con esto serían etiquetados con una advertencia sobre la legitimidad de las afirmaciones y dirigían a los usuarios a la página oficial de las elecciones. Cuando las personas intentaran retuitear un trino con una etiqueta de información engañosa, aparecía un mensaje que les mostraba información creíble sobre el tema antes de que pudieran ampliarlo.

En el contexto colombiano podría empezar a suceder algo similar. El Congreso del país está tramitando una ley que prohíbe que en campañas políticas se tengan discursos que desacrediten el buen nombre de los candidatos, cuestionando, por ejemplo, su idoneidad para el cargo. Si el proyecto llegase a convertirse en ley, hay una gran posibilidad de que se terminen censurando críticas o denuncias de corrupción. Twitter podría dejar de ser un espacio para discutir abiertamente sobre las capacidades de un político que aspira a un cargo público. 

Otra de las medidas tomadas por Twitter durante las elecciones en Estados Unidos fue eliminar los trinos destinados a interferir con el proceso electoral o en la implementación de los resultados de las elecciones, por ejemplo, mediante acciones violentas. 

En los trinos con información engañosa y que eran hechos desde cuentas de Estados Unidos con más de 100,000 seguidores, Twitter decidió agregar advertencias y restricciones adicionales mediante una etiqueta de información engañosa. Las personas debían aceptar la advertencia para ver estos trinos, esto dificultaba que hubiese retuits o me gusta. Sumado a esto, las respuestas se desactivaron y el algoritmo de Twitter no priorizó estos tuits. 

Estas medidas implementadas por Twitter son importantes en cuanto priorizan la libertad de expresión, por ejemplo, al etiquetar los tuits y no eliminarlos. Esta es una postura que no reduce la discusión sobre asuntos de interés público y, que a la vez, según Twitter, ayuda a que la conversación en Twitter sea veraz. 

Esta es una apuesta para combatir la desinformación sin acudir a decisiones restrictivas. Sin embargo, es más que necesario abrir el debate sobre el uso de las redes sociales en épocas electorales y las decisiones que podrían limitar la libertad de expresión de los usuarios. 

 

 

El reto de proteger los discursos chocantes

Pronunciamiento - viernes, 11 diciembre 2020

Las personas acuden a Twitter muchas veces para dar su opinión sobre una persona, acontecimiento o comunidad. Estos comentarios pueden tener un alto componente crítico y hacer uso de la burla o el sarcasmo. Sin duda son discursos que pueden resultar incómodos o chocantes para otros usuarios.

Aunque Twitter ha sostenido que su política no es de actuar como mediador respecto del contenido que se difunde, ni intervenir en disputas entre los usuarios, sí existe un debate alrededor de cómo actuar frente a discursos que pueden ser chocantes. Algunas de las preguntas que surgen son ¿en qué situaciones Twitter elimina el contenido crítico y/u ofensivo? y ¿cómo se zanja la línea entre los discursos fuertes que pueden ser eliminados por las plataformas? 

Para poder tener esas discusiones, primero hay que aclarar la diferencia entre un discurso chocante y uno de odio. El primero está protegido por la libertad de expresión, mientras que los discursos de odio están prohibidos. La lógica detrás de la protección a los discursos chocantes es asegurar la democracia y el pluralismo. Esto exige que se permita la difusión de contenidos que ofenden, inquietan y chocan a la población. De lo contrario, se estaría fomentando un ambiente de censura frente a los discursos que no son del agrado de todas las personas.

Los discursos de odio son aquellos que atacan las “características protegidas” de una persona: raza, etnia, origen nacional, afiliación religiosa y política, orientación sexual, identidad de género, edad, discapacidad o enfermedad grave. En Twitter no se permite fomentar la violencia contra otras personas ni atacarlas o amenazarlas directamente por motivo de alguna característica protegida. Twitter tampoco permite la existencia de cuentas cuyo objetivo principal sea incitar a la violencia contra otras personas en función de estas categorías.

Una línea difusa

A pesar de que en teoría las diferencias son claras entre un discurso de odio y uno chocante, en la práctica todo se vuelve más difuso. Es clave analizar el contexto para hacer una correcta evaluación. 

Un caso que puede estudiarse para verificar la limitación de discursos de odio es el siguiente. Un periodista realizó una serie de publicaciones en Twitter en las que cuestiona la entrada de una unidad élite de militares estadounidenses para acompañar a Colombia en la lucha contra el narcotráfico. En una de las publicaciones dice: "Sólo en Colombia están los narcos. Cuándo los gringos malparidos nos van a presentar los carteles americanos que manejan la distribución y las millonadas que les deja la coca que sale de Colombia (...) tan vivos esos monos y Colombia con un gobierno narco paramilitar". 

En este caso hipotético, se puede pensar que se trata de un discurso de odio debido a que se refiere a una categoría protegida, pues se critica a los estadounidenses y se hace una mención explícita de esta nacionalidad. Sin embargo, no se trata de un discurso de odio porque es una opinión que no pretende incitar a la violencia o a la comisión de acciones ilegales. De hecho, es un discurso chocante especialmente protegido, pues aunque contiene comentarios despectivos contra los norteamericanos, su finalidad es cuestionar la entrada de tropas estadounidenses a Colombia y la gestión de las políticas de drogas en el país. La línea acá entre un discurso chocante y otro de odio es muy tenue. 

No existe una respuesta universalmente aceptada para cuando algo cruza la línea y se convierte en un discurso de odio. Además, se pueden tener diferentes niveles de tolerancia al hablar sobre las personas, incluso en relación con las características protegidas. 

Otro ejemplo en el que podemos notar esto es el humor. Por ejemplo, para algunas personas los chistes crudos sobre una figura religiosa pueden considerarse como un discurso de odio contra todos los seguidores de esa fe. Así mismo, el “humor negro” es visto en algunas ocasiones como una forma válida de humor. Lo importante es estudiar el contexto de lo que se dice y que las plataformas establezcan reglas claras sobre lo que constituye un discurso de odio para no activar políticas que limiten los discursos chocantes u ofensivos.

 

Twitter y el control de la información en medio de la pandemia

Pronunciamiento - jueves, 10 diciembre 2020

Para lidiar con la información falsa, relacionada con el COVID-19, Twitter está restringiendo el contenido que va en contra de lo dicho por fuentes de información autorizadas de salud pública, como por ejemplo, la Organización Mundial de la Salud (OMS)

Adicional a esto, y para determinar si un trino debe ser eliminado o no, Twitter revisa varios factores. Primero, si lo expresado es un hecho y no una opinión. Segundo, que esta afirmación tenga la intención de influir en el comportamiento de los demás, por ejemplo, dando información sobre tratamientos o características del virus. Tercero, si las autoridades de salud pública han confirmado que las afirmaciones hechas por el tuit son falsas, y si no es así, pueden estar siendo compartidas de una manera que podría confundir o engañar a las personas. Y, por último, se revisa si la información compartida puede aumentar la probabilidad de exposición al virus o tener efectos adversos en el sistema de salud pública. 

Así, Twitter clasifica los tuits en tres categorías. Primero, afirmaciones engañosas, es decir aquellas confirmadas como falsas o engañosas. Segundo, declaraciones disputadas, en las que existe una discusión sobre si el contenido es veraz, exacto o creíble. Y tercero, las afirmaciones no verificadas, aquellas que no están confirmadas al momento en que el usuario lo comparte.

Estas reglas son implementadas por Twitter para evitar la difusión de información falsa y sus posibles consecuencias. Sin embargo, en algunos casos estas pueden afectar la libertad de expresión.

Primero, es riesgoso que la veracidad se mida únicamente de acuerdo a si la información proviene de las autoridades sanitarias o no. La pandemia por el COVID-19 es un contexto en donde los expertos en salud pública no siempre han tenido un consenso y también han modificado sus recomendaciones con el paso del tiempo. Por ejemplo, en un principio la OMS alertaba que la cuarentena estricta era la medida que los gobiernos debían tomar, meses después desincentivaron esta medida para contener el virus. Otro ejemplo es que a pesar de que la OMS ha aconsejado una distancia de dos metros para prevenir el contagio, expertos han advertido que esta distancia podría no ser suficiente.

En conclusión, la norma no establece con certeza quiénes son las fuentes expertas que determinan la veracidad del contenido sobre la pandemia, ni tampoco qué sucede si existen contradicciones entre las fuentes autorizadas. Tampoco es claro qué tipo de afirmaciones sobre el COVID-19 pueden conducir a confusión o el engaño en las personas.

En segundo lugar, se puede afectar la capacidad de conocer asuntos de interés público. Parte del derecho a la información está vinculado con que las personas puedan conocer qué piensa un mandatario, en este caso, acerca del virus y cómo está manejando la situación. Este derecho existe, incluso si lo que llegase a decir este político o funcionario público fuera falso, engañoso o sin pruebas. Que haya la posibilidad de que el contenido se elimine, en vez de solo poner advertencias, es peligroso. 

En tercer lugar, Twitter ha aumentado rápidamente el uso de herramientas como el machine learning y la automatización para tomar acciones sobre contenido potencialmente abusivo y manipulador. Sin embargo, Twitter mismo ha dicho que estas herramientas pueden carecer del contexto que los equipos humanos aportan, y esto puede provocar que se cometan errores. Por esta razón, en los casos que pueden significar medidas graves (como eliminación de cuentas) o en los que es necesario un análisis de contexto más amplio, Twitter acude a fuentes humanas. Lo mismo cuando se trata de trinos en los que se debe analizar el contexto de lo que se dice.

Twitter toma distintas acciones dependiendo el nivel de veracidad o verificación de una información y la visibilidad de quien emite los mensajes. Por ejemplo, si lo que dice un funcionario público es falso, se pone una etiqueta si genera un daño moderado, pero se elimina si genera un daño grave. En caso de que lo que diga el funcionario es algo que todavía es disputado, como por ejemplo la eficacia de un tratamiento de COVID-19, Twitter lo etiqueta si es moderado, pero pone una advertencia al usuario si es grave.

Todo esto puede llevar a la censura de contenidos que no necesariamente contradicen las normas comunitarias sobre COVID-19 y presenta un problema para la libertad de expresión. Las plataformas deben procurar no eliminar contenido de interés público e intentar no eliminar contenido sin haber estudiado el contexto detrás de lo que se dice.



Control de audiencias: enfoque y límite de debates

Pronunciamiento - miércoles, 09 diciembre 2020

Twitter es reconocida por ser una red social de discusión. Allí se puede ser partícipe de conversaciones con usuarios con los que en la vida offline sería muy difícil interactuar, por ejemplo, con figuras públicas. Sin embargo, eso podría cambiar. Twitter ahora permite a los tuiteros moderar las respuestas a los trinos que hacen. El usuario puede elegir quién responde a su contenido: todas las personas, solo las que sigue, o únicamente las que menciona en el tuit.

Cinco mitos sobre el uso de Twitter

Pronunciamiento - martes, 08 diciembre 2020

Alrededor de Twitter se han construido múltiples mitos, sobre su funcionamiento en general, sus reglas comunitarias y la forma en la que intervienen en sus usuarios. En este artículo la FLIP analiza cinco de estos mitos.

Reportar una cuenta o un trino múltiples veces ayuda a que Twitter elimine más rápido el contenido.

Esto es falso. Para Twitter da igual si una cuenta o un trino es reportado una o mil veces. El proceso de revisión de contenidos es exactamente el mismo y no se adelanta o se torna más eficaz con base al número de reportes sobre infracciones a las normas comunitarias.

Toda la moderación de contenido se hace con machine learning y automatización de contenido.

Esto también es falso. Primero hay que decir que Twitter sí hace uso de estas herramientas para revisar el contenido que atenta contra sus reglas comunitarias. Por ejemplo, el año pasado Twitter compró una startup llamada Fabula AI para hacer uso de tecnología que identifica difusión de información falsa o “trinos abusivos”, entre otros.

A pesar de esto, Twitter no toma medidas extremas basándose únicamente en sistemas automatizados. Por ejemplo, con los cambios de reglas relativas al COVID-19, Twitter anunció que aumentaría el uso de machine learning y automatización para tomar acciones frente a contenido potencialmente abusivo y manipulador. Sin embargo, garantizar que estos sistemas sean consistentes toma tiempo y requieren de contexto. Por eso, ante las acciones más agresivas, como eliminar una cuenta, Twitter intenta incorporar controles de revisión humana.

En Twitter, en comparación con otras plataformas, no existen restricciones frente al contenido multimedia que se difunde.

Aunque Twitter es mucho más permisivo que otras plataformas en relación con el contenido multimedia que se puede publicar, sí existen regulaciones sobre cómo se difunde el contenido sensible. 

Es posible que haya usuarios que no quieran tener contacto con material multimedia delicado, como los videos violentos o no aptos para menores. Es por ello que Twitter intenta mantener un equilibrio. Permite compartir este contenido, pero a la vez quienes quieran evitarlo, también lo pueden hacer. 

Para esto, quienes quieran publicar contenido delicado antes deben marcar el tuit como “material que puede herir la sensibilidad de algunas personas”. Si el usuario no lo marca y alguien denuncia el contenido, Twitter lo analiza y lo puede marcar como delicado.

Claramente hay contenido multimedia de carácter delicado que no se permite en ningún caso, pues puede suponer una normalización de la violencia y provocar sufrimiento a quienes lo ven. Entre estos está el material que muestra conductas sexuales violentas, contenido sexual no consentido y escenas sangrientas relacionadas con muerte o tortura. 

Cuando publico contenido en Twitter que vulnera las normas comunitarias me suspenden mi cuenta.

Esto es falso, ya que las acciones a nivel de la cuenta sólo se dan en vulneraciones muy graves. Twitter modera el contenido de manera escalonada, dependiendo de la gravedad del incumplimiento de las normas comunitarias o de la reiteración en este tipo de conductas.

De hecho, Twitter suele asumir una posición pedagógica a la hora de actuar ante violaciones de sus normas. Parte de la base de que es probable que los usuarios no conozcan las normas y por ello no haya una intención de violarlas. A menos de que la vulneración a la regla sea muy grave o reiterativa, Twitter primero intenta educar a las personas sobre las reglas y les da la oportunidad de corregir su comportamiento.

La eliminación de contenido por parte de Twitter es escalonada. Twitter inicia tomando medidas a nivel del trino para asegurarse de no ser demasiado duros con una cuenta que cometió un error y violó sus reglas comunitarias. 

Lo mismo sucede cuando se trata de tomar medidas a nivel de cuenta. Primero se piden ediciones al perfil. Luego se puede requerir que la cuenta sea de solo lectura de forma temporal. También se puede solicitar al propietario de la cuenta que verifique la propiedad con un número de teléfono o correo electrónico. Finalmente está la suspensión permanente de la cuenta.  

Twitter prohíbe el uso de bots y contenido automatizado

Esto es falso. Twitter sólo combate el spam y los bots que son maliciosos de forma estratégica y a gran escala. Su objetivo es identificar cada vez más cuentas y comportamientos problemáticos de forma proactiva, en lugar de esperar a recibir denuncias sobre ellos. 

Para terminar de entender el trasfondo de este mito, hay que comprender qué es un bot. Este es un programa informático automatizado que procesa diferentes instrucciones. En Twitter, se usan estos softwares para controlar las cuentas. Así, el programa del bot permite trinar, marcar como me gusta, seguir, o enviar mensajes a usuarios. Como Twitter bien dice, hay ciertos usos apropiados e inapropiados de los bots.

El uso del término bot está muy naturalizado en el lenguaje de las redes sociales. A veces, erróneamente, los bots son relacionados con cuentas de personas que prefieren permanecer en el anonimato por razones personales o de seguridad, o a quienes evitan usar una foto porque tienen fuertes preocupaciones sobre la privacidad. También el término a veces es usado para caracterizar erróneamente las cuentas con nombres de usuario numéricos, o, como una herramienta por parte de quienes están en posiciones de poder político para empañar las opiniones de las personas que pueden estar en desacuerdo con ellos o la opinión pública en línea.

Twitter desarrolló herramientas de machine learning que identifican y actúan sobre redes de spam o cuentas automatizadas de forma sistemática. Esto les permite abordar los intentos de manipular conversaciones en Twitter a gran escala, independientemente del idioma o la zona horaria.

Esto no es favorable. De hecho, eliminar cuentas sin verificar que efectivamente son maliciosas o que son una manipulación de la plataforma puede significar censura, lo cual es ciertamente peligroso en términos de libertad de expresión.