Fundación para la Libertad de Prensa - FLIP

Logo Flip

 

Más de dos años lleva sin resolverse el caso por amenazas de muerte en contra de Daniel Samper Ospina, Matador y María Antonia García de la Torre. Los periodistas fueron amenazados a través de Twitter por Ariel Ortega entre marzo y abril del 2018. Uno de los tuits decía “bobo mal nacido, vive insultando y cuando le dicen la verdad en esa jeta llora como una nena. ¡Qué falta hacen las AUC para callar a este sapo!”.

Rápidamente los hechos se volvieron mediáticos y la misma Fiscalía rechazó las amenazas y aseguró que la investigación sería prioritaria. Así mismo, el ministro de Defensa de la época, Luis Carlos Villegas, ordenó a la Policía Nacional investigar las amenazas a 'Matador'. Villegas indicó que "quienes se esconden en un teléfono o computador para estorbar la libre expresión también deben recibir el peso de la ley”.

A pesar del apoyo inicial de las entidades nacionales, el caso ha avanzado muy poco.

Desde el 4 de febrero de 2019 la Fiscalía acusó a Ortega como presunto autor de las amenazas. La Fiscalía cuenta con las pruebas suficientes para asegurar que Ortega es el autor de las amenazas. De hecho, en 2018 Ortega aceptó que los tuits habían sido suyos y dijo públicamente que estaba arrepentido

En junio del mismo año la defensa presentó a la Fiscalía una solicitud de principio de oportunidad. Esto le daría el chance a Ortega de tener una sentencia absolutoria. El trámite duró aproximadamente 6 meses y nunca prosperó. La Fiscalía insistió varias veces a pesar de que las víctimas manifestaron su desacuerdo. Es por ello que la solicitud nunca tuvo posibilidad de prosperar.

Luego de más de un año en el que el caso no avanzó, solo hasta el 4 de noviembre de este año comenzó la audiencia preparatoria. Esta tiene como propósito que se den a conocer todas las pruebas que hay sobre el caso para que se tengan en cuenta en el juicio. Sin embargo, aún falta tiempo para que el momento de la sentencia se dé, pues la audiencia preparatoria ni siquiera ha concluido y se sigue a la espera que el juez la reprograme. 

Entre cada una de las audiencias del proceso ha transcurrido un año. Es difícil comprender cómo un caso que para la Fiscalía era una prioridad, resultó siendo dilatado por la misma entidad. Hay pocas respuestas a por qué el proceso se ha demorado tanto, cuando este era un caso con pruebas y autor identificado desde el inicio. 

“Es imperativo sentar un precedente y que haya un castigo ejemplar para Ariel Ortega pues debe enviarse el mensaje de cero tolerancia frente a las amenazas de muerte por redes sociales contra periodistas”: María Antonia.

 

Amenazas: un problema mayor en Colombia

 

La FLIP ha registrado que las amenazas son la principal agresión que sufren los periodistas. Cada año los casos se incrementan, casi hasta duplicarse. En 2016 se presentaron 90 intimidaciones a periodistas; el año siguiente 129; en 2018 fueron 200 casos y en 2019 se presentaron 137 amenazas. En esta misma línea, Reporteros Sin Fronteras ubica a Colombia como el país 130 con la peor calificación para ejercer la libertad de prensa. 

Las amenazas tienen un efecto amedrentador y disuasivo que conlleva al silenciamiento de la prensa. Donde exista miedo, producto de posibles agresiones relacionadas con el trabajo periodístico, se promueve un ambiente de autocontención o autocensura. 

“Amenazar de muerte a un periodista no solo afecta a ese ser humano en particular y a su familia; sino que pone en peligro a la libertad de prensa, fortalece a la censura y dota de poder a esas fuerzas ocultas que usan la violencia como medio de coerción”: María Antonia.

La falta de cumplimiento y celeridad con las investigaciones en los casos de agresiones a la prensa propicia la repetición crónica de la  violencia, pues se puede entender que no habrá sanciones ejemplares. Es necesario que la Fiscalía y los jueces avancen de manera pronta y diligente en estos casos para disuadir las agresiones contra la prensa y combatir un ambiente hostil contra la prensa en línea.

 

Publicado en Pronunciamientos

Para lidiar con la información falsa, relacionada con el COVID-19, Twitter está restringiendo el contenido que va en contra de lo dicho por fuentes de información autorizadas de salud pública, como por ejemplo, la Organización Mundial de la Salud (OMS)

Adicional a esto, y para determinar si un trino debe ser eliminado o no, Twitter revisa varios factores. Primero, si lo expresado es un hecho y no una opinión. Segundo, que esta afirmación tenga la intención de influir en el comportamiento de los demás, por ejemplo, dando información sobre tratamientos o características del virus. Tercero, si las autoridades de salud pública han confirmado que las afirmaciones hechas por el tuit son falsas, y si no es así, pueden estar siendo compartidas de una manera que podría confundir o engañar a las personas. Y, por último, se revisa si la información compartida puede aumentar la probabilidad de exposición al virus o tener efectos adversos en el sistema de salud pública. 

Así, Twitter clasifica los tuits en tres categorías. Primero, afirmaciones engañosas, es decir aquellas confirmadas como falsas o engañosas. Segundo, declaraciones disputadas, en las que existe una discusión sobre si el contenido es veraz, exacto o creíble. Y tercero, las afirmaciones no verificadas, aquellas que no están confirmadas al momento en que el usuario lo comparte.

Estas reglas son implementadas por Twitter para evitar la difusión de información falsa y sus posibles consecuencias. Sin embargo, en algunos casos estas pueden afectar la libertad de expresión.

Primero, es riesgoso que la veracidad se mida únicamente de acuerdo a si la información proviene de las autoridades sanitarias o no. La pandemia por el COVID-19 es un contexto en donde los expertos en salud pública no siempre han tenido un consenso y también han modificado sus recomendaciones con el paso del tiempo. Por ejemplo, en un principio la OMS alertaba que la cuarentena estricta era la medida que los gobiernos debían tomar, meses después desincentivaron esta medida para contener el virus. Otro ejemplo es que a pesar de que la OMS ha aconsejado una distancia de dos metros para prevenir el contagio, expertos han advertido que esta distancia podría no ser suficiente.

En conclusión, la norma no establece con certeza quiénes son las fuentes expertas que determinan la veracidad del contenido sobre la pandemia, ni tampoco qué sucede si existen contradicciones entre las fuentes autorizadas. Tampoco es claro qué tipo de afirmaciones sobre el COVID-19 pueden conducir a confusión o el engaño en las personas.

En segundo lugar, se puede afectar la capacidad de conocer asuntos de interés público. Parte del derecho a la información está vinculado con que las personas puedan conocer qué piensa un mandatario, en este caso, acerca del virus y cómo está manejando la situación. Este derecho existe, incluso si lo que llegase a decir este político o funcionario público fuera falso, engañoso o sin pruebas. Que haya la posibilidad de que el contenido se elimine, en vez de solo poner advertencias, es peligroso. 

En tercer lugar, Twitter ha aumentado rápidamente el uso de herramientas como el machine learning y la automatización para tomar acciones sobre contenido potencialmente abusivo y manipulador. Sin embargo, Twitter mismo ha dicho que estas herramientas pueden carecer del contexto que los equipos humanos aportan, y esto puede provocar que se cometan errores. Por esta razón, en los casos que pueden significar medidas graves (como eliminación de cuentas) o en los que es necesario un análisis de contexto más amplio, Twitter acude a fuentes humanas. Lo mismo cuando se trata de trinos en los que se debe analizar el contexto de lo que se dice.

Twitter toma distintas acciones dependiendo el nivel de veracidad o verificación de una información y la visibilidad de quien emite los mensajes. Por ejemplo, si lo que dice un funcionario público es falso, se pone una etiqueta si genera un daño moderado, pero se elimina si genera un daño grave. En caso de que lo que diga el funcionario es algo que todavía es disputado, como por ejemplo la eficacia de un tratamiento de COVID-19, Twitter lo etiqueta si es moderado, pero pone una advertencia al usuario si es grave.

Todo esto puede llevar a la censura de contenidos que no necesariamente contradicen las normas comunitarias sobre COVID-19 y presenta un problema para la libertad de expresión. Las plataformas deben procurar no eliminar contenido de interés público e intentar no eliminar contenido sin haber estudiado el contexto detrás de lo que se dice.



Publicado en Noticias

Twitter es reconocida por ser una red social de discusión. Allí se puede ser partícipe de conversaciones con usuarios con los que en la vida offline sería muy difícil interactuar, por ejemplo, con figuras públicas. Sin embargo, eso podría cambiar. Twitter ahora permite a los tuiteros moderar las respuestas a los trinos que hacen. El usuario puede elegir quién responde a su contenido: todas las personas, solo las que sigue, o únicamente las que menciona en el tuit.

Para Twitter, los usuarios que participan en conversaciones pueden cambiar el tema o el tono de una conversación y desviarse del asunto del que se pretendía hablar. Así, el objetivo de la nueva función es “facilitar opciones adicionales de discusión de un trino, como una conversación de tipo entrevista a través de trinos, que la gente puede seguir sin la distracción de otras mil voces”. A pesar de que esta es una apuesta para enfocar el debate y la discusión, esta nueva configuración puede implicar una restricción a la libertad de expresión. 

En Colombia hemos evidenciado que puede existir un riesgo para el libre debate. Por ejemplo, si una persona con exposición pública (político, mandatario o activista) difunde trinos en los que impide que los ciudadanos participen, se estaría limitando el debate público sobre asuntos que le interesan a la sociedad. Además, se podrían restringir las contrapreguntas que hacen periodistas.

La libertad de expresión se basa en permitir un libre mercado de ideas. Es decir, que todos los pensamientos circulen libremente dentro de la discusión pública y sean accesibles para la población. Cuando las diferentes opiniones y puntos de vista se enfrentan libremente en una sociedad, es más fácil para sus miembros decidir cuál de todas es la más cierta o la más adecuada. Esta nueva política de Twitter impide que todos los usuarios de Twitter hagan parte de la conversación.

 

Publicado en Noticias
Viernes, 04 December 2020 16:01

Cinco mitos sobre el uso de Twitter

Alrededor de Twitter se han construido múltiples mitos, sobre su funcionamiento en general, sus reglas comunitarias y la forma en la que intervienen en sus usuarios. En este artículo la FLIP analiza cinco de estos mitos.

Reportar una cuenta o un trino múltiples veces ayuda a que Twitter elimine más rápido el contenido.

Esto es falso. Para Twitter da igual si una cuenta o un trino es reportado una o mil veces. El proceso de revisión de contenidos es exactamente el mismo y no se adelanta o se torna más eficaz con base al número de reportes sobre infracciones a las normas comunitarias.

Toda la moderación de contenido se hace con machine learning y automatización de contenido.

Esto también es falso. Primero hay que decir que Twitter sí hace uso de estas herramientas para revisar el contenido que atenta contra sus reglas comunitarias. Por ejemplo, el año pasado Twitter compró una startup llamada Fabula AI para hacer uso de tecnología que identifica difusión de información falsa o “trinos abusivos”, entre otros.

A pesar de esto, Twitter no toma medidas extremas basándose únicamente en sistemas automatizados. Por ejemplo, con los cambios de reglas relativas al COVID-19, Twitter anunció que aumentaría el uso de machine learning y automatización para tomar acciones frente a contenido potencialmente abusivo y manipulador. Sin embargo, garantizar que estos sistemas sean consistentes toma tiempo y requieren de contexto. Por eso, ante las acciones más agresivas, como eliminar una cuenta, Twitter intenta incorporar controles de revisión humana.

En Twitter, en comparación con otras plataformas, no existen restricciones frente al contenido multimedia que se difunde.

Aunque Twitter es mucho más permisivo que otras plataformas en relación con el contenido multimedia que se puede publicar, sí existen regulaciones sobre cómo se difunde el contenido sensible. 

Es posible que haya usuarios que no quieran tener contacto con material multimedia delicado, como los videos violentos o no aptos para menores. Es por ello que Twitter intenta mantener un equilibrio. Permite compartir este contenido, pero a la vez quienes quieran evitarlo, también lo pueden hacer. 

Para esto, quienes quieran publicar contenido delicado antes deben marcar el tuit como “material que puede herir la sensibilidad de algunas personas”. Si el usuario no lo marca y alguien denuncia el contenido, Twitter lo analiza y lo puede marcar como delicado.

Claramente hay contenido multimedia de carácter delicado que no se permite en ningún caso, pues puede suponer una normalización de la violencia y provocar sufrimiento a quienes lo ven. Entre estos está el material que muestra conductas sexuales violentas, contenido sexual no consentido y escenas sangrientas relacionadas con muerte o tortura. 

Cuando publico contenido en Twitter que vulnera las normas comunitarias me suspenden mi cuenta.

Esto es falso, ya que las acciones a nivel de la cuenta sólo se dan en vulneraciones muy graves. Twitter modera el contenido de manera escalonada, dependiendo de la gravedad del incumplimiento de las normas comunitarias o de la reiteración en este tipo de conductas.

De hecho, Twitter suele asumir una posición pedagógica a la hora de actuar ante violaciones de sus normas. Parte de la base de que es probable que los usuarios no conozcan las normas y por ello no haya una intención de violarlas. A menos de que la vulneración a la regla sea muy grave o reiterativa, Twitter primero intenta educar a las personas sobre las reglas y les da la oportunidad de corregir su comportamiento.

La eliminación de contenido por parte de Twitter es escalonada. Twitter inicia tomando medidas a nivel del trino para asegurarse de no ser demasiado duros con una cuenta que cometió un error y violó sus reglas comunitarias. 

Lo mismo sucede cuando se trata de tomar medidas a nivel de cuenta. Primero se piden ediciones al perfil. Luego se puede requerir que la cuenta sea de solo lectura de forma temporal. También se puede solicitar al propietario de la cuenta que verifique la propiedad con un número de teléfono o correo electrónico. Finalmente está la suspensión permanente de la cuenta.  

Twitter prohíbe el uso de bots y contenido automatizado

Esto es falso. Twitter sólo combate el spam y los bots que son maliciosos de forma estratégica y a gran escala. Su objetivo es identificar cada vez más cuentas y comportamientos problemáticos de forma proactiva, en lugar de esperar a recibir denuncias sobre ellos. 

Para terminar de entender el trasfondo de este mito, hay que comprender qué es un bot. Este es un programa informático automatizado que procesa diferentes instrucciones. En Twitter, se usan estos softwares para controlar las cuentas. Así, el programa del bot permite trinar, marcar como me gusta, seguir, o enviar mensajes a usuarios. Como Twitter bien dice, hay ciertos usos apropiados e inapropiados de los bots.

El uso del término bot está muy naturalizado en el lenguaje de las redes sociales. A veces, erróneamente, los bots son relacionados con cuentas de personas que prefieren permanecer en el anonimato por razones personales o de seguridad, o a quienes evitan usar una foto porque tienen fuertes preocupaciones sobre la privacidad. También el término a veces es usado para caracterizar erróneamente las cuentas con nombres de usuario numéricos, o, como una herramienta por parte de quienes están en posiciones de poder político para empañar las opiniones de las personas que pueden estar en desacuerdo con ellos o la opinión pública en línea.

Twitter desarrolló herramientas de machine learning que identifican y actúan sobre redes de spam o cuentas automatizadas de forma sistemática. Esto les permite abordar los intentos de manipular conversaciones en Twitter a gran escala, independientemente del idioma o la zona horaria.

Esto no es favorable. De hecho, eliminar cuentas sin verificar que efectivamente son maliciosas o que son una manipulación de la plataforma puede significar censura, lo cual es ciertamente peligroso en términos de libertad de expresión. 

Publicado en Noticias
Viernes, 04 December 2020 15:46

El reto de proteger los discursos chocantes

Las personas acuden a Twitter muchas veces para dar su opinión sobre una persona, acontecimiento o comunidad. Estos comentarios pueden tener un alto componente crítico y hacer uso de la burla o el sarcasmo. Sin duda son discursos que pueden resultar incómodos o chocantes para otros usuarios.

Aunque Twitter ha sostenido que su política no es de actuar como mediador respecto del contenido que se difunde, ni intervenir en disputas entre los usuarios, sí existe un debate alrededor de cómo actuar frente a discursos que pueden ser chocantes. Algunas de las preguntas que surgen son ¿en qué situaciones Twitter elimina el contenido crítico y/u ofensivo? y ¿cómo se zanja la línea entre los discursos fuertes que pueden ser eliminados por las plataformas? 

Para poder tener esas discusiones, primero hay que aclarar la diferencia entre un discurso chocante y uno de odio. El primero está protegido por la libertad de expresión, mientras que los discursos de odio están prohibidos. La lógica detrás de la protección a los discursos chocantes es asegurar la democracia y el pluralismo. Esto exige que se permita la difusión de contenidos que ofenden, inquietan y chocan a la población. De lo contrario, se estaría fomentando un ambiente de censura frente a los discursos que no son del agrado de todas las personas.

Los discursos de odio son aquellos que atacan las “características protegidas” de una persona: raza, etnia, origen nacional, afiliación religiosa y política, orientación sexual, identidad de género, edad, discapacidad o enfermedad grave. En Twitter no se permite fomentar la violencia contra otras personas ni atacarlas o amenazarlas directamente por motivo de alguna característica protegida. Twitter tampoco permite la existencia de cuentas cuyo objetivo principal sea incitar a la violencia contra otras personas en función de estas categorías.

Una línea difusa

A pesar de que en teoría las diferencias son claras entre un discurso de odio y uno chocante, en la práctica todo se vuelve más difuso. Es clave analizar el contexto para hacer una correcta evaluación. 

Un caso que puede estudiarse para verificar la limitación de discursos de odio es el siguiente. Un periodista realizó una serie de publicaciones en Twitter en las que cuestiona la entrada de una unidad élite de militares estadounidenses para acompañar a Colombia en la lucha contra el narcotráfico. En una de las publicaciones dice: "Sólo en Colombia están los narcos. Cuándo los gringos malparidos nos van a presentar los carteles americanos que manejan la distribución y las millonadas que les deja la coca que sale de Colombia (...) tan vivos esos monos y Colombia con un gobierno narco paramilitar". 

En este caso hipotético, se puede pensar que se trata de un discurso de odio debido a que se refiere a una categoría protegida, pues se critica a los estadounidenses y se hace una mención explícita de esta nacionalidad. Sin embargo, no se trata de un discurso de odio porque es una opinión que no pretende incitar a la violencia o a la comisión de acciones ilegales. De hecho, es un discurso chocante especialmente protegido, pues aunque contiene comentarios despectivos contra los norteamericanos, su finalidad es cuestionar la entrada de tropas estadounidenses a Colombia y la gestión de las políticas de drogas en el país. La línea acá entre un discurso chocante y otro de odio es muy tenue. 

No existe una respuesta universalmente aceptada para cuando algo cruza la línea y se convierte en un discurso de odio. Además, se pueden tener diferentes niveles de tolerancia al hablar sobre las personas, incluso en relación con las características protegidas. 

Otro ejemplo en el que podemos notar esto es el humor. Por ejemplo, para algunas personas los chistes crudos sobre una figura religiosa pueden considerarse como un discurso de odio contra todos los seguidores de esa fe. Así mismo, el “humor negro” es visto en algunas ocasiones como una forma válida de humor. Lo importante es estudiar el contexto de lo que se dice y que las plataformas establezcan reglas claras sobre lo que constituye un discurso de odio para no activar políticas que limiten los discursos chocantes u ofensivos.

 

Publicado en Noticias

La época electoral de cualquier país puede significar que en redes sociales haya intentos de manipulación o interferencia en las elecciones. Es por esto que Twitter, durante las elecciones de Estados Unidos, por primera vez se decidió etiquetar los trinos que contenían información falsa o no verificada.

Una de las prohibiciones claras era publicar información que declarara una victoria electoral antes de tiempo. Los tuits que incumplieran con esto serían etiquetados con una advertencia sobre la legitimidad de las afirmaciones y dirigían a los usuarios a la página oficial de las elecciones. Cuando las personas intentaran retuitear un trino con una etiqueta de información engañosa, aparecía un mensaje que les mostraba información creíble sobre el tema antes de que pudieran ampliarlo.

En el contexto colombiano podría empezar a suceder algo similar. El Congreso del país está tramitando una ley que prohíbe que en campañas políticas se tengan discursos que desacrediten el buen nombre de los candidatos, cuestionando, por ejemplo, su idoneidad para el cargo. Si el proyecto llegase a convertirse en ley, hay una gran posibilidad de que se terminen censurando críticas o denuncias de corrupción. Twitter podría dejar de ser un espacio para discutir abiertamente sobre las capacidades de un político que aspira a un cargo público. 

Otra de las medidas tomadas por Twitter durante las elecciones en Estados Unidos fue eliminar los trinos destinados a interferir con el proceso electoral o en la implementación de los resultados de las elecciones, por ejemplo, mediante acciones violentas. 

En los trinos con información engañosa y que eran hechos desde cuentas de Estados Unidos con más de 100,000 seguidores, Twitter decidió agregar advertencias y restricciones adicionales mediante una etiqueta de información engañosa. Las personas debían aceptar la advertencia para ver estos trinos, esto dificultaba que hubiese retuits o me gusta. Sumado a esto, las respuestas se desactivaron y el algoritmo de Twitter no priorizó estos tuits. 

Estas medidas implementadas por Twitter son importantes en cuanto priorizan la libertad de expresión, por ejemplo, al etiquetar los tuits y no eliminarlos. Esta es una postura que no reduce la discusión sobre asuntos de interés público y, que a la vez, según Twitter, ayuda a que la conversación en Twitter sea veraz. 

Esta es una apuesta para combatir la desinformación sin acudir a decisiones restrictivas. Sin embargo, es más que necesario abrir el debate sobre el uso de las redes sociales en épocas electorales y las decisiones que podrían limitar la libertad de expresión de los usuarios. 

 

 

Publicado en Noticias