Pronunciamientos
Filtros
Mostrando página 52 de 204
sábado, 12 diciembre 2020
Retrasos en las condenas al autor de amenazas a tres periodistas
Más de dos años lleva sin resolverse el caso por amenazas de muerte en contra de Daniel Samper Ospina, Matador y María Antonia García de la Torre. Los periodistas fueron amenazados a través de Twitter por Ariel Ortega entre marzo y abril del 2018. Uno de los tuits decía “bobo mal nacido, vive insultando y cuando le dicen la verdad en esa jeta llora como una nena. ¡Qué falta hacen las AUC para callar a este sapo!”.
sábado, 12 diciembre 2020
Las discusiones en Twitter en tiempos electorales
La época electoral de cualquier país puede significar que en redes sociales haya intentos de manipulación o interferencia en las elecciones. Es por esto que Twitter, durante las elecciones de Estados Unidos, por primera vez se decidió etiquetar los trinos que contenían información falsa o no verificada.
Una de las prohibiciones claras era publicar información que declarara una victoria electoral antes de tiempo. Los tuits que incumplieran con esto serían etiquetados con una advertencia sobre la legitimidad de las afirmaciones y dirigían a los usuarios a la página oficial de las elecciones. Cuando las personas intentaran retuitear un trino con una etiqueta de información engañosa, aparecía un mensaje que les mostraba información creíble sobre el tema antes de que pudieran ampliarlo.
En el contexto colombiano podría empezar a suceder algo similar. El Congreso del país está tramitando una ley que prohíbe que en campañas políticas se tengan discursos que desacrediten el buen nombre de los candidatos, cuestionando, por ejemplo, su idoneidad para el cargo. Si el proyecto llegase a convertirse en ley, hay una gran posibilidad de que se terminen censurando críticas o denuncias de corrupción. Twitter podría dejar de ser un espacio para discutir abiertamente sobre las capacidades de un político que aspira a un cargo público.
Otra de las medidas tomadas por Twitter durante las elecciones en Estados Unidos fue eliminar los trinos destinados a interferir con el proceso electoral o en la implementación de los resultados de las elecciones, por ejemplo, mediante acciones violentas.
En los trinos con información engañosa y que eran hechos desde cuentas de Estados Unidos con más de 100,000 seguidores, Twitter decidió agregar advertencias y restricciones adicionales mediante una etiqueta de información engañosa. Las personas debían aceptar la advertencia para ver estos trinos, esto dificultaba que hubiese retuits o me gusta. Sumado a esto, las respuestas se desactivaron y el algoritmo de Twitter no priorizó estos tuits.
Estas medidas implementadas por Twitter son importantes en cuanto priorizan la libertad de expresión, por ejemplo, al etiquetar los tuits y no eliminarlos. Esta es una postura que no reduce la discusión sobre asuntos de interés público y, que a la vez, según Twitter, ayuda a que la conversación en Twitter sea veraz.
Esta es una apuesta para combatir la desinformación sin acudir a decisiones restrictivas. Sin embargo, es más que necesario abrir el debate sobre el uso de las redes sociales en épocas electorales y las decisiones que podrían limitar la libertad de expresión de los usuarios.
viernes, 11 diciembre 2020
El reto de proteger los discursos chocantes
Las personas acuden a Twitter muchas veces para dar su opinión sobre una persona, acontecimiento o comunidad. Estos comentarios pueden tener un alto componente crítico y hacer uso de la burla o el sarcasmo. Sin duda son discursos que pueden resultar incómodos o chocantes para otros usuarios.
Aunque Twitter ha sostenido que su política no es de actuar como mediador respecto del contenido que se difunde, ni intervenir en disputas entre los usuarios, sí existe un debate alrededor de cómo actuar frente a discursos que pueden ser chocantes. Algunas de las preguntas que surgen son ¿en qué situaciones Twitter elimina el contenido crítico y/u ofensivo? y ¿cómo se zanja la línea entre los discursos fuertes que pueden ser eliminados por las plataformas?
Para poder tener esas discusiones, primero hay que aclarar la diferencia entre un discurso chocante y uno de odio. El primero está protegido por la libertad de expresión, mientras que los discursos de odio están prohibidos. La lógica detrás de la protección a los discursos chocantes es asegurar la democracia y el pluralismo. Esto exige que se permita la difusión de contenidos que ofenden, inquietan y chocan a la población. De lo contrario, se estaría fomentando un ambiente de censura frente a los discursos que no son del agrado de todas las personas.
Los discursos de odio son aquellos que atacan las “características protegidas” de una persona: raza, etnia, origen nacional, afiliación religiosa y política, orientación sexual, identidad de género, edad, discapacidad o enfermedad grave. En Twitter no se permite fomentar la violencia contra otras personas ni atacarlas o amenazarlas directamente por motivo de alguna característica protegida. Twitter tampoco permite la existencia de cuentas cuyo objetivo principal sea incitar a la violencia contra otras personas en función de estas categorías.
Una línea difusa
A pesar de que en teoría las diferencias son claras entre un discurso de odio y uno chocante, en la práctica todo se vuelve más difuso. Es clave analizar el contexto para hacer una correcta evaluación.
Un caso que puede estudiarse para verificar la limitación de discursos de odio es el siguiente. Un periodista realizó una serie de publicaciones en Twitter en las que cuestiona la entrada de una unidad élite de militares estadounidenses para acompañar a Colombia en la lucha contra el narcotráfico. En una de las publicaciones dice: "Sólo en Colombia están los narcos. Cuándo los gringos malparidos nos van a presentar los carteles americanos que manejan la distribución y las millonadas que les deja la coca que sale de Colombia (...) tan vivos esos monos y Colombia con un gobierno narco paramilitar".
En este caso hipotético, se puede pensar que se trata de un discurso de odio debido a que se refiere a una categoría protegida, pues se critica a los estadounidenses y se hace una mención explícita de esta nacionalidad. Sin embargo, no se trata de un discurso de odio porque es una opinión que no pretende incitar a la violencia o a la comisión de acciones ilegales. De hecho, es un discurso chocante especialmente protegido, pues aunque contiene comentarios despectivos contra los norteamericanos, su finalidad es cuestionar la entrada de tropas estadounidenses a Colombia y la gestión de las políticas de drogas en el país. La línea acá entre un discurso chocante y otro de odio es muy tenue.
No existe una respuesta universalmente aceptada para cuando algo cruza la línea y se convierte en un discurso de odio. Además, se pueden tener diferentes niveles de tolerancia al hablar sobre las personas, incluso en relación con las características protegidas.
Otro ejemplo en el que podemos notar esto es el humor. Por ejemplo, para algunas personas los chistes crudos sobre una figura religiosa pueden considerarse como un discurso de odio contra todos los seguidores de esa fe. Así mismo, el “humor negro” es visto en algunas ocasiones como una forma válida de humor. Lo importante es estudiar el contexto de lo que se dice y que las plataformas establezcan reglas claras sobre lo que constituye un discurso de odio para no activar políticas que limiten los discursos chocantes u ofensivos.
jueves, 10 diciembre 2020
Twitter y el control de la información en medio de la pandemia
Para lidiar con la información falsa, relacionada con el COVID-19, Twitter está restringiendo el contenido que va en contra de lo dicho por fuentes de información autorizadas de salud pública, como por ejemplo, la Organización Mundial de la Salud (OMS).
Adicional a esto, y para determinar si un trino debe ser eliminado o no, Twitter revisa varios factores. Primero, si lo expresado es un hecho y no una opinión. Segundo, que esta afirmación tenga la intención de influir en el comportamiento de los demás, por ejemplo, dando información sobre tratamientos o características del virus. Tercero, si las autoridades de salud pública han confirmado que las afirmaciones hechas por el tuit son falsas, y si no es así, pueden estar siendo compartidas de una manera que podría confundir o engañar a las personas. Y, por último, se revisa si la información compartida puede aumentar la probabilidad de exposición al virus o tener efectos adversos en el sistema de salud pública.
Así, Twitter clasifica los tuits en tres categorías. Primero, afirmaciones engañosas, es decir aquellas confirmadas como falsas o engañosas. Segundo, declaraciones disputadas, en las que existe una discusión sobre si el contenido es veraz, exacto o creíble. Y tercero, las afirmaciones no verificadas, aquellas que no están confirmadas al momento en que el usuario lo comparte.
Estas reglas son implementadas por Twitter para evitar la difusión de información falsa y sus posibles consecuencias. Sin embargo, en algunos casos estas pueden afectar la libertad de expresión.
Primero, es riesgoso que la veracidad se mida únicamente de acuerdo a si la información proviene de las autoridades sanitarias o no. La pandemia por el COVID-19 es un contexto en donde los expertos en salud pública no siempre han tenido un consenso y también han modificado sus recomendaciones con el paso del tiempo. Por ejemplo, en un principio la OMS alertaba que la cuarentena estricta era la medida que los gobiernos debían tomar, meses después desincentivaron esta medida para contener el virus. Otro ejemplo es que a pesar de que la OMS ha aconsejado una distancia de dos metros para prevenir el contagio, expertos han advertido que esta distancia podría no ser suficiente.
En conclusión, la norma no establece con certeza quiénes son las fuentes expertas que determinan la veracidad del contenido sobre la pandemia, ni tampoco qué sucede si existen contradicciones entre las fuentes autorizadas. Tampoco es claro qué tipo de afirmaciones sobre el COVID-19 pueden conducir a confusión o el engaño en las personas.
En segundo lugar, se puede afectar la capacidad de conocer asuntos de interés público. Parte del derecho a la información está vinculado con que las personas puedan conocer qué piensa un mandatario, en este caso, acerca del virus y cómo está manejando la situación. Este derecho existe, incluso si lo que llegase a decir este político o funcionario público fuera falso, engañoso o sin pruebas. Que haya la posibilidad de que el contenido se elimine, en vez de solo poner advertencias, es peligroso.
En tercer lugar, Twitter ha aumentado rápidamente el uso de herramientas como el machine learning y la automatización para tomar acciones sobre contenido potencialmente abusivo y manipulador. Sin embargo, Twitter mismo ha dicho que estas herramientas pueden carecer del contexto que los equipos humanos aportan, y esto puede provocar que se cometan errores. Por esta razón, en los casos que pueden significar medidas graves (como eliminación de cuentas) o en los que es necesario un análisis de contexto más amplio, Twitter acude a fuentes humanas. Lo mismo cuando se trata de trinos en los que se debe analizar el contexto de lo que se dice.
Twitter toma distintas acciones dependiendo el nivel de veracidad o verificación de una información y la visibilidad de quien emite los mensajes. Por ejemplo, si lo que dice un funcionario público es falso, se pone una etiqueta si genera un daño moderado, pero se elimina si genera un daño grave. En caso de que lo que diga el funcionario es algo que todavía es disputado, como por ejemplo la eficacia de un tratamiento de COVID-19, Twitter lo etiqueta si es moderado, pero pone una advertencia al usuario si es grave.
Todo esto puede llevar a la censura de contenidos que no necesariamente contradicen las normas comunitarias sobre COVID-19 y presenta un problema para la libertad de expresión. Las plataformas deben procurar no eliminar contenido de interés público e intentar no eliminar contenido sin haber estudiado el contexto detrás de lo que se dice.
miércoles, 09 diciembre 2020
Control de audiencias: enfoque y límite de debates
Twitter es reconocida por ser una red social de discusión. Allí se puede ser partícipe de conversaciones con usuarios con los que en la vida offline sería muy difícil interactuar, por ejemplo, con figuras públicas. Sin embargo, eso podría cambiar. Twitter ahora permite a los tuiteros moderar las respuestas a los trinos que hacen. El usuario puede elegir quién responde a su contenido: todas las personas, solo las que sigue, o únicamente las que menciona en el tuit.
martes, 08 diciembre 2020
Cinco mitos sobre el uso de Twitter
Alrededor de Twitter se han construido múltiples mitos, sobre su funcionamiento en general, sus reglas comunitarias y la forma en la que intervienen en sus usuarios. En este artículo la FLIP analiza cinco de estos mitos.
Reportar una cuenta o un trino múltiples veces ayuda a que Twitter elimine más rápido el contenido.
Esto es falso. Para Twitter da igual si una cuenta o un trino es reportado una o mil veces. El proceso de revisión de contenidos es exactamente el mismo y no se adelanta o se torna más eficaz con base al número de reportes sobre infracciones a las normas comunitarias.
Toda la moderación de contenido se hace con machine learning y automatización de contenido.
Esto también es falso. Primero hay que decir que Twitter sí hace uso de estas herramientas para revisar el contenido que atenta contra sus reglas comunitarias. Por ejemplo, el año pasado Twitter compró una startup llamada Fabula AI para hacer uso de tecnología que identifica difusión de información falsa o “trinos abusivos”, entre otros.
A pesar de esto, Twitter no toma medidas extremas basándose únicamente en sistemas automatizados. Por ejemplo, con los cambios de reglas relativas al COVID-19, Twitter anunció que aumentaría el uso de machine learning y automatización para tomar acciones frente a contenido potencialmente abusivo y manipulador. Sin embargo, garantizar que estos sistemas sean consistentes toma tiempo y requieren de contexto. Por eso, ante las acciones más agresivas, como eliminar una cuenta, Twitter intenta incorporar controles de revisión humana.
En Twitter, en comparación con otras plataformas, no existen restricciones frente al contenido multimedia que se difunde.
Aunque Twitter es mucho más permisivo que otras plataformas en relación con el contenido multimedia que se puede publicar, sí existen regulaciones sobre cómo se difunde el contenido sensible.
Es posible que haya usuarios que no quieran tener contacto con material multimedia delicado, como los videos violentos o no aptos para menores. Es por ello que Twitter intenta mantener un equilibrio. Permite compartir este contenido, pero a la vez quienes quieran evitarlo, también lo pueden hacer.
Para esto, quienes quieran publicar contenido delicado antes deben marcar el tuit como “material que puede herir la sensibilidad de algunas personas”. Si el usuario no lo marca y alguien denuncia el contenido, Twitter lo analiza y lo puede marcar como delicado.
Claramente hay contenido multimedia de carácter delicado que no se permite en ningún caso, pues puede suponer una normalización de la violencia y provocar sufrimiento a quienes lo ven. Entre estos está el material que muestra conductas sexuales violentas, contenido sexual no consentido y escenas sangrientas relacionadas con muerte o tortura.
Cuando publico contenido en Twitter que vulnera las normas comunitarias me suspenden mi cuenta.
Esto es falso, ya que las acciones a nivel de la cuenta sólo se dan en vulneraciones muy graves. Twitter modera el contenido de manera escalonada, dependiendo de la gravedad del incumplimiento de las normas comunitarias o de la reiteración en este tipo de conductas.
De hecho, Twitter suele asumir una posición pedagógica a la hora de actuar ante violaciones de sus normas. Parte de la base de que es probable que los usuarios no conozcan las normas y por ello no haya una intención de violarlas. A menos de que la vulneración a la regla sea muy grave o reiterativa, Twitter primero intenta educar a las personas sobre las reglas y les da la oportunidad de corregir su comportamiento.
La eliminación de contenido por parte de Twitter es escalonada. Twitter inicia tomando medidas a nivel del trino para asegurarse de no ser demasiado duros con una cuenta que cometió un error y violó sus reglas comunitarias.
Lo mismo sucede cuando se trata de tomar medidas a nivel de cuenta. Primero se piden ediciones al perfil. Luego se puede requerir que la cuenta sea de solo lectura de forma temporal. También se puede solicitar al propietario de la cuenta que verifique la propiedad con un número de teléfono o correo electrónico. Finalmente está la suspensión permanente de la cuenta.
Twitter prohíbe el uso de bots y contenido automatizado
Esto es falso. Twitter sólo combate el spam y los bots que son maliciosos de forma estratégica y a gran escala. Su objetivo es identificar cada vez más cuentas y comportamientos problemáticos de forma proactiva, en lugar de esperar a recibir denuncias sobre ellos.
Para terminar de entender el trasfondo de este mito, hay que comprender qué es un bot. Este es un programa informático automatizado que procesa diferentes instrucciones. En Twitter, se usan estos softwares para controlar las cuentas. Así, el programa del bot permite trinar, marcar como me gusta, seguir, o enviar mensajes a usuarios. Como Twitter bien dice, hay ciertos usos apropiados e inapropiados de los bots.
El uso del término bot está muy naturalizado en el lenguaje de las redes sociales. A veces, erróneamente, los bots son relacionados con cuentas de personas que prefieren permanecer en el anonimato por razones personales o de seguridad, o a quienes evitan usar una foto porque tienen fuertes preocupaciones sobre la privacidad. También el término a veces es usado para caracterizar erróneamente las cuentas con nombres de usuario numéricos, o, como una herramienta por parte de quienes están en posiciones de poder político para empañar las opiniones de las personas que pueden estar en desacuerdo con ellos o la opinión pública en línea.
Twitter desarrolló herramientas de machine learning que identifican y actúan sobre redes de spam o cuentas automatizadas de forma sistemática. Esto les permite abordar los intentos de manipular conversaciones en Twitter a gran escala, independientemente del idioma o la zona horaria.
Esto no es favorable. De hecho, eliminar cuentas sin verificar que efectivamente son maliciosas o que son una manipulación de la plataforma puede significar censura, lo cual es ciertamente peligroso en términos de libertad de expresión.
sábado, 05 diciembre 2020
Encuesta sobre factores de riesgo para periodistas en frontera
Los periodistas se han visto afectados de distintas maneras debido a la pandemia. Por esta razón, desde la FLIP hemos emprendido distintas acciones en prevención y atención de los riesgos a los que se han visto expuestos los reporteros. Hemos atendido situaciones de riesgo biológico, ataques directos y obstáculos en el acceso a la información.
La Fundación es consciente de que en las zonas fronterizas se vive un difícil contexto político, social, migratorio e institucional que evidencia una crisis humanitaria que debe atenderse de manera oportuna y por eso pretende identificar cuáles continúan siendo los riesgos físicos y biológicos a los que se enfrentan los periodistas particularmente en estas zonas.
Queremos seguir trabajando por el derecho a informar y a estar informados. Por esta razón les invitamos a responder la siguiente encuesta para que podamos conocer cuáles son los principales riesgos, para poder aportar herramientas prácticas a la hora de enfrentar riesgos del oficio periodístico en los contextos limítrofes y así, seguir trabajando en su prevención y atención de situaciones que afecten la labor periodística.
Esta encuesta está dirigida a periodistas colombianos y extranjeros que trabajan en zonas fronterizas. Esto incluye a los reporteros que viven en estas ciudades y municipios, y a aquellos que se desplazan de otras ciudades o regiones para hacer trabajos investigativos y de reportería en estas zonas.
La información que ustedes diligencien será reservada y no se entregará a terceros ajenos a la FLIP.
Ingrese a la encuesta haciendo clic aquí
viernes, 04 diciembre 2020
Balance de riesgo biológico para periodistas
Han pasado más de siete meses desde que comenzó la pandemia por COVID-19. La FLIP ha emprendido acciones de prevención y alerta frente a distintas situaciones que se han generado por razón del COVID-19 y las decisiones gubernamentales que se han tomado. Uno de los campos de acción que ha emprendido la FLIP es la documentación de casos de riesgo biológico para periodistas.
Del 24 de marzo al 30 de noviembre de este año la FLIP ha documentado más de cien casos de periodistas expuestos, contagiados y fallecidos por COVID-19. Durante este tiempo también procuramos establecer cuántos periodistas fallecidos por COVID-19 probablemente se contagiaron por razones de su ejercicio periodístico. Sin embargo, determinar dónde o cómo fue el contagio de una persona es un proceso difícil y poco certero. La FLIP hace estas consideraciones a partir de la documentación y seguimiento que se realiza sobre los lugares que el o la periodista visitó y si en el último mes estuvo expuesto a algún escenario de alto riesgo.
Es posible que en la realidad haya muchos más casos de los aquí presentados. Por eso, invitamos a las y los periodistas a seguir informando sobre los casos propios o de colegas afectados por el virus. Así, podremos seguir ampliando el diagnóstico del panorama que atraviesa la prensa durante la emergencia sanitaria. También les recordamos que toda la información obtenida por la FLIP es y será totalmente confidencial. Esta se maneja con objetivos técnicos y las cifras serán los únicos datos públicos.
Pueden escribirnos al +57 320 2311308 o a través de nuestras redes sociales.
Seguimos trabajando por el derecho a informar y a estar informados.
miércoles, 02 diciembre 2020
Gimbler Perdomo: la voz que perdió Gigante
Gimbler Perdomo tenía 31 años cuando en 2002 fue asesinado en el municipio de Gigante, Huila. Era director de noticias y propietario de Panorama Estéreo, la única emisora que existía en esa época en Gigante.
El camino en el periodismo
Gimbler empezó en la radio por casualidades de la vida. Sandra Cáceres, esposa de Gimbler, cuenta que el viaje por la radio empezó cuando un amigo ganó una licencia para tener el dial de una emisora comercial. Sin embargo, este terminó en la cárcel y fue ahí cuando le propuso a Gimbler ser socio de la emisora, para que se encargara de mantenerla mientras él salía de prisión.
Gimbler aceptó y a partir de ese momento comenzó a desarrollar el noticiero de la emisora, con el que terminó ganándose a la comunidad. Su compromiso no solo fue dar información detrás de un micrófono en una cabina, sino también ayudar directamente a las personas. En algunas ocasiones viajaba a las veredas del municipio, donde emitía un programa en el que los campesinos exponían todas sus necesidades como salud o educación.
El hombre detrás del periodista
Gimbler era recordado en su pueblo por realizar campañas de solidaridad y además, denunciar a la administración municipal por casos de corrupción. Todo esto lo hizo cuando ocupó el cargo de Consejero municipal, durante el 91 y el año 2000, antes de ser periodista.
En el año 1999, cuando aún era Consejero municipal, Gimbler se encadenó frente a la alcaldía para presionar la salida de Luis Édgar Gutiérrez, el mandatario de la época. Finalmente este fue destituido por sus acciones corruptas.
“Desde las seis o cinco y media de la mañana llegaba la gente a la casa a pedir ayuda”, cuenta Sandra. Su esposa lo recuerda como un hombre que realizaba muchas campañas para ayudar a las personas necesitadas del municipio, incluso muchas veces dejando de lado su propio bienestar.
Una de las anécdotas que más recuerda es cuando su esposo le dio el dinero que tenían para el almuerzo a un señor que llegó a pedir ayuda. Sandra recuerda claramente las palabras con las que Gimbler le respondió a su reclamo: “ese señor necesita viajar a una cita médica y no tiene para el transporte, nosotros vamos a la tienda allá nos conocen y nos pueden fiar, a él nadie le va a fiar lo del transporte”.
La verdad
La persona que lo asesinó está preso. “Ni para qué le cuento el sin número de expedientes de asesinatos que tiene ese señor”, afirma Sandra.
El día de la audiencia en la que el asesino habló sobre la muerte de Gimbler, Sandra fue acompañada por dos de sus hijas. “Ese fue uno de los días más tristes, porque cuando le hacían preguntas sobre el asesinato de mi esposo, sentíamos que nunca respondía con la verdad”, dice Sandra. Cuando le preguntaron al asesino por qué lo había hecho, este dijo que lo habían obligado, que era matar a Gimbler o que su familia estuviera en riesgo.
Sobre los determinadores del asesinato, Sandra cuenta que fue la guerrilla. Aunque al inicio de la investigación habían dudas sobre esto, pues en su momento, algunas personas cercanas a Gimbler afirmaron que esto era poco probable. Decían que él era consciente del peligro en la región y por eso siempre fue precavido a la hora de dar información relativa al orden público.
Dieciocho años después Sandra tuvo que sacar adelante a tres niños que en su momento no tenían más de diez años. La violencia le arrebató al pueblo de Gigante una persona que estaba comprometido con su comunidad, y a su familia, les quito un padre y esposo ejemplar. En todos ellos la memoria de Gimbler permanece viva. Gracias por recordar con nosotros. En la FLIP no olvidamos.