Pronunciamientos

El asesinato de Guillermo Cano, 34 años después

viernes, 18 diciembre 2020

El asesinato de Guillermo Cano, 34 años después

Guillermo Cano fue asesinado hace 34 años, cuando salía de las oficinas de El Espectador en Bogotá. El Cartel de Medellín lo puso en la mira luego de que liderara fuertes críticas hacia Pablo Escobar. 

A pesar de que este fue un caso muy mediático y emblemático, su investigación no ha sido especialmente eficiente. A penas en 2019 se impuso medida de aseguramiento a dos presuntos coautores: Gustavo Adolfo Gutiérrez Arrubla, alias Maxwell y Jhon Jairo Velásquez Vásquez, alias Popeye. Debido a la muerte de Popeye, a inicios del 2020 la Fiscalía decidió cerrar la investigación que tenía en su contra. 

Hoy honramos su legado, a través de los recuerdos de su hijo Fernando, y decimos no olvidamos. 

 

Guillermo Cano, el valiente

 

Fernando Cano, hijo de don Guillermo, recuerda en esta entrevista, realizada por Camilo Jiménez, cómo fueron las épocas en las que El Espectador empezó a ser atacado. Esta conversación hace parte de uno de los informes que la FLIP entregó a la Comisión de la Verdad en noviembre de 2020.

Guillermo Cano fue uno de los primeros que criticó de frente a Escobar y al narcotráfico en general, pero ¿él conocía los riesgos que producían sus posturas?

El Espectador estaba bastante solo en eso. Nadie lo secundó, ni lo acompañó, y eso abrió un vacío porque llevó al periódico a ejercer una función que no le correspondía: ser el procurador de la Nación. Don Guillermo tenía un clamor: “¿Dónde están las entidades del Estado que deben ponerse al frente de esto?”. Esos dos años entre el asesinato de Lara y el de don Guillermo fueron tensos y terribles. Pero no recuerdo haber visto nunca ni en él ni en los redactores que cubrían esas fuentes ningún temor de avanzar con esas investigaciones.

¿Cómo recuerda los días del asesinato de don Guillermo?

Al siguiente día del asesinato, nos llegó una carta en que nos decían que yo, mi hermano y mi mamá éramos los siguientes. Dijimos: “Mierda, esto no se detuvo acá”. Pero eran tan recientes la rabia y el dolor que decidimos no abandonar la lucha. En reuniones en las que estuvieron don José Salgar, otros directivos y mis otros tíos decidimos seguir publicando notas sobre el narcotráfico, no solo sobre los carteles sino también sobre sus colaboradores en el poder económico. Ahí no hubo ninguna autocensura. 

El asesinato a Guillermo Cano era un ataque contra todo el diario, que posteriormente sufriría más atentados contra sus periodistas e infraestructura. En palabras de Cristian Valencia, escritor de otro de los informes entregados a la Comisión, El Espectador “era el único medio con cobertura nacional que se atrevía a poner en boca de todos las discusiones necesarias para la consolidación de una nación pluralista, diversa y multicultural, que serían los pilares, a la postre, de la Constitución del 91”.

Para conmemorar este aniversario, creamos esta línea del tiempo con los principales hitos en la investigación del asesinato de Guillermo Cano. 



 

Conoce más
El Código Electoral: sin debate ni transparencia, una reforma llena de problemas

viernes, 18 diciembre 2020

El Código Electoral: sin debate ni transparencia, una reforma llena de problemas

Ayer en la tarde el Senado de la República aprobó en último debate el proyecto de ley del nuevo Código Electoral. Falta la conciliación entre Cámara y Senado para que la iniciativa pase a revisión previa de la Corte Constitucional por tratarse de una ley estatutaria. 

Las organizaciones firmantes advertimos que esta reforma al Código Electoral fue tramitada de manera irregular en el Congreso, sin suficiente debate ni transparencia por cuenta del mensaje de urgencia del gobierno, e incluyendo varios artículos preocupantes en al menos los siguientes temas: 

  1. Bajo el objetivo general de prevenir la violencia política, busca castigar expresiones críticas a partidos o movimientos políticos. Pretender que el buen nombre de un partido político prevalezca sobre la libertad de expresión y de prensa afecta la deliberación democrática y genera un entorno de censura. Los candidatos, las campañas y las elecciones deben estar sometidos al escrutinio público constante. 

  2. Concedería una amplia competencia al Consejo Nacional Electoral (CNE) para investigar y sancionar a ciudadanos, por ejemplo, por una expresión que emitan a través de las redes sociales. Por un lado, los artículos son ambiguos; por el otro, el CNE no debería actuar como juez de ciudadanos particulares que no hacen parte de la contienda política. 

  3. Determina la implementación del voto electrónico de afán, con una definición riesgosa que se aleja de los estándares de neutralidad necesarios, y que dificultará las garantías y controles para el proceso de evaluación y selección de la tecnología que se usará.  

  4. Establece la obligación para las firmas encuestadoras de entregar al CNE datos georeferenciados y biográficos de los encuestados antes de publicar las encuestas, con lo cual se estarían exponiendo datos sensibles y reservados de ciudadanos que participaron en un ejercicio que es en esencia anónimo.

  5. Crea una excepción de seguridad nacional desproporcionada y arbitraria para todas las actividades que realice la Registraduría. Esto dificultaría el acceso a información pública del ente electoral –como gastos y procesos contractuales– cuya naturaleza no amerita una reserva generalizada de ese tipo. 

El nuevo Código Electoral incluye otras disposiciones cuestionables sobre provisión de cargos, aumento de gastos y facultades del registrador, entre otros. Tanto en estos puntos como en los mencionados, el proyecto se tramitó –como ya es costumbre– sobre el final de la legislatura y al filo de la medianoche, en medio de sesiones virtuales, votaciones suspendidas y proposiciones y artículos aprobados en bloque. Incluso, se registraron diferencias entre artículos aprobados y lo que finalmente fue publicado en las gacetas. Es decir: para crear las reglas de nuestra democracia, el Congreso se saltó las propias. 

La sociedad civil reitera su exigencia y derecho de hacer parte de estas discusiones en el Congreso. Las organizaciones firmantes exigen transparencia en el proceso de conciliación y que se modifiquen o eliminen los puntos mencionados en este comunicado, que consideramos inconstitucionales. En su momento, expondremos estas irregularidades de fondo y de trámite ante la Corte Constitucional para que proteja los derechos fundamentales y el proceso legislativo. 

Conoce más
Retrasos en las condenas al autor de amenazas a tres periodistas

sábado, 12 diciembre 2020

Retrasos en las condenas al autor de amenazas a tres periodistas

Más de dos años lleva sin resolverse el caso por amenazas de muerte en contra de Daniel Samper Ospina, Matador y María Antonia García de la Torre. Los periodistas fueron amenazados a través de Twitter por Ariel Ortega entre marzo y abril del 2018. Uno de los tuits decía “bobo mal nacido, vive insultando y cuando le dicen la verdad en esa jeta llora como una nena. ¡Qué falta hacen las AUC para callar a este sapo!”.

Conoce más
Las discusiones en Twitter en tiempos electorales

sábado, 12 diciembre 2020

Las discusiones en Twitter en tiempos electorales

La época electoral de cualquier país puede significar que en redes sociales haya intentos de manipulación o interferencia en las elecciones. Es por esto que Twitter, durante las elecciones de Estados Unidos, por primera vez se decidió etiquetar los trinos que contenían información falsa o no verificada.

Una de las prohibiciones claras era publicar información que declarara una victoria electoral antes de tiempo. Los tuits que incumplieran con esto serían etiquetados con una advertencia sobre la legitimidad de las afirmaciones y dirigían a los usuarios a la página oficial de las elecciones. Cuando las personas intentaran retuitear un trino con una etiqueta de información engañosa, aparecía un mensaje que les mostraba información creíble sobre el tema antes de que pudieran ampliarlo.

En el contexto colombiano podría empezar a suceder algo similar. El Congreso del país está tramitando una ley que prohíbe que en campañas políticas se tengan discursos que desacrediten el buen nombre de los candidatos, cuestionando, por ejemplo, su idoneidad para el cargo. Si el proyecto llegase a convertirse en ley, hay una gran posibilidad de que se terminen censurando críticas o denuncias de corrupción. Twitter podría dejar de ser un espacio para discutir abiertamente sobre las capacidades de un político que aspira a un cargo público. 

Otra de las medidas tomadas por Twitter durante las elecciones en Estados Unidos fue eliminar los trinos destinados a interferir con el proceso electoral o en la implementación de los resultados de las elecciones, por ejemplo, mediante acciones violentas. 

En los trinos con información engañosa y que eran hechos desde cuentas de Estados Unidos con más de 100,000 seguidores, Twitter decidió agregar advertencias y restricciones adicionales mediante una etiqueta de información engañosa. Las personas debían aceptar la advertencia para ver estos trinos, esto dificultaba que hubiese retuits o me gusta. Sumado a esto, las respuestas se desactivaron y el algoritmo de Twitter no priorizó estos tuits. 

Estas medidas implementadas por Twitter son importantes en cuanto priorizan la libertad de expresión, por ejemplo, al etiquetar los tuits y no eliminarlos. Esta es una postura que no reduce la discusión sobre asuntos de interés público y, que a la vez, según Twitter, ayuda a que la conversación en Twitter sea veraz. 

Esta es una apuesta para combatir la desinformación sin acudir a decisiones restrictivas. Sin embargo, es más que necesario abrir el debate sobre el uso de las redes sociales en épocas electorales y las decisiones que podrían limitar la libertad de expresión de los usuarios. 

 

 

Conoce más
El reto de proteger los discursos chocantes

viernes, 11 diciembre 2020

El reto de proteger los discursos chocantes

Las personas acuden a Twitter muchas veces para dar su opinión sobre una persona, acontecimiento o comunidad. Estos comentarios pueden tener un alto componente crítico y hacer uso de la burla o el sarcasmo. Sin duda son discursos que pueden resultar incómodos o chocantes para otros usuarios.

Aunque Twitter ha sostenido que su política no es de actuar como mediador respecto del contenido que se difunde, ni intervenir en disputas entre los usuarios, sí existe un debate alrededor de cómo actuar frente a discursos que pueden ser chocantes. Algunas de las preguntas que surgen son ¿en qué situaciones Twitter elimina el contenido crítico y/u ofensivo? y ¿cómo se zanja la línea entre los discursos fuertes que pueden ser eliminados por las plataformas? 

Para poder tener esas discusiones, primero hay que aclarar la diferencia entre un discurso chocante y uno de odio. El primero está protegido por la libertad de expresión, mientras que los discursos de odio están prohibidos. La lógica detrás de la protección a los discursos chocantes es asegurar la democracia y el pluralismo. Esto exige que se permita la difusión de contenidos que ofenden, inquietan y chocan a la población. De lo contrario, se estaría fomentando un ambiente de censura frente a los discursos que no son del agrado de todas las personas.

Los discursos de odio son aquellos que atacan las “características protegidas” de una persona: raza, etnia, origen nacional, afiliación religiosa y política, orientación sexual, identidad de género, edad, discapacidad o enfermedad grave. En Twitter no se permite fomentar la violencia contra otras personas ni atacarlas o amenazarlas directamente por motivo de alguna característica protegida. Twitter tampoco permite la existencia de cuentas cuyo objetivo principal sea incitar a la violencia contra otras personas en función de estas categorías.

Una línea difusa

A pesar de que en teoría las diferencias son claras entre un discurso de odio y uno chocante, en la práctica todo se vuelve más difuso. Es clave analizar el contexto para hacer una correcta evaluación. 

Un caso que puede estudiarse para verificar la limitación de discursos de odio es el siguiente. Un periodista realizó una serie de publicaciones en Twitter en las que cuestiona la entrada de una unidad élite de militares estadounidenses para acompañar a Colombia en la lucha contra el narcotráfico. En una de las publicaciones dice: "Sólo en Colombia están los narcos. Cuándo los gringos malparidos nos van a presentar los carteles americanos que manejan la distribución y las millonadas que les deja la coca que sale de Colombia (...) tan vivos esos monos y Colombia con un gobierno narco paramilitar". 

En este caso hipotético, se puede pensar que se trata de un discurso de odio debido a que se refiere a una categoría protegida, pues se critica a los estadounidenses y se hace una mención explícita de esta nacionalidad. Sin embargo, no se trata de un discurso de odio porque es una opinión que no pretende incitar a la violencia o a la comisión de acciones ilegales. De hecho, es un discurso chocante especialmente protegido, pues aunque contiene comentarios despectivos contra los norteamericanos, su finalidad es cuestionar la entrada de tropas estadounidenses a Colombia y la gestión de las políticas de drogas en el país. La línea acá entre un discurso chocante y otro de odio es muy tenue. 

No existe una respuesta universalmente aceptada para cuando algo cruza la línea y se convierte en un discurso de odio. Además, se pueden tener diferentes niveles de tolerancia al hablar sobre las personas, incluso en relación con las características protegidas. 

Otro ejemplo en el que podemos notar esto es el humor. Por ejemplo, para algunas personas los chistes crudos sobre una figura religiosa pueden considerarse como un discurso de odio contra todos los seguidores de esa fe. Así mismo, el “humor negro” es visto en algunas ocasiones como una forma válida de humor. Lo importante es estudiar el contexto de lo que se dice y que las plataformas establezcan reglas claras sobre lo que constituye un discurso de odio para no activar políticas que limiten los discursos chocantes u ofensivos.

 

Conoce más
Twitter y el control de la información en medio de la pandemia

jueves, 10 diciembre 2020

Twitter y el control de la información en medio de la pandemia

Para lidiar con la información falsa, relacionada con el COVID-19, Twitter está restringiendo el contenido que va en contra de lo dicho por fuentes de información autorizadas de salud pública, como por ejemplo, la Organización Mundial de la Salud (OMS)

Adicional a esto, y para determinar si un trino debe ser eliminado o no, Twitter revisa varios factores. Primero, si lo expresado es un hecho y no una opinión. Segundo, que esta afirmación tenga la intención de influir en el comportamiento de los demás, por ejemplo, dando información sobre tratamientos o características del virus. Tercero, si las autoridades de salud pública han confirmado que las afirmaciones hechas por el tuit son falsas, y si no es así, pueden estar siendo compartidas de una manera que podría confundir o engañar a las personas. Y, por último, se revisa si la información compartida puede aumentar la probabilidad de exposición al virus o tener efectos adversos en el sistema de salud pública. 

Así, Twitter clasifica los tuits en tres categorías. Primero, afirmaciones engañosas, es decir aquellas confirmadas como falsas o engañosas. Segundo, declaraciones disputadas, en las que existe una discusión sobre si el contenido es veraz, exacto o creíble. Y tercero, las afirmaciones no verificadas, aquellas que no están confirmadas al momento en que el usuario lo comparte.

Estas reglas son implementadas por Twitter para evitar la difusión de información falsa y sus posibles consecuencias. Sin embargo, en algunos casos estas pueden afectar la libertad de expresión.

Primero, es riesgoso que la veracidad se mida únicamente de acuerdo a si la información proviene de las autoridades sanitarias o no. La pandemia por el COVID-19 es un contexto en donde los expertos en salud pública no siempre han tenido un consenso y también han modificado sus recomendaciones con el paso del tiempo. Por ejemplo, en un principio la OMS alertaba que la cuarentena estricta era la medida que los gobiernos debían tomar, meses después desincentivaron esta medida para contener el virus. Otro ejemplo es que a pesar de que la OMS ha aconsejado una distancia de dos metros para prevenir el contagio, expertos han advertido que esta distancia podría no ser suficiente.

En conclusión, la norma no establece con certeza quiénes son las fuentes expertas que determinan la veracidad del contenido sobre la pandemia, ni tampoco qué sucede si existen contradicciones entre las fuentes autorizadas. Tampoco es claro qué tipo de afirmaciones sobre el COVID-19 pueden conducir a confusión o el engaño en las personas.

En segundo lugar, se puede afectar la capacidad de conocer asuntos de interés público. Parte del derecho a la información está vinculado con que las personas puedan conocer qué piensa un mandatario, en este caso, acerca del virus y cómo está manejando la situación. Este derecho existe, incluso si lo que llegase a decir este político o funcionario público fuera falso, engañoso o sin pruebas. Que haya la posibilidad de que el contenido se elimine, en vez de solo poner advertencias, es peligroso. 

En tercer lugar, Twitter ha aumentado rápidamente el uso de herramientas como el machine learning y la automatización para tomar acciones sobre contenido potencialmente abusivo y manipulador. Sin embargo, Twitter mismo ha dicho que estas herramientas pueden carecer del contexto que los equipos humanos aportan, y esto puede provocar que se cometan errores. Por esta razón, en los casos que pueden significar medidas graves (como eliminación de cuentas) o en los que es necesario un análisis de contexto más amplio, Twitter acude a fuentes humanas. Lo mismo cuando se trata de trinos en los que se debe analizar el contexto de lo que se dice.

Twitter toma distintas acciones dependiendo el nivel de veracidad o verificación de una información y la visibilidad de quien emite los mensajes. Por ejemplo, si lo que dice un funcionario público es falso, se pone una etiqueta si genera un daño moderado, pero se elimina si genera un daño grave. En caso de que lo que diga el funcionario es algo que todavía es disputado, como por ejemplo la eficacia de un tratamiento de COVID-19, Twitter lo etiqueta si es moderado, pero pone una advertencia al usuario si es grave.

Todo esto puede llevar a la censura de contenidos que no necesariamente contradicen las normas comunitarias sobre COVID-19 y presenta un problema para la libertad de expresión. Las plataformas deben procurar no eliminar contenido de interés público e intentar no eliminar contenido sin haber estudiado el contexto detrás de lo que se dice.



Conoce más
Control de audiencias: enfoque y límite de debates

miércoles, 09 diciembre 2020

Control de audiencias: enfoque y límite de debates

Twitter es reconocida por ser una red social de discusión. Allí se puede ser partícipe de conversaciones con usuarios con los que en la vida offline sería muy difícil interactuar, por ejemplo, con figuras públicas. Sin embargo, eso podría cambiar. Twitter ahora permite a los tuiteros moderar las respuestas a los trinos que hacen. El usuario puede elegir quién responde a su contenido: todas las personas, solo las que sigue, o únicamente las que menciona en el tuit.

Conoce más
Cinco mitos sobre el uso de Twitter

martes, 08 diciembre 2020

Cinco mitos sobre el uso de Twitter

Alrededor de Twitter se han construido múltiples mitos, sobre su funcionamiento en general, sus reglas comunitarias y la forma en la que intervienen en sus usuarios. En este artículo la FLIP analiza cinco de estos mitos.

Reportar una cuenta o un trino múltiples veces ayuda a que Twitter elimine más rápido el contenido.

Esto es falso. Para Twitter da igual si una cuenta o un trino es reportado una o mil veces. El proceso de revisión de contenidos es exactamente el mismo y no se adelanta o se torna más eficaz con base al número de reportes sobre infracciones a las normas comunitarias.

Toda la moderación de contenido se hace con machine learning y automatización de contenido.

Esto también es falso. Primero hay que decir que Twitter sí hace uso de estas herramientas para revisar el contenido que atenta contra sus reglas comunitarias. Por ejemplo, el año pasado Twitter compró una startup llamada Fabula AI para hacer uso de tecnología que identifica difusión de información falsa o “trinos abusivos”, entre otros.

A pesar de esto, Twitter no toma medidas extremas basándose únicamente en sistemas automatizados. Por ejemplo, con los cambios de reglas relativas al COVID-19, Twitter anunció que aumentaría el uso de machine learning y automatización para tomar acciones frente a contenido potencialmente abusivo y manipulador. Sin embargo, garantizar que estos sistemas sean consistentes toma tiempo y requieren de contexto. Por eso, ante las acciones más agresivas, como eliminar una cuenta, Twitter intenta incorporar controles de revisión humana.

En Twitter, en comparación con otras plataformas, no existen restricciones frente al contenido multimedia que se difunde.

Aunque Twitter es mucho más permisivo que otras plataformas en relación con el contenido multimedia que se puede publicar, sí existen regulaciones sobre cómo se difunde el contenido sensible. 

Es posible que haya usuarios que no quieran tener contacto con material multimedia delicado, como los videos violentos o no aptos para menores. Es por ello que Twitter intenta mantener un equilibrio. Permite compartir este contenido, pero a la vez quienes quieran evitarlo, también lo pueden hacer. 

Para esto, quienes quieran publicar contenido delicado antes deben marcar el tuit como “material que puede herir la sensibilidad de algunas personas”. Si el usuario no lo marca y alguien denuncia el contenido, Twitter lo analiza y lo puede marcar como delicado.

Claramente hay contenido multimedia de carácter delicado que no se permite en ningún caso, pues puede suponer una normalización de la violencia y provocar sufrimiento a quienes lo ven. Entre estos está el material que muestra conductas sexuales violentas, contenido sexual no consentido y escenas sangrientas relacionadas con muerte o tortura. 

Cuando publico contenido en Twitter que vulnera las normas comunitarias me suspenden mi cuenta.

Esto es falso, ya que las acciones a nivel de la cuenta sólo se dan en vulneraciones muy graves. Twitter modera el contenido de manera escalonada, dependiendo de la gravedad del incumplimiento de las normas comunitarias o de la reiteración en este tipo de conductas.

De hecho, Twitter suele asumir una posición pedagógica a la hora de actuar ante violaciones de sus normas. Parte de la base de que es probable que los usuarios no conozcan las normas y por ello no haya una intención de violarlas. A menos de que la vulneración a la regla sea muy grave o reiterativa, Twitter primero intenta educar a las personas sobre las reglas y les da la oportunidad de corregir su comportamiento.

La eliminación de contenido por parte de Twitter es escalonada. Twitter inicia tomando medidas a nivel del trino para asegurarse de no ser demasiado duros con una cuenta que cometió un error y violó sus reglas comunitarias. 

Lo mismo sucede cuando se trata de tomar medidas a nivel de cuenta. Primero se piden ediciones al perfil. Luego se puede requerir que la cuenta sea de solo lectura de forma temporal. También se puede solicitar al propietario de la cuenta que verifique la propiedad con un número de teléfono o correo electrónico. Finalmente está la suspensión permanente de la cuenta.  

Twitter prohíbe el uso de bots y contenido automatizado

Esto es falso. Twitter sólo combate el spam y los bots que son maliciosos de forma estratégica y a gran escala. Su objetivo es identificar cada vez más cuentas y comportamientos problemáticos de forma proactiva, en lugar de esperar a recibir denuncias sobre ellos. 

Para terminar de entender el trasfondo de este mito, hay que comprender qué es un bot. Este es un programa informático automatizado que procesa diferentes instrucciones. En Twitter, se usan estos softwares para controlar las cuentas. Así, el programa del bot permite trinar, marcar como me gusta, seguir, o enviar mensajes a usuarios. Como Twitter bien dice, hay ciertos usos apropiados e inapropiados de los bots.

El uso del término bot está muy naturalizado en el lenguaje de las redes sociales. A veces, erróneamente, los bots son relacionados con cuentas de personas que prefieren permanecer en el anonimato por razones personales o de seguridad, o a quienes evitan usar una foto porque tienen fuertes preocupaciones sobre la privacidad. También el término a veces es usado para caracterizar erróneamente las cuentas con nombres de usuario numéricos, o, como una herramienta por parte de quienes están en posiciones de poder político para empañar las opiniones de las personas que pueden estar en desacuerdo con ellos o la opinión pública en línea.

Twitter desarrolló herramientas de machine learning que identifican y actúan sobre redes de spam o cuentas automatizadas de forma sistemática. Esto les permite abordar los intentos de manipular conversaciones en Twitter a gran escala, independientemente del idioma o la zona horaria.

Esto no es favorable. De hecho, eliminar cuentas sin verificar que efectivamente son maliciosas o que son una manipulación de la plataforma puede significar censura, lo cual es ciertamente peligroso en términos de libertad de expresión. 

Conoce más
Encuesta sobre factores de riesgo para periodistas en frontera

sábado, 05 diciembre 2020

Encuesta sobre factores de riesgo para periodistas en frontera

Los periodistas se han visto afectados de distintas maneras debido a la pandemia. Por esta razón, desde la FLIP hemos emprendido distintas acciones en prevención y atención de los riesgos a los que se han visto expuestos los reporteros. Hemos atendido situaciones de riesgo biológico, ataques directos y obstáculos en el acceso a la información. 

La Fundación es consciente de que en las zonas fronterizas se vive un difícil contexto político, social, migratorio e institucional que evidencia una crisis humanitaria que debe atenderse de manera oportuna  y por eso pretende identificar cuáles continúan siendo los riesgos físicos y biológicos a los que se enfrentan los periodistas particularmente en estas zonas. 

Queremos seguir trabajando por el derecho a informar y a estar informados. Por esta razón les invitamos a responder la siguiente encuesta para que podamos conocer cuáles son los principales riesgos, para poder aportar herramientas prácticas a la hora de enfrentar riesgos del oficio periodístico en los contextos limítrofes y así, seguir trabajando en su prevención y atención de situaciones que afecten la labor periodística.

Esta encuesta está dirigida a periodistas colombianos y extranjeros que trabajan en zonas fronterizas. Esto incluye a los reporteros que viven en estas ciudades y municipios, y a aquellos que se desplazan de otras ciudades o regiones para hacer trabajos investigativos y de reportería en estas zonas.

La información que ustedes diligencien será reservada y no se entregará a terceros ajenos a la FLIP.

Ingrese a la encuesta haciendo clic aquí 

Conoce más