Un canal prioritario para comunicar la difusión de contenido sensible en Internet y solicitar su retirada

 

  1. Tal vez fuera el caso triste y deprimente del suicidio de una trabajadora de IVECO en Madrid, tras la difusión entre sus compañeros de empresa de un video sexual en que aparecía sola, el que llevase a la Agencia Española de Protección de Datos (AEPD) a tomar la decisión de crear un canal prioritario para comunicar la difusión ilícita de imágenes con contenido sensible y poder obtener, en su caso y rápidamente, la retirada de las mismas. O quizás fuese cualquier otro, igualmente lamentable, de grabación de violencia ejercida sobre una mujer o acoso a un menor que no alcanzó la misma repercusión en los medios que el anterior, o simplemente la presencia pertinaz de estos hechos desgraciados en nuestra sociedad. Lo mismo da, lo importante es que la autoridad de control independiente de la privacidad española ha adoptado una iniciativa novedosa, comprometida y digna de reconocimiento, que me propongo analizar a continuación, sobre la base de la información pública que aparece en la página web de la Agencia y de declaraciones, en prensa y radio, de su propia directora y de alguno de sus directivos.

 

  1. Este canal prioritario está pensado únicamente para situaciones excepcionalmente delicadas, que impliquen imágenes de contenido sexual o actos violentos y pongan en alto riesgo los derechos y libertades de las personas afectadas, especialmente víctimas de violencia de género o menores. Se distingue, pues, del procedimiento ordinario para el ejercicio del derecho de supresión, a disposición de quien esté afectado por la difusión de imágenes sin su consentimiento. La imagen es un dato personal, y tanto el Reglamento General de Protección de Datos (RGPD), norma comunitaria, como la española Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales (LOPDPGDD) reconocen a los interesados el ejercicio del derecho de supresión, cuando los datos (aquí, fotos y videos difundidos en Internet) hayan sido tratados ilícitamente o no estén ya soportados por el consentimiento originario, que pudiera haberse dado a su publicación. En el procedimiento ordinario la persona afectada ha de dirigirse, necesariamente y en primer lugar, al prestador de servicios de Internet (como Facebook, Google o YouTube, entre otros) en que aparezcan las imágenes. Si tras hacer eso, y habiendo transcurrido al menos un mes desde que se presentó la denuncia, aquellas no han sido retiradas, bien porque el prestador considere que no hay razón bastante para hacerlo (y tanto Facebook como Google o YouTube, por ejemplo, tienen políticas públicas, accesibles para sus usuarios, sobre cómo actúan al respecto), o bien porque simplemente no lo haya hecho, los afectados pueden presentar una reclamación en la sede electrónica de la AEPD, acompañando la documentación acreditativa de haber solicitado la supresión, en primer término, al prestador de servicios online.

 

  1. Pero el caso del canal prioritario, recientemente creado, es diferente del procedimiento ordinario en, al menos, cuatro puntos:

 

  • no está pensado para todas las situaciones, sino únicamente para aquellas que sean extremadamente sensibles,

 

  • no es necesario dirigirse previamente al prestador de servicios de Internet instando la retirada de las imágenes en cuestión, ya que se puede acudir directamente a la AEPD,

 

  • no existe un plazo máximo para resolver la solicitud de retirada, sino que la misma se decide por la AEPD, en un sentido o en otro, con carácter de urgencia, y

 

  • no solamente la persona o personas afectadas, que aparecen en las imágenes de contenido sensible publicadas ilícitamente, pueden comunicar la difusión de aquellas y solicitar su retirada, sino que eso puede hacerlo cualquier persona interesada (que lógicamente, como luego se verá, ha de conocer las circunstancias del caso concreto).

 

  1. El objetivo del canal prioritario, pues, es establecer una vía para que las reclamaciones sobre estas situaciones excepcionales, especialmente graves, en las que concurren difusión ilegítima y contenido “sensible” (que no es un concepto legal, ni equivale al de “datos personales que, por su naturaleza, son especialmente sensibles”, de los que trata el RGPD en su artículo 9, y que se refieren a origen étnico y racial, opiniones políticas, convicciones religiosas o filosóficas, datos genéticos…) sean analizadas Y ello para permitir que la Agencia, como autoridad independiente, pueda adoptar medidas urgentes, como la cautelar de retirada de las imágenes, que los prestadores de servicios de Internet han de cumplir inmediatamente. Así se pretende conseguir, de manera efectiva, la limitación, interrupción o término del tratamiento ilícito de esos datos personales de contenido sensible, sin perjuicio, como es lógico, de la decisión final que se tome al respecto (seguramente, en la inmensa mayoría de los casos, confirmatoria de la cautelar) y de que la Agencia abra seguidamente un procedimiento sancionador a los efectos de determinar las responsabilidades oportunas.

 

  1. En cuanto a la manera de presentar la denuncia a través del canal prioritario, la AEPD establece que el reclamante debe describir las circunstancias en las que se ha producido la difusión no consentida del contenido sensible y su situación personal, así como si es víctima de violencia de género, abuso, agresión sexual, acoso o si pertenece a colectivos especialmente vulnerables. Ha de especificar, igualmente, la dirección o direcciones web en las que las imágenes se han publicado y están siendo difundidas o identificar claramente el perfil social a través del cual se están difundiendo, además de aportar una serie de informaciones adicionales, como por ejemplo si ha habido o no denuncia a la policía.

 

  1. En la decisión de la AEPD de crear este canal prioritario para comunicar la difusión de contenido sensible y solicitar su retirada parecen haber pesado, a mi juicio, las siguientes razones:

 

  • la insuficiencia del procedimiento ordinario para atender situaciones graves y, desgraciadamente, frecuentes (el de la trabajadora de IVECO en Madrid no es un caso aislado), que deriva de diversos factores como, por ejemplo, que la persona afectada no denuncie por desconocimiento de su derecho o por miedo a las represalias o a la publicidad, o por encontrarse paralizada o bloqueada, o que la tramitación de la denuncia no sea lo suficientemente rápida y las imágenes de contenido sexual o violento permanezcan en la red después de haber sido denunciadas, e incluso vuelva a ser difundidas, con la consiguiente lesión de los derechos fundamentales de integridad, intimidad, honor o a la propia imagen.

 

  • el repudio que merece la difusión ilícita de imágenes de violencia y agresión, que marcha en paralelo a su contrapartida positiva, que es la protección que hay que dar a las personas afectadas, esto es, mujeres, menores y otros colectivos especialmente vulnerables, como discapacitados, personas con enfermedad graves, en riesgo de exclusión social…, sin que existan derechos o intereses de terceros en conflicto dignos de consideración, que haya que ponderar a la hora de resolver la retirada de las imágenes de Internet.

 

  • la consideración de la función de supervisión y control de la aplicación del RGPD y de la LOPDPGDD que tiene encomendada, en virtud de la cual puede “imponer una limitación temporal o definitiva del tratamiento [de los datos personales], incluida su prohibición”, y

 

  • la voluntad de ejercer esa función de una manera activa, medida y proporcionada, dando un paso adelante ante una situación de hecho que está produciendo casos lamentables, y asumir una responsabilidad desde la intervención pública, distinta de la dejar la iniciativa y la solución del problema, al menos en primera instancia, en manos de las plataformas digitales y las empresas privadas.

 

  1. La creación del canal prioritario, comunicada el 24 de septiembre pasado, se encuadra dentro de un marco general integrado por un convenio de colaboración (firmado con el Ministerio de la Presidencia, Relaciones con las Cortes e Igualdad) y cinco protocolos de actuación (suscritos con los Ministerios de Interior, Trabajo y Educación, la Fiscalía General del Estado y el Consejo General de la Abogacía), que incluye medidas de prevención y sensibilización, acciones formativas y, lo que es muy importante, información sobre las consecuencias administrativas, civiles y penales de la difusión de contenidos sensibles, tanto para las empresas como para los ciudadanos. Merece esta decisión, pues, apoyo y una valoración globalmente positiva, si bien sobre el canal prioritario cabe hacer algunas observaciones críticas, que son las siguientes:

 

  • Sería conveniente una mayor precisión en relación al ámbito objetivo del canal, a las conductas reflejadas en esas imágenes de contenido “sensible” que resultan denunciables: parece claro que incluyen, porque así se dice en la información pública, acciones o expresiones de carácter o intención sexual, actos de violencia, abusos, agresión y acoso, aunque quizás también pudieran añadirse otras conductas o acciones similares, como burlas o menosprecios. Aquí parece que habrá de operar el criterio y la interpretación de la AEPD al examinar caso a caso las denuncias que vaya recibiendo.

 

  • Sería aconsejable, también, una mayor precisión sobre el ámbito subjetivo, esto es, los colectivos cuya protección busca el canal prioritario: está claro, y es correcto que así sea, que se incluyen especialmente mujeres (víctimas de violencia de género), menores, personas con discapacidad o enfermedad grave, o en riesgo de exclusión social (mendigos, personas “sin techo”), y en el caso de las imágenes de contenido sexual, vale tanto para hombres como para mujeres. Pero se echa de menos, por ejemplo, una referencia a las personas mayores, a quienes no costaría asimilar a los colectivos anteriormente citados, a las efectos de obtener la protección del canal prioritario.

 

  • Cabe presumir, en el supuesto de que quien denuncie la difusión ilícita de un contenido sensible y pida la retirada del mismo no sea la persona afectada, que aquella ha de tener un conocimiento suficiente de las circunstancias personales y coyunturales del caso en cuestión. Esto habría que recalcarlo. De otra forma, podría suceder que se produjesen denuncias, seguramente bienintencionadas, sobre hechos en los que hay consentimiento (por más que cueste imaginarlo) o en los que se pretenda hacer parodia, representación o broma (por arduo que resulte encontrarle la gracia a quien hace ese tipo de cosas).

 

  • Un problema práctico no aclarado, al menos en la información aportada por la AEPD sobre el canal, consiste en su disponibilidad real. Funciona las veinticuatro horas del día, siete días a la semana? Porque podría ser que se presentase una denuncia a las ocho de la tarde de un viernes y la misma no se atendiese hasta las nueve de la mañana del lunes siguiente. Aunque la urgencia no significa lo mismo en toda clase de contexto y circunstancias, y una demora de un par de días en atender una denuncia con fundamento no debería considerarse, en principio, como absolutamente inaceptable, si parece claro que no es lo deseable, ni el objetivo al que habría que aspirar. Sí que se dice, por el contrario, que hay equipos especializados, bien preparados y conocedores de la materia, a ambos extremos de la línea, tanto en la AEPD como en las empresas de Internet donde suelen aparecer en la inmensa mayoría de los casos las imágenes denunciables (Google, Facebook o YouTube).

 

  • Un segundo problema práctico, de más enjundia, afecta a WhatsApp, que ofrece un servicio de mensajes y llamadas cifrado de extremo a extremo, en el que nadie puede leer, ver o escuchar esos mensajes y conversaciones privadas, ni siquiera la propia WhatsApp. La AEPD ha declarado que está trabajando con esa empresa para intentar dar con una salida a la limitación de intervención que supone la encriptación de los mensajes, sin que quepa anticipar una pronta solución satisfactoria.

 

  1. En definitiva, a la espera de conocer información sobre sus primeros resultados (y la evaluación de los mismos), así como de que, a medio plazo, se creen instrumentos específicos y armonizados sobre este asunto en el plano comunitario, lo que parece obvio que debería suceder, cabe decir que la creación de un canal prioritario para comunicar la difusión de contenido sensible y solicitar su retirada constituye una iniciativa valiente, responsable y oportuna. También se puede añadir el acierto en su diseño, en el que ha primado un enfoque restrictivo (conductas muy graves, colectivos que merecen especial protección) y proporcionado (medida cautelar de retirada, presencia de derechos dignos de tutela inmediata, ausencia de otros derechos en posible conflicto, como libertad de expresión o de información…). Por otra parte, al quedar la decisión de retirada de las fotos o videos en manos de la AEPD, y no en las de las plataformas digitales o prestadores de servicios de Internet, se evitan, en mi opinión, problemas de intervención automatizada en la supresión de los datos (a la que recurren las plataformas cuando tienen plazos estrictos para actuar fijados por las normas) y de aplicación en la toma de decisión de un sesgo conservador (esto es, de aceptación prácticamente generalizada de los casos presentados y decisión sobre los mismos de la manera que resulte más segura para la empresa, para evitar así multas y sanciones). Finalmente, sin merma de lo anterior y, probablemente, sin que sea justo ponerlo en el debe de la AEPD, hubiera sido deseable y habría reforzado el marco general en que se presentó la iniciativa de creación del canal, algún tipo de intervención, participación o compromiso del Parlamento en la medida. Pero ya se sabe que, por circunstancias bien conocidas, el año en curso no está siendo especialmente productivo para el órgano que representa al pueblo español.

Los compromisos sobre política digital de Ursula von der Leyen ante el Parlamento Europeo

La política alemana Ursula von der Leyen, ministra de Defensa con Angela Merkel, fue elegida presidenta de la Comisión por el Parlamento Europeo la semana pasada. En su discurso ante el pleno, que distó mucho de ser un trámite, pues la candidata hubo de ganarse unos apoyos decisivos con los que de entrada no contaba para acceder al cargo, pero sobre todo en el documento previamente distribuido entre los eurodiputados, titulado “A Europe that strives for more: My agenda for Europe”, la candidata expuso las orientaciones políticas que han de guiar a la próxima Comisión Europea bajo su presidencia. No faltaron, como es lógico, objetivos y compromisos sobre la política digital, agrupados bajo la rúbrica “A Europe fit for the digital age”, que remiten, en última instancia, a la idea de que la Unión Europea debe de adaptarse plenamente a las exigencias y transformaciones de la era digital, para conseguir el bienestar y progreso, en todos los ámbitos, de sus ciudadanos, y la eficiencia y competitividad de sus empresas y administraciones.

 

Sobre las tecnologías digitales, la candidata, tras subrayar su potencial de vertiginosa transformación del mundo y de innovación para encontrar soluciones a desafíos sociales, enfatizó la importancia de la inteligencia artificial, sobre la que se comprometió a proponer, en los primeros 100 días de su mandato, legislación sobre sus implicaciones humanas y éticas y a asegurar que se priorizaran las inversiones en la materia. Otras menciones relevantes en este apartado tecnológico fueron las relativas a la estandarización y a los denominados “hyperscalers”. En cuanto a la primera, destacó la necesidad de replicar éxitos del pasado, como el del GSM, y la aspiración a desarrollarla en 5G, en la nueva generación de tecnologías (blockchain, computación de alto rendimiento, algoritmos..), o en el uso ético de los datos. Con respecto a los segundos, gigantes tecnológicos norteamericanos o chinos, von der Leyen vino a decir que probablemente ya sean, al menos para los europeos, irreplicables e imbatibles en la lucha competitiva, pero que ello no debe llevar a la Unión a renunciar a la “soberanía tecnológica” en algunas áreas críticas o al liderazgo de la nueva generación de “hyperscalers” (que, a lo que se ve, supone que surgirá próximamente)

 

La candidata también se comprometió a promover una nueva “Digital Services Act”, para mejorar la seguridad de uso de este tipo de servicios y aumentar el régimen de responsabilidad al que han de estar sujetos sus proveedores (esto es, las grandes plataformas digitales), a que la propia Comisión se una a la transformación digital del sector público y alcance su completa digitalización en el periodo 2019/2024 , y a incrementar la inversión y actualizar el plan de acción sobre educación digital de los ciudadanos europeos, que considera crucial para la competitividad y la innovación en Europa.

 

Finalmente, en cuanto a la controvertida y recurrente cuestión del impuesto sobre servicios digitales, von der Leyen señaló que la fiscalidad de las grandes compañías tecnológicas será, así mismo, una prioridad para su Comisión y que si para finales de 2020 las actuales discusiones que están teniendo lugar en el plano internacional no llegan a buen puerto y no hay, para entonces, una solución justa para el impuesto digital, la Unión Europea actuará individualmente.

 

Si los objetivos de política digital, y los compromisos que se puedan formular sobre los mismos, como ha hecho la candidata ante el Parlamento Europeo, formasen parte de una una bolsa de valores, habría entre ellos uno claramente al alza, otro básicamente estable y un tercero cotizando a la baja, desde el momento en que ni siquiera ha sido mencionado.

 

El primero, sin ninguna duda, sería la inteligencia artificial, sobre el que von der Leyen ha expresado una decidida voluntad de afrontar su regulación, por más que sea ésta una materia difícil, discutida y sensible, no se cuente entre las recomendaciones del grupo de expertos de alto nivel formado por la propia Comisión el año pasado y deba vencer la tradicional reticencia a la intervención normativa en sectores incipientes y punteros como probable freno a la innovación. La presidenta electa pide hacerlo desde lo que llama “una perspectiva europea”, esto es, sobre la base de primar los aspectos éticos y de confianza en la inteligencia artificial, ya se trate de sistemas de software (reconocimientos de voz, faciales, asistentes virtuales…) o de máquinas (robots, coches autónomos, drones…) y el ejemplo del Reglamento General de Protección de Datos, que considera un modelo a seguir para el mundo en materia de privacidad. Sabido es que la Unión Europea marcha por detrás, en la carrera de la inteligencia artificial, de Estados Unidos y China, de manera que cabe ver en el énfasis puesto en su dimensión ética y normativa un intento bienintencionado y razonable de constituir un factor diferenciador y competitivo en esa pugna (o, al menos, eso parece que espera von der Leyen).

 

En segundo lugar, como elemento de continuidad con el legado de la Comisión Juncker, la presidenta electa se propone mantener el foco ya puesto sobre la regulación de las plataformas tecnológicas, ya sea a través del Derecho de la competencia, la privacidad, los contenidos y la responsabilidad por su edición y difusión, la propiedad intelectual o, significativamente, mediante la fiscalidad, como expresa tanto el anuncio de una nueva norma sobre servicios digitales, como el compromiso de llenar, a fecha fija, el potencial vacío impositivo que pudiera existir sobre tales servicios.

 

Sin embargo, y por último, llama la atención que von der Leyen no se haya referido en su documento de prioridades,  más allá de la necesaria estandarización de las redes 5G, a la conectividad, a las redes de comunicaciones electrónicas, que son la infraestructura esencial de la sociedad digital, y el presupuesto de todos los avances, realizaciones y transformaciones que se puedan conseguir, a partir de los usos y aplicaciones de las tecnologías digitales. Si bien es cierto que, como demuestra el International Digital Economy & Society Index (2018), la media de los países de la Unión Europea está por encima, en despliegue y calidad de infraestructura de banda ancha, de la del resto de países no europeos considerados en el estudio, también lo es que hay seis de entre ellos que superan con holgura esa media (Estados Unidos, Japón o Corea del Sur, por ejemplo), que países que son potencias económicas en la Unión Europea tienen retrasos bastante significativos en despliegues de fibra óptica hasta el hogar, o que Europa no está liderando el despliegue y la adopción de la tecnología 5G en el mundo. La conectividad, pues, es un objetivo que no está definitivamente conseguido y afianzado entre nosotros y que, en consecuencia, convendría no relegar en el orden de las prioridades europeas en política digital.

 

 

Un problema común y cuatro respuestas diferentes: los parlamentos nacionales frente a la desinformación online

 

A la hora de examinar las distintas respuestas que los estados europeos están intentando articular frente al fenómeno complejo y global de la desinformación online, resuenan las venerables palabras de Stuart Mill, cuando afirmaba que “todo lo que da valor a nuestra existencia depende de las restricciones impuestas a las acciones de nuestros semejantes” y concluía precisamente “que el problema principal que se plantea en los asuntos humanos es saber cuáles han de ser las reglas que gobiernen aquéllas” (1). Porque si bien hay casi unanimidad en considerar que la información falsa, inexacta o engañosa, diseñada, presentada y difundida a través de Internet con la intención de causar un daño social o de obtener un beneficio económico es un problema real para la democracia (2), las divergencias aparecen enseguida, en cuanto se trata de decidir quién ha de actuar, haciendo qué y cómo, para combatir sus efectos nocivos. Si nos fijamos en lo que ha pasado en Alemania, Francia, Reino Unido y España en los últimos dos años, veremos hasta qué punto es cierto todo lo anterior.

 

Una ley dirigida a las redes sociales en Alemania

 

En Alemania hay una ley para la aplicación del Derecho en la red (NetzDG), aprobada por amplia mayoría del Bundestag y en vigor desde el 1 de octubre de 2017, que en palabras de su principal promotor, el ministro de Justicia Heiko Maas, supone “el fin de la ley de la jungla en Internet” (3).

 

La ley va dirigida a proveedores de servicios que operan plataformas de Internet, diseñadas para compartir contenidos y ponerlos a disposición del público, con 2 millones o más de usuarios. Esto es, sus destinatarios son grandes redes sociales, como Facebook, Twitter o YouTube, y no empresas o plataformas que ofrezcan contenido periodístico o editorial, comunicación individual o difusión de contenido específico, como LinkedIn. Y tiene como objeto la retirada de la red social, o su bloqueo, de cualquier contenido ilegal, entendido como aquél que supone la comisión de alguna de una serie de ofensas tipificadas en el Código Penal, relativas a la seguridad del Estado, el orden público, el honor y la intimidad, la libertad sexual, la incitación al odio o la difusión de símbolos de grupos inconstitucionales, por ejemplo, cuando se presente una queja contra el mismo. Todo queda pues, al menos en principio, en manos de la red social.

 

En efecto, la red social, obligada por la ley a mantener un procedimiento efectivo y transparente para gestionar las quejas que reciba, habrá de decidir caso por caso. Si concluye que el contenido es ilegal, entonces habrá de retirarlo o bloquearlo en 24 horas desde que recibió la queja, siempre que la ilegalidad sea manifiesta, o en 7 días, si no lo fuera, aunque tal plazo podrá excederse cuando la decisión dependa de circunstancias de hecho que deban ser comprobadas o si la red social refiere la refiere a una institución de autorregulación. Si concluye lo contrario, desestima la queja y, en consecuencia, mantiene el contenido. En este último supuesto, si la Oficina Federal de Justicia estuviese disconforme con la decisión de la red social, tendrá que dirigirse a un juzgado para conseguir una resolución que declare la ilegalidad del contenido denunciado, si la hubiera, antes de proceder a su retirada o bloqueo.

 

Una segunda obligación que la ley impone a la red social, siempre que reciba más de 100 quejas por año natural sobre contenido ilegal, es publicar, tanto en el diario oficial como en su propia web, un informe semestral sobre la manera en que gestiona las mismas, incluyendo referencias a los esfuerzos que adopta para reducir la actividad ilegal de sus usuarios, los mecanismos establecidos para la presentación de quejas o los criterios con los que decide sobre la retirada o el bloqueo del contenido denunciado, entre otros. (4)

 

En fin, incumplir las obligaciones de la ley acarrea la imposición de multas regulatorias, de cuantía que puede oscilar entre un máximo de 50 millones y un mínimo de 500.000 euros.

 

Una ley contra la manipulación de la información, en períodos electorales, bloqueada en Francia

 

En Francia no hay todavía una ley sobre la materia, frustrándose de esta manera, al menos temporalmente, uno de los proyectos estrella del presidente  Emmanuel Macron para la legislatura (5). Y ello pese a que la Asamblea Nacional, tras constatar “la existencia de campañas masivas de difusión de informaciones falsas destinadas a modificar el curso normal del proceso electoral usando para ello los servicios de comunicación online”, y la insuficiencia de las leyes existentes para permitir la rápida retirada de los contenidos falsos, aprobó el pasado 3 de julio, tras una serie de importantes modificaciones introducidas durante la tramitación parlamentaria, entre ellas las relativas a la educación, una proposición de ley (en realidad dos, la segunda de ellas orgánica, por afectar a la elección presidencial) que incorporaba las siguientes medidas:

 

Primera, la introducción de una nueva acción procesal, consistente en un recurso urgente y simplificado ante un juez civil, ejercitable en un plazo de 3 meses, a contar hacia atrás desde el primer día del mes en que tenga lugar la elección o el referéndum, para que el juez pueda, en un plazo máximo de 48 horas y a petición del ministerio público, partidos políticos, candidatos o de cualquiera que tenga interés en actuar, ordenar a plataformas de Internet proveedores de acceso y distribuidores de contenidos medidas proporcionadas y necesarias dirigidas a poner fin a la difusión de informaciones falsas (“toda alegación o imputación de un hecho inexacto o engañoso”) capaces de alterar la sinceridad del escrutinio futuro y difundidas deliberadamente y de manera artificial o automatizada y masiva por un servicio de comunicación en línea.

 

Segunda, la atribución de nuevos poderes al “Conseil Supérieur de l´Audiovisuel” (CSA), entre ellos el de impedir, suspender o poner fin a las emisiones de servicios de televisión controlados por un Estado extranjero y que atenten contra los intereses fundamentales de la Nación o participen de una empresa de desestabilización de sus instituciones en período electoral, o el de rechazar la petición tendente a la conclusión de un contrato administrativo de concesión del servicio audiovisual o incluso rescindir el mismo, en caso de riesgo grave de atentado contra derechos y valores fundamentales.

 

Y, por último, la imposición de nuevos deberes a plataformas de Internet, proveedores de acceso y distribuidores de contenidos, consistentes en publicar los medios que dedican a la lucha contra las falsas informaciones, o los datos que tienen sobre los anunciantes que hubieran contratado con ellas.

 

No obstante, el Senado francés rechazó, sin demasiadas contemplaciones, todas estas medidas (6). Y puesto que la Comisión mixta paritaria entre ambas Cámaras ha sido incapaz de llegar a un acuerdo de consenso durante el mes de septiembre, el texto aprobado por la Asamblea ha de tramitarse de nuevo, ahora por un procedimiento de urgencia, sin que haya seguridad alguna sobre si el mismo llegará a buen puerto.

 

Un informe provisional sobre desinformación y fake news, aprobado en el Reino Unido

 

En el Reino Unido tampoco hay una ley, ni siquiera la expectativa de que la vaya a haber en un futuro inmediato, sino algo distinto y muy propio de su tradición parlamentaria, como es un informe (“report”) consecuencia de una investigación (“inquiry”) (7). En efecto, el Digital, Culture, Media and Sport Committee de la Cámara Baja publicó el 24 de julio una serie de consideraciones y conclusiones que han de ser leídas, básicamente, como una serie de preocupaciones esenciales en relación al fenómeno de las fake news,difundidas sobre todo a través de las redes sociales, y de acciones urgentes que deben de tomar tanto el Gobierno como las agencias reguladoras independientes. No tiene, pues, carácter vinculante y ni siquiera se trata de una versión final, ya que el propio Comité ha anunciado que publicará un informe definitivo durante el otoño de 2018. Pero sus aportaciones no deben de ser ignoradas, en la medida en que son el resultado de un amplio proceso de información y reflexión, y expresan el sentir de una mayoría muy considerable de parlamentarios de todos los partidos.

 

El informe pide al Gobierno, en primer lugar, que promueva definiciones operativas y consensuadas de los distintos conceptos que cabe distinguir dentro del fenómeno de la desinformación, para lograr claridad, estabilidad y seguridad jurídica. Y también que apoye la investigación sobre los métodos a través de los cuales se crea y expande la desinformación en Internet.

 

En segundo lugar, reclama una actualización del Derecho, a través de principios y normas suficientemente flexibles que sean capaces de afrontar los cambios tecnológicos, que se suceden a gran velocidad. Y una reforma a fondo de la ley electoral, profundamente inadaptada a la era digital.

 

Pero el núcleo del informe lo constituye, en todo caso, la crítica a la regulación, mínima y benévola, y a la práctica, elusiva y egoísta, de las plataformas digitales que operan redes sociales. Para el informe, no es cierto que éstas sean meras compañías tecnológicas y que no tengan ningún papel que jugar en relación al contenido que circula por las mismas, ya que basándose en algoritmos y en intervenciones humanas cambian continuamente lo que sus usuarios ven y dejan de ver. De manera que, sigue el razonamiento, aunque no lleguen a equipararse con las empresas periodísticas que responden del contenido editorial de lo que publican (“publishers”), si deben de tener una clara responsabilidad legal de actuar contra el contenido dañino (“harmful”) e ilegal que circule por ellas. En fin, el informe recomienda igualmente que se obligue a las redes sociales a auditar sus mecanismos de seguridad y sus algoritmos, a actuar contra las cuentas falsas, que degradan la experiencia y defraudan a los anunciantes y a informar a sus usuarios de sus derechos de privacidad.

 

En este informe algunos han visto una wake-up call, una sacudida a la conciencia de la sociedad y de  sus representantes políticos, que ahora se ven impelidos a actuar sin demora (8), mientras que otros, más cínicos, pesimistas o desesperanzados, creen que se trata, simplemente, de una muestra más de impotencia de los poderes públicos y de su falta de medios para actuar frente los gigantes tecnológicos, en una batalla que, a diferencia de lo que ocurre al otro lado del Atlántico, en el Reino Unido se está perdiendo (9).

 

Una propuesta al Gobierno para garantizar la veracidad de las informaciones, derrotada en España

 

De los cuatro países aquí examinados, España es el que presenta una trayectoria de actuación más escueta y menos lucida. Únicamente cabe citar, como hito de alguna relevancia, la Proposición no de ley presentada a principios de 2018 por el Grupo Popular en el Congreso, cuando aún Mariano Rajoy presidía el Gobierno de la nación.

 

La iniciativa, de texto confuso, reiterativo y técnicamente deficiente, proponía, en su parte principal y más polémica,  que el Congreso instase al Gobierno “a impulsar la elaboración de métodos para determinar la veracidad de las informaciones que circulan por servicios conectados a Internet y que tienen como destino al ciudadano, traduciendo esos métodos en medidas de acción que garanticen la detección de esas informaciones en base a un buen método para identificarlas y su “sellado” o descalificación como potencial noticia falsa ante el ciudadano”. Y añadía que, al tratarse de amenazas “que pueden afectar a la seguridad y bienestar sociales, estos métodos y medidas de acción deberían de ser desarrollados por instituciones públicas especializadas en colaboración con proveedores de servicios de Internet, proveedores de infraestructuras de Internet, medios de prensa, usuarios y asociaciones”.

 

Pues bien, el Pleno del Congreso rechazó la totalidad de la misma el 13 de marzo, en un debate en el que junto a intervenciones templadas que reclamaban “un conocimiento más profundo sobre lo que estamos hablando” o “ un gran acuerdo, un pacto de Estado (…) para garantizar en Internet la libertad y los derechos, pero también la seguridad” hubo otras mucho menos matizadas y extremas, que hablaron de “campo minado que va directamente contra los derechos fundamentales”, “teoría de la conspiración y del alarmismo para generar un estado de cosas favorable al control social” o “cuña en el control de la red y (…) sempiterna, atávica e inquisitorial voluntad de censura” (10). Por lo demás, no hay ahora mismo en el horizonte otra cosa que la posible constitución de un grupo de trabajo sobre campañas de desinformación en el seno de la Comisión de Defensa.

 

Conclusiones

 

Las diferencias que pone de manifiesto este breve repaso son más que notables en cuanto a enfoque, área primordial de interés, procesos y contenidos. Esto no debería de extrañarnos, porque al fin y al cabo estamos hablando de Europa, región de diversidad y pluralismo, y de cuatro de sus estados principales. También porque aquí importa, y mucho, la estructura constitucional y legal de cada país, su propia cultura, la coyuntura política concreta y el nivel de conciencia social que exista sobre el problema. Todo ello sirve para explicar y entender la presente situación de divergencia. Pero es preferible fijarse en lo positivo, que se sintetiza en el consenso formado, al menos, alrededor de tres puntos: que la desinformación online es un asunto serio, sobre el que hay que actuar en un marco de respeto a los derechos humanos, que las plataformas digitales han de ser más responsables, transparentes y cooperativas con los poderes públicos, y que tiene que haber una mayor educación ciudadana en redes sociales y medios digitales. Y hay un cuarto, en el que quizás el acuerdo no es tan obvio o tan amplio, pero muy relevante y que, en mi opinión, va a reforzarse en el futuro, que se refiere a la necesidad de intervenciones de los estados, a través del poder legislativo, como vía para completar el planteamiento comunitario (implicación de todas las partes interesadas y preferencia por las medidas “blandas” – de auto regulación y formativas -) en la lucha contra la desinformación online. El tiempo dirá si es así, y si lo es en qué tipo de leyes se concreta.

 

 

 

 

 

 

 

Notas

 

  1. John Stuart Mill, “Sobre la libertad”, (Aguilar, 1971)

 

  1. “A large majority of respondents think that the existence of fake news is a problem in their country (85%) and for democracy in general (83%)”. Flash Eurobarometer, Fake News and Disinformation Online, Abril 2018

 

  1. Linda Kinstler, “Can Germany fix Facebook”, theatlantic.com, 2 Noviembre 2017

 

  1. “Every six months the platforms are required to report their findings. Here are the headlines numbers:

 

  • Twitter received 264,000 complaints and blocked or removed 11 percent of the reported content.
  • YouTube received 215,000 complaints and removed or blocked 27 percent of the reported content, most of which was hate speech or political extremism.
  • Facebook received 1,704 complaints and removed or blocked 21 percent.
  • YouTube removed nearly 93 percent of the content that needed to be blocked within 24 hours of receiving the complaint.
  • In 637 cases Twitter took longer tan 24 hours to remove content.
  • Most of Facebook´s content deletion took place within 24 hours and 24 took more tan a week.”

Lucinda Southern, “Before, it was a black box: Platforms report how they delete ilegal content in Germany”,

         www.digiday.com, 2 Agosto 2018

 

  1. Benjamin Hue, “Loi contre les fake news: ce qui contient le texte du gouvernement”, rtl.fr, 13 Febrero 2018

 

  1. la proposition de loi et la proposition de loi organique n´apportent que des réponses au mieux inefficaces, au pire dangereuses, en tout état de cause sans espoir de lever les incertitudessenat.fr, 26 Julio 2018

 

  1. House of Commons, Digital, Culture, Media and Sport Committee, “Disinformation and “fake news”: Interim Report”, 24 Julio 2018

 

  1. The Guardian view on the fight against fake news: neutrality is not an option, theguardian.com, 29 Julio 2018

 

  1. The fake news inquiry is a tale of British political powelessness”, wired.co.uk, 30 Julio 2018

 

  1. Diario de Sesiones del Congreso de los Diputados, 13 Marzo 2108