Entre números y letras: El uso de la Inteligencia Artificial en la lucha contra las noticias falsas y sus implicancias en la libertad de expresión

Valeria Acosta

Valeria Acosta

Bachiller en Derecho (Universidad del Pacífico). Asociada Junior en Leios, Practicante Profesional en Q Legal Lab, y Analista en Qapu Ventures.

Jacqueline St. Laurent

Jacqueline St. Laurent

Bachiller en Derecho (Universidad del Pacífico). Secretaría Técnica del Tribunal de Ética del Consejo de Prensa Peruana. Columnista en PerúLegal del Diario La República.

I. Introducción

Las noticias son las herramientas más útiles para que todos los ciudadanos puedan mantenerse al día sobre lo que pasa en su país y en todo el mundo. Pero, ¿qué sucede cuando un ciudadano ya no puede distinguir qué es cierto y qué es falso? Estamos hablando de la desinformación que genera el fenómeno de las fake news hoy en día. En 2016 se dio uno de los casos más sonados de fake news, Pizzagate, mostrándonos la gravedad del asunto. El 4 de diciembre de 2015, Edgar Maddison Welch entró a una pizzería en Washington y abrió fuego, todo ello con el fin de investigar una teoría conspirativa falsa sobre el local, en donde se alegaba que el restaurante era el centro de una presunta red de pedofilia vinculada a Hillary Clinton[1].

Las fake news pueden alterar drásticamente las dinámicas sociales de una sociedad. Ello en tanto pueden ocasionar la otrificación -dejar de ver a otra persona como un prójimo sino como un enemigo a quien se debe atacar- y polarización -eliminar matices de la realidad para encasillar a las personas en posturas contrarias-; además, sin información en la cual uno pueda confiar, el ciudadano no puede adoptar decisiones informadas y acertadas, por lo que la confianza se ve disminuida[2]. Asimismo, la propagación de las fake news traen consigo diferentes consecuencias, entre las cuales podemos encontrar[3]: (i) cuestionar constantemente la credibilidad de la información que uno lee; (ii) tomar decisiones equivocadas a causa de noticias falsas; y, (iii) la pérdida de confianza en hallazgos científicos, lo cual hemos podido observar a lo largo de la pandemia.

En los últimos años hemos sido testigos de cómo es que las fake news han ido tomando acogida. Entre las áreas donde hemos podido notar mayor afluencia últimamente se encuentran: (i) salud, por la pandemia, hemos observado cómo es que las fake news se posicionan como un riesgo a la integridad de la persona; y, (ii) elecciones, por ejemplo, las de Estados Unidos de 2016[4], donde encuestas indicaban que los votantes que no estaban seguros de sus votos, podían votar por Trump si es que creían las fake news sobre Hillary Clinton.

En atención al impacto negativo que causan las fake news hoy en día, en el presente artículo abordaremos cómo es que la Inteligencia Artificial (en adelante, “IA”) puede ser una herramienta útil -no una solución absoluta- para combatir la propagación de las fake news, al igual que las implicancias de esta herramienta frente a la libertad de expresión.

II. Fake News 

A. Concepto

Las fake news son las noticias que albergan historias fabricadas en términos de desinformación y engaños, presentadas como parte del periodismo para manipular a los lectores[5]. En ese sentido, el proceso para generar la propagación de las fake news puede describirse de la siguiente manera[6]:

(i) Crear un sitio de noticias falsas: para ello se requiere de un nombre de dominio para el sitio web al igual que un alojamiento para el mismo, simulando las páginas de medios conocidos;

(ii) Robar contenido: si bien se puede generar el propio contenido falso, lo más usual es que estos sitios web roben su contenido, los lugares más comunes son los sitios web de sátira o de “clickbait”;

(iii) Vender publicidad:  los propietarios de sitios web falsos no tienen como único objetivo desinformar a la ciudadanía, sino que también desean lucrar de ello, para ello venden anuncios publicitarios; y,

(iv) Propagación a través de redes sociales: estos sitios de páginas web obtienen sus visitantes por medio de las redes sociales, por ejemplo, en las elecciones presidenciales de 2016, el medio utilizado para la propagación de las fake news fue Facebook. Una estrategia muy empleada ha sido utilizar grupos de Facebook o hashtags en Twitter relacionadas a las fake news que se buscan difundir.

B. ¿Cómo identificamos una noticia falsa?

Tomando en cuenta que las noticias falsas emulan fuentes de noticias auténticas[7], las redes sociales permiten que las afirmaciones falsas se difundan rápidamente; de hecho, con mayor velocidad que las noticias verdaderas. Ello ocurre porque las noticias falsas están diseñadas para llamar la atención y atraer las emociones, razón por la cual a menudo presentan afirmaciones sensacionalistas y extravagantes o historias que provocan ira o miedo, lo cual incentiva a los usuarios a difundirlas aún más, generando que se vuelvan cada vez más virales y tengan cada vez mayor alcance y difusión.

De acuerdo con Blázquez-Ochado algunas maneras de identificar las fake news son a través de la consideración de los siguientes elementos[8]: (i) la presencia de un fuerte discurso emocional que busca cautivar la atención del lector con la finalidad de abstraerlo de la realidad y distraerlo a través de la provocación de una reacción intensa; (ii) se utiliza un vocabulario y recursos lingüísticos exagerados, como las hipérboles y circunloquios; (iii) los titulares suelen ser cortos pero impactantes; (iv) el texto que desarrolla la noticia es reducido; (v) existe una carencia de fuentes y noticias enlazadas en el artículo; (vi) hay un alto nivel de difusión en redes sociales; (vii) hay una ausencia de autor o fecha de publicación; entre otros.

Por ello, hay una serie de recomendaciones que un usuario promedio debería considerar para determinar si una noticia es falsa o no[9]: (i) revisar la fuente para verificar si es fidedigna, (ii) verificar el autor -de haber uno-, (iii) revisar y contrastar la noticia con otras fuentes, (iv) mantener una mente crítica al momento de leerla, (v) verificar los hechos que se enuncian en el artículo, (vi) revisar los comentarios de la noticia, (vii) cuestionar nuestros propios sesgos, (viii) verificar si es una broma, (ix) verificar si las imágenes son auténticas, y (x) utilizar una página para hacer «fact-checking» como Snopes, Politifact, Fact Check y BBC Reality Check, entre otros. A pesar de que ello podría resultar tedioso, es necesario que el usuario tenga un rol activo en la búsqueda de noticias verdaderas, lo cual no significa que las plataformas digitales no necesariamente deberían tener algún control o monitoreo interno también.

C. Estándares internacionales

Los estándares internacionales buscan resguardar a la libertad de expresión como un todo, por no solo ser un cimiento para la democracia, sino por ser un derecho del cual se desprenden otros. Sin embargo, existe consenso respecto a la posibilidad de establecer limitaciones en situaciones específicas.

El Pacto Internacional de Derechos Civiles y Políticos recoge en su artículo 19, inciso 2 a la libertad de expresión, indicando que abarca “la libertad de buscar, recibir y difundir informaciones e ideas de toda índole”. Sin embargo, en el inciso 3 del mismo, se indica que la libertad de expresión “entraña deberes y responsabilidades especiales”, y por ello, “puede estar sujeto a ciertas restricciones, que deberán (…) estar expresamente fijadas por la ley y ser necesarias para: a) Asegurar el respeto a los derechos o a la reputación de los demás; b) La protección de la seguridad nacional, el orden público o la salud o la moral públicas (1966)”. Es decir, a pesar de ser un artículo reconocido y protegido, no está exento de ser limitado en ciertas circunstancias.

En esa misma línea, el Convenio Europeo de Derechos Humanos ha recogido en su artículo 10 inciso 2 que “el ejercicio de estas libertades (…) podrá ser sometido a ciertas formalidades, condiciones, restricciones o sanciones, previstas por la ley, que constituyan medidas necesarias (…).”

Con ello, queda en evidencia de que es posible limitar la libertad de expresión en situaciones muy limitadas. Dicho esto, tanto la Convención Americana de Derechos Humanos -en su artículo 13, inciso 2- como la Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos[10], han plasmado una serie de criterios que han de tomarse en cuenta para limitar este derecho, a través del denominado “test tripartito”[11] que se encuentra encausado de la siguiente manera:

  • Principio de legalidad: Toda limitación a la libertad de expresión debe haber sido prevista en forma previa, expresa, taxativa y clara en una ley, en el sentido formal y material[12].
  • Principio de legitimidad: Toda limitación debe estar orientada al logro de objetivos imperiosos autorizados por la Convención Americana, que buscan la protección de los derechos de los demás, la protección de la seguridad nacional, del orden público, de la salud pública o de la moral pública.
  • Principio de necesidad y proporcionalidad: La limitación debe ser necesaria en una sociedad democrática para la consecución de los fines imperiosos que se buscan; estrictamente proporcionada a la finalidad perseguida; e idónea para lograr el objetivo imperioso que pretende lograr[13].

Ahora, una serie de entidades[14] desarrollaron la Declaración Conjunta Sobre Libertad De Expresión Y «Noticias Falsas» («Fake News«), Desinformación Y Propaganda para esbozar como los criterios antes señalados deberían ser aplicados en el caso de noticias falsas. En el primer principio general establecido, se indicó que “los Estados únicamente podrán establecer restricciones al derecho de libertad de expresión de conformidad con el test previsto en el derecho internacional para tales restricciones (…)”.

En línea con ello, se señaló que “las prohibiciones generales de difusión de información basadas en conceptos imprecisos y ambiguos, incluidos «noticias falsas» («fake news«) (…) son incompatibles con los estándares internacionales sobre restricciones a la libertad de expresión (…)”. Ello, debido a que una prohibición absoluta sobre la difusión de noticias falsas podría indirectamente censurar a los periodistas -quienes ostentan un rol primordial en la difusión de noticias (verdaderas)- e incluso generar un chilling effect, desincentivando la difusión de noticias por miedo a ser penalizados. Ello podría repercutir negativamente en el flujo de información verdadera, la cual es necesaria e indispensable en toda sociedad democrática para la toma de decisiones.

Cabe mencionar que el 1 de abril de 2022 se aprobó una resolución sobre “El papel de los Estados en la lucha contra los efectos negativos de la desinformación en el disfrute y la efectividad de los derechos humanos” en el Consejo de Derechos Humanos de las Naciones Unidas, que rechaza aquellas medidas que se basan en la censura[15]. Por el contrario,  reafirma el “papel esencial” que juegan el derecho a la libertad de expresión y la libertad de buscar, recibir y difundir información para contrarrestar la desinformación y que en aquellos casos en donde se busque limitar la expresión, se deben cumplir con los estándares del derecho internacional de los derechos humanos, en donde resulta indispensable emplear los principios de legalidad y necesidad (que se encuentran también en el test tripartito previamente señalado).

Incluso, en esta resolución se hace mención a que para contrarrestar la desinformación resulta necesario emplear:

(…) respuestas multidimensionales y colectivas que se ajusten al derecho internacional de los derechos humanos, así como la participación proactiva de las organizaciones internacionales, los Estados, la sociedad civil, los defensores de los derechos humanos, los círculos académicos, los reguladores independientes y el sector privado, incluidos los medios de comunicación, las plataformas en línea, los medios sociales y las empresas tecnológicas, y que los Estados están en una posición única para promover y facilitar la cooperación entre las partes interesadas.” [El resaltado es nuestro].

Con ello claro, a lo largo de este artículo abordaremos la problemática de la difusión de noticias falsas y el rol de la Inteligencia Artificial tomando en cuenta las protecciones necesarias que deben respetarse.

D. ¿Qué han hecho los países?

Con el fin de luchar contra la desinformación, los Estados han optado por adoptar diferentes medidas, que se pueden subdividir de la siguiente manera: (i) equipo de tareas del gobierno y campaña de alfabetización mediática, (ii) regulación de los medios, (iii) encarcelamiento y (iv) censura. La mayoría de medidas adoptadas resultan ser extremadamente limitantes y perjudiciales a la libertad de expresión, pues inhibe el libre flujo de información. Ello puede generar un chilling effect y que los periodistas, principales difusores de noticias, tengan miedo de compartir información por miedo a ser perseguidos penalmente. Por ello, abordaremos a continuación algunas de las políticas adoptadas.

Entre las medidas que vale la pena replicar y aplaudir, se encuentra la campaña de alfabetización desarrollada en Australia, que ha buscado identificar posibles ataques cibernéticos y campañas de influencia extranjera dirigidas a las elecciones australianas antes de las elecciones del 2018[16]. En febrero de 2019, una investigación de la ABC reveló que la Comisión Electoral Australiana (“AEC”, por sus siglas en inglés) notificó a Twitter y Facebook que tendrían que cumplir con las notificaciones de anuncios ilegales en su plataforma[17]. La AEC amenazó a “los gigantes de las redes sociales” con órdenes judiciales si no cumplían[18].

Por otro lado, a inicios del 2021 se trabajó un Código de Prácticas sobre Desinformación (Code of Practice on Disinformation and Misinformation), aproximadamente 12 meses después de que el gobierno australiano solicitara a las plataformas digitales que desarrollaran un código voluntario para abordar la desinformación y ayudar a los usuarios de sus servicios a identificar la confiabilidad y la fuente del contenido de las noticias. Hasta el momento, los signatarios voluntarios del Código incluyen a Twitter, Google, Facebook, Microsoft, Redbubble, TikTok, Adobe y Apple[19].

Por otro lado, en el 2017, Dinamarca formó un grupo de trabajo que estaría encargado de monitorear la circulación de noticias falsas en el país. Este grupo es responsable de desarrollar respuestas a campañas de desinformación generalizadas y ataques de desinformación extranjeros. También se creó un grupo de trabajo dentro del Ministerio de Relaciones Exteriores para descubrir nuevas piezas de información errónea en línea. Las autoridades danesas reforzaron sus esfuerzos para adelantarse a los problemas de desinformación reutilizando material de alfabetización mediática procedente de Suecia. Incluso, el gobierno ha distribuido folletos con consejos sobre cómo evitar caer en la desinformación[20].

El gobierno británico también ha establecido la Unidad de Comunicaciones de Seguridad Nacional, que tiene la tarea de combatir la desinformación por parte de actores estatales y otros. Esa decisión se produjo en medio de una investigación sobre el uso reportado por Rusia de cuentas de redes sociales falsas para difundir información errónea sobre el referéndum del Brexit en el verano de 2016[21]. Asimismo, en el año 2018, el Cabinet Office –Ministerio dedicado a crear políticas sobre innovación en los servicios del Estado– creó el Rapid Response Unit, un programa destinado a combatir la propagación de noticias falsas en tiempos de crisis[22].

De igual manera, en enero de 2019, el gobierno canadiense anunció un esfuerzo múltiple para combatir la información errónea antes de las elecciones. Decidieron crear un “Protocolo público de incidentes electorales críticos” que monitorearía y notificaría a otras agencias y al público sobre los intentos de desinformación. La medida venía en conjunto con el Bill C-76 -ahora ley-, que buscaba obligar a las empresas de tecnología a ser más transparentes sobre sus políticas de publicidad y anti-desinformación. Asimismo, Canadá anunció que estaba donando $7 millones a proyectos destinados a aumentar la conciencia pública sobre la desinformación en línea[23]

III. Inteligencia Artificial

A. Concepto

La Inteligencia Artificial no es un fenómeno reciente, incluso hay quienes dicen que forma parte de la historia de la inteligencia humana; por ejemplo, los matemáticos como Charles Babbage y Charles Thomas se propusieron diseñar máquinas que pudieran hacer por ellos el trabajo mental[24].

Es así como la IA es difícil de definir, sin embargo, se puede indicar que esta tecnología busca recrear aspectos de la inteligencia humana en una forma computarizada, lo incluye en diversas categorías como habilidades de visión, reconocimiento del habla, su reproducción, análisis de data, publicidad, navegación, entre otros[25].

También, se dice que la IA es aquella tecnología descrita como la ciencia e ingeniería de crear máquinas inteligentes, relacionándose con la tarea de usar ordenadores para comprender la inteligencia humana, por lo que la IA no tiene que restringirse únicamente a métodos biológicamente observables[26].

La IA cuenta con dos tipos de enfoques principales[27], el top-down approach (symbolic) que busca replicar la inteligencia humana mediante el análisis cognitivo independiente de la estructura biológica del cerebro, en términos de procesamiento de símbolos; y, el bottom-up approach (connectionist) que involucra la creación de redes neurológicas artificiales que imitan la estructura del cerebro. A manera de ejemplo, en el caso de un escáner que reconoce letras del alfabeto, el bottom up approach lo que hará es entrenar la red neuronal artificial mediante la presentación de letras uno por uno para mejorar el rendimiento de la red, en cambio el top-down approach involucra un programa que compara cada letra con sus descripciones geométricas.

A su vez, dentro de las clasificaciones de los tipos de IA encontramos la débil y la fuerte[28]. La IA débil es una entrenada y enfocada a realizar tareas específicas como Siri o Alexa. En el caso de la IA fuerte, está formada por la Inteligencia General (forma teórica de IA en la que la máquina tendría una inteligencia igual que la de los humanos, con una conciencia autoconsciente con la capacidad de resolver problemas) y la Superinteligencia Artificial (superaría la capacidad y la inteligencia del cerebro humano). Al día de hoy la IA fuerte es más un concepto teórico, sin encontrarse grandes desarrollos prácticos.

B. Machine Learning, Deep Learning y Big data

Cuando hablamos de Machine Learning (ML) no estamos hablando de la creación de un software, pues, la máquina aprende a partir del ejemplo en lugar de ser programada para hacer una actividad en concreto; así, el ML se aleja de la mera codificación que es entendida como el proceso minucioso de transferir el conocimiento del cerebro de los desarrolladores a una forma que las máquinas puedan entender[29].

Existen diferentes tipos de algoritmos de ML, entre ellos podemos mencionar los siguientes [30]:

(i) Aprendizaje supervisado: el algoritmo consiste en una variable objetivo o resultado que debe predecir a partir de un conjunto determinado de predictores, de esta manera se genera una función que relaciona las entradas con las salidas deseadas. Ejemplos del aprendizaje supervisado son las regresiones, árboles de decisión, entre otros.

(ii) Aprendizaje no supervisado: a diferencia del supervisado no existe variable objetivo o resultado para estimar, se utiliza para agrupar a la población en diferentes grupos, como para la segmentación de clientes para una intervención específica.

(iii) Aprendizaje reforzado: se entrena a la máquina para tomar decisiones, exponiéndose a un entorno en el que se entrena continuamente (try and error), es así como la máquina aprende de la experiencia pasada y trata de captar el mejor conocimiento para tomar decisiones.

El Deep Learning (DL) es es una técnica de aprendizaje automático que implementa varias capas de procesamiento no lineal para la extracción y transformación de funciones supervisadas y no supervisadas, analizando y clasificando patrones, es así como utilizan nuevas arquitecturas de redes neuronales con mayor capacidad que los modelos planos [31].

Entre los principales usos que tiene el DL hoy en día se encuentran: (i) monitorear en tiempo real reacciones en canales online durante el lanzamiento de productos; (ii) identificación de potenciales clientes; (iii) detección de fraudes; (iv) analizar la posibilidad de reutilización de fármacos ya conocidos y probados para su uso contra nuevas enfermedades; y, (v) reconocimiento facial e identificación de emociones[32].

Por otro lado, la Big Data (BD) no se debe considerar únicamente en un sentido literal como una gran cantidad de datos, sino que la BD va más allá de ese concepto, la BD considera tanto volumen como variedad de datos y velocidad de acceso y procesamiento, pasando de la transacción a la interacción para aprovechar la información que se genera constantemente[33].

La BD ha sido denominado en los últimos años como el nuevo petróleo, por lo que puede llegar a hacer en el ahorro de costos y tiempo, al igual que su impacto en la toma de decisiones, esto se ve reafirmado en lo siguiente[34]: (i) la BD cuenta con las tres V, pues cuenta con el volumen de datos, variedad de los datos y la velocidad relacionada a requerimientos de procesamiento de algoritmos complejos; y, (ii) genera impactos positivos tanto en el ámbito privado, pues permite la toma de decisiones de manera precisa en base al análisis de datos, y en el sector público para el diseño de políticas públicas.

C. Retos de implementación

Entre los principales retos de implementación de la IA encontramos 2 centrales[35]:

(i) En ciertos métodos de la IA, los algoritmos han avanzado tanto que es difícil comprender cómo se produce una determinada predicción o resultado, ello considerando que hay bastante dependencia de los datos y los algoritmos, dando pie a  los errores sistemáticos en los mismos (como sesgos ocultos o falta de representatividad). Es por ello que, para poder confiar en los resultados que emite la IA aún cuando no se pueda comprender al 100% cómo es que llegó a dicha conclusión, es necesario que el diseño de los algoritmos elimine cualquier tipo de sesgo ya sea cuantitativo, cualitativo o del programador, al igual que asegurarse que la data utilizada sea de calidad.

(ii) Asimismo, existen obstáculos sociales o culturales -que se tocará a mayor profundidad en su respectivo acápite-, lo cual puede suceder si se discrimina indebida o sistemáticamente a grupos de personas sobre la base de decisiones de la IA, lo cual puede suceder si es que el algoritmo hereda los prejuicios del programador. En ese sentido, para mitigar este riesgo se debe asegurar que los parámetros de los algoritmos sean los más objetivos posibles, al igual que una evaluación entre pares, e incluso implementar herramientas de trazabilidad.

En esa misma línea, el Relator especial de la ONU, David Kaye, advirtió que “debido a que la moderación y curación de contenido al que pueden acceder usuarios de buscadores y redes sociales depende de procesos automatizados que no informan qué criterios utilizan y en cambio se presentan como una realidad objetiva, esto podría vulnerar los derechos de los usuarios[36].” Por ello, hace presente que es necesario que se implementen[37]:

“dos principios fundamentales [que] están entretejidos a lo largo de los estándares y procesos ofrecidos:

(i) la necesidad de proteger y respetar la agencia individual y la autonomía, una condición previa clave para el ejercicio del derecho a la libertad de opinión y expresión; y,

(ii) la importancia de una divulgación significativa por parte de los actores públicos y del sector, definida por esfuerzos abiertos e innovadores para explicar las tecnologías de IA al público y facilitar su escrutinio”. [El resaltado es nuestro].

Es decir, no solo bastará con programar sobre la base de criterios objetivos, sino también informar a los cibernautas sobre los criterios empleados para autónomamente poder juzgar el contenido que están viendo. En palabras del relator, los términos y pautas de cara al público deben complementarse con compromisos de políticas internas para incorporar las consideraciones de derechos humanos en todas las operaciones de una empresa, especialmente en relación con el desarrollo y la implementación de sistemas algorítmicos y de inteligencia artificial, por lo que la transparencia con la cual se realiza termina siendo un elemento de suma relevancia en la garantía de la protección de los derechos que serían más susceptibles de ser vulnerados.

D. Limitaciones en el uso de IA

Una de las principales limitaciones con las que cuenta la IA es que al emplearse herramientas de búsqueda empleadas en IA -por ejemplo para la detección de noticias falsas-, es difícil conseguir una versión real del problema y elegir la solución adecuada, lo que complica poder realizar un análisis de sensibilidad[38]. De igual manera, uno de los inconvenientes que existe con la IA y las soluciones basadas en las mismas es la complejidad en la decisión de elección de valores a utilizar para una solución, pues se debe optar por un proceso complicado de prueba y error para seleccionar los valores óptimos[39].

En ese sentido, existen varias limitaciones para la aplicación de técnicas automatizadas para detectar y contrarrestar la desinformación a través de la IA. La primera es el riesgo de bloquear demasiado el contenido legal y exacto, conocido como la “inclusión excesiva” de la IA. La tecnología se encuentra en constante desarrollo y los modelos de IA son propensos a falsos negativos o positivos; es decir, a identificar el contenido y las cuentas de un bot como falsos cuando no necesariamente lo son. De producirse un falso positivo, ello puede llevar a la censura de contenido legítimo y confiable etiquetado incorrectamente como desinformación[40]

Por ello, el Comité de Inteligencia Artificial del Parlamento del Reino Unido informó sobre algunas de estas cuestiones en 2017. Existió una enorme cantidad de falsos positivos al retirar material, producto de que resulta muy difícil para la IA distinguir; por ejemplo, entre una imagen de pollo frito y un Labrapoodle, simplemente debido al número limitado de intentos de los algoritmos para hacer coincidir estas imágenes[41].

Debido a que la IA no puede -ni debe- ser la única manera en la que se regula el contenido en el internet, es necesario contar con mechanical turks, quienes son personas empleadas con el propósito de revisar constantemente la información que es difundida. Sin embargo, con su intervención pueden producirse sesgos -lo cual será tocado a profundidad en su respectivo acápite- lo cual puede resultar más perjudicial que beneficioso. Incluso, además de ello, también existe una percepción errónea de que exista una necesidad de eliminar más contenido, en lugar de abordar el debido proceso[42].

IV. Impacto en libertad de expresión

A. ¿Censura?

El control de la difusión de noticias falsas podría desencadenar en censura, y con ello, una amenaza directa para la libertad de expresión. De existir intervención humana en la creación de algoritmos que detectan las noticias falsas, ¿quién y qué determina la definición de noticias falsas? y ¿cómo nos aseguramos de que los filtros de IA no nos arrastren a la trampa de los falsos positivos y etiqueten incorrectamente la información como falsa debido a sus datos asociados?[43]

Por ello, el uso de la IA para identificar noticias falsas podría tener implicancias de mala fe detrás, como lo sería de usarse por gobiernos autoritarios, que podrían utilizar a la IA como excusa para justificar la eliminación de cualquier artículo o para enjuiciar a personas que no estén a favor de las autoridades. Por lo tanto, cualquier implementación de IA, y cualquier ley o medida relevante que surja de su aplicación, requerirá un sistema transparente con un tercero para monitorearlo[44].

B. Problemas éticos

A pesar de sus numerosos beneficios, los sistemas impulsados por la IA plantean una serie de cuestiones éticas y nuevos riesgos para los derechos humanos y los procesos políticos democráticos. Las principales preocupaciones planteadas por la comunidad de expertos incluyen: (i) la falta de equidad algorítmica (que conduce a prácticas discriminatorias como prejuicios raciales y de género), (ii) la personalización del contenido que da como resultado una ceguera parcial de la información («burbuja de filtro»), (iii) la infracción de la privacidad del usuario, (iv) la posible manipulación del usuario o video y (v) la manipulación de audio sin el consentimiento de la persona[45].

Usar e implementar a la IA implica utilizar e implementar software y sistemas informáticos, que utilizan modelos estadísticos mediante el análisis de ciertas cantidades de datos[46]. El uso de modelos estadísticos, sin embargo, puede producir decisiones y resultados erróneos, ya sea porque los datos analizados para un caso determinado no refleja con precisión las circunstancias individuales del escenario en particular, porque los datos son sesgados o incorrectos, o porque el modelo estadístico es incompleto o incorrecto. Desde un punto de vista legal, los procesos de toma de decisiones que se basan en modelos estadísticos implican una discriminación automática con respecto a estos casos que difieren del modelo de rol estadístico.

Ahora, una metodología que puede ayudar a contrarrestar los dilemas éticos que podrían producirse al emplear IA en la detección de noticias falsas es a través de una programación de principios éticos en los sistemas de inteligencia artificial a través de la casuística, apoyándose en estructuras de toma de decisiones específicamente programadas[47]. Sin embargo, al día de hoy sigue siendo un desafío para los diseñadores de sistemas de IA abordar cómo llevar esto acabo y decidir qué filosofía de diseño elegir para los marcos de toma de decisiones algorítmicas. Como posible enfoque para resolver el problema de la aplicación de la ética en situaciones específicas, se sugiere que los requisitos éticos para los sistemas informáticos se desarrollen en colaboración y de manera transparente. Para ello, es de suma importancia que se lleven a cabo evaluaciones de riesgo-beneficio en profundidad con respecto al uso de IA y sistemas autónomos, sobre todo en esta materia[48].

Ahora, de acuerdo con Francesco Nucci, director de investigación de aplicaciones del Grupo de Ingeniería e investigador principal de Fandango, la inteligencia artificial tiene muchos problemas éticos, pero así cómo puede ayudar a producir noticias falsas, también puede ayudar a luchar contra ellas[49]

C. Sesgos del programador

Hay dos tipos de sesgos en la Inteligencia Artificial[50]:  (i) el sesgo de la IA algorítmica o «sesgo de datos», donde los algoritmos se entrenan utilizando datos sesgados, y (ii) el sesgo social de la IA. En este último, nuestras suposiciones y normas como sociedad nos hacen tener puntos ciegos o ciertas expectativas en nuestro pensamiento. El sesgo social -humano- influye significativamente en el sesgo de la IA algorítmica, lo cual pone en evidencia la intolerancia social o la discriminación institucional[51]. A primera vista, los algoritmos y los datos pueden parecer no sesgados, pero su resultado refuerza los sesgos sociales.

Un ejemplo de ello, fue lo ocurrido en 2015, cuando la ingeniera de software Jacky Alciné se percató de que los algoritmos de reconocimiento de imágenes en Google Photos estaban clasificando a sus amigos afrodescendientes como «gorilas»[52]. Google indicó que se encontraba “consternado” por el error, se disculpó con Alciné y señaló que solucionaría el problema. Sin embargo, Google se limitó únicamente a bloquear sus algoritmos de reconocimiento de imágenes para que no identifiquen a los gorilas, prefiriendo limitar el servicio en lugar de arriesgarse a otra categorización errónea, lo cual evidentemente no termina por solucionar este problema.

La crianza, las experiencias vividas, la educación y la cultura forman a las personas, y producto de ello, ellas internalizan ciertas suposiciones sobre el mundo que las rodea. Lo mismo ocurre con la IA, la cual es construida a partir de algoritmos ideados y ajustados por esas personas. El Dr. Karsten Donnay, está buscando -junto a su equipo- realizar un proyecto que permita que la IA aprenda a reconocer los prejuicios imitando los procesos subconscientes que los seres humanos utilizan para evaluar la veracidad de la información que absorben. Desafortunadamente, los seres humanos tampoco son muy buenos para identificar prejuicios; y toda la idea de determinar el grado de «verdad» en cualquier noticia puede conducir a varios agujeros filosóficos que la ciencia puede estar mal equipada para abordar[53].

Frente a los potenciales sesgos en los sistemas de decisión algorítmica, se podría optar por  la realización de auditorías constantes de los sistemas de inteligencia artificial, pues permitiría aumentar el escrutinio de los datos y los procesos utilizados para generar modelos utilizando los datos. Ejemplo de ello fue la Algorithmic Accountability Act, un proyecto de reglamento propuesto en el 2019 y en múltiples ocasiones posteriores, sin ningún éxito[54]. Este requeriría que las empresas auditen sus sistemas de Inteligencia Artificial para detectar sesgos y discriminación, emitan evaluaciones de impacto e implementen medidas correctivas[55]. Sin embargo, buscar una transparencia algorítmica cuenta con una fuerte resistencia por parte de las empresas de tecnología y los desarrolladores, quienes argumentan que revelar el código fuente, es decir, el funcionamiento interno del sistema, los obligaría a divulgar información patentada y dañaría su ventaja competitiva en el mercado.

¿Y por qué es tan relevante el sesgo del programador cuando hablamos de la identificación de las famosas fake news, sobre todo el social? Los sesgos se vuelven más peligrosos cuando hablamos de la difusión de información variada que el espectador necesita para tomar una decisión informada, ya sea sobre elecciones, la implementación de una nueva tecnología o cualquier otra. Por ejemplo, en las elecciones contamos con candidatos diversos, en las últimas elecciones en Perú se presentó a la candidatura de Keiko Fujimori; y aunque es de conocimiento público que existen personas “anti fujimoristas”, ¿qué sucede si el programador es antifujimorista e inconscientemente -en el mejor de los casos- datos y noticias relacionadas a su candidatura es considerada como una noticia falsa? se afecta directamente la información que llega al público. Es por ello que es necesario que, cualquier herramienta que utilice la IA tenga una revisión constante de las metodologías que emplea el programador, ello con la finalidad de minimizar el riesgo, ya sea social o algorítmico, más aún cuando se habla de noticias falsas para no caer en la censura. Si bien se tiene que encontrar una balance entre los costos que incurrirán los actores en una auditoría exhaustiva, no por ello se debe optar por ignorar las medidas correctivas que son necesarias.

V. Casos de estudio: Fandango y Ad verif.ai

Hoy en día existen varias soluciones tecnológicas orientadas a combatir el fenómeno de las fake news y los problemas que conlleva. En el presente trabajo nos centraremos en dos casos de estudios: Fandango y  AdVerif.ai.

Fandango[56][57]

Fandango fue creado con la idea de combatir las fake news y evitar las consecuencias que generan. En ese sentido, Fandango tiene como finalidad agregar y verificar diferentes tipologías de datos de noticias, medios de comunicación, datos abiertos, para detectar noticias falsas. Por ello, busca romper las barreras de interoperabilidad de datos proporcionando una plataforma de big data para apoyar a las industrias de los medios de comunicación tradicionales. Asimismo, la visión que cuenta Fandango es la de integrar y analizar el big data para la identificación de noticias falsas, con el objeto de ayudar a periodistas y al público en general, aumentando la credibilidad de la información y evitando la manipulación a través de noticias falsas. Este propósito buscó ser validado en tres ámbitos: el clima, la inmigración y el contexto europeo, que son escenarios típicos en Europa donde se propagaban las fake news influyendo en la percepción del público.

Asimismo, Fandango busca construir y proporcionar una pila de software abierto que incluya una variedad de herramientas para la comprobación y verificación de noticias falsas, incluyendo textos, imágenes, videos, datos estructurados y no estructurados. Es así como, la plataforma se construye en torno a una arquitectura de data lake bien definida que incorpora todos los tipos de datos disponibles que se encuentran en las fuentes de datos ya identificadas.

Los servicios de Fandango cuentan con, entre otros, lo siguiente:

(i) El módulo de puntuaciones y perfiles de credibilidad de las fuentes se realiza en base al historial y la calidad de los contenidos de cada fuente.

(ii) El módulo de análisis de gráficos sociales utiliza algoritmos para analizar los datos de los gráficos sociales para la detección de la difusión de fake news.

(iii) El módulo de análisis espacio-temporal permite identificar la validez de la noticia publicada en el contexto de la coherencia espacial y temporal.

(iv) La puntuación aprendida por la máquina para la toma de decisiones sobre fake news es el módulo que fusiona la ponderación de todos los indicios recogidos.

AdVerif.ai[58]

La solución que propone esta plataforma busca proporcionar, al equipo editorial ya sea de una empresa de publicidad, entre otros, capacidades de IA e informes automáticos para la verificación de contenido.

Asimismo, AdVerif.ai cuenta también con FakeRank para la detección de fake news, la cual se basa en hechos y pruebas de apoyo, aprovechando el conocimiento de la web en técnicas de Deep Learning y Procesamiento del Lenguaje Natural para poder entender el significado de una noticia y verificar los hechos que la sustenta. En ese sentido, AdVerif.ai es una herramienta que se apoya en la IA para poder encontrar hechos que sustenten o desmientan una noticia, combatiendo la desinformación.

De igual manera, si bien existen patrones comunes en la fabricación de fake news, no todos son fáciles de detectar, es por ello que AdVerif.ai utiliza el DL y Semantic Text Analysis para poder identificar patrones más complejos.

VI. Conclusión

La Inteligencia Artificial es una herramienta que sirve para analizar el contenido de las publicaciones y diagnostica si una noticia es falsa o no, pero también permite analizar el ritmo y la manera en la que las fake news son difundidas, como lo son en redes sociales. Sin embargo, como toda herramienta, existen sus riesgos, como el sesgo del programador. Resulta inevitable aislar la intervención humana en la programación; sin embargo, es posible e indispensable que, en el momento de programar los algoritmos, los parámetros sean lo más objetivos y trazables posibles para subsanar cualquier error algorítmico o subjetividad que pueda producirse. En ese sentido, el público debe tener en cuenta que la IA no es la solución absoluta para erradicar las fake news, sino que es una herramienta útil que debe implementarse por parte de los privados y el sector público. Ello, sin menoscabar el rol que todo usuario tiene en detectar si la noticia que está leyendo o viendo es verdadera o falsa.

Ahora, otro punto a tomar en cuenta es que, al momento de buscar regular la erradicación de noticias falsas, no se debe hacer caso omiso a los estándares internacionales que amparan y protegen a la libertad de expresión. Es decir, debe tomarse en cuenta que existen una serie de criterios a seguir para poder restringir este derecho, como lo ha recogido el Sistema Interamericano de Derechos Humanos a través del test tripartito, por ejemplo. Con ello, el uso de la Inteligencia Artificial no debe ser una herramienta que utilicen gobiernos autoritarios para censurar y limitar -injustificadamente- a la libertad de expresión, que es la piedra angular de toda democracia. Hacemos hincapié en que la censura jamás será la solución, por más cuestionable que resulte una expresión.

El objetivo de eliminar las fake news no tiene una fórmula secreta; sin embargo, no cabe duda que la solución para conseguirlo se encuentra en la colaboración conjunta de los principales actores involucrados: plataformas digitales, la prensa, el gobierno y los usuarios. Por ejemplo, haciendo referencia a aquellos controles que pueden realizar las plataformas digitales al momento de detectar una noticia falsa, los criterios empleados para ello necesitan estar al alcance de todos los usuarios para garantizar transparencia y para potenciar el rol que tiene el usuario al momento de formular una opinión o decisión sobre la base de información que consume. Tal y como hizo el Reino Unido, sería útil que los Estados desarrollen o solicitaran a las plataformas digitales ofrecer una herramienta que promueva la alfabetización digital y que permita abordar la desinformación, para que los usuarios identifiquen la confiabilidad y la fuente del contenido de las noticias. Así, a través de la convergencia de las letras y los números, se logrará estar un paso más adelante en la lucha contra la desinformación.

[1] Faus, J. (22 de junio de 2017). Cuatro años de cárcel para el hombre que abrió fuego en una pizzería de Washington tras leer una noticia falsa. El País. Obtenido de: https://elpais.com/internacional/2017/06/23/estados_unidos/1498169899_197758.html

[2] Hernández, G. (02 de agosto de 2021). Las fake news generan un daño muy grave a las dinámicas sociales. Universidad de Piura. Obtenido de: https://www.udep.edu.pe/hoy/2021/08/fake-news-generan-un-dano-muy-grave-a-dinamicas-sociales/

[3] University of Victoria. (s.f.). Fake News. University of Victoria. Obtenido de: https://libguides.uvic.ca/c.php?g=701103&p=5174732

[4] Marina, J. (26 de octubre de 2020). How Fake News Affects U.S. Elections. UCF Today. Obtenido de: https://www.ucf.edu/news/how-fake-news-affects-u-s-elections/

[5] Andrés, M. (2020). Fake news: la mentira como arma política. Pliegos de Yuste, 20, 147-156. p.147 Obtenido de: http://www.pliegosdeyuste.eu/n20/PliegosdeYusten_20-147-156.pdf 

[6] CITS. (s.f.). Where does Fake News come from? CITS. Obtenido de: https://www.cits.ucsb.edu/fake-news/where

[7] Kapersky (s.f.). How to identify fake news. Obtenido de: https://www.kaspersky.com/resource-center/preemptive-safety/how-to-identify-fake-news

[8] Blázquez-Ochado, M. (mayo de 2018) El problema de las noticias falsas: detección y contramedidas [Documento de conferencia]. XV Seminario Hispano-Mexicano de Investigación en Biblioteconomía y Documentación, Ciudad de México, México.

[9] Kapersky (s.f.). How to identify fake news. Obtenido de: https://www.kaspersky.com/resource-center/preemptive-safety/how-to-identify-fake-news

[10] Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos (2010). Marco jurídico interamericano sobre el derecho a la libertad de expresión. Organización de los Estados Americanos. p.18. Obtenido de: http://www.oas.org/es/cidh/expresion/docs/cd/sistema_interamericano_de_derec hos_humanos/index_MJIAS.html

[11] Center for International Media Assistance & National Endowment for Democracy (2017). Estándares internacionales de libertad de expresión: Guía básica para operadores de justicia en América Latina. p. 18. Obtenido de: https://www.corteidh.or.cr/tablas/r37048.pdf

[12] Al existir una prohibición absoluta de la censura previa, la ley que establezca una limitación a la libertad de expresión solo puede referirse a la exigencia de responsabilidades ulteriores.

[13] El test de necesidad se aplica de forma estricta y exigente, requiriendo la demostración de que existe una necesidad imperiosa o absoluta de introducir limitaciones.

[14] El Relator Especial de las Naciones Unidas (ONU) para la Libertad de Opinión y de Expresión, la Representante para la Libertad de los Medios de Comunicación de la Organización para la Seguridad y la Cooperación en Europa (OSCE), el Relator Especial de la OEA para la Libertad de Expresión y la Relatora Especial sobre Libertad de Expresión y Acceso a la Información de la Comisión Africana de Derechos Humanos y de los Pueblos (CADHP), a través de la Declaración Conjunta Sobre Libertad De Expresión Y «Noticias Falsas» («Fake News»), Desinformación Y Propaganda

[15] Asamblea General de las Naciones Unidas (2022), El papel de los Estados en la lucha contra los efectos negativos de la desinformación en el disfrute y la efectividad de los derechos humanos, Consejo de Derechos Humanos, A/HRC/49/L.31/Rev.1. Obtenido de: https://documents-dds- ny.un.org/doc/UNDOC/LTD/G22/296/55/PDF/G2229655.pdf?OpenElement

[16] Reuters (2018). Australia forms task force to guard elections from cyber attacks. Obtenido de: https://www.reuters.com/article/us-australia-security-elections/australia-forms-task-force-to-guard-elections-from-cyber-attacks-idUSKCN1J506D

[17] En Australia, los anuncios políticos deben hacer transparentes al autor y al financiador.

[18] Poynter (s.f.). A guide to anti-misinformation actions around the world. Obtenido de: https://www.poynter.org/ifcn/anti-misinformation-actions/

[19] Poynter (s.f.). A guide to anti-misinformation actions around the world. Obtenido de: https://www.poynter.org/ifcn/anti-misinformation-actions/

[20] Poynter (s.f.). A guide to anti-misinformation actions around the world. Obtenido de: https://www.poynter.org/ifcn/anti-misinformation-actions/

[21] Poynter (s.f.). A guide to anti-misinformation actions around the world. Obtenido de: https://www.poynter.org/ifcn/anti-misinformation-actions/

[22] Bartosch, F. (17 de octubre de 2018). How the Rapid Response Unit actually works (and why it’s important). Prweek Regions. Obtenido de: https://www.prweek.com/article/1496346/rapid-response-unit-actually-works-andwhy-its-important

[23] Poynter (s.f.). A guide to anti-misinformation actions around the world. Obtenido de: https://www.poynter.org/ifcn/anti-misinformation-actions/

[24] Dick, S. (01 de julio de 2019). Artificial Intelligence. HDSR. Obtenido de: https://hdsr.mitpress.mit.edu/pub/0aytgrau/release/2

[25] Green, B. (2018). Ethical Reflections on Artificial Intelligence. Scientia et Fides, 6, 9-29. p.11. Obtenida de: https://dadun.unav.edu/bitstream/10171/58244/1/01.pdf

[26] IBM Cloud Education. (3 de junio de 2020). Aritificial Intelligence (AI). IBM. Obtenido de: https://www.ibm.com/cloud/learn/what-is-artificial-intelligence

[27] Copeland, B. (09 de noviembre de 2021). Artificial Intelligence. Britannica. Obtenido de: https://www.britannica.com/technology/artificial-intelligence

[28] IBM Cloud Education. (3 de junio de 2020). Aritificial Intelligence (AI). IBM. Obtenido de: https://www.ibm.com/cloud/learn/what-is-artificial-intelligence

[29] Brynjolfsson, E & Mcafee, A. (2017). Artificial Intelligence, for real. Harvard Business Review, 1-31.p.6. Obtenido de: https://starlab-alliance.com/wp-content/uploads/2017/09/AI-Article.pdf

[30] Abdi, A. (2016). Three Types of Machine Learning Algorithms. Researchgate, 1-27. p.2. Obtenido de: https://bit.ly/3AGAc3i

[31] Hernández, R., Orozco, D., Pérez-Perdomo, E. & Sánchez, L. (2018). Deap Learning. Una revisión. Researchgate, 1-8. p.4. Obtenido de: https://bit.ly/3q59zA9

[32] Hernández, R., Orozco, D., Pérez-Perdomo, E. & Sánchez, L. (2018). Deap Learning. Una revisión. Researchgate, 1-8. p. 6. Obtenido de: https://bit.ly/3q2WCH5

[33] Hernández, E., Duque-Méndez, N. & Moreno-Cadavid, J. (2017). Big Data: una exploración de investigaciones, tecnologías, y casos de aplicación. TecnoLógicas, 20, 39, 1-24. p.3. Obtenido de: http://www.scielo.org.co/pdf/teclo/v20n39/v20n39a02.pdf

[34] Institución Universitaria Esumer. (s.f.). Big data y los nuevos manejos de la información. Mercatec, 54, 32-28. pp. 33-36. Obtenido de: http://repositorio.esumer.edu.co/bitstream/esumer/1905/1/BIG%20DATA.pdf

[35] Confederación Suiza. (s.f.). Challenges of Artificial Intelligence. Confederación Suiza. pp.2-3. Obtenido de: https://www.sbfi.admin.ch/dam/sbfi/en/dokumente/2021/05/challenges-ki.pdf.download.pdf/challenges-ki_e.pdf 

[36] R3D (2018). La Inteligencia Artificial es un gran reto para los Derechos Humanos en el entorno digital: Relator Especial de la Onu. Obtenido de: https://r3d.mx/2018/10/19/la-inteligencia-artificial-es-un-gran-reto-para-los-derechos-humanos-en-el-entorno-digital-relator-especial-de-la-onu/

[37] United Nations General Assembly (2018). Promotion and protection of the right to freedom of opinion and expression. A/73/348, Seventy-third session. Obtenido de: https://documents-dds-ny.un.org/doc/UNDOC/GEN/N18/270/42/PDF/N1827042.pdf?OpenElement

[38] Chowdhury, M. & Sadek, A.W. (2012). Advantages and Limitations of Artificial Intelligence. En T. R. Board, Artificial Intelligence Applications to Critical Transportation Issues, 6, Transportation Research Circular E-C168. Washington DC: The National Academies Press. p.7. Obtenido de: https://bit.ly/3TAKL0m

[39] Chowdhury, M. & Sadek, A.W. (2012). Advantages and Limitations of Artificial Intelligence. En T. R. Board, Artificial Intelligence Applications to Critical Transportation Issues, 6, Transportation Research Circular E-C168. Washington DC: The National Academies Press. pp. 7-8. Obtenido de: https://bit.ly/3B5qsB0

[40] Katarina Kertysova (2018). Artificial Intelligence and Disinformation, Security and Human Rights 29, 55-81. p.61.

[41] Reddit (2017). Artificial Intelligence Can’t Tell Fried Chicken from Labradoodles, https://www.reddit.com/r/funny/comments/6h47qr/artificial_intelligence_cant_tell_fried_chicken/

[42] European Parliament (2019). Regulating disinformation with artificial intelligence. Obtenido de:  en: https://op.europa.eu/en/publication-detail/-/publication/b8722bec-81be-11e9-9f05-01aa75ed71a1/language-en

[43] The Conversation (2021). Artificial intelligence may not actually be the solution for stopping the spread of fake news. Obtenido de: https://theconversation.com/artificial-intelligence-may-not-actually-be-the-solution-for-stopping-the-spread-of-fake-news-172001

[44] The Conversation (2021). Artificial intelligence may not actually be the solution for stopping the spread of fake news. Obtenido de: https://theconversation.com/artificial-intelligence-may-not-actually-be-the-solution-for-stopping-the-spread-of-fake-news-172001

[45] Katarina Kertysova (2018). Artificial Intelligence and Disinformation, Security and Human Rights 29, 55-81.p.56.

[46] Walz, A., & Firth-Butterfield, Kay (2020). Implementing Ethics into Artificial Intelligence: A Contribution, from a Legal Perspective, To The Development Of An Al Governance Regime, Duke Law Journal. p.193.

[47] Walz, A., & Firth-Butterfield, Kay (2020). Implementing Ethics into Artificial Intelligence: A Contribution, from a Legal Perspective, To The Development Of An Al Governance Regime, Duke Law Journal.p.201.

[48] Walz, A., & Firth-Butterfield, Kay (2020). Implementing Ethics into Artificial Intelligence: A Contribution, from a Legal Perspective, To The Development Of An Al Governance Regime, Duke Law Journal.p.230.

[49] Cassauwers, Tom (2019). Can artificial intelligence help end fake news? Obtenido de: https://ec.europa.eu/research-and-innovation/en/horizon-magazine/can-artificial-intelligence-help-end-fake-news

[50] Lexalytics (2021). Bias in AI and Machine Learning: Sources and Solutions. Obtenido de: https://www.lexalytics.com/lexablog/bias-in-ai-machine-learning

[51] Lexalytics (2021). Bias in AI and Machine Learning: Sources and Solutions. Obtenido de: https://www.lexalytics.com/lexablog/bias-in-ai-machine-learning

[52] The Verge (2018). Google ‘fixed’ its racist algorithm by removing gorillas from its image-labeling tech. Obtenido de:  https://www.theverge.com/2018/1/12/16882408/google-racist-gorillas-photo-recognition-algorithm-ai

[53] Lexalytics (2021). Bias in AI and Machine Learning: Sources and Solutions. Obtenido de: https://www.lexalytics.com/lexablog/bias-in-ai-machine-learning

[54] Presentado por el senador Wyden en 2019 y el senador Cory Booker, demócrata por Nueva Jersey, y la representante Yvette D. Clarke, demócrata por Nueva York, introdujeron la misma medida en la Cámara

[55] Robertson, A. (2019). A New Bill Would Force Companies to Check Their Algorithms for Bias,” The Verge, Obtenido de: https://www.theverge.com/2019/4/10/18304960/congress-algorithmic -accountability-act-wyden-clarke-booker-bill-introduced-house-senate.

[56] Cordis. (s.f.). Fake News discovery and propagation from big data analysis and artificial intelligence operations. Cordis. Obtenido de: https://cordis.europa.eu/project/id/780355

[57] Fandango. (s.f.). Technical approach. Fandango. Obtenido de: https://fandango-project.eu/the-project/technical-approach/

[58] Adverif.ai. (s.f.). Our solution. Adverif.ai. Obtenido de: https://adverifai.com/our-solution/