doi.org/10.17141/urvio.37.2023.5992
Políticas de comunicación e inteligencia artificial: nuevos desafíos
Communication Policies and Artificial Intelligence: New Challenges
Políticas de Comunicação e Inteligência Artificial: Novos Desafios
Raquel Seijas-Costa
1
Recibido: 9 de junio de 2023
Aceptado: 19 de agosto de 2023
Publicado: 30 de septiembre de 2023
Resumen
La inteligencia artificial presenta importantes desafíos; es necesario que gobiernos e
instituciones evalúen sus consecuencias y efectos para abordar los cambios que implica. El
objetivo de este estudio es comparar las regulaciones sobre inteligencia artificial en España, la
Unión Europea y Estados Unidos, y examinar cómo podrían afectar la formulación de políticas
de comunicación y, en última instancia, a los medios de comunicación. La metodología
utilizada incluye el estudio documental, para localizar hallazgos clave, y el análisis comparativo
de las regulaciones sobre inteligencia artificial. La inclusión de la inteligencia artificial en los
medios de comunicación requerirá control sobre decisiones y efectos, lo cual plantea nuevos
interrogantes sobre la formulación de políticas de comunicación.
Palabras clave: inteligencia artificial; medios de comunicación; periodismo; política de la
comunicación; regulación de la comunicación
Abstract
Artificial intelligence (AI) presents significant challenges. Governments and institutions must
assess the consequences and impacts of AI to address the resulting changes. The objective of
this study is to compare AI regulations in Spain, the European Union, and the United States and
to examine how they could affect the formulation of media policies and, ultimately, the media
industry. The research methodology involves a documentary study to uncover key findings and
a comparative analysis of AI regulations. Integrating artificial intelligence into the media
1
Departamento de Periodismo, Universidad de Málaga, España, seijas@uma.es, orcid.org/0000-0003-2350-6015
industry will require oversight of its decisions and effects, thereby giving rise to new questions
regarding the formulation of communication policies.
Key words: artificial intelligence; communication policy; journalism; mass media; regulation
of communication
Resumo
A Inteligência Artificial apresenta importantes desafios, é necessário que governos e
instituições avaliem as consequências e efeitos da inteligência artificial para abordar as
mudanças que implica. O objetivo deste estudo é comparar as regulamentações sobre
inteligência artificial na Espanha, na União Europeia e nos Estados Unidos e examinar como
elas poderiam afetar a formulação de políticas de comunicação e, em última instância, os meios
de informação. A metodologia utilizada na pesquisa inclui o estudo documental para localizar
achados-chave e a análise comparativa das regulamentações sobre inteligência artificial. A
inclusão da inteligência artificial nos meios de comunicação exigirá controle sobre suas
decisões e efeitos, o que levanta novas questões sobre a formulação de políticas de
comunicação.
Palavras-chave: inteligência artificial; jornalismo; mídia de massa; política de comunicação;
regulação da comunicação
1. Introducción
Los gobiernos y otras instituciones están considerando las transformaciones derivadas del uso
de la inteligencia artificial (IA), con el objetivo de evaluar sus posibles efectos y consecuencias.
Para abordar el tema, en este texto se utilizará la definición proporcionada por la Comisión
Europea: son sistemas de software y hardware diseñados por seres humanos. Esos sistemas
actúan en las dimensiones física o digital, mediante la percepción de su entorno a través de la
obtención e interpretación de datos que recopilan, decidiendo las acciones más favorables para
alcanzar un objetivo (Dirección General de Redes de Comunicación, Contenido y Tecnologías
de la Comisión Europea 2019).
La IA se presenta como una tecnología prometedora para el desarrollo, lo cual también
incluye la mejora de los medios de comunicación. Ofrece oportunidades para combatir la
desinformación, mejorar la gestión de la privacidad y promover un enfoque ético que evite
sesgos en la toma de decisiones informativas. Sin embargo, plantea riesgos como la
automatización de las tareas en busca de una audiencia más amplia y la posibilidad de que el
periodismo se aleje del reportaje de noticias y se enfoque exclusivamente en la investigación,
lo que requerirá una reestructuración de las empresas periodísticas (Manfredi y Ufarte 2020).
Se necesitará tiempo para comprender las consecuencias de modificar el modelo de negocio y
permitir que los profesionales del periodismo se adapten a las nuevas infraestructuras y
herramientas, y adquieran formación digital (Túñez-López, Fieiras-Ceide y Vaz-Álvarez 2021).
La inclusión de la IA en los medios plantea la pregunta de si es necesario establecer un
control en las decisiones relacionadas con su uso. En caso afirmativo, los actores involucrados
en el diseño, la implementación y el desarrollo de la IA, así como las personas responsables de
su introducción en el sector de la comunicación, deberían participar en dichas decisiones y
mitigar los riesgos derivados del uso de IA, a través de una regulación clara. La normativa en
el ámbito tecnológico ha generado debates sobre las posibilidades de regulación, cómo y qué
regular (Galli 2021).
Aunque la IA plantea numerosas interrogantes sobre el futuro de la prensa y las nuevas
políticas de comunicación que se establecerán al respecto, su incorporación suscita, sobre todo,
problemas relacionados con cuestiones éticas. Estos problemas podrían resolverse mediante la
aplicación de normativas que fomenten buenas prácticas y responsabilidad, abordando los
cambios introducidos por la IA desde una perspectiva jurídica y ética (Monti 2018). El objetivo
principal de este estudio es proporcionar una visión comparativa de las regulaciones sobre IA
en España, la Unión Europea (UE) y los Estados Unidos (EE. UU.), considerando a este último
como un país clave en el avance de la IA. Además, se busca examinar cómo estas regulaciones
pueden influir en la formulación de políticas de comunicación y su impacto en los medios.
2. Metodología
Para lograr el objetivo de este estudio, se identificaron hallazgos clave a través de la
investigación documental, mediante un análisis exhaustivo de informes de la UE, la
Organización para la Cooperación y el Desarrollo Económicos (OCDE) y la Organización de
las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). Además, se han
analizado estudios relacionados con la IA y el periodismo.
Los aspectos de las regulaciones sobre IA que pueden influir en la formulación de políticas
de comunicación son los siguientes: transparencia, protección de datos, responsabilidad,
discriminación y sesgos.
Una vez identificados, se realizó un análisis comparativo de regulaciones sobre IA, con los
siguientes objetivos:
a) comprobar si los hallazgos clave están incluidos en las diferentes regulaciones sobre IA;
b) observar similitudes y diferencias;
c) analizar las orientaciones de las regulaciones planteadas y cómo podrían afectar a los
medios de comunicación, y
d) encontrar posibles enfoques para orientar políticas de comunicación.
¿Por qué es necesario comparar? La comparación es fundamental para construir un
conocimiento empírico sobre el fenómeno analizado. Se realiza mediante el examen de los datos
existentes, estableciendo similitudes y diferencias con el objetivo de comprender la subjetividad
e intencionalidad en la elaboración de políticas (Grau Creus 2002). Con ese fin, se utilizó una
matriz de elaboración propia, basada en la propuesta de Hernández Prieto, Badilla Matos y De
la Peña Pérez Alaejos (2018). Dado que las iniciativas de regulación de IA analizadas
corresponden a diferentes niveles de regulación, se puede comprobar cómo se implementan y
articulan en contextos nacionales y supranacionales. Los resultados proporcionan una
aproximación al tipo de políticas de comunicación que podrían formularse, lo cual determinará
el futuro desarrollo de la IA en el ámbito de la comunicación (Monti 2018).
3. Relación de la IA con el periodismo
La IA se utiliza para identificar tareas noticiables, recopilar contenidos, rastrear bases de datos
y generar noticias de manera automatizada o transcribir textos. Associated Press y Los Ángeles
Times tienen su propia IA, la cual genera noticias online (Salazar García 2018). En Europa,
aproximadamente un 68 % de las empresas la utilizan para mejorar la productividad de la
plantilla. Sin embargo, la innovación con IA no siempre es la solución a dificultades existentes
(Beckett 2019).
En España, el uso periodístico de la IA se centra en la edición automática de noticias. El
periodismo automatizado es definido como el que usa algoritmos o software de IA para
convertir datos en textos con una intervención humana escasa o nula, excepto en la
programación del algoritmo, implica la recolección y selección de datos estructurados de
diversas bases de datos según criterios predefinidos (Pérez-Tornero et al. 2020). Aunque la
incorporación de la IA en las redacciones pueda aliviar la carga de trabajo o controlar la
desinformación, su adopción se ve con cautela.
Para establecer normas de funcionamiento es necesario comprender las necesidades de
empresas y profesionales de la comunicación, así como las preocupaciones relacionadas con el
uso de la IA (Flores Vivar 2019). Además, existe la inquietud de que con la IA no se transmita
a la sociedad cuestiones de interés público o no respete la privacidad de las audiencias, debido
a la extracción de datos personales (Ventura Pocino 2021). Entre los efectos adversos de la IA
en los medios se encuentran: desaparición de puestos de trabajo, amplificación de información
errónea, debido a que los algoritmos priorizan ciertos contenidos y monopolización del uso de
datos, lo que cual favorece el control y la influencia sobre el usuario (Izsak et al. 2022).
¿Por qué son necesarios nuevos planteamientos en políticas de comunicación?
Tal y como afirma María Antonia Martín (2003), definir la política de comunicación supone
establecer un debate entre los conceptos de poder y comunicación desde diferentes puntos de
vista: social, individual, tecnológico y económico. Su desarrollo estará determinado, por un
lado, por las nuevas características de los medios, con procesos integrados en la personalización
basada en datos y otras tecnologías de IA. Por otro lado, por procesos de regulación muy
complejos. Los enfoques existentes para “controlar” el impacto de la IA dependen de cada país.
Existen diferentes maneras de abordar el desarrollo de las políticas de comunicación y
regulaciones con respecto a la IA, por ejemplo, la UE opta por la intervención, mediante un
paquete de medidas regulatorias de la IA. Sin embargo, EE.UU prefiere no tener derechos
especiales para los medios, ni proteger el periodismo de la IA (Tambini 2021). Actualmente es
importante tener en cuenta quién y cómo gobierna y quién elabora las políticas de comunicación
(Roth 2014).
4. Análisis: marcos regulatorios
Se prevé que la regulación de la IA pueda ser tan complicada de abordar como otras
innovaciones. Al regular, lo mejor sería invocar una base legitimadora de obligaciones
internacionales con consentimiento estatal de sumisión a estas normas. Frente a los riesgos de
una expansión descontrolada de la IA, la solución puede estar en el principio de necesidad,
vinculado al principio de dignidad humana (García San José 2021).
La regulación, en este campo, se caracteriza por la complejidad del objeto a regular, los diversos
intereses y grupos de presión. Sin embargo, como argumenta Petit, no se puede dejar la IA a la
autorregulación. Hay que provocar un cambio de mentalidad: No son restricciones impuestas
por el Estado, sino oportunidades para crear normas de interés a las preferencias colectivas y
que generen confianza de que estas expectativas se cumplirán en la práctica (Erdélyi y
Goldsmith 2018). En la última década, se implementaron medidas para proteger la privacidad
y la seguridad, antimonopolio, entre otros. Las disposiciones destinadas a controlar contenidos
generan desconfianza, porque existe el riesgo de que puedan afectar derechos fundamentales,
limitando o “etiquetando” lo que puede ser o no conveniente (Neuman 2022).
¿Hasta dónde se permite el desarrollo independiente de la IA y al mismo tiempo, evitar el
progreso de aspectos negativos?, ¿cómo establecer políticas de comunicación que engloben esa
complejidad? La agilidad para reaccionar sobre lo que puede ser justo y positivo dentro de la
innovación tecnológica es esencial para desarrollar buenas prácticas y una convivencia en el
futuro. Para establecer políticas de comunicación resulta necesario aclarar si el objetivo de estas
políticas es proteger y fomentar los intereses ciudadanos o si, por el contrario, se puede dejar la
regulación al albedrío de la autorregulación y los códigos éticos, sin riesgos para las personas
y las democracias. Sin regulación o limitaciones definidas las tecnologías pueden tomar
decisiones que afecten a las personas simplemente porque han sido creados para lograr
objetivos de manera eficiente (Ruaro y Guimarães Reis 2020).
4.1 Marco regulatorio supranacional: la UE
El fundamento en la elaboración de regulaciones europeas sobre tecnología busca unificar la
difusión de los valores y no perder la “carrera” económica unida a la innovación tecnológica
(Martín 2003). Por experiencia, la UE tomó la iniciativa en el control de la IA, aprobó
regulaciones para limitar el poder de las grandes empresas y controló la desinformación
(Neuman 2022). La Comisión Europea dejó clara la necesidad de adoptar un enfoque
multifactorial en las regulaciones y mantener la independencia en cuanto a la capacidad
industrial, sin excluir aspectos éticos y derechos fundamentales. Asimismo, la regulación es
importante para fortalecer el aspecto económico que acompaña la implementación y desarrollo
de la IA, ya que representa un volumen importante de negocio.
La UE ha propuesto tres iniciativas normativas interrelacionadas:
1. Un marco jurídico europeo que aborda cuestiones relacionadas con los derechos
fundamentales y riesgos de seguridad derivados del uso y desarrollo de la IA.
2. Normas de la UE encargadas de analizar cuestiones sobre responsabilidad en los sistemas
de IA.
3. Revisión de actos jurídicos normativos de seguridad sectorial.
En la misma línea de protección y orientación, el Grupo de Expertos Europeo de alto nivel sobre
Inteligencia Artificial (Comisión Europea 2021b) elaboró pautas centradas en el ser humano,
las cuales incluyen siete requisitos claves: Acción y supervisión humanas; solidez técnica y
seguridad; privacidad y gobierno de datos; transparencia; diversidad, no discriminación y
equidad; bienestar ambiental y social; rendición de cuentas. Estas son necesarias para que los
sistemas de IA se consideren confiables. Además, añadieron 33 recomendaciones para que sea
más competente, sostenible e inclusiva.
El entramado regulatorio de la UE pasa por la creación de la Alianza de IA, que impulsa la
generación de políticas desde un enfoque participativo. Esta alianza lleva a cabo discusiones
sobre logros y perspectivas de sus políticas y presenta los aspectos principales del Libro Blanco
de la Comisión sobre Inteligencia Artificial, cuyo objetivo es coordinar un enfoque europeo de
regulación que aborde las implicaciones éticas y humanas de la IA (Comisión Europea 2021).
Sin embargo, la propuesta central de la UE es el Reglamento sobre la IA de 2021, para
afrontar los problemas que pueden surgir en el desarrollo de la IA. Este afectará el
funcionamiento de los medios y las plataformas digitales. Se aplicarán obligaciones de
transparencia en los sistemas que generen o manipulen contenido o si un sistema de IA se usa
para generar, manipular imágenes, audios o vídeos que parezca contenido auténtico debe
informarse que el contenido ha sido generado por medios automatizados excepto si responden
a fines legítimos (Comisión Europea 2021a, 18).
Con todo, el reglamento es aprobado por el Parlamento Europeo el 14 de junio de este año
y modificará determinados actos legislativos. Incluye enmiendas relativas a sistemas de IA
consideradas de alto riesgo y la obligación de explicitar si los contenidos han sido generados
por IA. Una de las novedades importantes hace referencia a la aprobación de la definición de
sistemas de IA y la inclusión de definiciones nuevas, como la relacionada con la
“ultrafalsificación” o la “elaboración de perfiles” (Parlamento Europeo 2023, 44).
El Reglamento supone la primera regulación de carácter global conocida y la primera
regulación jurídica de IA. Refleja una toma de posición de la UE ante la irrupción de la IA.
Además de las enmiendas y como novedad, en el texto destaca la inclusión en la regulación a
implementadores y proveedores de sistemas de IA establecidos en la UE.
También se regulan como sistemas de alto riesgo los de identificación biométrica de control
masivo en tiempo real y los biométricos en diferido, solo se permitirán a las fuerzas de seguridad
con autorización judicial para delitos graves. Las plataformas de Redes Sociales (RRSS)
tendrán que modificar o revisar sistemas de recomendación de contenido para que se supervisen
y reduzcan el sesgo de conformación. La aprobación del texto definitivo mostrará cómo se
gestionan y regulan cuestiones como la prohibición o la introducción de normas que limiten la
vigilancia masiva, el sesgo y protejan a la ciudadanía y a colectivos vulnerables.
El marco regulatorio europeo se refuerza gracias a los siguientes instrumentos jurídicos:
1. Ley de Mercados Digitales;
2. Ley de Datos: eliminará los obstáculos al acceso de datos para el sector público y
privado. La creación de un espacio europeo de datos garantizará las soluciones de IA
en la UE, y
3. Ley de Servicios Digitales (DSA): promueve un entorno en línea más seguro. Los
prestadores de servicios intermediarios dirigidos a usuarios europeos deberán adaptar
sus servicios a la normativa europea.
La UE recomienda lo siguiente a las personas encargadas de formular políticas:
1. Fomentar el uso de sistemas basados en blockchain para permitir almacenar y compartir
datos sin perder el control en la propiedad.
2. Agrupar datos en Europa para desarrollar IA culturalmente diversa.
3. Fomentar y desarrollar herramientas de evaluación para supervisar estándares y
cumplimiento.
4. Adoptar reglas claras que sirvan de marco de referencia sobre la responsabilidad en las
decisiones de la IA.
5. Adoptar reglas para que las plataformas en línea publiquen una guía de usuario sobre los
sistemas de recomendación.
6. Fomentar la reducción del sesgo en aplicaciones de IA (Izsak et al. 2022).
Este entramado regulatorio no resuelve todos los problemas, algunas de las dificultades más
importantes como la responsabilidad por parte de las plataformas en línea aún carecen de
solución (Arroyo Amayuelas 2021).
4.2 España
Las políticas de comunicación en España se demoraron debido al desarrollo de nuestro sistema
mediático. Aquellas elaboradas en las décadas de los 80 y 90 mostraron muchas
contradicciones. En la actualidad es necesario orientar de manera normativa el funcionamiento
de los medios y herramientas tecnológicas, por su impacto en la gestión de la información. Las
nuevas tecnologías requieren mecanismos públicos para orientarlas (Martín 2003).
En el ámbito mediático, predomina la autorregulación. Se elaboró una legislación laxa
sobre comunicación, entre otros aspectos, debido a un pasado nada democrático y a la relación
entre política y medios de comunicación. Además, hay que añadir la existencia de grupos de
interés que intentan influir en la elaboración de políticas públicas. Por tanto, elaborar una
legislación para regular aspectos del sistema mediático genera desconfianza (Hernández Prieto
2015), lo que podría obstaculizar el desarrollo de políticas orientadas a los medios y al interés
público. España sugiere diseñar políticas basadas en los desafíos de la IA, centrándose en el
acceso a los datos, la transparencia y la financiación, e incluyendo a actores clave (Caramiaux
2020). Para ello, plantea seis ejes estratégicos, resumidos en el informe de estrategias nacionales
de IA (diciembre de 2020):
1. impulso a la investigación, desarrollo tecnológico e innovación;
2. fomento de las capacidades digitales;
3. desarrollo del talento nacional y atracción del internacional, avance de infraestructuras
que den soporte a la IA;
4. integrar la IA en la transformación de la economía;
5. impulsar el uso de la IA en las estrategias nacionales, y
6. establecer un marco ético que garantice los derechos individuales.
El Sistema Español de Ciencia, Tecnología e Innovación (SECTI) coordina las políticas de
investigación en IA. Se establece un plan de digitalización del sector público para el período
2021-2025, así como una Carta de Derechos Digitales y un nuevo marco legislativo (Van Roy
et al. 2021). La Estrategia Nacional de IA (ENIA) tiene como objetivo principal vertebrar la
acción de las diferentes administraciones y crear un marco de referencia para el sector público
y privado. Esta estrategia es uno de los elementos fundamentales de la Agenda España Digital
2025, en la cual la IA se considera un elemento de transformación social. Los objetivos de la
ENIA incluyen la promoción de la innovación y la excelencia científica, la creación de empleo
cualificado, la transformación del tejido productivo, el establecimiento de un entorno de
confianza, el impulso al desarrollo de valores humanistas asociados con la IA, así como la
promoción de la inclusividad y sostenibilidad. Se prevé que los medios de comunicación sean
uno de los sectores que experimenten un impacto de 6,7 %, debido al desarrollo de la IA
(Gobierno de España 2020).
La iniciativa regulatoria más amplia es la Carta de Derechos Digitales, producto del trabajo
del Grupo Asesor de Expertas/os de la Secretaría de Estado de Digitalización e IA del Ministerio
de Asuntos Económicos y Transformación Digital. El objetivo es desarrollar nuevos derechos
digitales que no difieran de los derechos fundamentales, perfilar los más relevantes en entornos
digitales y describir derechos auxiliares. Esta normativa se basa en los derechos digitales
establecidos en el Título X de la Ley Orgánica 3/2018 de 5 de diciembre de Protección de Datos
Personales y Garantía de Derechos Digitales y en el RD Ley 28/2020 de 22 de septiembre. Los
capítulos de esta Carta relacionados con la comunicación se visualizan en la tabla 1.
Tabla 1. Capítulos de la Carta de Derechos Digitales relacionados con la comunicación
Apartado 3
Derechos de participación y conformación del espacio público.
Capítulo XIII:
Se establece el derecho a la neutralidad en internet, garantizando que los
proveedores traten el tráfico de datos sin discriminación ni restricciones
excepto si es contrario a normativa. Los poderes públicos podrán controlar
a los proveedores de servicios de las grandes plataformas para que no
condicionen el acceso.
Capítulo XIV:
Refuerza la libertad de expresión e información. Los prestadores de
servicios intermediarios no serán responsables si no originan la transmisión
ni han modificado a sus destinatarios. Solo son responsables si no han sido
diligentes bloqueando contenido. De acuerdo con la legislación, los
Fuente: elaboración propia con datos de la Carta de Derechos Digitales, Gobierno de España 2021.
Las administraciones públicas quieren impulsar tecnologías para el bienestar y adelantarse a las
consecuencias negativas que puedan surgir. La regulación debe ser flexible, la implicación
pública servirá para salvaguardar objetivos que van más allá de lo económico o evitar la
discriminación (García Blanco 2020). En España, la autorregulación es el principal mecanismo
ético, pero en el código ético de la Federación de Asociación de Periodistas de España (FAPE),
por ejemplo, no hay mención expresa a la IA. Es necesario indicar qué noticias ha realizado
esta para que pueda ceñirse a los criterios del periodismo y controlar los sesgos del algoritmo.
El periodista debería ser supervisor del trabajo que realiza la IA (Ufarte, Calvo y Murcia 2021).
Abordar seriamente las políticas de comunicación españolas, de manera coherente con la
realidad en la que se desarrollan, constituye una necesidad. Su implementación puede contribuir
a un mayor conocimiento de nuestro sistema comunicativo (Ruaro y Guimarães Reis 2020). La
autorregulación y las políticas pueden establecer un sistema de gobernanza de la IA. La
efectividad del derecho puede reforzarse mediante políticas y estrategias éticas en el ámbito de
la IA. La ética puede servir de inspiración para la creación de normativas y diversas políticas
(Cotino 2019).
4.3 Estados Unidos
La regulación estadounidense es sectorial; adopta enfoques para áreas concretas como
privacidad, seguridad y ética. La ley sobre IA más avanzada y pionera es la de Privacidad del
Consumidor y Protección de datos en California. En la elaboración de normativa, las agencias
prestadores de servicios intermediarios pueden establecer restricciones en
el uso de servicios con políticas de moderación o códigos de conducta y
autorregulación
Capítulo XV:
Derecho a recibir libremente información veraz. Los prestadores de
servicios intermediarios promoverán protocolos transparentes para
garantizar este derecho y darán a conocer si han sido elaborados por
procesos automatizados, si han priorizado con técnicas de perfilado, si
tienen carácter publicitario o si son patrocinadas por un tercero. En relación
con las opiniones o informaciones difundidas a través de servicios
intermediarios, los prestadores promoverán procedimientos para el
ejercicio de los usuarios como la rectificación de contenidos o la oposición
al uso de técnicas de análisis para ofrecerles informaciones u opiniones
cuando pudiera afectar a libertad ideológica, etc.
gubernamentales tienen un papel destacado. Se han presentado propuestas para la transparencia
de los algoritmos y la responsabilidad de organismos autónomos, como el Acta de
Transparencia de Algoritmos y la Ley de Responsabilidad de Sistemas Autónomos.
Estados Unidos es der en el uso y desarrollo de la IA, por lo que la observación y el
análisis de su gestión regulatoria pueden sentar las bases para futuras regulaciones en otros
países. Aunque aún no cuenta con amplias regulaciones nacionales, se ha desarrollado una
estrategia nacional de IA y existen propuestas de proyectos de ley que son también producto de
la participación de empresas o grupos privados (Kerry 2019).
La falta de regulaciones en EE. UU tiene su origen en las características propias de su
configuración institucional (Abdalá, Lacroix y Soubie 2019). Según Frank Pasquale (Belsunces
2022), la dificultad regulatoria en cuanto a los medios de comunicación, el periodismo y la
tecnología se explica, en gran medida, porque la libertad de expresión es un valor público y, de
acuerdo con la tradición liberal, los derechos individuales son más importantes que los
colectivos. Por tanto, cualquier intento de regulación del área mediática o tecnológica va a
enfrentar reclamos. Aun así, en 1976, el Congreso de Estados Unidos creó la Office of Science
and Technology Policy (OSTP), la cual se dedica a asesorar al presidente y a la oficina de la
presidencia en asuntos de ciencia y tecnología. La OSTP supone una ventaja en cuanto a la
previsión y coordinación de diferentes medidas que se puedan tomar con respecto a la
introducción de novedades tecnológicas y científicas.
El 12 de octubre de 2016 Estados Unidos comenzó a abordar la actividad de la IA con el
informe Preparing for the future or Artificial Inteligence. Presentado por el Comi de
Tecnología del National Sience and Technology Council (NSTC 2016), muestra las estrategias
del gobierno sobre la IA. Este informe deja claro que la regulación del mercado debe centrarse
en proteger la seguridad pública y evaluar los posibles riesgos derivados de la inclusión de la
IA, ya que la normativa existente no es suficiente.
El respeto a los derechos civiles y a la innovación resulta fundamental en las regulaciones
estadounidenses. Las primeras aproximaciones se centran en los ámbitos de defensa y
seguridad. El informe de 2016 define la IA y establece una comisión independiente: la
Comisión de Seguridad Nacional sobre IA. Creada para asesorar al entonces presidente Trump,
cesó sus operaciones el 1 de octubre de 2021 con pocos resultados extrapolables al impacto de
la IA.
Como complemento al informe de 2016, se promulgó el Algorithmic Accountability Act of
2019 (Congress.gov 2019). Esta Ley busca evitar la discriminación provocada por los
algoritmos (López 2021). Según resume Will Douglas Heaven (2021), este proyecto de Ley de
responsabilidad algorítmica se presenta para mejorar la transparencia, la equidad en las
decisiones y, sobre todo, la rendición de cuentas.
La existencia de normas comunes para que las empresas tengan en cuenta el impacto de la
IA es clave, ya que tendrán que remitir informes regulares a la FTC (Federal Trade Comission)
sobre su actividad con la IA y los algoritmos. Además, los consumidores y defensores podrán
consultar los informes. La FTC cuenta con el apoyo bipartidista en el Senado y tiene la facultad
de hacer cumplir la normativa. A diferencia de las recomendaciones de la UE, lo que caracteriza
a la FTC es que tiene un gran poder regulatorio sobre el territorio nacional, lo que le permite
evaluar los sistemas antes de su lanzamiento al mercado (Tutt 2016).
La Carta de Derechos de IA (Bill of Rights of IA), presentada en 2021 por la OSTP tiene la
ventaja de contar con el Comité de Tecnología del NSTC. El NTSC supervisa el uso de IA en
la industria, promueve el debate y permite la participación pública (Trejo 2019). La Carta es el
marco general normativo nacional no vinculante más importante. Se erige sobre cinco pilares
estratégicos: sistemas seguros y eficaces; protecciones contra la discriminación algorítmica;
protección de datos, notificación y explicación; alternativas humanas; consideración y
retroceso.
Para mayor efectividad, se elabora un manual que incorpora medidas protectoras que
orientarán las acciones destinadas a evitar que la IA impacte en derechos, oportunidades o
acceso del público a cuestiones básicas. Las medidas se dirigen a proteger a las personas sin
excluir a las grandes empresas. Se trata de una guía para proteger a la sociedad de las posibles
amenazas derivadas del uso de la IA.
Según un estudio de Harvard, existen 55 organizaciones estadounidenses que, entre 2018
y 2022, formularon recomendaciones para políticas relacionadas con la IA, sobre todo en
relación con la industria. Sin embargo, apenas se encontraban recomendaciones para los medios
de comunicación. En 2022 se aprobaron varias leyes en cinco estados. Algunas prohíben usar
el reconocimiento facial en investigaciones criminales, otras, como la de California, promueven
la inversión para el desarrollo de IA en guarderías. En Maryland, se establece financiación para
su uso en el estudio y la generación de soluciones climáticas (Maslej et al. 2023).
Sin embargo, las medidas proteccionistas siguen siendo escasas. No hay regulaciones
suficientes para proteger a la ciudadanía y las que existen no resultan estrictas (Heikkilä 2022).
Según el congresista Ted Lieu (2023), en un artículo publicado en el New York Times, pasar de
una regulación casi nula de la IA a crear una agencia federal reguladora no sería aprobado por
el Congreso. La alternativa sería crear una comisión no partidista para brindar recomendaciones
y dejar claro qué se debe regular.
Los aspectos analizados en los diferentes marcos regulatorios quedan reflejados en la tabla
2, donde se comparan las propuestas sobre IA teniendo en cuenta los hallazgos clave.
Tabla 2. Matriz propuesta para el análisis comparado de casos, basada en los hallazgos clave
(transparencia, protección de datos, responsabilidad, no discriminación y sesgos)
Variable
Dimensiones
UE
Reglamento IA
España
Carta de derechos
digitales
Contexto
Ámbito de
aplicación
Estados miembros
Nacional
Fecha de
aprobación
Prevista para finales
de 2023
2021
Generalidades
Objeto de la ley
Carácter normativo.
Armonizar normas.
Garantizar la
seguridad.
Determina IA de
alto riesgo.
Sin carácter normativo.
Garantizar y reforzar
derechos.
Qué actividad
regula
Sistemas de IA
introducidos y
usados en la UE.
Desarrollo de derechos
auxiliares en el entorno
digital.
Obligatoriedad
Proveedores y
usuarios de
sistemas de IA.
Transparencia.
Sistemas de IA
excepto: defensa o
seguridad nacional.
Sin obligación,
sistemas utilizados
para investigación y
desarrollo.
No especifica
obligaciones para IA
de riesgo bajo o nulo.
Contenido
relevante
para medios
de
comunicación
Transparencia
Refuerzo a la
transparencia en el
Título IV.
En todos los ámbitos
de uso.
Refuerzo a la libertad
de expresión e
información.
Protección de
datos
Carta de Derechos
de la UE, arts. 7 y
8, derecho a la vida
privada y
protección de datos.
XV: informar si usan
técnicas de perfilado.
Oposición a análisis de
datos contrarios a la
libertad ideológica.
Responsabilidad
Definición de
responsabilidad
asociada a IA alto
riesgo.
Determina la
responsabilidad de
prestadores de
servicios: no
responsables si no
originan la transmisión
Responsabilidad de
usuarios si usan IA
de riesgo.
o datos, y responsables
si no bloquean
contenido rápidamente.
Discriminación
Reducción de la
discriminación
algorítmica: arts.
36, 37, 39, 44.
XIII: no
discriminación,
neutralidad en el
tráfico de datos.
Protocolos para
garantizar acceso a
información veraz.
Sesgos
Art. 44. Protección
de derechos contra
el sesgo.
Proveedores deben
atender al sesgo de
información.
Marco ético para
algoritmos sin sesgos.
Limitaciones
Art. 16:
restricciones en
libertad de empresa
a favor del interés
general.
Art. 17, ap. 2:
derecho de
propiedad
intelectual limitado
por la transparencia.
Restricciones de uso
por parte de
prestadores de
servicios
intermediarios.
Fuente: elaboración propia con base en el diseño de Hernández Prieto, Badilla Matos y De la Peña Pérez Alaejos
(2018).
5. Resultados
Una vez analizadas y comparadas las regulaciones, se da respuesta a los objetivos planteados
al comienzo del análisis (tabla 3):
Tabla 3. Comparación de objetivos entre Estados Unidos, Unión Europea y España
Objetivos
Estados Unidos.
Carta de derechos
IA
Unión Europea.
Reglamento sobre
IA
España.
Carta de derechos
digitales
Inclusión de
hallazgos clave
Similitudes
- Protege a la
ciudadanía.
- Orientada a la
carrera tecnológica.
- Componente
económico.
- Protección de las
personas.
- Orientada a no
perder la carrera
tecnológica.
- Componente
económico.
- Protección de las
personas.
- Orientada a estimular
la carrera tecnológica.
- Componente
económico.
Control de datos
Diferencias
- No pretende
ampliar regulaciones.
- Adhesión
voluntaria.
- Centrada en daños
individuales.
- Identifica
categorías de sesgo.
- Identifica desafíos
para mitigar el sesgo.
- Prioriza derechos
fundamentales.
- Obligado
cumplimiento.
- No aborda daños
indirectos.
-No clarifica las
obligaciones para IA
de riesgo bajo.
-Enfoque colectivo y
global.
- Promueve entornos
digitales para acceder
a la información.
- Garantiza igualdad
de trato.
Orientación
regulaciones
Orientaciones para
futuros retos.
Como refuerzo
normativo sobre IA.
Activar la articulación
de leyes.
Enfoques
Permitirá establecer
políticas sectoriales
Desarrollo de marco
común
Determinar
responsabilidades.
Eliminar desigualdad
Fuente: elaboración propia.
Las regulaciones analizadas incluyen todos los hallazgos clave. En la UE se aprecia en la
aprobación del Reglamento europeo de IA de 14 de junio de 2023, en el que la definición de
sistemas de IA está en consonancia con las definiciones de la OCDE (OECD Legal Instruments
2019). Además, en el caso estadounidense la protección de datos es uno de los pilares de la
carta. En todos los casos hay coincidencia en la protección a las personas sin olvidar el
componente económico y de desarrollo tecnológico.
Las diferencias, aportan evidencias sobre el desarrollo de la IA y sus necesidades
específicas: evitar y controlar el sesgo o promover los derechos fundamentales y la igualdad.
En cuanto a la orientación de las políticas de comunicación en EE. UU, la Carta de derechos IA
estadounidense puede provocar que los medios de comunicación se adapten solo a las
disposiciones generales. A pesar de la resistencia estadounidense a ampliar regulaciones, la
Carta ha suscitado la aparición de normativa sobre IA en diferentes estados. Pero no se prevé
ningún tipo de protección especial a los medios ni a las empresas mediáticas. Se anticipan
dificultades en el proyecto de crear una agencia federal reguladora de la IA por la tradicional
resistencia norteamericana a las regulaciones. La Carta, influirá en futuras normas relativas a la
transparencia y control de sesgos, pero al ser de adhesión voluntaria se encontrarán diferentes
niveles de transparencia en los medios de comunicación y su introducción dependede la
filosofía de cada empresa.
En la UE, la orientación de las políticas de comunicación se dirige a reforzar la normativa
europea sobre IA. Pero puede existir dificultad en la elaboración de políticas de comunicación
específicas complicada por la aparición de regulaciones paralelas, como las Directivas sobre
responsabilidad civil y el control de datos respaldado por el Reglamento General de Protección
de Datos (RGPD). En cuanto a su impacto en los medios tendrá que esperar a su articulación
con la futura Ley de Medios de la UE.
En España, la Carta establece la base para la activación de otras leyes. El capítulo XV de
la Carta aborda la cuestión de la delimitación de contenidos y el riesgo de censura indirecta en
los medios de comunicación. Sin embargo, es importante destacar que la Carta española no
proporciona criterios claros para esta delimitación de contenidos. Por lo tanto, será necesario
establecer criterios precisos y transparentes en este ámbito
Los enfoques de las regulaciones estadounidenses se dirigen a permitir el establecimiento
de políticas sectoriales centradas en ámbitos más específicos. Las políticas de comunicación
van a tener que dirigirse hacia una visión nacional común en aspectos relacionados con la
protección a los usuarios y el respeto a los derechos civiles. El enfoque de las políticas europeas,
no va a dejar mucho margen de acción al resto de los Estados miembros porque el Reglamento
es de obligado cumplimiento y estará guiado por el entramado de normativa tecnológica, de
protección de datos y la futura ley de prensa.
El enfoque de las políticas de comunicación en España persigue generar nuevas leyes
relacionadas con la IA como la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y
la no discriminación (BOE de 13 de julio). Esta Ley establece que los algoritmos de IA
implicados en la toma de decisiones han de minimizar sesgos, aumentar la transparencia y la
rendición de cuentas. Las políticas pretenderán evitar la discriminación y prevenir el perfilado
de datos limitando el refuerzo ideológico o de estereotipos. Se desarrollarán políticas de
comunicación para fomentar pequeñas empresas o empresas independientes de comunicación.
Conclusiones
Se observa un impulso global en la necesidad de establecer regulaciones para gobernar la IA,
debido a problemas como la discriminación y el sesgo. Con respecto a los medios, es indudable
que la IA puede modificar el modelo de negocio y la profesión. Necesitaremos intervención
humana para controlarla y que el interés público o la verificación de los hechos no pasen por
alto. Una vez implantada la IA en el entorno comunicativo, surgen nuevos problemas. Por tanto,
es necesario diseñar políticas que respalden a las pequeñas y medianas empresas de
comunicación.
Las regulaciones planteadas desde la UE y las políticas perfiladas desde España vienen
marcadas por un componente económico y de protección de derechos. No hay que buscar
solamente soluciones fiscales o limitar el poder de las empresas tecnológicas dominantes, se
necesitan soluciones conjuntas que protejan a los medios y a la ciudadanía.
Las regulaciones analizadas se dificultarán. Las resistencias entre los Estados de la UE, las
generadas por grupos de interés, lobbies y grandes empresas que operan a escala mundial
confluyen en Europa. Intentar cohesionar modos de protección a los derechos fundamentales
con la libertad de empresa y la competencia resulta complejo, y se desconoce hasta qué punto
va a influir en las políticas nacionales. Lo interesante de la regulación europea es la
armonización de principios comunes y la inclusión de la perspectiva de derechos humanos en
la regulación de las tecnologías emergentes. Sin embargo, la tradicional resistencia
norteamericana a una regulación más amplia puede generar problemas y hacer que se traten
estas cuestiones dentro de regulaciones nacionales que no están necesariamente orientadas al
uso de la IA.
Las regulaciones y el desarrollo de políticas han de incluir una perspectiva ética y de
derechos humanos. La autorregulación puede evitar que poderes públicos y privados se excedan
y utilicen la carencia de políticas de comunicación para intervenir en el espacio comunicativo.
Los planteamientos para las nuevas políticas de comunicación deben tener en cuenta la
multifactorialidad, reforzar sistemas de comunicación libres e independientes y encontrar un
equilibrio entre la protección, la flexibilidad y la no intervención.
Bibliografía
Abdalá, María Belén, Santiago Lacroix Eussler y Santiago Soubie. 2019. “La política de la
Inteligencia Artificial: sus usos en el sector público y sus implicancias regulatorias”,
bit.ly/3ZlO272
Arroyo Amayuelas, Esther. 2021 Configurar el futuro digital de Europa. RED Revista
Electrónica de Direito 2(25): 2-4. https://bit.ly/43wyQWa
Beckett, Charlie. 2019. New Powers, new responsibilities. A global survey of journalism and
artificial intelligence, bit.ly/3oV5hhT
Belsunces, Andreu. 2022. Entrevista a Frank Pasquale. Gobernar los algoritmos contra el
hechizo tecnocrático”. El Salto Diario, 17 de octubre. https://bit.ly/3qySIt2
Caramiaux, Baptiste. 2020. The use of artificial intelligence in the cultural and creative
sectors.” Concomitant expertise for INI report: research for CULT Committee,
bit.ly/3sZhPq6
Comisión Europea. 2021. Plan Coordinado sobre Inteligencia Artificial”, bit.ly/3qCs0Qj
Comisión Europea. 2021. “Reglamento del Parlamento europeo y del Consejo por el que se
establecen normas armonizadas en materia de inteligencia artificial (Ley de
Inteligencia Artificial) y se modifican determinados actos legislativos de la unión”,
bit.ly/391CXCp
Comisión Europea. 2021. “High-level expert group on artificial intelligence”. 7 de junio.
https://bit.ly/43Nw2DI
Congress.gov. 2019. “Algorithmic Accountability Act of 2019”. 11 de abril de 2019.
bit.ly/3Rmi2hi
Cotino Hueso, Lorenzo. 2019. “Ética en el diseño para el desarrollo de una inteligencia
artificial, robótica y big data confiables y su utilidad desde el derecho. Revista
Catalana de Dret Públic 58: 29-48. https://bit.ly/3CljMyt
Dirección General de Redes de Comunicación, Contenido y Tecnologías de la Comisión
Europea. 2019. Directrices éticas para una IA fiable. Bruselas: Comisión Europea.
bit.ly/43PSBaV
Erdélyi, Olivia Johanna, y Judy Goldsmith. 2018. Regulating Artificial Intelligence:
Proposal for a Global Solution. Ponencia presentada en la AAAI/ACM Conference on
AI, Ethics, and Society (AIES '18), Nueva Orleans, Estados Unidos de América, 2-3 de
febrero. doi/10.1145/3278721.3278731
Flores Vivar, Jesús Miguel. 2019. “Inteligencia artificial y periodismo: diluyendo el impacto
de la desinformación y las noticias falsas a través de los bots”. Doxa Comunicación.
Revista Interdisciplinar De Estudios De Comunicación Y Ciencias Sociales 29: 197-
212. doi.org/10.31921/doxacom.n29a10
Galli, Erica. 2021. Información y sesgos algorítmicos en las noticias digitales. En
Inteligencia Artificial y Sociedad, Núcleo IA+SIC, Inteligencia Artificial y Sociedad:
Reflexiones desde la comunicación, compilado por Lionel Brossi, Eugenia Rivieri y
Ana María Castillo, 25-26. Universidad Nacional de Rosario. https://bit.ly/3NkXS4F
García Blanco, Iban. 2020. Informe sobre principios éticos aplicables a la inteligencia
artificial, la robótica y otras tecnologías, bit.ly/3LsTzTO
García San José, Daniel. 2021. Implicaciones jurídicas y bioéticas de la inteligencia artificial
(IA). Especial consideración al marco normativo internacional. Cuadernos de
Derecho Transnacional 13(1): 255-276. https://bit.ly/3Nm99lx
Gobierno de España. 2020. “ENIA. Estrategia Nacional de Inteligencia Artificial”,
bit.ly/3qvsKXn
Gobierno de España. 2021. Carta de Derechos Digitales”, bit.ly/3P6Y8FQ
Grau Creus, Mireia. 2002. “Introducción. El estudio de las políticas públicas. Enfoques y
metodología de análisis”. En Análisis de políticas públicas en España: enfoques y
casos, editado por Mireia Grau y Araceli Mateos, 29-57. Valencia: Tirant lo
Blanch.
Heaven, Will Douglas. 2021. La gran semana contra la IA sesgada: la UE y EEUU empiezan
a regular. MIT Technology Review, 23 de abril. https://bit.ly/3Nn5TWM
Heikkilä, Melissa. 2022. “A quick guide to the most important AI law you’ve never heard of”.
MIT Technology Review, 13 de mayo. https://bit.ly/3EJywIL
Hernández Prieto, Marina. 2015. Políticas públicas de comunicación. Estudio comparativo
de las legislaciones audiovisuales de Argentina y España. Tesis Doctoral,
Universidad de Salamanca. https://acortar.link/FpTYrF
Hernández Prieto, Marina, Ángel Badilla Matos y María de la Peña Pérez Alaejos. 2018.
Discusión y propuesta metodológica para el análisis comparado de legislaciones
audiovisuales generales de carácter nacional”. Intercom: Revista Brasileira de
Ciências da Comunicação 41: 51-70. doi.org/10.1590/1809-5844201833
Izsak, Kincsö, Apolline Terrier, Stephan Kreutzer, Thorben Strähle, Conor Roche, Marta
Moretto, Stig Yding Sorensen, Malene Hartung, Kristina Knaving, Marlene A.
Johansson, Magnus Ericsson y David Tomchak. 2022. Opportunities and challenges
of artificial intelligence technologies for the cultural and creative sectors. Bruselas,
Comisión Europea. bit.ly/3EK0Af2
Kerry, Cameron F. 2019. Breaking down proposals for privacy legislation: How do they
regulate?”. Brookings, 8 de marzo. https://bit.ly/3rgqAvz
Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación (BOE de
13 de julio https://bit.ly/48Nk9kq
Lieu, Ted. 2023. “I’m a Congressman Who Codes. A.I. Freaks Me Out”. The New York
Times, 23 de enero. https://bit.ly/3J4TEfe
López Oneto, Marcos. 2021. Fundamentos para un derecho de la inteligencia artificial.
Valencia: Tirant lo Blanch.
Manfredi Sánchez, Juan Luis, y María José Ufarte Ruiz. 2020. “Inteligencia Artificial y
Periodismo - Artificial Intelligence and Journalism: Una Herramienta Contra La
Desinformación”. Revista CIDOB d’Afers Internacionals 124: 49-72.
doi.org/10.24241/rcai.2020.124.1.49
Martín, María Antonia. 2003. Políticas de comunicación en la España multimedia. Historia
y comunicación social 8: 187-205. https://acortar.link/FpTYrF
Maslej, Nestor, Loredana Fattorini, Erik Brynjolfsson, John Etchemendy, Katrina Ligett,
Terah Lyons, James Manyika, Helen Ngo, Juan Carlos Niebles, Vanessa Parli, Yoav
Shoham, Russell Wald, Jack Clark y Raymond Perrault. 2023. “The AI Index 2023
Annual Report. Technical Report. Stanford University CA. bit.ly/3rkOOol
Monti, Matteo. 2019. Automated journalism and freedom of information: Ethical and
juridical problems related to AI in the press field. Opinio Juris in Comparatione 1.
bit.ly/3WWBJgu
Neuman, Nic. 2022. Digital News Project. Journalism, Media, and Technology Trends and
Predictions 2022, https://bit.ly/3MWNhvr
NSTC (National Sience and Technology Committee on Technology). 2016. “Preparing for the
future or Artificial Inteligence”, bit.ly/48nviIo
OECD Legal Instruments. 2019. “Recommendation of the Council on Artificial Intelligence”.
8 de abril. bit.ly/3J4zpy1
Parlamento Europeo. 2023. “Enmiendas aprobadas por el Parlamento Europeo el 14 de junio
de 2023 sobre la propuesta de Reglamento del Parlamento Europeo y del Consejo por
el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de
Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión”,
bit.ly/3PmOuxs
Pérez-Tornero, José Manuel, Cristina Pulido, Santiago Tejedor, Laura Cervi, Diana Sanjinés,
Wei Zhang, Sally Tayie, José Juan Ruiz, Pere Vila, David Corral, Carmen Pérez,
Esteban Crespo, Esteban Mayoral, Miguel Ángel Martín y Pedro Cánovas. 2020.
Detección de noticias a través de aplicaciones de inteligencia artificial: La
inteligencia artificial aplicada a informativos 2019-2020, bit.ly/46ei7I7
Roth, André Noël. 2014. “Enfoques y teorías para el análisis de las políticas públicas, cambio
de la acción pública y transformaciones del Estado. En Ensayos sobre políticas
públicas, editado por Jorge Iván Cuervo Restrepo, 137-160. Bogotá: Universidad
Externado de Colombia.
Ruaro, Regina Linden, y Ludmila Camilo Catão Guimarães Reis. 2020. “Os Desafios Do
Desenvolvimento ético Da Inteligência Artificial”. Veritas (Porto Alegre) 65(3): 1-14.
doi.org/10.15448/1984-6746.2020.3.38564
Salazar García, Idoia Ana. 2018. Los Robots Y La Inteligencia Artificial. Nuevos Retos Del
Periodismo. Doxa Comunicación. Revista Interdisciplinar de Estudios de
Comunicación y Ciencias Sociales 27: 295-315. doi.org/10.31921/doxacom.n27a15
Tambini, Damian. 2021. “What the EU’s Media Freedom Act could mean for journalism in
Europe”. LSE Blog, 16 septiembre. https://bit.ly/3CkrgBV
Trejo Rodríguez, Luis Andrés. 2019. Regulación de la inteligencia artificial en Estados
Unidos de América y Reino Unido. Tesis de Licenciatura en Derecho, Centro de
Investigación y Docencia Económicas, CIDE México. https://bit.ly/44Z7urE
Túñez-López, José-Miguel, César Fieiras-Ceide y Martín Vaz-Álvarez. 2021. “Impact of
Artificial Intelligence on Journalism: Transformations in the Company, Products,
Contents and Professional Profile”. Communication & Society 34(1): 177-193.
https://bit.ly/3ZYGsQ5
Tutt, Andrew. 2016. An FDA for Algorithms. Administrative Law Review 69: 83-123.
https://bit.ly/3M3Q2eJ
Ufarte Ruiz, María José, Luis Mauricio Calvo Rubio y Francisco José Murcia Verdú. 2021.
Los desafíos éticos del periodismo en la era de la inteligencia artificial. Estudios
sobre el Mensaje Periodístico 27(2): 673-684. https://bit.ly/3Rqcja8
Van Roy, Vincent, Fiammetta Rossetti, Karine Perset y Laura Galindo-Romero. 2021.
Estrategias nacionales sobre inteligencia artificial: una perspectiva europea.
Luxemburgo: Oficina de Publicaciones de la Unión Europea. bit.ly/3RrgH92
Ventura Pocino, Patrícia. 2021. Algoritmos en las redacciones: retos y recomendaciones para
dotar a la inteligencia artificial de los valores éticos del periodismo, bit.ly/3WWvIjM