Asóciate
Participa

¿Quieres participar?

Estas son algunas maneras para colaborar con el movimiento laicista:

  1. Difundiendo nuestras campañas.
  2. Asociándote a Europa Laica.
  3. Compartiendo contenido relevante.
  4. Formando parte de la red de observadores.
  5. Colaborando económicamente.

Lo que la inteligencia artificial ya no podrá hacer contigo: usos prohibidos a raíz de la Ley de IA

Comentarios del Observatorio

Las instituciones europeas reconocen con este acuerdo que la Inteligencia Artificial puede influir y manipular la conciencia de las personas y establecen en esta propuesta de normativa una serie de límites para ello. Desde una perspectiva laicista, es fundamental tomar estas acciones y prevenir situaciones que resulten en desmedro de la libertad de conciencia.

La nueva normativa europea ha acordado algunos límites para regular la IA, entre ellos se limita el uso de sistemas de identificación biométrica por parte de las autoridades y se prohíben los sistemas de puntuación social y para manipular o explotar las vulnerabilidades de los usuarios.

Tras más de 30 horas de negociación, la Comisión Europea, el Parlamento Europeo y el Consejo de la UE alcanzaron el pasado 8 de diciembre un acuerdo sobre la futura ley que regulará el desarrollo de la inteligencia artificial en Europa. La norma, la primera de su clase a nivel mundial, permitirá o prohibirá el uso de esta tecnología en función del riesgo que suponga para las personas.

Recordemos que este reglamento empezó a tomar forma en 2019, cuando todavía no hacíamos uso de la IA a nivel social —esto no se produjo hasta el estallido de ChatGPT— y muchas cosas han cambiado desde entonces. Solo por curiosidad he comprobado cuántas noticias sobre la herramienta de OpenAI hemos publicado en 20bits y me salen unas 700.

Actualmente, el chatbot conversacional y generativo ChatGPT tiene 100 millones de usuarios activos a la semana en el mundo y en España cuenta con más de 4 millones de usuarios.

¿Qué novedades plantea la Ley de IA? Lo que ya no podrá hacer la inteligencia artificial

La norma prohíbe, entre otros usos, los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual. Este es uno de los puntos más polémicos de la misma.

En este sentido, una de las claves de la nueva legislación es que clasifica esta tecnología en función del riesgo que representan sus sistemas. Y en función de dicho riesgo —establecido en cuatro niveles— quedan prohibidas ciertas herramientas y aplicaciones.

Tal y como dicta la nueva norma, directamente se prohibirán aquellos sistemas de IA “que se consideren una clara amenaza a los derechos fundamentales de las personas”. Esto incluye sistemas o aplicaciones de inteligencia artificial “que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, como juguetes que utilizan asistencia de voz para fomentar comportamientos peligrosos de menores o sistemas que permiten la ‘puntuación social’ por parte de gobiernos o empresas, y ciertas aplicaciones de vigilancia policial predictiva”.

Además, subrayan, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, “los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas o identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con excepciones limitadas)”.

Finalmente, al emplear sistemas de inteligencia artificial como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina. “Los deepfakes y otros contenidos generados por IA deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones”.

Saltarse las pautas establecidas en la norma puede salir caro a las compañías, con multas que van desde 7,5 millones de euros o el 1,5% del volumen de negocio a otras de 35 millones o el 7% del volumen de negocio, según la infracción cometida y el tamaño de la empresa.

Lista de usos prohibidos de la inteligencia artificial según la nueva ley europea para regular la IA

  • Sistemas de categorización biométrica en espacios públicos: prohíbe el uso de sistemas de IA para la identificación biométrica a distancia en espacios públicos, con excepciones limitadas y reguladas.
  • Sistemas que explotan vulnerabilidades de menores o personas con discapacidad: prohíbe los sistemas de IA que explotan las vulnerabilidades de menores o personas con discapacidades, para distorsionar su comportamiento de manera que pueda causarles daño físico o psicológico.
  • Sistemas de puntuación social: prohíbe los sistemas de IA que evalúan o clasifican a las personas según su comportamiento social o personalidad.
  • Sistemas que manipulan el comportamiento humano: prohíbe los sistemas de IA diseñados para manipular el comportamiento humano para eludir su libre albedrío.
  • Sistemas de categorización biométrica que utilizan características sensibles: por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual o raza.
  • Sistemas de reconocimiento facial: prohíbe la extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial.
  • Sistemas de reconocimiento emocional: prohíbe el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.

Excepciones en el uso de sistemas de identificación biométrica

Los negociadores acordaron una serie de salvaguardias y excepciones estrechas para el uso de sistemas de identificación biométrica (RBI) en espacios de acceso público con fines policiales, sujetos a autorización judicial previa y para listas de delitos estrictamente definidas.

“La RBI ‘post-remota’ se utilizaría estrictamente en la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave”, dice la norma.

La RBI ‘en tiempo real’ cumpliría con condiciones estrictas y su uso estaría limitado en tiempo y ubicación, para los fines de:

  • Búsquedas selectivas de víctimas (secuestro, trata, explotación sexual)
  • Prevención de una amenaza terrorista específica y presente
  • Localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el reglamento (por ejemplo, terrorismo, trata, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal, delitos medioambientales)
Total
0
Shares
Artículos relacionados
El alcalde de Villanueva de la Cañada (Madrid) acude a la catedral ortodoxa de Madrid para reunirse con su patriarca
Leer más

Autoridades públicas en actos religiosos

De España:
Total
0
Share