Enlaces para accesibilidad

España impondrá fuertes multas por no etiquetar los contenidos generados por IA


ARCHIVO - En esta ilustración tomada el 27 de enero de 2025 se ve un mensaje que dice "inteligencia artificial AI", un teclado y manos de robot.
ARCHIVO - En esta ilustración tomada el 27 de enero de 2025 se ve un mensaje que dice "inteligencia artificial AI", un teclado y manos de robot.

Con el objetivo de combatir el uso de "deepfakes", el gobierno de España aprobó un proyecto de ley que establece altas multas para las empresas que usen contenidos generados por IA, sin etiquetarlos como tales.

El gobierno español aprobó el martes un proyecto de ley que impone fuertes multas a las empresas que utilicen contenidos generados por inteligencia artificial (IA) sin etiquetarlos adecuadamente como tales, en un intento de frenar el uso de los llamados "deepfakes".

El proyecto de ley adopta las directrices de la emblemática Ley de IA de la Unión Europea, que impone estrictas obligaciones de transparencia a los sistemas considerados de alto riesgo, según indicó a la prensa el ministro de Transformación Digital, Óscar López.

"La IA es una herramienta muy poderosa que puede utilizarse para mejorar nuestras vidas (...) o para difundir desinformación y atacar la democracia", comentó.

España es uno de los primeros países de la UE en aplicar las normas del bloque, consideradas más completas que el sistema de Estados Unidos, que se basa en gran medida en el cumplimiento voluntario y en un mosaico de normativas estatales.

López añadió que todo el mundo es susceptible de sufrir ataques de "deepfake", término con el que se conoce a los videos, fotografías o audios que han sido editados o generados mediante algoritmos de IA pero que se presentan como reales.

El proyecto español, que debe ser aprobado por la Cámara baja, tipifica el incumplimiento del etiquetado adecuado de los contenidos generados por IA como una "infracción grave" que puede acarrear multas de hasta 35 millones de euros (38,2 millones de dólares) o el 7 % de su facturación anual global.

Garantizar que los sistemas de IA no perjudiquen a la sociedad ha sido una prioridad para los reguladores desde que OpenAI presentó ChatGPT a finales de 2022, que cautivó a los usuarios al entablar conversaciones similares a las humanas y realizar otras tareas.

El proyecto de ley también prohíbe otras prácticas, como el uso de técnicas subliminales -sonidos e imágenes imperceptibles- para manipular a grupos vulnerables. López citó como ejemplos los chatbots que incitan a apostar a personas con adicciones o los juguetes que animan a los niños a realizar retos peligrosos.

¡Conéctate con la Voz de América! Suscríbete a nuestros canales de YouTube, WhatsApp y al newsletter. Activa las notificaciones y síguenos en Facebook, X e Instagram.

    Foro

    Síganos en redes sociales

    XS
    SM
    MD
    LG