Hay que cumplir la ley de IA al usar ChatGPT?
Publicado el jueves, 11 de septiembre de 2025
La Ley de Inteligencia Artificial Europea establece obligaciones claras cuando se usan sistemas como ChatGPT, especialmente si se manejan datos personales, se automatizan decisiones o se afectan derechos fundamentales. Estos sistemas pueden ser considerados de alto riesgo si generan o procesan contenido para fines comerciales, de vigilancia o en ámbitos que impactan derechos. Por ello, es necesario garantizar el cumplimiento normativo al utilizar ChatGPT, en especial cuando se generan contenidos como imágenes o vídeos.
En sectores como las finanzas, la salud o la seguridad, el uso de ChatGPT puede clasificarse como de alto riesgo. En estos casos, la ley obliga a realizar una evaluación de impacto, implementar medidas de mitigación y mantener la supervisión humana, ya que las decisiones automatizadas pueden afectar significativamente a la vida, el bienestar o las oportunidades de las personas. Incluso en usos de menor riesgo, como campañas de marketing o monitoreo de redes sociales, es obligatorio informar a los usuarios sobre el empleo de IA y garantizar la transparencia.
El carácter de “alto riesgo” de ChatGPT depende de su aplicación. No se considera así cuando se usa para tareas generales como redacción, codificación o aprendizaje. Sin embargo, si se aplica en procesos de contratación, diagnósticos médicos o decisiones legales automatizadas, pasa a ser de alto riesgo, lo que implica mayores requisitos de cumplimiento, evaluaciones de riesgos y supervisión constante para proteger los derechos de las personas involucradas.
Por último, el RGPD sigue siendo plenamente aplicable al uso de ChatGPT. Se recomienda no introducir datos personales sensibles sin el consentimiento adecuado, y las empresas deben establecer medidas técnicas y contractuales para proteger la información compartida. Cumplir con estas normativas no solo previene sanciones, sino que también refuerza la confianza y la responsabilidad en el uso de la inteligencia artificial dentro de las organizaciones.
11/09/2025 08:09 | Forlopd_Privacidad
SEGURIDAD Y PRIVACIDAD DE DATOS, S.L. (FORLOPD)
URL oficial/canónica: https://ceeivalencia.emprenemjunts.es/?op=113&n=18417
