Ir al contenido

Futuro Laboral: IA y Regulación en Chile



El 07 de mayo de 2024 pasado, el Presidente de la República presentó un proyecto de ley a la Cámara de Diputadas y Diputados para regular los sistemas de Inteligencia Artificial (IA) en Chile. Este proyecto, fruto de un trabajo detallado que incluye la Política Nacional de IA, experiencias internacionales y recomendaciones sobre ética en IA, busca promover un desarrollo responsable de la IA, resguardando principios democráticos y derechos fundamentales.

Contenido del proyecto de ley y cómo podemos llevarlo a RRHH.
Ámbito de aplicación

El proyecto de ley se aplica a todos los proveedores e implementadores de sistemas de IA que operen en Chile, incluyendo aquellos domiciliados en el extranjero cuyas tecnologías se utilicen en el país. Excluye sistemas con fines de defensa nacional y aquellos en etapas de investigación y prueba. Esto garantiza que todas las aplicaciones de IA en el mercado chileno cumplan con normas específicas.

Ejemplo práctico en RRHH: Una empresa de reclutamiento utiliza un software de IA desarrollado en Estados Unidos para evaluar candidatos en Chile. Este software debe cumplir con la legislación chilena, garantizando la transparencia en cómo se recopilan y procesan los datos de los candidatos. Por ejemplo, debe informar a los postulantes que sus datos están siendo analizados por un sistema de IA y asegurar que estos datos se manejen de acuerdo con la normativa de protección de datos chilena.

Principios aplicables a los sistemas de IA

El proyecto establece varios principios fundamentales para el desarrollo y uso de sistemas de IA:

  • Intervención y supervisión humana: La IA debe funcionar como una herramienta para las personas, respetando su dignidad y autonomía.
  • Privacidad y gobernanza de datos: Los sistemas deben adherirse a las leyes de protección de datos y garantizar la interoperabilidad de los datos utilizados.
  • Transparencia y explicabilidad: Los usuarios deben ser conscientes de cuándo están interactuando con un sistema de IA.
  • Diversidad, no discriminación y equidad: La IA debe promover la igualdad y evitar sesgos discriminatorios.
  • Protección de los derechos de los consumidores: Se debe asegurar un trato justo y una comunicación clara y honesta con los usuarios.

Ejemplo práctico en RRHH: Una empresa de selección de personal implementa un sistema de IA para filtrar currículos. Según la ley, debe garantizar que la IA no discrimine por género, raza o cualquier otra característica personal. Si un sistema de IA está diseñado para seleccionar automáticamente candidatos basándose únicamente en la experiencia laboral, la empresa debe supervisar el proceso para evitar excluir de manera injusta a candidatos que podrían aportar diversidad y nuevas perspectivas.

 Clasificación de los sistemas de IA

La ley clasifica los sistemas de IA en cuatro categorías según su nivel de riesgo: 

  • Riesgo inaceptable: Sistemas que pueden violar derechos fundamentales, como aquellos que manipulan o discriminan.
  • Alto riesgo: Sistemas que pueden afectar significativamente la salud, seguridad, o derechos fundamentales de las personas.
  • Riesgo limitado: Sistemas que presentan riesgos menores y que deben operar bajo condiciones de transparencia.
  • Sin riesgo evidente: Sistemas que no presentan riesgos significativos.

Ejemplo práctico en RRHH: Un sistema de IA que evalúe el "ajuste cultural" de un candidato podría ser considerado de alto riesgo si se basa en parámetros subjetivos que puedan llevar a discriminación. Por ejemplo, si un sistema de IA utiliza criterios como "resiliencia" o "adaptabilidad" sin una supervisión adecuada, podría discriminar a ciertos candidatos que no se ajustan a una norma cultural predefinida. En cambio, un sistema que simplemente automatiza la programación de entrevistas con candidatos podría clasificarse como de riesgo limitado.



Institucionalidad y gobernanza

El proyecto propone la creación del Consejo Asesor Técnico de Inteligencia Artificial y la Agencia de Protección de Datos Personales. El Consejo asesorará al Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, mientras que la Agencia tendrá la función de fiscalizar y sancionar el cumplimiento de la ley.

Ejemplo práctico en RRHH: Si una empresa usa un sistema de IA para decidir promociones internas, y un empleado sospecha que ha sido discriminado, podría presentar una queja ante la Agencia. La Agencia tendría la autoridad para investigar el caso, exigir la entrega de información relevante y sancionar a la empresa si se encuentran infracciones. Por ejemplo, si se descubre que el sistema de IA tiene un sesgo hacia candidatos de cierta edad, la empresa podría recibir una multa y se le ordenaría ajustar el sistema para eliminar el sesgo.

Infracciones y sanciones

Las infracciones se clasifican en leves, graves y gravísimas, con multas proporcionales a la gravedad de la infracción. Las infracciones leves incluyen fallas en la transparencia, mientras que las graves y gravísimas incluyen el uso indebido de sistemas de alto riesgo o riesgo inaceptable.

Ejemplo práctico en RRHH: Si una empresa utiliza un sistema de IA para realizar evaluaciones psicológicas sin informar adecuadamente a los empleados, podría incurrir en una infracción leve. Si, además, el sistema de IA se utiliza para tomar decisiones que afectan negativamente a los empleados sin su conocimiento, como reducciones salariales basadas en evaluaciones automatizadas, la infracción podría ser considerada grave o incluso gravísima, dependiendo de la extensión del daño causado.

Perspectivas futuras

El proyecto de ley para la regulación de sistemas de IA en Chile busca establecer un marco claro y riguroso para su desarrollo y uso, protegiendo los derechos fundamentales de las personas y promoviendo una tecnología ética y responsable. En el ámbito de Recursos Humanos, esta regulación es crucial para garantizar procesos justos y equitativos, evitando prácticas discriminatorias y asegurando la transparencia y responsabilidad en el uso de IA. Las empresas deben adaptarse a estas nuevas normas para evitar sanciones y garantizar que sus sistemas de IA se utilicen de manera ética y efectiva.