La UE quiere poner a las empresas en el anzuelo por la IA dañina


El nuevo proyecto de ley, llamado Directiva de responsabilidad de AI, agregará fuerza a la Ley de AI de la UE, que se convertirá en ley de la UE casi al mismo tiempo. La Ley de IA requeriría controles adicionales para los usos de IA de “alto riesgo” que tienen el mayor potencial de dañar a las personas, incluidos los sistemas de vigilancia, reclutamiento o atención médica.

El nuevo proyecto de ley de responsabilidad otorgaría a las personas y empresas el derecho a demandar por daños y perjuicios después de haber sido dañados por un sistema de IA. El objetivo es responsabilizar a los desarrolladores, productores y usuarios de las tecnologías, y exigirles que expliquen cómo se construyeron y entrenaron sus sistemas de IA. Las empresas tecnológicas que no siguen las reglas corren el riesgo de demandas colectivas en toda la UE.

Por ejemplo, los solicitantes de empleo que puedan demostrar que un sistema de IA para la selección de currículos los discriminó pueden pedirle a un tribunal que obligue a la empresa de IA a que les otorgue acceso a la información sobre el sistema para que puedan identificar a los responsables y descubrir qué salió mal. Armados con esta información, pueden demandar.

La propuesta todavía tiene que abrirse camino a través del proceso legislativo de la UE, que llevará al menos un par de años. Será enmendado por miembros del Parlamento Europeo y los gobiernos de la UE y probablemente enfrentará un intenso cabildeo por parte de las empresas tecnológicas, que reclamar que tales reglas podrían tener un efecto “escalofriante” en la innovación.

Tenga éxito o no, esta nueva legislación de la UE tendrá un efecto dominó en la forma en que se regula la IA en todo el mundo.

En particular, el proyecto de ley podría tener un impacto adverso en el desarrollo de software, dice Mathilde Adjutor, gerente de políticas europeas del grupo de cabildeo tecnológico CCIA, que representa a empresas como Google, Amazon y Uber.

Según las nuevas reglas, “los desarrolladores no solo corren el riesgo de ser responsables de los errores del software, sino también del impacto potencial del software en la salud mental de los usuarios”, dice.

Imogen Parker, directora asociada de políticas en el Instituto Ada Lovelace, un instituto de investigación de IA, dice que el proyecto de ley alejará el poder de las empresas y lo devolverá a los consumidores, una corrección que considera particularmente importante dado el potencial discriminatorio de la IA. Y el proyecto de ley garantizará que cuando un sistema de IA cause daño, haya una forma común de buscar una compensación en toda la UE, dice Thomas Boué, jefe de política europea del lobby tecnológico BSA, cuyos miembros incluyen a Microsoft e IBM.

Sin embargo, algunas organizaciones y activistas de los derechos de los consumidores dicen que las propuestas no van lo suficientemente lejos y pondrán el listón demasiado alto para los consumidores que quieran presentar reclamaciones.

Sharing is caring!

Facebook Comments

Leave a Reply