Estadísticas que hacen referencia del poder y los beneficios que ejercerán en la vida cotidiana de las personas las plataformas habilitadas con inteligencia artificial (IA) y que señalan que dicha tecnología podría aportar hasta 15,700 millones de dólares a la economía mundial en 2030, advierten que este sector en rápida evolución y carente de regulación, podría ser desencadenante de riesgos tecnológicos, razón por la cual la Unión Europea (UE) se ha dado a la tarea de proponer algunos requisitos para regularla.
El marco legal propuesto por la UE, denominado Ley de Inteligencia Artificial, pretende limitar las consecuencias potencialmente negativas de la IA en las personas y en la sociedad en su conjunto. Dentro de su ámbito de aplicación, se mencionan algunas de las tecnologías más emocionantes y controvertidas de la historia reciente, como la conducción autónoma, el reconocimiento facial y los algoritmos que impulsan el marketing en línea.
Por otra parte, según lo que argumenta la UE, la Ley de Inteligencia Artificial introducirá importantes obligaciones relacionadas con la transparencia, la gestión del riesgo y la gobernanza de datos, y es probable que se aplique a proveedores de IA y a sus clientes.
Así como ocurre en el Registro General de Protección de Datos (RGPD), las multas que las autoridades podrían aplicar para el rubro de IA se clasifican por niveles según la gravedad. Por ejemplo, una multa de nivel superior considerada en la pretendida Ley de IA superaría a la del RGPD, alcanzando los 30 millones de euros (35.5 millones de dólares) o un 6 por ciento de la facturación mundial anual, la que sea la más alta.
El enfoque regulatorio ha sido separar la IA y los requisitos correspondientes según el nivel de riesgo. Comienza con la “IA prohibida”, que la Comisión ha clasificado como prohibida debido al riesgo excepcional inherente que conlleva. Es lo que muchos de nosotros consideraríamos como un nivel de IA “demasiado lejano”, que incluye tecnología como el reconocimiento facial biométrico en los espacios públicos o la puntuación social por parte de las autoridades.
Asimismo, la Comisión reguladora de la UE identifica a cierta IA como de “bajo riesgo” y “riesgo mínimo”, que solo necesitan cumplir las obligaciones básicas de transparencia para realizar la propuesta. Por ejemplo, bots de chat, filtros de spam o los videojuegos que utilizan IA para emular el comportamiento realista de los jugadores humanos.
Según la fuente, los proveedores de sistemas de IA de alto riesgo enmarcados en esta propuesta deben implementar una serie de requisitos, tales como: contar con un sistema de gestión de riesgos, realizar prácticas de gobernanza de datos, mantener documentación técnica y gestión de archivos, así como garantizar el suministro de información transparente a los usuarios de sus sistemas.
Además de los requisitos centrados en el producto, los proveedores de IA también deben asegurarse de que cuentan con un sistema de gestión de calidad establecido, que realizan “evaluaciones de cumplimiento” y mantienen registros generados automáticamente.
Los proveedores también deben marcar con las siglas CE los sistemas de IA de alto riesgo (o documentación) para indicar su conformidad. Si se detecta el incumplimiento de alguno de los requisitos, los proveedores deben informar a las autoridades designadas y adoptar las medidas correctivas necesarias.
Finalmente, los usuarios de sistemas de IA de alto riesgo están obligados a: seguir las instrucciones emitidas que acompañan a los sistemas de IA, garantizar que los datos de entrada sean relevantes para el propósito previsto de la IA, supervisar el funcionamiento de la IA y suspender el sistema en caso de que se presente algún riesgo, y mantener y conservar los registros generados durante un plazo adecuado.