¿Cómo Ecuador regula la inteligencia artificial?
La Unión
Internacional de Telecomunicaciones (UIT), organismo especializado de
las Naciones Unidas para las tecnologías de la información y
la comunicación, realizará la sexta cumbre sobre inteligencia
artificial (IA), en Ginebra. Uno de los temas a tratar
será la regulación sobre esta tecnología.
El evento
se realizará este 6 y 7 de julio del 2023. De hecho, la ONU solicitó una semana
antes de esta cumbre, denominada: IA para siempre, que países
y empresas avancen en la regulación de la inteligencia artificial.
China y a la Unión Europea (UE) ya trabajan en normativas.
Los países
de la región también han presentado sus propuestas de leyes para el uso de la
IA. Por ejemplo, Perú aprobó una ley, de carácter declarativo,
para promover el uso de la inteligencia artificial, en mayo pasado.
Asimismo, Chile presentó un proyecto de ley que busca regular
los sistemas de IA.
Ecuador no tiene un proyecto de ley para el uso y regulación de inteligencia
artificial todavía. Sin embargo, expertos, señalan la necesidad
de promulgar una normativa sobre esta tecnología.
¿Qué debe tener una
ley que regula la inteligencia artificial en el país?
La regulación
debe ser fruto de un consenso amplio. Que tome en cuenta, desde
luego, las voces de las empresas de tecnología que más saben la inteligencia
artificial como IBM. Pero, también a todos los actores que están
involucrados en el ecosistema, como la academia, el gobierno y quienes llevan
adelante negocios y operaciones con inteligencia artificial. Creemos que las
mejores regulaciones y leyes son fruto de un consenso.
En segundo
lugar, tiene que ser clara, que marque la cancha correctamente para
todos, y además, tiene que ser, esto quizás uno de los puntos más importantes,
tiene que ser flexible. Es decir, tiene que permitir el espacio
necesario para que la innovación siga sucediendo, esto
mientras protegemos los derechos y de los ciudadanos y los valores. Pero, no
debe ser una camisa de fuerza, menos aún en estos momentos donde estamos todos
recién aprendiendo cuáles son las aplicaciones de la inteligencia artificial.
Además, en el caso ecuatoriano, una ley de regulación de inteligencia artificial tendrá que estar en armonía y alineada con la ley de protección de datos personales, que se aprobó hace dos años y cuyo régimen sancionatorio entró en vigor el 26 de mayo de este año.
¿Cuáles son
los principales riesgos al utilizar la inteligencia artificial?
En un
sistema de inteligencia artificial hay algunos riesgos de entrada y
de salida. Entre los riesgos de entrada podemos mencionar la privacidad
de los datos, que es un derecho constitucional. Además, también está
la calidad de los datos. Es decir, un sistema de inteligencia artificial que
haga una ingesta con datos que no son de calidad, evidentemente va a producir
resultados que no son los idóneos. Otro tipo de riesgo es la transparencia en
la ingesta de esos datos y en particular lo que se denomina sesgo
representacional.
Un riesgo
de salida es el copyright. Si yo entreno y alimento a un sistema
con textos, imágenes, videos hechos por alguien ¿en qué medida se puede
atribuir esta propiedad a los a los autores originales? Por eso es tan
importante la transparencia.
¿La regulación debe
estar basada en estos riesgos?
Nosotros
vemos con buenos ojos una posible regulación de inteligencia artificial basada
en riesgos. Es decir, que se haga una categorización previa de los riesgos y
que no regule la tecnología en sí. Un ejemplo de este tipo de regulación es
la Ley de inteligencia artificial recientemente aprobada por
el Parlamento Europeo y que ahora está en la negociación
tripartita entre Parlamento, Comisión y Consejo, supongo que sufrirá cambios
menores, pero no de fondo en cuanto a la aproximación basada en riesgos.
En Europa
clasifican los usos de inteligencia artificial en cuatro riesgos que son: alto
mediano, bajo e inaceptable. Es decir, hay usos de inteligencia artificial que
son completamente inaceptables. Por ejemplo, actividades policiales predictivas
o categorización de emociones en las personas.
¿Mientras haya una
ley de IA, qué deberían hacer las empresas y usuarios de esta tecnología?
Las
empresas deben a empezar cumpliendo la ley de protección de datos
personales. No se puede hablar de un sistema de inteligencia artificial
bien construido sin protección de datos. Esa ley ya está en vigor en Ecuador
desde hace más de dos años.
Las
empresas pueden empezar a empaparse de esta realidad y empezar a implementar
las acciones correspondientes, como capacitar a sus empleados en el manejo de
estos sistemas, designar el delegado de protección de datos, que es la persona
que va a asesorar y acompañar a la empresa en la implementación un sistema de
protección de datos, tener medidas de ciberseguridad y más.
Por un
lado es implementar nueva tecnología, pero por otro lado también es tomar
conciencia de que los datos de nuestros usuarios o clientes tienen un valor y
que por lo tanto tienen que ser protegidos.
La inteligencia artificial (IA) es la simulación de inteligencia humana que crea algoritmos y sistemas informáticos capaces de ejecutar tareas simples y complejas que realizan las personas. Se basa en la idea de que una máquina puede programarse para imitar la forma en que un ser humano piensa y actúa.