Generalmente asociamos el término Inteligencia Artificial (“IA”) a películas de ciencia ficción o a algo que todavía no se encuentra presente en nuestras vidas cotidianas. Sin embargo, actualmente podemos interactuar con asistentes virtuales que responden a nuestras preguntas, nos dan recomendaciones y realizan acciones en base a nuestros datos. Si lo anterior no te resulta lo suficientemente cotidiano, ¿qué podemos decir de las sugerencias de películas, series o playlists en base a nuestros gustos que nos hacen las plataformas de streaming como Netflix o Spotify? ¿y de las publicidades online personalizadas y vinculadas a algo que anteriormente habíamos buscado? Como podemos ver, la IA ha llegado y es una realidad. Pero entonces, ¿en qué consiste la IA?
La IA implica que un sistema pueda recabar datos y en base a ellos sacar conclusiones o tomar decisiones, replicando o imitando la inteligencia de las personas o bien actuando o desarrollando un pensamiento racional en busca del mejor resultado posible[i] con cierto grado de autonomía e incluso con la posibilidad de tener autoaprendizaje. Esto es posible gracias a los avances en términos de almacenamiento y procesamiento de datos, que cada vez permitirán mayor autonomía por parte de la IA.
Nuestro siguiente paso es definir cuál es la finalidad de la IA, que no es otra que mejorar nuestra calidad de vida, ya sea ofreciendo un entretenimiento más afín a nuestros gustos (como en el ejemplo dado más arriba) o bien facilitando la realización de diversas tareas, lo que nos permite dedicarnos a otras que requieren habilidades distintas[ii].
Pero como en casi todo en la vida, siempre hay un lado negativo que es necesarioatender: la IA trae consigo riesgos que pueden derivarse de defectos, errores o sesgos en la programación o bien de la incidencia de terceros, que pueden afectar nuestra privacidad, intimidad, dignidad, salud o patrimonio, pudiendo estar la responsabilidad repartida entre diversos actores como el programador, el fabricante, el propietario, el usuario, etc.
En ese sentido, las normas jurídicas tienen que apuntar a maximizar los beneficios del uso de la IA, resguardarnos de los riesgos, resolver los conflictos legales y de seguridad que de su uso pueden surgir, a la vez que promover que su desarrollo y posterior uso se realice de una manera técnicamente sólida y en respeto de los derechos de las personas[iii].
En particular, destacamos la importancia del uso de la IA en respeto del derecho a la privacidad y la misión de la norma de proteger los datos personales, resaltando la aplicación de técnicas de anonimización para evitar un uso indebido de los datos que pueda afectar al titular de los datos y a la reputación de la compañía.
Por otro lado, y en relación al derecho a la dignidad, es importante que el desarrollo y prueba de IA se realice a través de los equipos de desarrolladores y testers más diversos posibles, para así disminuir la posibilidad de cualquier tipo de decisión o acción discriminatoria tomada por la IA.
La temática en la Unión Europea
En el ámbito de la Unión Europea, se propone el cumplimiento de estos objetivos a través de la aplicación de normas internacionales, de la creación de un código de Conducta, de la revisión de las reglas de responsabilidad vigentes y de la evaluación del impacto social que la IA pueda llegar a tener[iv].
En ese sentido, las Directrices Éticas para una IA Fiable (las “Directrices”) de la Unión Europea remarcan la necesidad de centrar el marco normativo en los seres humanos y en el respeto de sus derechos fundamentales, su autonomía, privacidad y seguridad, haciendo foco en evitar que se afecten los grupos sociales que son más vulnerables y/o que se encuentren en una situación de asimetría de poder o información[v].
Las Directrices recogen el principio de no discriminación y remarcan la importancia de la diversidad de los equipos a la hora de desarrollar, aplicar y probar los productos basados en IA.
En línea con lo anterior, se busca afianzar la aplicación de los principios de explicabilidad y transparencia, lo que traduce en la necesidad de que exista información clara sobre las posibilidades del sistema, que su funcionamiento sea trazable, susceptible de ser explicable y de fácil auditoría, disminuyendo así el riesgo de sesgo y error[vi].
Además, las directríces remarcan la importancia de adoptar acciones de educación y formación para quienes estén expuestos a la IA, y de que se respete el derecho a informarse sobre la lógica detrás de las decisiones que la IA adopte en base al tratamiento de datos personales.
En la región ha habido propuestas legislativas fundadas en la premisa de que son las personas las responsables por las decisiones tomadas por la IA, a la vez que se han realizado propuestas de interpretación de las normas vigentes sobre responsabilidad por productos para aplicarlas a la IA y hasta se ha mencionado la posibilidad del pago de impuestos destinados a reducir el impacto social[vii].
Más allá de lo anterior y para el momento en que la IA alcance un nivel de autonomía, aprendizaje e imprevisibilidad avanzado, se ha planteado también la posibilidad de responsabilizar civil[1][viii] e incluso penalmentea la misma IA[ix], para lo que resultaría necesario dotarla de una personalidad jurídica propia: así se ha comenzado a hablar de las personas electrónicas. Sin embargo, teniendo en cuenta el grado de avance tecnológico actual, por el momento puede parecer apropiadoacudir a una eventual clasificación de la IA como objeto peligroso, a la aplicabilidad de la responsabilidad por daños causados por productos defectuosos, o a los conceptos de responsabilidad objetiva, in vigilando, entre otros,y así hacer responsables a las personas detrás de la IA por los daños a terceros: esto es, a los fabricantes, propietarios o a los usuarios, lo que está alineado a lo que actualmente se propone en el marco de la Unión Europea.
¿Y en Argentina?
Considerando que a nivel internacional la regulación específica de la IA es escasa, nos preguntamos si localmente contamos con un conjunto de normas que sea suficiente frente a esta realidad y capaz de enfrentar sus riesgos y lograr los objetivos mencionados, o bien si es necesaria la creación o modificación de normas. Para ello es necesario revisar el ordenamiento jurídico de manera integral a fines de discernir si permite lograr de manera eficiente los objetivosdel uso IA.
En la Argentina, más allá de ciertas disposiciones que apuntan al estudio y desarrollo de propuestas de marcos regulatorios o a la promoción de buenas prácticas en términos de IA, la materia no ha sido específicamente regulada[x] y entonces se nos presentan al menos dos caminos:
Por un lado, encontramos a quienes sostienen la necesidad de regular jurídicamente la inteligencia artificial de manera específica y que la falta de regulación podría entorpecer su desarrollo[xi]. Sin embargo, reconocemos que es de suma complejidad lograr que nuevas normas abarquen todos los aspectos de la materia, sumado a que el proceso de elaboración de las normas va habitualmente muy por detrás de los avances tecnológicos, con el consecuente riesgo de que loscontinuos avances vuelvan obsoleta a la eventual nueva normaen poco tiempo. Es por ello que debemos plantearnos seriamente si es eficiente tomar ese camino[xii].
Por otro lado encontramos la postura que sostiene que puede resultar más conveniente, si es posible, encuadrar las situaciones que surjan con motivo del uso de la IA en las normas jurídicas ya existentes aplicando los principios generales vigentes del derecho contractual, de las normas sobre propiedad intelectual, responsabilidad y privacidad vigentes como las de nuestro Código Civil y Comercial, las normas de la Ley de Defensa del Consumidor Nro. 24.240 o la Ley de Protección de los Datos Personales, entre otras.
Por ejemplo, en materia de IA se suele recomendar reconocer la responsabilidad de tanto los fabricantes como de quienes comercialicen productos con IA[xiii] y en nuestro ordenamiento jurídico, y en el marco de relaciones de consumo, ello lo podríamos lograr a través de lo prescripto por los artículos 2 y 40 de la Ley de Defensa del Consumidor, por cuanto reconocen responsabilidad al productor, fabricante, proveedor, vendedor, entre otros, por los daños resultantes de la prestación del servicio, como así también del vicio o riesgo de la cosa.
Similarmente, frente al avance de la IA se suele hacer énfasis en que las personas tengan acceso libre a los datos generados o procesados por sistemas de IA y en ese sentido encontramos la posibilidad de ejercer el Derecho de Información prescripto por el artículo 13 de la Ley de Protección de los Datos Personales.
Sin embargo, parallevar a cabo lo antedicho, es sumamente necesario que los operadores jurídicos estemos capacitados e informados sobre los alcances actuales y potenciales de la IA. En la medida en que se cuente con suficiente capacitación y que los principios generales vigentes sobre responsabilidad, privacidad, propiedad intelectual y otras ramas estén dotados de suficiente flexibilidad, se podrán aplicar en materia de IA a través de una interpretación concordante con nuestra realidad social. Esto nos podrá ahorrar las complejidades del camino que implica el dictado de una o varias normas específicas sobre IA.
Citas
(*) Corporate Legal Counsel de GlobalLogic
[i] Villena C.A.O. (2019). Derecho y Economía de la Inteligencia Artificial. El futuro problema de la responsabilidad penal de las personas electrónicas. Programa de Actualización en Cibercrimen y Evidencia Digital. Universidad de Buenos Aires.
[ii] Lopez-Tarruella, A. (2019). Cinco Principios Para Abordar Los Retos Legales De La Inteligencia Artificial. Recuperado de http://www.lvcentinvs.es/2019/03/13/inteligencia-artificial-y-derecho/
[iii] Comisión Europea. Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial (2018). Directrices Éticas para una IA Fiable.
[iv] Santos González, M. J. (2017). Regulación Legal De La Robótica Y La Inteligencia Artificial: Retos De Futuro. Revista Jurídica de la Universidad de León (núm. 4,pp. 25-50).
[v] Comisión Europea. Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial (2018). Directrices Éticas para una IA Fiable.
[vi] Comisión Europea (2018). Inteligencia Artificial para Europa. Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones.
[vii] Morales Cáceres, A. (2017). La Regulación De La Inteligencia Artificial. Recuperado de http://agnitio.pe/articulo/la-regulacion-de-la-inteligencia-artificial/).
[viii] Santos González, M. J. (2017). Regulación Legal De La Robótica Y La Inteligencia Artificial: Retos De Futuro. Revista Jurídica de la Universidad de León (núm. 4,pp. 25-50)
[ix] Villena C.A.O. (2019). Derecho y Economía de la Inteligencia Artificial. El futuro problema de la responsabilidad penal de las personas electrónicas. Programa de Actualización en Cibercrimen y Evidencia Digital. Universidad de Buenos Aires.
[x] Contribution by (2019). Argentina en Chambers Global Practice Guide. Chambers and Partners.Richards, Cardinal, Tützer, Zabala & Zaefferer
[xi] García, V. (2019). Inteligencia Artificial: Su Regulación y Desafíos Legales. Recuperado de https://medium.com/@abogadovicgarcia/inteligencia-artificial-su-regulaci%C3%B3n-y-desaf%C3%ADos-legales-primera-parte-5ad5faf8aead
[xii] Lopez-Tarruella, A. (2019). Cinco Principios Para Abordar Los Retos Legales De La Inteligencia Artificial. Recuperado de http://www.lvcentinvs.es/2019/03/13/inteligencia-artificial-y-derecho/
[xiii] Santos González, M. J. (2017). Regulación Legal De La Robótica Y La Inteligencia Artificial: Retos De Futuro. Revista Jurídica de la Universidad de León (núm. 4,pp. 25-50)
Artículos
GUYER & REGULES
opinión
ver todosKabas & Martorell
PASBBA
NORDELTA S.A.