Inteligencia Artificial: la Ética por Diseño desde la mirada de UNESCO
Por Sebastián Heredia Querro (*)
Tokenize-IT

Introducción

 

En 2019, UNESCO asumió el desafío de desarrollar el primer estándar global sobre la Ética de la IA, en forma de Recomendación para los Estados miembros, buscando precisar el cómo regular éticamente Inteligencia Artificial (“IA”). Dos años después, en 2021, UNESCO[1] emitió una serie de Recomendaciones para el desarrollo ético de la IA, buscando abrir un diálogo global para que el impacto de la actual ola de la IA[2] en materia cultural, política, económica y social –hoy apalancado por el boom de la IA generativa y los modelos fundacionales[3]– sea positivo para la Humanidad, y no negativo.

 

UNESCO afirma que la innovación en IA promete muchos beneficios, pero también puede afectar severamente los mercados laborales: cambiando o modificando tareas del trabajo o provocando olas de despidos laborales. Existen ya estudios que indican que los modelos fundacionales de IA podrían impactar en el 80% de la fuerza laboral de EE.UU, afectando aproximadamente al 10% de las tareas laborales[4]. Además, estos modelos pueden incluir o amplificar sesgos, generar importantes redundancias mediante la automatización de rutinas y de tareas no rutinarias, afectar al medioambiente por su considerable consumo energético, y afectar los derechos humanos y las libertades fundamentales, aumentando las desigualdades existentes, y perjudicando aún más a grupos ya marginados como minorías étnicas o raciales.

 

Desde ese lugar, UNESCO emitió su Recomendación sobre la Ética de la Inteligencia Artificial en 2021[5], con el fin de servir como una brújula para el diseño, desarrollo, implementación y adquisición de sistemas de IA que respeten los derechos humanos y la dignidad humana, y que preserven las libertades fundamentales y el medioambiente.

 

En este sentido, UNESCO busca garantizar que el crecimiento y el desarrollo de la IA sean equitativamente distribuidos entre las naciones y que no esté concentrado en manos de unas pocas empresas o países. Para ello, los gobiernos deben tomar medidas para garantizar la competitividad, la existencia de mercados no manipulados y la protección del consumidor, evitar abuso de posiciones dominantes y los monopolios y garantizar que las personas sean puestas en el centro[6]. Esto permitirá que se pueda invertir más en IA, y así crear tecnologías que sean transparentes, explicables, responsables, y justas, lo que beneficiará a sus usuarios finales y también a las PyMEs permitiéndoles participar y competir en el campo de la IA[7].

 

La Ética de la IA

 

Además de proponer ciertos principios[8], la Recomendación de UNESCO propone estrategias prácticas, mapeando áreas críticas que deben ser abordadas por los Estados miembros: (i) gobernanza de datos; (ii) protección ambiental; (iii) perspectiva de género; (iv) educación e investigación; y (v) salud y bienestar social, entre otras[9]. A continuación, se puntualizan los aspectos más relevantes de la Recomendación en estas áreas críticas.

 

En primer término, UNESCO pone de manifiesto la necesidad de garantizar una gobernanza de datos eficaz, incluyendo la organización de ciertos marcos responsables para supervisar la gestión de los datos, así como su almacenamiento, procesamiento, análisis, utilización, intercambio y transacciones de datos realizadas directamente por o en nombre de los gobiernos. Los enfoques de gobernanza de datos[10] varían según las leyes y las condiciones sociales.

 

Así, la Recomendación reconoce que los usuarios de los actuales servicios de Internet no entienden cómo las empresas de tecnología utilizan sus datos, y desconfían que sus datos estén almacenados de una manera segura. Por tal razón, UNESCO afirma la necesidad de balancear la privacidad de las personas, con la necesidad de recolección de grandes cantidades de datos y la regulación de los usos permitidos sobre los mismos[11]. Por tal razón, UNESCO aboga por el uso de data sets que sean robustos, de alta calidad y representativos para entrenar modelos de IA.

 

En este sentido, se afirma que la cantidad de datos que hoy se generan por los propios usuarios o mediante dispositivos IoT, puede facilitar rastrear los actos o movimientos de las personas, para buenos o malos propósitos. Además, si bien el Deep Learning y las redes neuronales pueden ayudar a descubrir patrones y relaciones dentro de los datos, generando conocimiento valioso para apoyar la toma de decisiones, también es cierto que las decisiones basadas en datos insuficientes, parciales[12] o de mala calidad, pueden ver afectada su precisión o confiabilidad[13].

 

Para lograr su cometido, la Recomendación promueve la creación de conjuntos de datos “Estándar Oro” que podrían servir como puntos de referencia de calidad y precisión para otros conjuntos de datos. Además, promueve la disponibilidad de conjuntos de datos abiertos y confiables, de modo tal que las partes interesadas puedan contribuir a la transparencia, reproducibilidad y responsabilidad de la investigación y la rendición de cuentas de la IA –Accountable AI-. En este sentido, la integración de IA con la neurotecnología a través de implantes de interfaces cerebro-computadora (BCI, por su sigla en inglés) obligará a extremar los recaudos[14], cuestión que también es abordada en la Recomendación[15].

 

Gobernanza de la IA

 

En relación a este punto relevante, la Recomendación de UNESCO afirma que la gobernanza ética de la IA debe ser: (i) inclusiva, para asegurar que los beneficios de la IA sean accesibles para todos; (ii) transparente, permitiendo a las partes interesadas puedan acceder a la información relevante; (iii) multidisciplinar, fomentando la comprensión de la IA por múltiples disciplinas y permitiendo la integración de diferentes disciplinas del conocimiento en la gobernanza de la IA; (iv) multilateral, para garantizar una perspectiva integral y global que contemple las necesidades de distintas regiones; (v) flexible, debido a la rapidez con la que evoluciona la tecnología; e (vi) institucionalizada, con la finalidad de anticipar problemas potenciales, riesgos y posibles perjuicios, y diseñar mecanismos que garanticen el cumplimiento de las normas y la implementación efectiva de medidas correctivas[16].

 

IA, Educación e Investigación

 

La forma en la que está evolucionando la tecnología IA, especialmente después del lanzamiento de ChatGPT y el auge de los Large Language Models, evidencia una carrera entre grandes actores económicos del mundo tecnológico, sin que el bien común se encuentre al centro del debate[17]. Como muestra, ya se sabe que la IA generativa puede generar resultados engañosos, información inexacta o falsa, engañando al usuario[18], a lo que cabe agregar cuestiones de autoría y propiedad intelectual difusas[19], dado que las plataformas generalmente no informan sus fuentes –vease la conclusión de ChatGPT al final del presente– o no son transparentes sobre su trabajo.

 

Por tal razón, la Recomendación de UNESCO pide una alfabetización y educación adecuadas sobre la IA, incluyendo programas de sensibilización sobre el uso ético de los datos y de la IA. En esta labor, la participación de grupos marginados debería priorizarse para reducir las brechas digitales y las desigualdades en el acceso digital.

 

IA, Economía y Trabajo

 

La IA tiene el claro potencial de hacer que los trabajadore y las empresas sean más productivos y eficientes, fomentando la innovación, y la creación de nuevos servicios y productos, pero, al mismo tiempo, es también innegable que la IA puede automatizar partes cada vez más relevantes de los empleos existentes, lo que producirá despidos y aumentará desigualdades[20].

 

Además, conjuntos de datos no representativos pueden facilitar la discriminación contra algunos perfiles de trabajadores. En este sentido, se cita a modo de ejemplo el siguiente caso: los hombres reciben un 20% más de anuncios de Facebook para carreras orientadas a la ciencia, la tecnología, ingeniería y matemática (STEM) que las mujeres, reproduciendo un sesgo pre-existente[21]. Previos avances tecnológicos han tendido a automatizar trabajos “rutinarios”, pero la IA generativa tiene el potencial de automatizar trabajos y tareas “no rutinarias”, es decir, tareas que implican creatividad o requieren importantes habilidades y conocimientos, lo que expondrá a grandes y nuevas franjas de la fuerza laboral global ante posibles disrupciones severas en el mercado del trabajo.

 

Por tal razón, la Recomendación de la UNESCO propone incluir la educación y la formación sobre IA en toda la oferta educativa y formativa y para todos los niveles, con el fin de achicar la falta de habilidades necesarias para trabajar y vivir en un mundo IA. Se impulsa además a los Estados Miembros a trabajar con el sector privado, organizaciones de la sociedad civil y otras partes interesadas, incluyendo a los sindicatos, para garantizar una transición justa para los empleados en riesgo. Esto incluye poner en marcha la “mejora y el reciclaje” profesional, encontrando mecanismos efectivos para retener al personal durante la transición tecnológica, y explorando “redes de contención” para asistir a aquellos que no pueden ser retenidos o re-entrenados.

 

IA y Perspectiva de Género

 

La Recomendación de UNESCO es el primer instrumento político que incluye un capítulo dedicado a la inclusión de género en la IA, para lo cual promueve que se recopilen datos desglosados ​​por género, y propone enfoques y acciones concretas para garantizar que dentro de los sistemas de IA no se repliquen disparidades basadas en el género, promoviendo también el emprendimiento femenino en IA.

 

IA y Medioambiente

 

UNESCO es consciente del impacto de la IA en términos de energía: un modelo de entrenamiento de IA común puede emitir hasta cinco veces más CO2 que lo que emitido por un auto promedio durante todo su ciclo de vida, incluyendo su fabricación. Por tal razón, la Recomendación pide a los Estados miembros y empresas que evalúen el impacto ambiental directo e indirecto de los sistemas de IA, y que garanticen que soluciones de IA puedan usarse para apoyar la prevención, adaptación y mitigación del cambio climático, mediante el monitoreo de la medición de la huella de carbono, del consumo de energía, la extracción de materias primas y el consumo de agua[22].

 

En relación al agua, UNESCO cita estudios de 2023 que encontraron que entrenar GPT-3 en los data centers de EE. UU. implicó un consumo directo de 700.000 Litros de agua dulce limpia, el equivalente que se consume para producir hasta 370 autos BMW o 320 vehículos eléctricos Tesla. Ese consumo de agua se triplicaría si se usaran data centers de Microsoft en Asia[23]. O puesto en otros términos, un estudio también demostró que ChatGPT requiere 500 ml de agua por cada 20 a 50 preguntas respondidas, sólo para mantener la temperatura en el rango adecuado y contrarrestar el calor producto del proceso de entrenamiento[24].

 

Por tales razones, la Recomendación de UNESCO pide que los modelos de IA aborden estos impactos ambientales, desarrollando algoritmos que sean eficientes en el consumo eléctrico, optimizando recursos y consumos informáticos, e implementando prácticas sostenibles en las infraestructuras que requieren los sistemas de IA, incluyendo el uso de energía renovables para alimentar sistemas de IA.

 

Implementación de la Recomendación de UNESCO

 

Para facilitar la implementación de la Recomendación, UNESCO ha desarrollado, por un lado, una metodología de evaluación de preparación para la IA (en inglés, readiness assessment methodology, RAM),  y, por otro, una evaluación de impacto ético de la IA[25].

 

La primera herramienta, RAM, ayuda a los países a comprender el estado actual y el nivel de su preparación para encarar la implementación ética y responsable de la IA. La herramienta está actualmente siendo utilizada por 50 países[26]. Según el índice 2023 de la Universidad de Stanford, en 2022 se aprobaron 37 leyes relacionadas con la IA a nivel mundial, y sólo en EE.UU se aprobaron 9 leyes[27]. Usando la RAM, los países interesados pueden identificar las áreas donde se requieren cambios institucionales y regulatorios, desarrollo de infraestructuras, capacidades y capital humano.

 

En este sentido, la RAM analiza cinco dimensiones: (i) Legal y Regulatorio: aborda las capacidades humanas e institucionales de los Estados miembros para poder aplicar la Recomendación, para poder encarar efectivamente las áreas con mayor impacto social debido a una mayor adopción de la IA en todos los sectores de la economía. Aquí se analizan marcos regulatorios adecuados y mecanismos de seguimiento y evaluación; (ii) Social y Cultural: hace foco en factores relevantes para el despliegue ético de la IA, tales como la inclusión, la diversidad social y cultural, y la  sensibilización pública. Analiza también las actitudes sociales hacia la IA, incluyendo su aceptación pública y el análisis de los valores y preferencias sociales; (iii) Económico: analiza el tamaño y la potencia de la oferta del ecosistema de IA en cada país, y su capacidad para desarrollar soluciones IA que reflejan las necesidades y condiciones específicas de cada país; (iv) Científico/Educativo: evalúa la investigación y el desarrollo de la IA en un país dado, y también analiza la investigación sobre ética de la IA y la oferta de educación y oportunidades para estudiantes, y monitorea el número de estudiantes (graduados) y profesionales con habilidades en disciplinas de IA, TICs o STEM, así como el nivel de talento digital y de IA de la población de cada país; y (v) Técnico e Infraestructuras: analiza el nivel de TICs y de infraestructura tecnológica existente, bajo la premisa que sin la infraestructura adecuada, el desarrollo de la IA y la implementación de soluciones basadas en IA no se podrá ampliar.

 

Si bien la Recomendación de UNESCO (y sus herramientas) está principalmente dirigida a Estados miembros, también se han realizado esfuerzos para orientar en la materia a otros actores, tales como comunidades, instituciones, y empresas. Así, junto a empresas líderes se ha creado el Consejo Empresarial para la Ética de la Inteligencia Artificial, que sirve como un espacio para intercambiar experiencias y buenas prácticas, fortalecer capacidades técnicas en ética e IA, y para diseñar e implementar una evaluación de impacto ético, y garantizar que la IA se desarrolle de manera ética. En este sentido, se asume que el desarrollo de soluciones de IA éticas permitirá a las empresas diferenciarse de los competidores y atraer clientes que valoren soluciones de IA confiables, lo que también facilita la atracción y retención del talento digital[28].

 

Conclusiones

 

Evidentemente, los signos de los tiempos indican que una buena regulación es esencial para fomentar entornos seguros, robustos y adecuados para desarrollar una IA responsable –o cualquier otra tecnología en auge, como las DLTs o la computación cuántica–. La existencia de marcos regulatorios adecuados genera certeza –seguridad jurídica[29]–, y permite nivelar la cancha para que la innovación florezca en beneficio de todos: los innovadores, incluyendo a las PyMEs, pero también de los usuarios de la innovación[30].

 

En la visión de UNESCO, que se comparte, cuando faltan marcos regulatorios  integrales, los países corren el riesgo de no poder evaluar, abordar y alocar las responsabilidades y obligaciones respectivas, y ello puede afectar severamente el desarrollo justo del mundo digital. Según un informe de la Universidad de Stanford, en 2023 127 países ya se encuentran debatiendo proyectos de marcos jurídicos para regular la IA[31].

 

Se afirma, con razón, que el objetivo de los esfuerzos legislativos no debiera ser regular la IA solo por regular, sino más bien para construir un entorno habilitador para la IA, garantizando que la IA contribuya al bienestar general, para lo cual se requiere inversión pública en capacidades e infraestructuras, dado que de nada servirán nuevos marcos jurídicos adecuados, si no se cuenta antes con las capacidades y el talento necesario a nivel gubernamental[32].

 

Es evidente que se necesita evitar el abuso y el uso indebido de las tecnologías de IA, por ejemplo, para difundir discursos de odio, de desinformación o interferir con la democracia y sus procesos, y también es necesario promover la diversidad y la inclusión en todo el ciclo de vida de un sistema de IA, en particular apoyando la participación de las mujeres y de los países en desarrollo. En este sentido, también se afirma que es necesario evitar la monopolización de la IA, y exigir transparencia cuando las decisiones se toman con IA, de modo tal de aumentar el escrutinio público y fomentar la confianza en la tecnología[33].

 

Para finalizar esta breve contribución, se considera oportuno compartir con el lector dos consultas realizadas a dos LLMs actualmente muy utilizados –ChatGPT (OpenAI) y BARD (Google). A ambos se les preguntó lo mismo: que enumere los principios esenciales para desarrollar la Inteligencia Artificial de manera ética. Nótese que: (i) sólo uno citó las fuentes, aunque no encontró los hipervínculos respectivos; (ii) un LLM propuso 10 principios, y otro propuso 9; y (iii) sólo uno de los LLMs consideró que el primer principio esencial debe ser la protección de los derechos humanos, mientras que el otro consideró que el primer principio debe ser la transparencia. En el orden mismo de esta propuesta de principios se puede ver, quizás, el sesgo de los humanos que los crearon y entrenaron.

 

 

 

 

 

 

Citas

(*) Sebastián Heredia Querro es Abogado (UCC), Magíster en Derecho Empresario (U. Austral) y Magíster en Finanzas (ESADE). Es co-fundador de Wootic, una software factory boutique enfocada en DLTs y machine learning.

[1] Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI Ethical by Design: the UNESCO perspective, publicado en Revista Computer, vol. 57, no. 02, pp. 33-43, 2024, doi: 10.1109/MC.2023.3325949.

[2] Para un breve estudio sobre la IA, su historia, sus componentes como el Machine Learning y el Deep Learning, el features engineering y otros aspectos relevantes a la IA,  véase Sebastián Heredia Querro, Smart Contracts: Qué son, para qué sirven, y para qué no servirán? 1ra. Ed., Ed. Cathedra Jurídica, Bs. As., 2020, véase apartado 3.5.1.10.4,  titulado "Smart Contracts, derecho al olvido, decisiones basadas en datos y otra tecnología en ascenso: Enter the Machine Learning”, de libre descarga disponible al 1/2/2024 en: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3875645  

[3] Los modelos de IA fundacionales son, según el área de investigación de IBM, el nombre que la Universidad de Stanford a través de su Centro de Investigación de Modelos Fundacionales ideó para bautizar a los modelos se entrenan con un amplio conjunto de datos sin etiquetar y que se pueden utilizar para diferentes tareas, con mínimos ajustes. Los primeros casos de los modelos fundacionales han aparecido en los mundos de las imágenes y el lenguaje (e.g. GPT-3, BERT o DALL-E), y permiten que ingresando un breve mensaje (i.e. prompting), el sistema genere como respuesta desde un ensayo completo hasta una imagen o presentación compleja, según sus parámetros, incluso si no recibió una capacitación específica sobre cómo ejecutar ese argumento exacto o generar una imagen de esa manera.

Los modelos fundacionales demuestran que, durante la última década, la IA pasó de ser un esfuerzo puramente académico a una fuerza que impulsa acciones en innumerables industrias y afecta las vidas de millones de personas cada día. Se empiezan a construir sistemas de IA que pueden aprender de millones de ejemplos para ayudarnos a encontrar nuevas soluciones a problemas difíciles. Estos modelos a gran escala, también conocidos como Large Language Models (LLMs) permiten desarrollar sistemas que pueden comprender cuándo hablamos o escribimos, con comprensión y procesamiento del lenguaje natural, integrándose con asistentes digitales hasta programas de conversión de voz a texto. Otros sistemas, entrenados con el trabajo completo de artistas famosos, o con cada obra relevante de química o física existente, ha permitido construir modelos generativos que pueden crear nuevas obras de arte o nuevas ideas compuestas basadas en la historia de la química o de la física. Si bien estos sistemas nuevos de IA ayudan a resolver todo tipo de problemas, crear e implementar cada nuevo sistema a menudo requiere una cantidad considerable de tiempo y recursos, además de un conjunto de datos grande y bien etiquetado para la tarea específica que desea abordar, dado que el modelo de IA tiene que aprender a reconocer todo lo que hay en el conjunto de datos y luego puede aplicarse al caso de uso que tenga, desde reconocer el lenguaje hasta generar nuevas moléculas para el descubrimiento de fármacos. La actual ola de IA busca reemplazar los modelos de tareas específicas que han dominado el panorama de la IA hasta la fecha, empleando machine learning supervisado y no supervisado, por modelos fundacionales que pueden ser la base para muchas aplicaciones del modelo de IA, utilizando el aprendizaje autosupervisado y el aprendizaje por transferencia, lo que permite que el modelo pueda aplicar la información que ha aprendido sobre una situación a otra situación distinta. Si bien la cantidad de datos es considerablemente mayor de lo que una persona promedio necesita para transferir conocimientos de una tarea a otra, el resultado final es relativamente similar. El valor y los usos de los modelos fundacionales puede extenderse a cualquier ámbito. Es posible que los modelos fundacionales aceleren drásticamente la adopción de la IA en las empresas, al reducirse el tiempo de etiquetado de enormes data sets, lo hará que sea mucho más fácil para las empresas comenzar a experimentar, y se potenciará la automatización altamente precisa y eficiente impulsada por la IA, y en un entorno de nube híbrida sin fricciones. Confr. IBM Research, What are foundation models?, disponible al 1/2/24 en https://research.ibm.com/blog/what-are-foundation-models.





[4] Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 33.

[5] Disponible al 1/02/24 en https://www.unesco.org/es/legal-affairs/recommendation-ethics-artificial-intelligence?TSPD_101_R0=080713870fab200010ec981fc4e7b015da6da17570a8ae0f4a23bfcb987327878eb4805385f6a8c2083133c7b8143000eaa96e3daeab24746bb6fe012ef6eca03fbef87f560c2a6f7e30e9d0f53d6181fe3519fdcfd0e406cf22d1549bffcb28

[6] Véase, por ejemplo, la posición europea en la materia en Sebastián Heredia Querro, Apuntes sobre Apuntes sobre el nuevo Reglamento de Inteligencia Artificial de la Unión Europea, disponible en Diario La Ley, del viernes 29 de diciembre de 2023, p. 1-4. Para ver la posición de EE.UU, léase de Sebastián Heredia Querro, Apuntes sobre la Orden Ejecutiva del Presidente

Biden para el desarrollo y uso seguro y confiable de la Inteligencia Artificial, publicado en Abogados.com.ar. 

[7] Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 34.

[8] Ellos son 10: Proporcionalidad e inocuidad, Seguridad y protección, Equidad y no discriminación, Sostenibilidad, Derecho a la intimidad y protección de datos, Supervisión y decisión humanas, Transparencia y explicabilidad, Responsabilidad y rendición de cuentas, Sensibilización y educación, Gobernanza y colaboración adaptativas y de múltiples partes interesadas.

[9] Confr. Disponible al 1/02/24 en https://www.unesco.org/es/legal-affairs/recommendation-ethics-artificial-intelligence?TSPD_101_R0=080713870fab200010ec981fc4e7b015da6da17570a8ae0f4a23bfcb987327878eb4805385f6a8c2083133c7b8143000eaa96e3daeab24746bb6fe012ef6eca03fbef87f560c2a6f7e30e9d0f53d6181fe3519fdcfd0e406cf22d1549bffcb28

[10] Para una síntesis del régimen europeo de gobernanza de datos, véase Sebastián Heredia Querro, Hacia un mercado europeo de datos: el nuevo régimen de los Intermediarios (neutrales) de Datos, publicado en Abogados.com.ar.

[11] Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 35.

[12] Ibid. En este sentido, es prioritario garantizar la representación de diferentes grupos en aspectos como raza, género, edad, nivel socioeconómico o en cuestiones de salud y discapacidad a la hora de entrenar modelos de IA para aumentar la precisión de sus predicciones o decisiones. Señala UNESCO que la subrepresentación de los adultos mayores en datos de IA y la falta de métodos consistentes para recopilar y registrar la información relacionada a la edad puede conducir a soluciones que no contemplen a este grupo social, o que ofrezca soluciones inadecuadas o discriminatorias.

[13] Ibid.

[14] La primera colocación exitosa de un chip cerebral en humanos ocurrió el 30/01/24. Confr. https://www.reuters.com/technology/neuralink-implants-brain-chip-first-human-musk-says-2024-01-29/

[15] Ampliar en https://unesdoc.unesco.org/ark:/48223/pf0000386137.

[16] Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 35.

[17] Idem, p. 36.

[18] Confr. https://www.forbes.com/sites/mollybohannon/2023/06/08/lawyer-used-chatgpt-in-court-and-cited-fake-cases-a-judge-is-considering-sanctions/?sh=8a46c0e7c7f3#:~:text=The%20lawyer%20for%20a%20man,the%20first%20cases%20of%20AI%20“

[19] Véase en este sentido la demanda presenta por el New York Times contra OpenAI, disponible en inglés aquí: https://nytco-assets.nytimes.com/2023/12/NYT_Complaint_Dec2023.pdf

[20]  Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 37.

[21] Ibid.

[22]  Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 38.

[23] Ibid.

[24] Ibid.

[25] Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 39.

[26]  Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 40.

[27]  Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 39.

[28] En este sentido, véase lo que ocurrió con la amenaza de renuncia de más de 700 empleados de OpenAI, la empresa que desarrolló ChatGPT. Confr. https://www.wired.com/story/openai-staff-walk-protest-sam-altman/#:~:text=More%20than%20730%20employees%20of,and%20reappoints%20the%20ousted%20CEO y en https://fortune.com/2023/11/27/openai-board-dysfunction-right-choice-defeat-battle-ai-profits-ethics-contest-tech-leadership-ann-skeet/. Según el sitio web de OpenAI, su misión es "garantizar que la inteligencia artificial general beneficie a toda la humanidad". La distinción entre inteligencia artificial general e inteligencia artificial puede ser parte de la historia si la empresa estuviera cerca de cumplir con su propia definición de inteligencia artificial general y sintiera que estaba a punto de hacerlo de una manera que no beneficiaba a la humanidad. En una entrevista con el podcast Hard Fork días antes de ser despedido, cuando se le pidió que definiera la inteligencia artificial general, Altman dijo que es un "término ridículo y sin sentido" y lo redefinió como "IA realmente inteligente". Quizás su junta consideró que el término y su definición eran más importantes.

Quizás la declaración de misión de OpenAI se parezca más a una declaración de visión, más aspiracional y prospectiva que la declaración de la misión de una corporación, que generalmente captura el propósito de la organización. El verdadero problema no es si se trata de una visión o una declaración de misión: la cuestión ética es si el Consejo de Administración de una organización non profit está obligado a tomar acciones que garanticen su cumplimiento. Avanzar lentamente y no acelerar el progreso de la IA puede no ser un argumento convincente para los inversores, pero tal vez haya inversores que quieran invertir precisamente en eso. Si lo que implica la misión de OpenAI es un enfoque cauteloso, entonces es un objetivo digno de perseguir, incluso si va en contra del enfoque tradicional de una startup más típicamente estructurada, es decir, con un vehículo for profit. La tensión en en Consejo estalló en 2022 por un un desacuerdo sobre un documento que escribió un miembro del Consejo que parecía crítico con el enfoque de la compañía hacia la seguridad de la IA y elogioso de un competidor.  

[29] Sostienen Ramos, Squicciarini, y Lamm que las cuestiones de responsabilidad civil son relevantes, y deben indemnizarse los daños que se causen por el uso de la IA según el derecho de fondo de cada país.

[30] Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 40.

[31] Confr. Gabriela Ramos, Mariagrazia Squicciarini, y Eleonora Lamm, Making AI… p. 41.

[32] Ibid.

[33] Ibid.

Opinión

El nuevo art. 245 bis de la LCT y la reedición de viejos errores del pasado
Por Lucas J. Battiston
PASBBA
detrás del traje
Diego Palacio
De PALACIO & ASOCIADOS
Nos apoyan