Implicaciones éticas de la Inteligencia Artificial
Por: Francisco J Jordá Schloeter
La inteligencia artificial (IA) es la inteligencia de las máquinas o el software. También es el campo de estudio de la informática que desarrolla y estudia máquinas inteligentes.
La inteligencia artificial se fundó como disciplina académica en 1956. El campo pasó por múltiples ciclos de optimismo/decepción y pérdida de financiación, pero después de 2012, cuando el aprendizaje profundo superó todas las técnicas de IA anteriores, hubo un gran aumento en financiación e intereses.
Los objetivos tradicionales de la investigación en IA incluyen el razonamiento, la representación del conocimiento, planificación, aprendizaje, procesamiento del lenguaje natural, percepción y el apoyo a la robótica.
La inteligencia general (la capacidad de resolver un problema arbitrario) es su objetivo a largo plazo. Para resolver estos problemas, los investigadores de IA han integrado una amplia gama de técnicas de resolución de problemas, incluida la optimización matemática, la lógica formal, las redes neuronales artificiales y los métodos basados en estadística, investigación de operaciones, Economía, Psicología, Lingüística, Filosofía y Neurociencia, principalmente.
Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que utilizan los humanos cuando resuelven acertijos o hacen deducciones lógicas. A finales de los años 1980 y 1990, se desarrollaron métodos para tratar con información incierta o incompleta, empleando conceptos de probabilidad y economía.
Hay decenas más de temas relacionados con la IA como, por ejemplo:
- Procesamiento del lenguaje natural (permite que la IA lea, escriba y se comunique)
- Percepción (capacidad de utilizar la información de los sensores)
- Robótica (diseño, construcción, operación y uso de robots)
- Inteligencia Social (reconocer, interpretar, procesar o simular sentimientos, emociones y estados de ánimo)
- Inteligencia general (ser capaz de resolver una amplia variedad de problemas)
- Búsqueda y optimización Lógica (lógica proposicional, lógica de predicados e inferencia lógica)
- Métodos probabilísticos para razonamiento incierto
- Clasificadores y métodos de aprendizaje estadístico
- Redes neuronales artificiales
- Hardware y software especializados
- Ética (beneficios y riesgos potenciales)
En este artículo, nos vamos a concentrar en ese último aspecto: lo ético en su desarrollo y en su uso.
El creciente realismo y la facilidad de uso de los generadores de texto a imágenes basados en IA, han provocado una tendencia de fotografías virales generadas por IA, siendo algunos de los primeros ejemplos una fotografía falsa del Papa Francisco con un abrigo acolchado blanco y el arresto ficticio de Donald Trump. La proliferación de “personas virtuales” en redes sociales, así como su uso en artes creativas profesionales, atrajeron gran atención.
Es por ello que, en medio de un campo que crece a pasos agigantados, el 29 de marzo de 2023, gigantes tecnológicos como Elon Musk y Steve Wozniak, así como líderes de otras industrias, incluidos Craig Peters, director ejecutivo de Getty Images, el autor Yuval Noah Harari y el político Andrew Yang, publicaron una carta abierta pidiendo una pausa de seis meses en los “sistemas de IA más potentes que GPT-4″. La carta dice: “Solo se deben desarrollar potentes sistemas de IA una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables…”, y continúo citando: “La investigación y el desarrollo de la IA deben reorientarse para hacer que los potentes sistemas actuales sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales”.
A partir de esa declaración, se ha generado una polarización en la sociedad; muchos argumentan que la IA mejora la calidad de la vida cotidiana al realizar tareas rutinarias e incluso complicadas mejor que los humanos, haciendo la vida más simple, segura y eficiente. Otros argumentan que la IA plantea riesgos peligrosos para la privacidad, exacerba el racismo al estandarizar a las personas y cuesta a los trabajadores sus puestos de trabajo, lo que genera un mayor desempleo.
La IA plantea ciertos riesgos en términos de consecuencias éticas y socioeconómicas.
Ya hemos mencionado el riesgo alrededor del desempleo y aunque la IA puede crear algunos empleos nuevos, estos pueden requerir más habilidades técnicas que los trabajos que la IA ha reemplazado, generando un forzoso estrés social. Hay autores que asumen al ser humano como inherentemente parciales y, por tanto, los algoritmos tienden a reflejar los prejuicios humanos con implicaciones raciales o discriminatorias.
La privacidad es otro aspecto de la IA que preocupa a los expertos. Como la IA a menudo implica recopilar y procesar grandes cantidades de datos, existe el riesgo de que personas u organizaciones equivocadas accedan a estos datos. Los expertos han implorado a los responsables de la formulación de políticas que desarrollen prácticas y políticas que maximicen los beneficios de la IA y minimicen los riesgos potenciales.
Gracias a su singular mandato sobre bioética, la UNESCO ha liderado durante décadas los esfuerzos internacionales para garantizar que la ciencia y la tecnología se desarrollen dentro de un marco ético.
El rápido auge de la inteligencia artificial (IA) ha generado nuevas oportunidades a nivel global: desde facilitar los diagnósticos de salud hasta posibilitar las conexiones humanas a través de las redes sociales, así como aumentar la eficiencia laboral mediante la automatización de tareas. Sin embargo, estos rápidos cambios también plantean profundos dilemas éticos, que surgen del potencial que tienen los sistemas basados en IA para reproducir prejuicios, contribuir a la degradación del clima y amenazar los derechos humanos, entre otros. Estos riesgos asociados a la IA se suman a las desigualdades ya existentes, perjudicando aún más a grupos históricamente marginados.
Reconociendo la urgencia de este desafío, la UNESCO publicó el primer estándar mundial sobre ética de la IA: la “Recomendación sobre la Ética de Inteligencia Artificial”. Este marco fue adoptado por los 193 Estados miembros en noviembre de 2021. La protección de los derechos humanos y la dignidad es la piedra angular de la Recomendación, basada en el avance de principios fundamentales como la transparencia y la equidad, recordando siempre la importancia de la supervisión humana de los sistemas de IA.
La Recomendación posee sus amplias áreas de acción, que permiten traducir los valores y principios fundamentales en acción con respecto a la gobernanza de datos, el medio ambiente y los ecosistemas, género, educación y la investigación, salud y bienestar social, entre muchos otros ámbitos.
Diez principios básicos establecen un enfoque de la ética de la IA centrado en los derechos humanos:
- PROPORCIONALIDAD Y NO DAÑAR
- SEGURIDAD Y PROTECCIÓN
- DERECHO A LA PRIVACIDAD Y PROTECCIÓN DE DATOS
- GOBERNANZA Y COLABORACIÓN ADAPTATIVAS Y DE MÚLTIPLES PARTES INTERESADAS
- RESPONSABILIDAD Y CUENTA DE CUENTAS.
- TRANSPARENCIA Y EXPLICACIÓN
- SUPERVISIÓN Y DETERMINACIÓN HUMANAS
- SOSTENIBILIDAD
- CONCIENCIA Y ALFABETIZACIÓN
- JUSTICIA Y NO DISCRIMINACIÓN
Un tema me preocupa personalmente, y es lo relativo a los Derechos de Autor o de Propiedad Intelectual. Cuando un profesional o un alumno solicita un análisis, un ensayo o cualquier tipo de estudio… ¿De quién es la propiedad intelectual?
El economista y profesor en la Universidad Internacional de La Rioja (UNIR), Iñaki Ortega, propone “una especie de nuevo juramento hipocrático para estos tecnólogos, algo que muchas instituciones ya están planteando”.
Quisiera cerrar con una cita de la Profesora Maite López Sánchez, catedrática de la Universitat de Barcelona:
“La transparencia y el respeto a la privacidad son cualidades que solemos exigir a las instituciones públicas, pero con frecuencia olvidamos pedírselos también a quienes desarrollan algoritmos”.