El tema de investigación sobre ética e IA tiene como objetivo abordar una serie de desafíos éticos planteados en la IA y proporcionar los primeros elementos básicos para el desarrollo de sistemas de IA que se adhieran a nuestros valores y requisitos. Proponemos herramientas y métodos computacionales novedosos, respaldados por investigaciones multidisciplinarias, que pueden hacer que los humanos y las máquinas entiendan sus respectivos objetivos dinámicos mientras respetan estrictamente los valores que inspiran a nuestras sociedades.
Contacto: Nardine Osman
En los últimos años, surgieron muchas iniciativas que intentaron abordar los problemas de ética e IA. Algunos fueron dirigidos por industrias tecnológicas de primer nivel, mientras que otros por científicos destacados en los campos relevantes, desde la filosofía hasta la IA. Entre ellos se encuentra la declaración de Barcelona liderada por el IIIA para el desarrollo y uso adecuado de la inteligencia artificial en Europa. Todas esas iniciativas comparten una serie de preocupaciones éticas desafiantes, que van desde la explicabilidad, la transparencia y la rendición de cuentas hasta la alineación de valores, el control humano y el beneficio compartido.
En el IIIA, nuestro objetivo es abordar algunos de estos desafíos éticos. Por un lado, deseamos centrarnos en el desarrollo de sistemas de IA que se adhieran a nuestros valores y requisitos. Por otro lado, queremos centrarnos en el impacto de los sistemas de IA en las interacciones humanas (entre sí o con el sistema de IA) para garantizar que estamos promoviendo interacciones y colaboraciones éticas.
Nuestro trabajo sobre ética e IA está respaldado por una sólida investigación multidisciplinaria. Por ejemplo, qué comportamiento del sistema se considera ético y legal es clave aquí. Como tal, decimos que las ciencias sociales y las humanidades (desde la filosofía y el derecho hasta las ciencias sociales y cognitivas) se encuentran en el centro de cualquier investigación sobre ética e IA. Argumentamos que estos campos no solo deberían proporcionar información para la investigación de la IA, sino que también deberían participar de forma activa y colaborativa en la dirección y el avance de la investigación de la IA.
A continuación, presentamos los principios que sustentan el trabajo del IIIA sobre ética e IA.
Una muestra de nuestros intereses de investigación:
Dar a los humanos la posibilidad de opinar sobre cómo funcionan sus tecnologías implica permitirles ponerse de acuerdo colectivamente sobre tales cuestiones. Las áreas de investigación como la argumentación, la negociación, la confianza y la reputación, la elección social computacional y la alineación semántica proporcionan medios para apoyar a los pares (humanos y agentes de software) para llegar a acuerdos de forma colaborativa. Sostenemos que los acuerdos deben estar basados en valores. Por lo tanto, la introducción de valores en las áreas de investigación de las tecnologías de acuerdos es de sumo interés.
Saber cuándo un sistema no está cumpliendo sus objetivos puede ayudar a señalar la necesidad de un cambio. Aprender qué normas se adhieren mejor a ciertos valores o qué normas se adaptan mejor a una comunidad determinada de pares puede ayudar a respaldar el proceso de toma de decisiones sobre cómo debe cambiar/evolucionar un sistema, así como también respaldar qué dirección debe tomar este cambio. Visualizamos mecanismos de aprendizaje y razonamiento para apoyar el proceso de decisión de las personas.
Que las personas acuerden colectivamente las necesidades y los valores que impulsan y gobiernan sus tecnologías implica: 1) que discutan y argumenten estas necesidades y valores, y 2) que el sistema participe en el proceso de acuerdo de las personas y comprenda las decisiones finales. Como no podemos esperar que los humanos dominen los lenguajes formales utilizados para especificar necesidades y valores, ni que tengan discusiones en un lenguaje formal, el procesamiento del lenguaje natural se vuelve clave para que el humano y la máquina se entiendan.
El comportamiento es lo que garantiza que se satisfagan las necesidades y se respeten los valores, y las normas son las que gobiernan el comportamiento. Los sistemas normativos se han utilizado tradicionalmente en sistemas multiagente para mediar en el comportamiento. Seguimos esos pasos y proponemos emplear los sistemas normativos como medios para mediar el comportamiento. Estamos especialmente interesados en la relación entre valores y normas y en asegurar (a veces verificar) que un sistema normativo se adhiera a unos valores predefinidos.
Definir valores formalmente es un desafío en sí mismo. Incorporar valores en los sistemas de IA y verificar la adherencia de un sistema a un conjunto de valores es un desafío aún mayor. Todo esto requiere una cuidadosa y estrecha colaboración con el campo de la ética. Además, si bien se ha argumentado que la necesidad del control humano es uno de los principios de la IA ética, no podemos ignorar el hecho de que los humanos pueden llegar a "acuerdos injustos", es decir, acuerdos no éticos o ilegales. Por lo tanto, se requiere un análisis cuidadoso para abordar cuestiones como los "acuerdos ilícitos". Comprender la dinámica entre lo que requieren los humanos, lo que se considera ético y lo que es legal puede ser clave para el desarrollo de sistemas de IA "éticos".
Las normas legales se utilizan en la IA y en el derecho para respaldar el razonamiento sobre declaraciones legales, y los sistemas legales se pueden implementar como sistemas normativos. Por ello, la colaboración con el campo de los estudios jurídicos resulta imprescindible. Además, evaluar las consecuencias e implicaciones de otorgar poderes ejecutivos y judiciales a la máquina (especialmente cuando el sistema se adapta y evoluciona automáticamente) requiere una colaboración estrecha y cuidadosa con el campo de los estudios jurídicos. Y al igual que con el campo de la ética, también es necesaria la perspectiva legal para tratar los "acuerdos ilícitos". Comprender la dinámica entre lo que requieren los humanos, lo que se considera ético y lo que es legal puede ser clave para el desarrollo de sistemas de IA "éticos".