El tema de recerca sobre ètica i IA té com a objectiu abordar una sèrie de desafiaments ètics plantejats en la IA i proporcionar els primers elements bàsics per al desenvolupament de sistemes de IA que s'adhereixin als nostres valors i requisits. Proposem eines i mètodes computacionals nous, recolzats per recerques multidisciplinàries, que poden fer que els humans i les màquines entenguin els seus respectius objectius dinàmics mentre respecten estrictament els valors que inspiren a les nostres societats.
Contacte: Nardine Osman
En els últims anys, van sorgir moltes iniciatives que van intentar abordar els problemes d'ètica i IA. Alguns van ser dirigits per indústries tecnològiques de primer nivell, mentre que uns altres per científics destacats en els camps rellevants, des de la filosofia fins a la IA. Entre ells es troba la Declaració de Barcelona liderada per l'IIIA per al desenvolupament i ús adequat de la intel·ligència artificial a Europa. Totes aquestes iniciatives comparteixen una sèrie de preocupacions ètiques desafiadores, que van des de l'explicabilidad, la transparència i la rendició de comptes fins a l'alineació de valors, el control humà i el benefici compartit.
En l'IIIA, el nostre objectiu és abordar alguns d'aquests desafiaments ètics. D'una banda, desitgem centrar-nos en el desenvolupament de sistemes de IA que s'adhereixin als nostres valors i requisits. D'altra banda, volem centrar-nos en l'impacte dels sistemes de IA en les interaccions humanes (entre si o amb el sistema de IA) per a garantir que estem promovent interaccions i col·laboracions ètiques.
El nostre treball sobre ètica i IA està recolzat per una sòlida recerca multidisciplinària. Per exemple, quin comportament del sistema es considera ètic i legal és clau aquí. Com a tal, diem que les ciències socials i les humanitats (des de la filosofia i el dret fins a les ciències socials i cognitives) es troben en el centre de qualsevol recerca sobre ètica i IA. Argumentem que aquests camps no sols haurien de proporcionar informació per a la recerca de la IA, sinó que també haurien de participar de manera activa i col·laborativa en la direcció i l'avanç de la recerca de la IA.
A continuació, presentem els principis que sustenten el treball de l'IIIA sobre ètica i IA.
Una mostra dels nostres interessos de recerca:
Donar als humans la possibilitat d'opinar sobre com funcionen les seves tecnologies implica permetre'ls posar-se d'acord col·lectivament sobre tals qüestions. Les àrees de recerca com l'argumentació, la negociació, la confiança i la reputació, l'elecció social computacional i l'alineació semàntica proporcionen mitjans per a fer costat als parells (humans i agents de programari) per a arribar a acords de manera col·laborativa. Sostenim que els acords han d'estar basats en valors. Per tant, la introducció de valors en les àrees de recerca de les tecnologies d'acords és de summe interès.
Saber quan un sistema no està complint els seus objectius pot ajudar a assenyalar la necessitat d'un canvi. Aprendre quines normes s'adhereixen millor a uns certs valors o quines normes s'adapten millor a una comunitat determinada de parells pot ajudar a recolzar el procés de presa de decisions sobre com ha de canviar/evolucionar un sistema, així com també recolzar quina direcció ha de prendre aquest canvi. Visualitzem mecanismes d'aprenentatge i raonament per a donar suport al procés de decisió de les persones.
Que les persones acordin col·lectivament les necessitats i els valors que impulsen i governen les seves tecnologies implica: 1) que discuteixin i argumentin aquestes necessitats i valors, i 2) que el sistema participi en el procés d'acord de les persones i comprengui les decisions finals. Com no podem esperar que els humans dominin els llenguatges formals utilitzats per a especificar necessitats i valors, ni que tinguin discussions en un llenguatge formal, el processament del llenguatge natural es torna clau perquè l'humà i la màquina s'entenguin.
El comportament és el que garanteix que se satisfacin les necessitats i es respectin els valors, i les normes són les que governen el comportament. Els sistemes normatius s'han utilitzat tradicionalment en sistemes multiagent per a mediar en el comportament. Seguim aquests passos i proposem emprar els sistemes normatius com a mitjans per a mediar el comportament. Estem especialment interessats en la relació entre valors i normes i a assegurar (a vegades verificar) que un sistema normatiu s'adhereixi a uns valors predefinits.
Definir valors formalment és un desafiament en si mateix. Incorporar valors en els sistemes de IA i verificar l'adherència d'un sistema a un conjunt de valors és un desafiament encara major. Tot això requereix una acurada i estreta col·laboració amb el camp de l'ètica. A més, si bé s'ha argumentat que la necessitat del control humà és un dels principis de la IA ètica, no podem ignorar el fet que els humans poden arribar a "acords injustos", és a dir, acords no ètics o il·legals. Per tant, es requereix una anàlisi acurada per a abordar qüestions com els "acords il·lícits". Comprendre la dinàmica entre el que requereixen els humans, la qual cosa es considera ètic i el que és legal pot ser clau per al desenvolupament de sistemes de IA "ètics".
Les normes legals s'utilitzen en la IA i en el dret per a recolzar el raonament sobre declaracions legals, i els sistemes legals es poden implementar com a sistemes normatius. Per això, la col·laboració amb el camp dels estudis jurídics resulta imprescindible. A més, avaluar les conseqüències i implicacions d'atorgar poders executius i judicials a la màquina (especialment quan el sistema s'adapta i evoluciona automàticament) requereix una col·laboració estreta i acurada amb el camp dels estudis jurídics. I igual que amb el camp de l'ètica, també és necessària la perspectiva legal per a tractar els "acords il·lícits". Comprendre la dinàmica entre el que requereixen els humans, la qual cosa es considera ètic i el que és legal pot ser clau per al desenvolupament de sistemes de IA "ètics".