Contacta  
Menu
Contacta

Inteligencia Artificial, ¿un debate ético o técnico?

Ignacio Jiménez
15 febrero 2021

A raíz de la noticia de la creación de una Estrategia Nacional de Inteligencia Artificial (ENIA) se ha ido extendiendo en la sociedad un debate creciente acerca de la ética de la Inteligencia Artificial (IA).

Este debate está siendo fomentado por las propias instituciones públicas: la Secretaria de Estado, Carme Artigas, afirmó en un tweet hace menos de un mes en el IA Madrid Forum que la ENIA aborda 4 grandes retos:

  1. Tecnológico: una IA robusta, auditable y explicable
  2. Ético: una IA que encaje con los valores sociales
  3. Normativo: garantizando un entorno seguro y confiable
  4. Social: medir su impacto y clarificar su gobernanza

La estrategia Nacional de Inteligencia Artificial (ENIA) tiene un presupuesto de 600 millones de euros para los próximos dos años y depende de la Secretaría de Estado de Digitalización e Inteligencia Artificial (dependiente del Ministerio de Asuntos Económicos y Transformación Digital).

Me llama la atención la necesidad de personificar la IA. La intención es quizás poder concretar y focalizar sobre ella un control que en realidad debiera proyectarse, en todo caso, sobre su uso y aplicaciones, es decir, sobre quien la usa y la aplica. Quizás es una perversión del término, porque “Inteligencia Artificial” pude llevar a una persona lega en matemáticas a creer, que efectivamente, ese algoritmo tiene inteligencia y voluntad y por lo tanto es un órgano de derecho. Este control es una extensión de las normas que ya regulan el uso de los datos personales que empresas e instituciones pueden recabar de los individuos. Era necesario vigilar esta captura de la información personal ya que a partir de la digitalización de los procesos en todos los niveles y sectores que ha tenido lugar en los últimos años, y las técnicas de rastreo del comportamiento online en navegadores, redes sociales y aplicaciones móviles de todo tipo, la cantidad de datos personales a los que una empresa podía acceder sin límite crecía exponencialmente en el tiempo.

Pero lo llamativo es, como comentaba, que ahora el control se proyecte sobre la herramienta, sobre la matemática, cuando hasta ahora parecía suficiente regular el acceso, recopilación y uso de los datos personales. ¿Es necesario este nuevo control?, ¿qué motiva esta necesidad en algunos sectores de la sociedad?

Leyenda negra de los algoritmos

El primer reto de la ENIA es hacer auditable (supervisable) los mecanismos internos, metodológicos y funcionales de la IA. ¿Por qué se esgrime esta necesidad? Una crítica habitual es que los algoritmos funcionan como cajas negras: no se sabe qué hace el algoritmo ni por qué ofrece el resultado que ofrece. Y cuando este resultado se aplica a la toma de decisiones por parte de instituciones públicas o privadas que afectan a la ciudadanía a gran escala, surge el miedo: miedo a una intencionalidad o intereses ocultos, miedo a una irreparabilidad de los resultados, miedo a una pérdida de control, miedo a un ataque a los derechos individuales, y otros de índole similar.

La CEO de una de las pocas empresas en España especializada en este ámbito, decía en una entrevista reciente que "estas auditorías son en sí, una forma necesaria de hacer que la inteligencia artificial sea más explicable, más transparente, más predecible y más controlable por la ciudadanía, las instituciones públicas y las empresas. Contribuyen también a mejorar los mecanismos de atribución de responsabilidad y de rendición de cuentas de los sistemas algorítmicos".

Pero ¿"rendición de cuentas de los algoritmos" no parece un ejercicio de humanización excesivo? Una personificación que imagino tiene como objetivo movilizar las emociones de los lectores en favor de la causa, pero que perjudica más que ayuda. Sí, es cierto que existe un peligro si un individuo u organización (estos son los que deben rendir cuentas, no los algoritmos) se amparase detrás de la supuesta infalibilidad de un algoritmo opaco y complejo para, intencionadamente, proyectar un sesgo ideológico en un resultado requerido, especialmente cuando es aplicable dentro del ámbito de lo público. Por ejemplo, un responsable político que desease reducir las ayudas sociales a un colectivo racial concreto podría fácilmente ampararse detrás de un algoritmo alimentado con información sesgada que determinara que precisamente en dicho colectivo la ayuda no tiene el impacto esperado en ciertas métricas de evaluación del éxito de la ayuda. El resultado sería que el algoritmo "decide" que este colectivo no reciba dichas ayudas sociales. Pero claramente no se trata del algoritmo, sino de la persona que hay detrás.

El algoritmo es un medio y aunque la intención permanezca oculta, esta puede desvelarse con diferentes técnicas en el análisis de sus resultados y su uso. Pero la exigencia de transparencia y explicabilidad mencionadas deben aplicarse, en tanto en cuanto el ámbito de ejecución sea lo público y sus servicios, sobre todo lo que abarca el proceso, es decir el organigrama de responsabilidades, las personas y sus funciones así como los recursos disponibles empleados.

Eficacia, función del algoritmo

Sin embargo, el ámbito privado siempre va a tener la intención de que el algoritmo sea lo más eficaz posible y lo único necesario es controlar la legalidad de la actividad privada y por supuesto el acceso, almacenamiento y explotación de datos personales con los que se alimentan los algoritmos. Ambas cosas ya se hacen, con lo que parece también una vuelta de tuerca regulatoria innecesaria y quizás un derroche de recursos injustificado.

Seguramente sea una buena idea que, en general, todo lo público esté sometido a los requisitos de auditabilidad y explicabilidad. Pero pretender extrapolar estos requerimientos a lo privado parece un intento de representar públicamente un supuesto ejercicio de protección frente a los ciudadanos que es irreal e innecesario, una vez garantizada la legalidad de la actividad y el acceso y uso de datos personales de manera adecuada.

El único objetivo general de una entidad privada sea de la índole que sea, cuando utiliza un algoritmo de IA, es el de la máxima precisión (se puede medir desde diferentes ángulos) y establecer mecanismos iterativos para mejorarla y comprobar que el resultado es correcto. Es verdad que sería idóneo comprender por qué se genera el resultado, cómo el algoritmo utiliza las diferentes variables para arrojar un resultado de clasificación o regresión. Los primeros interesados son los investigadores, pues podría ayudar a desentrañar los mecanismos de los procesos que se estudian.

Por ejemplo, imaginen la posibilidad, no solo de saber si una determinada fotografía de la piel de un paciente corresponde a cierto tipo de melanoma (Cruz et al. 2020), sino además, saber qué variables han sido las más determinantes para la clasificación, en qué proporción y con qué relación entre ellas.  Abrir la caja negra del algoritmo, interpretar los resultados de un algoritmo de Deep Learning es toda una línea de investigación actual,  muy prolija e importante, pero no es una condición necesaria para obtener un beneficio del análisis  a la hora de aplicarlo.

Algoritmos, grandes desconocidos

Que el resultado sea correcto implica reducir siempre al máximo cualquier tipo de sesgo en todo el proceso. Esto nos lleva al siguiente reto. Es llamativo ver la palabra ética asociada a una herramienta matemática, como es la inteligencia artificial. Creo que es una interpretación errónea,  un desplazamiento animista, en el que el algoritmo al ser “inteligente”, también debería ser ético. Creo que este juicio más bien responde al miedo de que se dé un comportamiento no ajustado a valores sociales, como añade la coletilla del tweet de Carme Artigas.  Se trata otra vez de encauzar la toma de decisiones, esta vez hacia territorios éticamente aceptables. Pero, ¿quién determina estos valores sociales?, ¿quién pone la frontera de los territorios éticamente aceptables?, ¿no está esto ya regulado por haber una legislación sobre actividades lícitas e ilícitas?

Por ejemplo, leyendo los casos expuestos en general en los medios, da la impresión de que no es aceptable que un algoritmo discrimine. Precisamente, esa es su mayor utilidad: la capacidad de discernir predictivamente, de clasificar, esto es, de discriminar.

Hay un gran desconocimiento en este sentido. Por afinar un poco más, un algoritmo de IA nunca discrimina a favor de una u otra variable por un sesgo ético o moral previo, sino que utiliza múltiples variables simultáneamente. En esa clasificación, en cierto tipos de algoritmos se podría saber qué variable se ha utilizado en mayor medida para el análisis. Si esa variable es el sexo o la clase social (término obsoleto por otro lado), no quiere decir que el algoritmo sea de dudosa reputación ética, sino que efectivamente, en ese problema concreto, esas variables han discriminado mejor. Podría argumentarse entonces que no se deberían incluir en el set de variables con las que trabaja el algoritmo aquellas de carácter más personal y sensible como el sexo. Pero, ¿dónde está el límite?, ¿y quién lo pone? La edad, ¿es una variable que sí puede alimentar el algoritmo, o tampoco? Mi respuesta a una campaña de publicidad (si abrí el correo que me enviaron o no), ¿no es suficientemente sensible y entonces sí puede utilizarse en un algoritmo? La evaluación que di a una encuesta de satisfacción tras una visita al hospital, ¿es o no un dato sensible que habla de mí?, ¿por qué unos datos sí y otros no?

Lo más importante, que no debe perderse de vista, es que el objetivo de quien utiliza el algoritmo es la precisión. Cuanta más mejor. Lo que quiere un experto en análisis de datos es reducir la incertidumbre, o que se equivoque lo menos posible. No hay una intención ideológica detrás, más bien parece que la ideología aparece desde fuera, basada en un desconocimiento y el miedo que este genera.

Es interesante plantearse también si estas objeciones éticas aparecen en todos los casos en los que se utiliza un algoritmo. Un ejemplo típico de discriminación no aceptable es que los algoritmos que utilizan las aseguradoras tengan en cuenta el sexo del cliente para estimar el riesgo y por tanto el precio de la póliza a cobrar.

Sin embargo, ¿alguien pondría objeción en que se utilice el sexo a la hora de determinar por IA un diagnóstico de cáncer basado en un set de variables que incluye numerosos biomarcadores, además del sexo? Creo que no. Además, si se utiliza el sexo no es porque hay una ideología previa, sino porque hay un análisis previo que determinó que el sexo es una variable relevante que mejora la capacidad del algoritmo de discernir entre un diagnóstico positivo y uno negativo.

Si no era ético utilizar el sexo para la aseguradora a la hora de determinar el precio de una póliza, ¿por qué sí lo es ahora? Si la respuesta es que en este último caso el uso del sexo beneficia al paciente diagnosticado, también se podría argumentar que en el primer caso es beneficioso para el individuo que su aseguradora pueda cubrir realmente los riesgos (el suyo y el de todos los asegurados) y para ello necesita estimar con precisión, aunque sea incluyendo el sexo, y eso significa, en un caso particular una póliza más alta. ¿Y si se equivoca el algoritmo en un caso particular en el que el asegurado nunca presenta un siniestro o hace uso de la póliza, y se cobró una póliza más alta por utilizar el sexo? Pues en ese caso particular, el algoritmo no ha acertado y hay que trabajar para mejorarlo.

Los algoritmos no aciertan al 100 %: nunca lo harán porque si lo hicieran no se trataría de un problema que requiriera de un algoritmo, sino de una regla. La ventaja paradójica de que el algoritmo se equivoque es que eso ayuda a que siguientes iteraciones sean mejores, incrementando su precisión.

A lo mejor, sí tiene sentido regular la precisión necesaria que debe conseguir un algoritmo para poder ser aplicado, según qué casos. Pero eso es un debate técnico o científico, en donde no se habla de ética porque no es necesario, porque no hay miedo, ya que hay conocimiento y no ideología. La transparencia que se pide debe venir acompañada de conocimiento.

No hay comentarios (todavía)

¡Nos encantaría saber tu opinión!