sábado, 9 de enero de 2021

ALGORITMOS CON VALORES ÉTICOS

“La ciencia y la ingeniería de hacer máquinas que se comporten de una forma que llamaríamos inteligente si el ser humano tuviese ese comportamiento”. Esa es la definición que John McCarthy, en 1956, dio al término «inteligencia artificial» (IA).


La capacidad física del ser humano ha ido devaluándose con el paso del tiempo. Hemos oído contar a nuestros abuelos que se trabajaba de sol a sol, que se recorría a pie largas distancias para tener acceso al agua potable, que los cimientos de una casa se excavaban con pico y pala, que las carreteras se construían con tracción animal y firmes de macadam, que los bloques de piedra extraídos en la cantera se cortaban por abrasión con un fleje y arena, como si se estuviera tocando el violín pero con la intención de desgajar una masa de veinte toneladas de roca.

Somos más débiles, es un hecho. Y nos hemos debilitado, simplemente, porque hemos sido capaces de ceder nuestra fuerza bruta a máquinas que hemos desarrollado para que realicen por nosotros esos penosos trabajos.

El siguiente paso sería preguntarnos si está ocurriendo lo mismo en lo que a actividad cerebral se refiere. La respuesta es obvia: sí.

Lo que llama poderosamente la atención es la manera en que se está produciendo este acomodamiento en lo físico y en lo intelectual. Nadie juzga ni es juzgado por realizar cualquier operación básica con una calculadora. Somos muy condescendientes con estos cálculos de escasa dificultad pensando que la máquina solo nos ahorra tiempo ya que estamos sobradamente preparados para afrontarlos con éxito en cualquier momento pero la realidad es que, cada vez que lo hacemos, enviamos a nuestro cerebro el mensaje de que puede relajarse ante este tipo de tareas, que no son importantes, que tenemos una alternativa para afrontarlas. Y el cerebro obedece y se dedica a cosas menos mundanas. 

Toda máquina cumple los designios de un algoritmo que ha sido programado para un fin concreto, sin posibilidad de alterarlo, sin azarosas capacidades que le permitan tomar decisiones. Incluso cuando un autómata escoge entre varias opciones su decisión no es resultado de un proceso cognitivo propiamente dicho, no realiza una evaluación cualitativa del contexto y se guía de su instinto. Un autómata al uso sería un magnífico analista de datos pero un pésimo comerciante si la intuición forma parte de un trato. El algoritmo de un robot que jugara a las cartas no podría evaluar los gestos de alguien que va de farol salvo que cuente con un repositorio de registros que le permitan crear una identificación entre muecas o ademanes y el resultado de una partida para compararlo con la situación en que se encuentre. 

¿Sería inteligente una máquina capaz de comunicarse con nosotros de forma fluida? ¿Capaz de mostrar empatía? ¿Capaz de detectar el humor, la ironía o la condescendencia? Aún no aunque, evidentemente, reunir todos estos principios supone dar un paso enorme hacia eso que se ha dado en llamar inteligencia artificial.

El profesor Ignacio Latorre escribió una definición genial para describir qué podría entenderse por inteligencia artificial haciendo referencia a la resolución de un problema que los humanos fuéramos incapaces de comprender (se entiende que se refiere a «ningún humano» porque va por descontado que algunos necesitan pendientes para encontrarse las orejas).

Las matemáticas y la inteligencia artificial van de la mano porque esos algoritmos que dotan de «vida» a nuestras máquinas están basados en un lenguaje cómodo para ellas y farragoso para nosotros. Tanto es así que necesitamos de compiladores para que puedan realizar esa traducción entre nuestros deseos y lo que se espera que hagan nuestros amigos robóticos. El problema es que todo avance tiene dos caras y el de la tecnología presenta un color muy oscuro.

El análisis de datos consiste en el empleo de ciertas estrategias basadas en matemáticas para conseguir extraer información útil de una maraña de datos extraídos de diversas fuentes. Nosotros mismos, cada vez que navegamos por la red, somos una enorme fuente de información que vamos dejando un poquito de nosotros en cada rincón digital al que accedemos. Un algoritmo que sepa de nosotros a quién seguimos en una red social, quién nos sigue, qué nos gusta y qué no, que tiempo pasamos leyendo una determinada noticia, qué compartimos con otros, a qué fotografías o noticias damos un «me gusta», cuántas veces volvemos a entrar en un sitio, cuántos sitios similares visitamos, con qué frecuencia y cuánto tiempo permanecemos en ellos, qué estética y distribución de contenido tienen las webs que más frecuentamos, cómo de activos somos en los medios digitales, si creamos contenidos o somos meros consumidores que compartimos de forma esporádica alguna noticia de un medio concreto o que verse sobre tal o cual ideología, confesión o movimiento, de qué forma escribimos, desde qué dispositivos y desde qué lugares, qué consultamos (viajes, enfermedades, sexo, cursos de formación, artículos de regalo, servicios profesionales, mascotas...), sabrá cómo nos comportamos mejor que nosotros mismos. Por muy especiales que nos hayan hecho sentir nuestras abuelas, la gran mayoría de nosotros nos comportamos de la misma manera ante las mismas circunstancias. Sí, es cierto que cambiamos algunos detalles pero, a grandes rasgos, no representamos una singularidad estadística dentro del grupo humano.  

La cuestión más importante aquí es saber qué se hace con esa información y en eso, las leyes, siempre van tarde. Y tiene que ser así porque legislar no es algo que deba hacerse en caliente, ante un clamor general debido a algo puntual que haya ocurrido, ni con precipitación. Sin embargo, la tecnología es muy rápida, quizá demasiado y ello permite la existencia de lagunas, de vacíos legales si lo preferimos, que las empresas explotan hasta que les resulta imposible seguir avanzando (incluso, a veces, les sale mucho más rentable infringir abiertamente la normativa porque es más rentable el beneficio que se obtiene que el minúsculo descalabro de la multa). Esto crea situaciones ciertamente peligrosas. 

Pongamos un ejemplo. A mis estudiantes les pido que se ubiquen en un caso extremo. Imaginemos que una empresa busca candidatos para pilotos de aerolínea. Y supongamos que acude a una empresa de recursos humanos que cuenta con una infinidad de datos de potenciales candidatos procedentes de miles de fuentes. Sería manifiestamente ilegal que esta última aportara a la contratante una listado de candidatos con un informe personalizado de cuestiones íntimas, sensibles, que mostraran con nombre y apellidos los problemas de contratar a un individuo determinado. Sin embargo (vacío legal) podría realizarse un análisis interno, a modo de caja negra, donde se pide al algoritmo que excluya a candidatos que pudieran presentar ciertas características no deseables. Dramaticemos el concepto y pongamos por caso que se solicita que no se admitan candidatos de una etnia determinada, de una identidad sexual expresa, o que hayan militado en un partido (el que sea), o que hayan tenido deudas bancarias, o que presenten enfermedades graves. Nuestro algoritmo accedería a la base de datos y comenzaría una búsqueda exhaustiva que dejaría fuera a quienes hayan aparecido en cualquier lista de morosos. De los datos de búsquedas en servicios médicos, webs de información sanitaria, conversaciones en redes sociales con contactos, descargas de analíticas o envío de comentarios por correo electrónico con especialistas, petición de recetas o talonarios, citas médicas  calendarizadas, notas y recordatorios o, incluso, conversaciones off de record a la que tienen acceso (en otro vacío legal) nuestros dispositivos (teléfonos, tabletas, asistentes como Siri, Alexa o Google Home) podrían descartar a candidatos que hayan ido a consultas de psiquiatría, quienes sean sospechosos de padecer enfermedades coronarias, quienes hayan presentado síntomas compatibles con un incipiente Parkinson o, si se hace un uso intenso de las Apps de salud y bienestar volcando los resultados de las analíticas, quienes presenten valores que faciliten que, a corto plazo, puedan padecer alguna enfermedad incapacitante. Esta información nunca estará vinculada a un nombre, es información dispersa, deslocalizada, como una nube de datos que toma cuerpo al solicitar una búsqueda determinada. Solo los algoritmos pueden sortear las barreras para recomponer una huella digital única e intransferible que nos caracteriza y se puede programar para que el sujeto permanezca siempre invisible pero, claro, no se incumple nada si se realiza el descarte sin aportar la información del candidato rechazado. Nadie es, de hecho, rechazado. Simplemente, no es seleccionado.

Este ejemplo no supone ya algo inviable y si te sorprende que se apliquen este tipo de sesgos deberías hablar con alguno de las miles de personas que se encuentran a partir de los 45 años en búsqueda activa de empleo y se topen de bruces con una barrera infranqueable que no depende de su formación, de su capacitación, de su experiencia, de su disponibilidad ni de sus necesidades. Solo depende de los guarismos que expresan su año de nacimiento.  

Pero ¿es posible llegar a tal nivel de detalle? Por supuesto que sí. De hecho, los nuevos algoritmos han avanzado mucho en las vías de aprendizaje. Equipos de neurólogos, psicólogos, biólogos, médicos... trabajan interdisciplinarmente con los programadores para mejorar estos lenguajes que superan el nivel heurístico y metaheurístico introduciéndose en el apasionante mundo de las redes neuronales. Se trata de enseñar a la máquina a aprender. Sí, eso que los docentes tenemos ya muy conocido de la competencia de aprender a aprender aquí es un hecho. Se busca que esos protoalgoritmos sean capaces de aprender tal y como lo haría un humano, un bebé, estableciendo conexiones que se comportarían como neuronas artificiales donde las señales que discurrirían en el tejido cerebral a través de la sinapsis conectándolas entre sí provocando activaciones o inhibiciones serán ahora pulsos eléctricos cuyo número determinará el valor de la petición de entrada y condicionará el mensaje de salida. Los vínculos se refuerzan y crecen cuando se estimula frecuentemente un nodo determinado de la forma adecuada y relegan a un segundo plano aquella información que no es tan importante o que es solicitada de forma minoritaria. Al igual que un cerebro humano, en el artificial, la información se gestiona en capas, trabajando en paralelo millones de órdenes por segundo, haciendo que unos nodos se sumen a unas tareas conformando un complejo funcional cuyas unidades componentes pueden seguir trabajando en otras tareas secundarias.

Todo es información y usarla de la forma más eficiente evita perder tiempo y recursos en localizar algo que, por mucho que se hable de «nube», está más que bien anclado a la tierra en servidores de alta seguridad distribuidos por todo el globo. Además, el motor de cálculo y su velocidad de computación se dispara en comparación con la computación clásica y no deja de aumentar a cada poco, mirando de reojo a la computación cuántica que sigue avanzando a buen ritmo sorteando los escollos que se presentan a golpe de talonario.

La cuestión del aprendizaje resulta, pues, un tema esencial. ¿Cómo se aprende? ¿Cómo aprendieron las máquinas de las empresas de mensajería a interpretar nuestra letra si cada persona escribe la dirección de una manera? ¿Cómo aprendieron a traducir a su lenguaje las computadoras de la Administración esas letras que escribíamos en las casillas individuales para solicitar una beca o matricularnos de una materia en la carrera? La respuesta es sencilla: entrenándose.

Una vez puesto en marcha el algoritmo se inicia la red neuronal de forma aleatoria y supervisada (o no, esto depende del tipo de funcionalidad), sin obtener ningún resultado satisfactorio salvo el que se produzca por causa del azar. Es el momento de ofrecer una gran cantidad de datos de entrada a la máquina marcando los aciertos que se produzcan. Con cada nuevo acierto, la red neuronal se reconfigura y adapta un poquito guardándose los cambios de sus conexiones. La tasa de éxito se incrementa constantemente y este proceso es un hito fabuloso porque hemos sido capaces de condensar (con todos los errores que se quieran tener en cuenta) un recorrido evolutivo de casi seis millones de años para acabar enseñando a un nuevo ser, una máquina (que muchos ya empiezan a considerar seres vivos recuperando el concepto de «biología mecánica» que ya empleó Descartes) que irá ganando en velocidad de procesamiento y, por qué no, mejorando su pensamiento lateral. 

Marquemos una función error como objetivo a minimizar y dejemos que la máquina pruebe, se confunda, acierte y se adapte. Pongamos unas premisas claras de funcionamiento de la Bolsa, démosle acceso a todas las operaciones recopiladas por las distintas entidades financieras durante las últimas décadas y esperemos a que aprenda en un simulador a reducir el riesgo de operaciones. Démosle acceso a toda la normativa en todos los rangos de Ley, información de los casos y sus sentencias dictadas en todos los Estados desde, conexión a cada nueva actualización del Legislador, estado de las apelaciones, datos de las partes... y dejemos que aprenda a ser fiscal. O juez. Dejemos acceso a toda la información, de delincuentes comunes a asesinos en serie, con sus perfiles psicológicos, las pruebas recuperadas, las errores cometidos por encausados y cuerpos de seguridad, las líneas de investigación, las declaraciones de las partes... y dejemos que aprenda a ser un inspector interconectado que no descansa, que habla el mismo lenguaje que las cámaras de vigilancia, los cajeros automáticos, los ordenadores de las compañías aerolíneas o los centros de cálculo de oficinas bancarias, de los servidores de los navegadores de Internet y de las compañías de telefonía. Enseñémosle lo que ha dado de sí la historia de cada Estado con sus diferentes modelos de gobierno y colores políticos, sus acciones y sus consecuencias, démosle carta blanca para simular «efectos mariposa» en un entorno totalmente globalizado para que compare a una endiablada velocidad cada decisión política con sus consecuencias en cada campo. Facilitemos el acceso a las noticias de todos los medios para que ni un solo dato escape a su escrutinio; ninguna recomendación será desoída, ninguna palanca política será pasada por alto, ningún cruce de favores o puerta giratoria podrá esquivarse de su análisis. Dejemos, ahora, que juegue a presidir un Estado.

Asusta un poco que esto no tenga límite, ¿verdad? Que un ente pueda socavar nuestro patrón de conducta, conocernos tan íntimamente, localizarnos en cualquier momento, adelantarse a nuestras decisiones, explotar nuestras debilidades como individuos y como seres sociales, saber la forma en que doblegar nuestra voluntad... quizá, ¿que pueda ser superior a nosotros y utilizarlo en nuestra contra?

Demos de lado a la opción que algún lector puede tener ahora mismo en la cabeza de detener el proceso, desconectar todo y volver atrás, parar el avance, recuperar el trabajo humano en detrimento de las máquinas, devolver el status quo que vamos perdiendo, recuperar nuestra humanidad reconciliándonos con la naturaleza. Bien, la realidad es que esa utopía no ocurrirá nunca porque ningún logro que haya creado el ser humano, por muy mortífero o destructivo que sea, se ha dejado atrás. Nunca. Siempre se ha usado hasta que ha sido sustituido por otro mejorado, más eficiente, más ¿letal? En el mejor de los casos se reserva para cuando haga falta pero nunca se da marcha atrás.   

He aquí el nuevo quid de la cuestión. Se necesitan, ahora más que nunca, una serie de valores que excedan los convencionalismos sobre los que se ha edificado esta evolución tecnológica. Es necesario retornar al origen, a la razón de ser de esta necesidad, a la causa primitiva que nos llevó a encontrarnos donde ahora estamos, replantear nuestras prioridades con ayuda de dos grandes denostadas en los tiempos que corren: la filosofía y la ética.

La inteligencia artificial seguirá evolucionando, influyendo de forma determinante en el modelo económico, político, social y religioso. Nosotros también evolucionaremos, pero más lentamente y un futuro escenario en el que nuestro acomodado espíritu de sacrificio, constantemente retado con una pléyade de alternativas de ocio asequible y placer rápido, caiga bajo la tutela de un ente de silicio y grafeno hace que se plantee como necesario, en el presente, un cambio de paradigma.

Actualmente, la ética de una máquina es la de quien fija los criterios que habrá de seguir su programa. Un vehículo de guerra autónomo no decidirá por sus valores si alguien debe morir, se limitará a seguir las líneas de código que alguien (el experto) implementó por orden de alguien (el mando). Lo mismo ocurrirá con la inteligencia que valorará otorgar un préstamo a un autónomo para reflotar su negocio. ¿Tendrá en cuenta que una pequeña apuesta de bajo riesgo podría permitir crear riqueza, mantener el esfuerzo de toda una vida y mantener a varias familias? Pues dependerá de la holgura que se le haya otorgado en el algoritmo y de la premisa dominante que haya impuesto la línea de trabajo de la entidad.

Es importante ser capaz de programar unos valores éticos pero, antes, hay que tener claros cuáles han de ser esos valores, qué fin se pretende alcanzar y a qué precio. Si la función a optimizar es la rentabilidad en los negocios a toda costa, una inteligencia ordenada, metódica, concienzuda, urdirá cualquier plan que acabe logrando ese fin. Seremos nosotros los responsables de establecer esas barreras, esas líneas rojas que no deben traspasarse. ¿Cómo lo hacemos nosotros, los humanos? A partir de la familia y la escuela se van inculcando valores como la empatía, la generosidad o la tolerancia que conforme se va creciendo se van consolidando en nuestra psique. El grupo social aporta unos valores adicionales que idealmente se alinean con los que ya hemos aprehendido pero el crecimiento personal no se rige por la matemática, no es una ciencia exacta, no es previsible y dos personas sometidas a un mismo proceso de aprendizaje, en un mismo contexto, pueden desarrollar conductas diametralmente opuestas. Somos el resultado de sumar a nuestra genética nuestras cualidades observables y las experiencias atesoradas y por eso es tan importante definir con rigor y cautela las condiciones de aprendizaje de las inteligencias artificiales. Sin esa hoja de ruta, manteniendo un egoísmo local que compita con el del vecino, cada ente luchará por conquistar la máxima cuota de éxito en su batalla «personal». Este nuevo escenario de contienda digital será una réplica de lo que somos no de cómo querríamos ser, pero con el agravante de que cada vez dejaremos más de ser los actores principales de nuestra propia vida. 

Nuestra vida está repleta de información. Sin ella, careceríamos de identidad, no tendríamos dinero, ni podríamos optar a trabajar ni a mantener o contratar servicios básicos, seríamos un problema administrativo de primer nivel. Y toda esa información que nos identifica y que crece con nosotros está dispersa por el mundo digital, consultada a cada poco por miles de aplicaciones que les permiten tomar decisiones que nos afectan directamente. De ellas depende que compremos a plazos un horno, que llenemos el depósito del coche, que podamos cruzar la frontera, registrar a nuestro hijo como miembro del núcleo familiar o ingresar en una lista de espera para un trasplante.

Se lucha para conseguir que los derechos del individuo sobre sus propios datos prevalezcan sobre los de las empresas que los recopilan y custodian, que sean proporcionales al servicio que se ofrece, que se garantice la opción de acceso, rectificación, cancelación y oposición (derechos ARCO)... pero todo esto se viene abajo si las leyes no se armonizan globalmente, si no se hacen cumplir de forma implacable, si el bien común, mal entendido, se impone apisonando al individual. 

En definitiva, todo se viene abajo si no empezamos a crear una ética para aquello que hemos creado para que nos facilite la vida a cambio de convertirnos en sus sufragáneos. Para que eso ocurra en un futuro cercano tenemos que dotar de espíritu crítico y razonamiento libre a quienes hoy se sientan en nuestras aulas. Debemos recuperar el valor del mérito, del esfuerzo, de la capacidad de trabajo, el placer de aprender por aprender usando como vehículo conductor la lectura y dejar de plantearlo todo desde la perspectiva de que todos somos iguales porque, afortunadamente, no lo somos y nuestras necesidades también son diferentes. Hay que dejar de clasificar a las personas en gente de ciencias y de letras y apostar por una educación global, integrada e interconectada que permita que el día de mañana tengamos una población mucho más plural y libre de pensamiento que nosotros mismos.


Autor: Javier Luque.  





Fuentes consultadas.

Society, Ethics, and Technology. Morton Winston, Ralph Edelbach.

Informática Y Sociedad. Claudio Gutierrez, Marlene Castro.

Ética para máquinas. José Ignacio Latorre

Acepto las Condiciones: Usos y abusos de las tecnologías digitales. Cristóbal Cobo.

Imagen de cabecera: Pixabay

No hay comentarios:

Publicar un comentario

Estés o no de acuerdo conmigo, estoy seguro de que encontrarás la forma de comentar con respeto y buen talante.