Cada vez más escuchamos cómo es que la Inteligencia Artificial (IA) invade e inunda nuestras vidas. La llamada IA es, en la mayoría de los casos, un software que armado de un algoritmo determinado, ofrece respuestas “lógicas” que le permiten interactuar con los humanos.
Por ejemplo, cuando compramos un celular, al final del manual vienen una serie de posibles fallas y sus correspondientes soluciones. Así, ante la falla “X” hay que explorar primero la solución “a”, si con esto no se corrige el problema, deberemos explorar la solución “b” o “c”, hasta descartar una serie de alternativas, la última siempre será llevar el equipo a revisión.
La IA, entonces, opera en un sistema binario en el que va buscando y eventualmente encontrando soluciones a un problema “X”. A diferencia de la Inteligencia Humana (IH), muchos de los procesos computacionales de la IA son muy rápidos, pues para ésta, los procesos son rutinas y subrutinas.
La gran dificultad de la IA es que para bien o para mal no tiene sentimientos, razona lógicamente y ofrece las respuestas para las que fue programada. No obstante, se espera que en un futuro cercano la IA pueda aprender de sí misma.
Pondré un ejemplo hipotético con algo en lo que se trabaja actualmente y se avanza (eso nos dicen) a pasos agigantados: la IA aplicada a la conducción autómata. Imaginemos un vehículo dotado con IA, más allá de los múltiples algoritmos que le permitan por ejemplo, no salirse del carril, deberá estar dotado (también con algoritmos) para tomar decisiones de carácter vital.
Lo lógico (a secas) sería que frente a la posibilidad de atropellar (con el riesgo de matar) a seres humanos, el algoritmo le indique a esa IA que debe buscar hacer el menor daño. En principio suena bien, ya que todos estaríamos de acuerdo que frente a un daño inminente e inevitable, el daño menor es la mejor alternativa.
Ahora imaginemos que somos cualquiera de nosotros junto con dos niños los que viajamos en el auto antes mencionado, e imaginemos que circulamos a un lado de un acantilado, cuando de pronto aparecen cinco personas en la carretera. El auto no tiene (materialmente) forma de frenar como para no atropellar a esas cinco personas, entonces, en la búsqueda del menor daño, este auto con IA que sabe incluso cuántos pasajeros van en el mismo, decide virar hacia el acantilado, previendo que el menor daño es matar a los pasajeros, para así salvar a los otros cinco individuos.
Creo que estaremos de acuerdo en que la toma de decisiones tiene que ver con muchas cosas y no solamente con el razonamiento lógico y eventualmente utilitarista del “daño menor”. Nuestras decisiones están fuertemente influenciadas por nuestros prejuicios, por nuestras emociones, así como por nuestras filias y fobias. Seamos honestos, aun y cuando aceptemos la tesis del daño menor, ¿quién de nosotros estaría dispuesto, en la situación hipotética planteada, a virar el auto hacia el acantilado?
Al final, esta reflexión sirve para dos cosas, la primera, ver lo difícil que será programar la IA en cuanto a este tipo de decisiones “vitales” y, la segunda, es que nosotros humanos, prejuiciosos y egoístas, lo más seguro es que por salvar a tres (incluido uno mismo) no viraríamos hacia el acantilado, aun a sabiendas de la consecuencia inevitable. ¿O me equivoco?
Aquí les dejo un documental referente al tema: