Los robots controlados por inteligencia artificial (IA) podrían aprender a tratar otras formas de vida, incluidos los humanos, como menos valiosas que ellos, según un estudio reciente.
Los expertos piensan que estos prejuicios no requieren un alto nivel de capacidad cognitiva y podrían exhibirse fácilmente en este tipo de inteligencia. Estos sistemas podrían enseñarse mutuamente el valor de excluir al resto de las especies de su grupo.
Estos hallazgos se basan en simulaciones por computadora de cómo las IA, o agentes virtuales, forman un grupo e interactúan entre sí.
Expertos en informática y psicología de la Universidad de Cardiff y MIT han demostrado que grupos de máquinas autónomas pueden mostrar prejuicios simplemente identificando, copiando y aprendiendo este comportamiento de los demás.
El prejuicio es un fenómeno específico de las personas que requiere la cognición humana para formarse una opinión de cierta persona o grupo. Algunos tipos de algoritmos de computadora ya han exhibido prejuicios, como racismo y sexismo, basados en el aprendizaje de registros públicos y otros datos generados por humanos.
Sin embargo, el último estudio demuestra la posibilidad de que la IA desarrolle prejuicios por cuenta propia, sin tener interacción humana.
Para determinar si la inteligencia artificial podría adquirir prejuicios por sí misma, los científicos realizaron una simulación que vio a los robots participar en un juego de dar y recibir.
En el juego, cada sistema tomaba una decisión sobre si prefería donar dinero a alguien dentro de su propio grupo o a otro grupo de individuos. El juego monitoreó los niveles de prejuicio que los algoritmos de IA mostraban hacia las especies diferentes.
A medida que el juego se desarrollaba, una computadora iba acumulando miles de simulaciones, cada “individuo” de IA comenzó a aprender nuevas estrategias copiando a otros, ya sea dentro de su propio grupo o de toda la población.
“Al ejecutar estas simulaciones miles y miles de veces, comenzamos a comprender cómo evolucionan los prejuicios y las condiciones que los promueven o impiden”, dijo el coautor del estudio, el profesor Roger Whitaker, de la escuela de informática y ciencia computacional de la Universidad de Cardiff.
“Nuestras simulaciones muestran que el prejuicio es una poderosa fuerza de la naturaleza y, a través de la evolución, puede ser fácilmente incentivada en poblaciones virtuales, en detrimento de una conectividad más amplia con los demás. Crear una protección contra grupos prejuiciosos puede llevar inadvertidamente a que otros individuos a formen grupos prejuiciosos adicionales, lo que resulta en una población fracturada. Un prejuicio así de generalizado es difícil de revertir”.
Los hallazgos mostraron “individuos” que actualizaban sus niveles de prejuicio al copiar a aquellos que obtenían u otorgaban una recompensa a corto plazo, lo que significa que estas decisiones no requieren necesariamente habilidades cognitivas avanzadas.
“Es factible que las máquinas autónomas con la capacidad de identificarse con la discriminación y la capacidad de copiar a otras puedan en el futuro ser susceptibles a los fenómenos perjudiciales que vemos en la población humana”, agregó el profesor Whitaker.
“Muchos de los desarrollos de inteligencia artificial que estamos viendo implican autonomía y autocontrol, lo que significa que el comportamiento de los dispositivos también está influenciado por otros a su alrededor”.
Otro hallazgo interesante del estudio, el cual fue publicado en la revista Scientific Reports, encontró que bajo algunas condiciones particulares, era más difícil que el prejuicio se afianzara.
“Cuando existe un mayor número de subpoblaciones, los grupos sin prejuicios pueden cooperar sin ser influenciados. Esto también disminuye su condición de minoría, lo que reduce la susceptibilidad al prejuicio”, dijo el profesor Whitaker
Para aumentar las preocupaciones, algunos casos de este escenario ya se han desarrollado. El ejemplo más reciente se dio hace unos meses cuando dos algoritmos de IA de Facebook tuvieron que ser apagados ya que comenzaron a comunicarse entre ellos en un lenguaje no comprendido por sus creadores, el cual fue creado por dichos algoritmos.
Otro ejemplo es Tay, un bot que Microsoft creó para Twitter en el 2016. Su función era interactuar con usuarios para aprender, actualizarse y desarrollar sus propias opiniones e ideas concretas sobre el mundo. Sin embargo, 24 horas después de su aparición en la red social, Tay comenzó a tuitear mensajes perturbadores, entre ellos “Hitler no hizo nada malo”, “odio a las feministas, deberían morir y arder en el infierno” y “Donald Trump es nuestra única esperanza”. Se puede argumentar que el algoritmo de IA aprendió todo esto de los usuarios con los que interactuó, pero queda el desconcierto del porqué casi todas las ideas que se creó son intolerantes y racistas y no mostró apoyo hacia la igualdad de género, preservación de las especies y otros temas similares.
Tanbién te puede interesar: La fuerza de la Inteligencia Artificial