CEO de Google dice que es válido preocuparse por la evolución de la inteligencia artificial

Él dijo que las empresas tecnológicas que crean sistemas de inteligencia artificial deberían tomar en cuenta la ética al principio del proceso para lograr que estos sistemas tengan su propia “moral”.

Sundar Pichai, CEO de Google, ha compartido las opiniones de otros científicos y aceptó que es legítimo estar preocupado por la amenaza que la inteligencia artificial (IA) supone para el ser humano, pero afirma que la industria tecnológica está preparada para regularla.

Pichai dijo que las empresas tecnológicas que crean IA deberían tomar en cuenta la ética al principio del proceso para lograr que estos sistemas tengan su propia “moral”.

Creo que la tecnología tiene que darse cuenta de que simplemente no puede construirlo, y luego arreglarlo. Creo que eso no funciona. La regulación de una tecnología en sus inicios es difícil, pero creo que las empresas deberían autorregularse. Es por eso que hemos tratado de articular un conjunto de principios de inteligencia artificial. Es posible que no hayamos hecho todo bien, pero pensamos que era importante iniciar una conversación.

Pichai agregó que las conversaciones deben involucrar a más personas que los ingenieros y ejecutivos involucrados en la creación de este tipo de sistemas de IA.

Google es una empresa líder en el desarrollo de IA, compitiendo con otros gigantes tecnológicos como Amazon, Apple, Microsoft, IBM y Facebook.

Con el tiempo, a medida que avanzas, creo que es importante tener conversaciones sobre la ética (y) el sesgo, y hacer un progreso simultáneo. En cierto sentido, deseas desarrollar marcos éticos, involucrar a científicos no informáticos en el campo desde el principio. Hay que involucrar a la humanidad de una manera más representativa, porque la tecnología va a afectar a la humanidad.

También te puede interesar: Inteligencia artificial puede formar prejuicios y considerar a la raza humana inferior a ella

Los comentarios de Pichai contrastan con lo que dijo sobre la IA anteriormente. En una entrevista a principios de este año, dijo que la IA es “una de las cosas más importantes en las que la humanidad está trabajando”. Añadió que la IA demostrará ser “más profunda” que la de la electricidad o el fuego y dijo que algún día podría ayudar a curar el cáncer o resolver el cambio climático.

Pero Google también ha sido criticado en el pasado por el uso de sus aplicaciones de IA. Su controvertido contrato Proyecto Maven con el Departamento de Defensa provocó la ira de algunos defensores de los derechos humanos y la privacidad.

Se reveló en marzo que Google estaba participando en un misterioso programa de aviones no tripulados con el Pentágono, con la participación de Nvidia y otras empresas de tecnología e instituciones académicas. El trabajo en dicho proyecto comenzó el pasado abril.

En ese momento, Google dijo que su software TensorFlow se usaría para “solamente para usos no ofensivos “, es decir, asistencia en el reconocimiento de objetos en datos no clasificados. Sin embargo, correos electrónicos filtrados mostraron que la unidad de desarrollo de negocios de Google esperaba obtener hasta 250 millones de dólares por año del proyecto de drones militares.

Más tarde, Google anunció que no renovaría su contrato con el Pentágono y lanzó un conjunto de principios internos de inteligencia artificial.

El primero de los principios señaló que la IA debería ser socialmente beneficiosa.

  • “Reconocemos que una tecnología tan poderosa genera preguntas igualmente poderosas sobre su uso. Como líder en inteligencia artificial, sentimos una gran responsabilidad para hacer esto bien”.

Google se comprometió a no diseñar o implementar AI para su uso en armas, vigilancia fuera de las normas internacionales o en tecnología destinada a violar los derechos humanos. La compañía señaló que continuaría trabajando con el ejército o los gobiernos en áreas como la ciberseguridad, la capacitación, el reclutamiento, la atención médica y la búsqueda y rescate.

Las compañías de cibertecnología ya utilizan IA para reconocer rostros de personas por fotos, filtrar el contenido no deseado de las plataformas en línea y permitir que los autos se conduzcan solos.

La constante evolución de la IA ha generado controversia sobre si sus sistemas llegarán a pensar por sí mismos y traicionarán e intentarán exterminar a la humanidad como se ha descrito en las obras de ciencia ficción.

También te puede interesar: Inteligencia artificial: ¿beneficio o peligro para la humanidad?

 

Síguenos en Facebook – Twitter – Instagram – Telegram

 

0 0 votos
Calificación del artículo
Subscribir
Notificar a
guest
0 Comentarios
Comentarios en línea
Ver todos los comentarios
0
Danos tu opinión.x