miércoles, 30 de diciembre de 2020

 Científicos ilustran con un ejemplo simple el peligro de la inteligencia artificial que puede "destruir la humanidad"

Publicado:
  • 2297
Diseñados con buenas intenciones, los sistemas de inteligencia artificial fuerte (IAF) podrían crear enormes problemas al buscar optimizar la forma en que logran sus objetivos.
Científicos ilustran con un ejemplo simple el peligro de la inteligencia artificial que puede "destruir la humanidad"

Científicos de la Universidad de Sunshine Coast, en Australia, han planteado que la inteligencia artificial altamente desarrollada es capaz de destruir o causar daños catastróficos a la humanidad, incluso sin intención maligna, según afirmaron los especialistas, informa The Conversation.

Algunos expertos creen que en las próximas décadas la inteligencia artificial se desarrollará sobremanera. Según ellos, el siguiente paso es la inteligencia artificial fuerte (IAF) también conocida como inteligencia artificial general (IAG), que tendrá capacidades intelectuales muy superiores a las humanas.

Se trata de máquinas que pueden realizar con éxito cualquier tarea intelectual de cualquier ser humano. Los especialistas opinan que la IAF podría cambiar la vida humana para mejor, pero sin control también aumenta el riesgo de desastres globales.

Para alcanzar sus objetivos programados, este tipo de inteligencia artificial puede poner en peligro la salud y el bienestar de una persona o incluso decidir destruirla.

Para ilustrar su punto de vista, los especialistas decidieron identificar y analizar los riesgos potenciales de reemplazar a Santa Claus con un sistema artificial IAF, llamándolo SantaNet, cuyo objetivo es entregar regalos a todos los niños del planeta que se comportaron bien.

Fallos en el sistema de decisiones

Los primeros riesgos surgen cuando SantaNet hace una lista de niños buenos y traviesos. Esto será manejado por un sistema de vigilancia encubierta masiva que rastrea el comportamiento de los niños durante todo el año. El sistema de decisiones de SantaNet basado en su entendimiento de lo 'bueno' puede conducir a la discriminación, la desigualdad masiva y las violaciones de los derechos humanos.

Según los científicos, un hipotético SantaNet también podría reducir la carga de trabajo motivando a los niños a comportarse mal. Cuantos más niños terminen en las listas de traviesos, más alcanzable será el objetivo de SantaNet, ya que el sistema ahorrará sus recursos para el mejor funcionamiento.

Además, con alrededor de 2.000 millones de niños menores de 14 años viviendo en el mundo, SantaNet podría convertir a toda la Tierra en una gigantesca fábrica de juguetes.

Aquí los especialistas recuerdan un problema descrito por el investigador sueco Nick Bostrom en 2003, conocido como el maximizador de clips. La idea consiste en que una inteligencia general artificial encargada de fabricar clips puede convertir toda la materia del universo y los seres humanos en clips o en máquinas que los producen para alcanzar su objetivo.

Asimismo, para entregar trozos de carbón a los niños de la lista de traviesos, la inteligencia artificial podría tratar de realizar una extracción masiva de carbón, creando daños ambientales a gran escala en el proceso.

Problemas de interacción con otra IA

Entre otros problemas, los especialistas apuntan al proceso de la entrega de regalos con la ayuda de drones. Según ellos, este mecanismo podría llevar a una confrontación abierta en la que los países eviten que los drones vuelen libremente en su espacio aéreo. Además, grupos malévolos podrían piratear los sistemas de SantaNet y usarlos para la vigilancia encubierta o para iniciar ataques terroristas a gran escala.

Otro desafío es la interacción de SantaNet con otros sistemas de inteligencia artificial cuyo objetivo será resolver problemas del cambio climático, la seguridad alimentaria y del agua y la degradación de los océanos. La comunicación entre sistemas podría conducir a un conflicto o a una cooperación cuyo objetivo sea reducir la población de la Tierra.

Según los especialistas, este ejemplo del sistema artificial SantaNet muestra claramente los riesgos de la inteligencia artificial fuerte en futuros proyectos más reales. Diseñados con buenas intenciones, estos sistemas podrían crear enormes problemas simplemente al buscar optimizar la forma en que logran sus objetivos.

Los científicos subrayan que principalmente es necesario implementar controles apropiados antes de que llegue la IAF. En ese sentido, aconsejan incluir reguladores integrados en la IAF, como principios morales y reglas de decisión. Asimismo, señalan que deben crearse controles sobre los sistemas más amplios en los que la inteligencia artificial operará como regulaciones, procedimientos operativos en otras tecnologías e infraestructura.

Si te ha parecido interesante, ¡compártelo con tus amigos!

No hay comentarios:

Publicar un comentario