¿La Inteligencia Artificial representa un peligro para la raza humana?

in ia •  6 years ago 

Te asusta la idea de una Inteligencia Artificial superhumana? Así debería ser, dice el neurocientífico y filósofo Sam Harris, y no solamente debería hacerlo de manera teórica o hipotética. Según Harris, la amenaza del desarrollo descontrolado de la IA es uno de los temas más apremiantes de nuestro tiempo. Sin embargo, la mayoría de las personas "parecen incapaces de ofrecer una respuesta emocional adecuada a los peligros que se avecinan." En una sumamente interesante plática, Harris dice que vamos a desarrollar máquinas más inteligentes que los humanos; pero que, sin embargo, todavía no hemos comprendido los problemas asociados con crear algo que podría tratarnos tal y como nosotros tratamos a las hormigas. "No odiamos a las hormigas", explica, "pero cada vez que su presencia entra en conflicto seriamente con una de nuestras metas, las aniquilamos sin chistar. La preocupación es que algún día construyamos máquinas que, conscientes o no de sus actos, nos traten con igual desprecio."

Harris explica que solo se necesita aceptar tres suposiciones básicas para reconocer la inevitabilidad de la IA superhumana:

La inteligencia es un producto del procesamiento de información en sistemas físicos.
Seguiremos mejorando nuestras máquinas inteligentes.
Los humanos no estamos cerca del pico de la inteligencia.

Los seres humanos ya hemos creado sistemas con inteligencia limitada que excede la inteligencia humana (como las computadoras). Y puesto que la materia puede dar lugar a la inteligencia general (como en el cerebro humano), en principio no hay nada que impida la inteligencia general avanzada en las máquinas, que también están hechas de materia.

Harris dice que la tercera suposición "hace que nuestra situación sea tan precaria". Si las máquinas superan la inteligencia humana y pueden mejorarse a sí mismas, serán más capaces que incluso los seres humanos más inteligentes de formas inimaginables.

Incluso si una máquina con inteligencia humana no es más inteligente que un equipo de investigadores del MIT, "los circuitos electrónicos funcionan alrededor de un millón de veces más rápido que los bioquímicos", explica Harris. "Este tipo de máquina podría realizar 20,000 años de trabajo intelectual de nivel humano, semana tras semana." Harris se pregunta, "¿cómo podríamos entender, y mucho menos limitar, una mente haciendo este tipo de progreso?"

Harris también se preocupa de que el poder de la IA superhumana podría ser abusado, fomentando la desigualdad de la riqueza y aumentando el riesgo de la guerra: si los gobiernos y las empresas se perciben a sí mismos en una carrera armamentista, podrían desarrollar fuertes incentivos para crear una IA superhumana, o incluso atacar a quien esté a punto de crearla.

Aunque algunos investigadores sostienen que la inteligencia artificial superhumana no será creada sino dentro de 50 a 100 años, Harris señala, que "cincuenta años no es mucho tiempo para resolver uno de los desafíos más grandes que nuestra especie enfrentará jamás." Harris advierte que si sus tres suposiciones básicas son correctas, "entonces tenemos que admitir que estamos en el proceso de construir algún tipo de dios. Ahora sería un buen momento para asegurarnos de que es un dios con quien podemos vivir."

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!