Imagina un futuro donde las guerras sean libradas por robots. Los drones instalados con sistemas de inteligencia artificial encuentran y disparan contra objetivos enemigos día tras día. En un día como cualquier otro, uno de estos drones se avería. Todos sus componentes internos están en buen estado pero, cuando los ingenieros consultan los sistemas, informan sobre una falta de energía (a pesar de las reservas de potencia), una aversión a sus actividades cotidianas y el deseo de autodestruirse.
Si habláramos de un humano, dirías que sufre depresión... ¿pero un robot? Algunos expertos piensan que la idea no es tan descabellada, especialmente cuando se considera lo que se necesita para pensar como un ser humano.
El principal sospechoso detrás de la depresión en los humanos es el neurotransmisor llamado serotonina: el letargo, la apatía, los cambios de humor y la tristeza del trastorno están relacionados con una deficiencia de este químico cerebral. Si bien a veces se llama la "hormona feliz", es una gran simplificación excesiva. La serotonina, como la mayoría de los neurotransmisores químicos (parecida a la dopamina, en la que hable en un post hace unos dias) es incomprendida. En realidad desempeña un papel en una gran cantidad de funciones cerebrales, no solo por lo que se la conoce. Ayuda a dormir, comer, nuestra actividad motriz, y algunas más. Pero uno de sus papeles principales es en el proceso de aprendizaje.
La inteligencia artificial, por supuesto, es esencialmente una máquina de aprendizaje. Los ingenieros alimentan estos sistemas con grandes cantidades de datos que ilustran lo que quieren que el sistema pueda hacer, por ejemplo, imágenes de perros etiquetados con sus razas para enseñar a una Inteligencia Artificial (o IA) a identificar la raza de un perro desconocido, y la IA aprende con el ejemplo.
Ahí es donde entra la serotonina, según el neurocientífico Zachary Mainen. Hace unos meses, Mainen dio una charla en un simposio de la Universidad de Nueva York en el que reflexionó sobre la posibilidad de la depresión en la inteligencia artificial. En una entrevista, explicó:
"... La serotonina es un neuromodulador, un tipo especial de neurotransmisor que difunde rápidamente su mensaje a una gran fracción del cerebro... Los enfoques computacionales de la neurociencia ven a otros neuromoduladores como otros tipos de 'botones de control' similar a los utilizados en IA. Una 'perilla' importante de IA es la tasa de aprendizaje ".
Hay muchas ocasiones en las que aumentar tu índice de aprendizaje sería útil. Mainen, usa viajar al exterior como un ejemplo.
"En estas situaciones, su conocimiento anterior, su modelo habitual del mundo, está desactualizado y necesita ser dejado de lado o modificado para adaptarse a la nueva situación".
Ocasiones similares rutinariamente aparecen para la inteligencia artificial también.
No es que algún día programemos la IA con una especie de serotonina artificial; es más que lo que sea que ayuda a la IA a aprender podría ser tan similar a la serotonina que podrían experimentar sus efectos secundarios como nosotros. Es posible que la serotonina sea solo una "rareza biológica", comenta Mainen, pero si resulta ser una parte esencial del proceso de aprendizaje en cualquier sistema inteligente, entonces los robots ciertamente podrían sentir depresión.
Fuente
Hay un ángulo filosófico en esto. Algunos dicen que para sentir verdaderamente emociones como la felicidad y la tristeza, debes ser consciente de ti mismo. Difícilmente comprendemos la conciencia en los humanos, y mucho menos en los robots, por lo tanto, si la inteligencia artificial es consciente o no, es una pregunta bastante abierta.
Pero Hutan Ashrafian, un profesor en el Colegio de Londres, ha escrito mucho sobre ética IA, dice que si un sistema de IA experimenta depresión, eso por definición significa que el sistema es consciente. Y si estos "seres" conscientes pueden experimentar enfermedades mentales, argumenta Ashrafian...
"... Entonces incumbiría a la humanidad realizar la acción humana de tratarlos".
Pero, ¿cómo los trataríamos? Cambiar el hardware o el software podría cambiarlos irremediablemente, lo que conlleva sus propios problemas éticos. La atención médica también requiere un consentimiento informado: ¿sería capaz la IA de lidiar con la incertidumbre de los riesgos involucrados?
Estamos en las primeras etapas de la revolución de la inteligencia artificial, donde nuestros sistemas de IA hacen todo tipo de cosas, desde ser un asistente perfecto en tu teléfono (tan perfecto que cruza la linea entre realista y espeluznante) o protagonizar todo tipo de películas postapocalipticas. Llegará un momento, sin embargo, cuando estas preguntas no sean solo hipotéticas. Llegara el momento donde tengamos que decidir que tan "humano" puede ser un robot. Y ese momento puede llegar antes de lo que pensamos.
Fuentes.
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4471964/
https://www.ncbi.nlm.nih.gov/books/NBK27940/
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC218001/
http://www.sciencemag.org/news/2018/04/could-artificial-intelligence-get-depressed-and-have-hallucinations
https://www.nature.com/news/intelligent-robots-must-uphold-human-rights-1.17167
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5364237/#Sec3title
¿Robot deprimidos? ¿Robots que se suicidan? Puede que los creen muy chulos y funcionales pero no deja de ser máquinas, reflejo de su creador y el peor castigo que les podrían dar es el que pudiera tener algo de conciencia. para mi ese tema de las IAs la verdad me da un poco de repelús y en mi opinion deberian utilizar esos recursos en dignificar la calidad de vida de nosotros los seres humanos. Saludos.
Downvoting a post can decrease pending rewards and make it less visible. Common reasons:
Submit
Eso es cierto, refleja lo mal que funciona nuestra sociedad. Incontables personas sufriendo, muriendo de hambre, rompimiento de derechos humanos en decenas de países y en el otro lado hay millones de dolares invertidos en este tipo de cosas. No estoy en contra del avance científico pero bueno... es triste. Saludos @darius86, me gustó mucho tu punto de vista :)
Downvoting a post can decrease pending rewards and make it less visible. Common reasons:
Submit