Usar con cuidado la Inteligencia Artificial: La OMS ya tiene su postura sobre utilizar IAs

in oms •  last year 

La Inteligencia Artificial (IA) es una tecnología que imita algunos procesos de la mente humana y que puede procesar grandes cantidades de datos e imágenes en tiempo real. Su aplicación en el campo de la medicina ha abierto nuevas posibilidades para mejorar los diagnósticos, los tratamientos, la investigación y la gestión sanitaria.

Sin embargo, el uso de la IA en la salud también plantea desafíos éticos, legales y sociales que deben ser abordados con precaución. Por eso, la Organización Mundial de la Salud (OMS) ha publicado recientemente un informe con seis principios rectores para el diseño y el uso de la IA en salud1.

Estos principios son:

Proteger la autonomía humana: La IA debe respetar los derechos, las preferencias y las decisiones de las personas y no sustituir el juicio clínico ni la relación médico-paciente.
Promover el bien humano: La IA debe contribuir a mejorar la salud y el bienestar de las personas y las comunidades, reducir las desigualdades y evitar el daño.
Fomentar la equidad: La IA debe ser inclusiva, accesible y asequible para todos, sin discriminación ni sesgos.
Garantizar la transparencia: La IA debe ser comprensible, explicada y comunicada de forma clara y veraz a los usuarios y a las partes interesadas.
Fomentar la responsabilidad: La IA debe ser regulada, supervisada y auditada para asegurar su calidad, seguridad y eficacia, así como para identificar y corregir los errores y las consecuencias no deseadas.
Asegurar la seguridad y la privacidad: La IA debe proteger los datos personales y confidenciales de las personas y garantizar su seguridad cibernética.
La OMS reconoce que la IA tiene un gran potencial para transformar la salud global, pero también advierte que su uso indebido o irresponsable puede generar riesgos para la salud pública. Por eso, insta a los gobiernos, los desarrolladores, los proveedores y los usuarios de la IA a seguir estos principios y a adoptar un enfoque basado en los derechos humanos, la evidencia científica y los valores éticos.

Algunos de los usos de la IA en medicina

La Inteligencia Artificial ya ha sido utilizada en distintos escenarios, desde para escribir artículos de prensa hasta para conducir vehículos autónomos. En el ámbito de la medicina, algunos de los usos más destacados son:

Análisis médicos y de imágenes: La IA puede procesar rápidamente grandes volúmenes de datos e imágenes médicas, como resonancias magnéticas, tomografías computarizadas o estudios genéticos, y detectar anomalías, patrones o indicadores de enfermedades2.
Diagnósticos: La IA puede apoyar a los médicos en el diagnóstico de diversas patologías, como el cáncer, las enfermedades cardiovasculares o las infecciones respiratorias, mediante el análisis de los síntomas, los antecedentes y los resultados de las pruebas2.
Tratamientos: La IA puede ayudar a personalizar los tratamientos según las características y las necesidades de cada paciente, así como a monitorizar su evolución y su adherencia al tratamiento2.
Genética: La IA puede facilitar el estudio del genoma humano y el descubrimiento de nuevas variantes genéticas asociadas a enfermedades hereditarias o raras2.
Embarazos: La IA puede mejorar el seguimiento del embarazo y el parto, así como predecir posibles complicaciones o riesgos para la madre o el bebé2.
Prótesis inteligentes: La IA puede mejorar el funcionamiento de las prótesis artificiales que sustituyen a miembros amputados o dañados, dotándolas de mayor sensibilidad, movilidad y adaptabilidad2.
Estos son solo algunos ejemplos de cómo la IA puede mejorar la calidad de vida de las personas y optimizar los recursos sanitarios. Sin embargo, también es necesario tener en cuenta los posibles desafíos que plantea su uso en medicina.

Algunos de los desafíos de la IA en medicina

La aplicación de la IA en medicina no está exenta de dificultades o limitaciones que deben ser consideradas con cuidado. Algunas de ellas son:

Falta de regulación: La IA es una tecnología emergente que aún no cuenta con un marco legal claro ni homogéneo que regule su desarrollo, su implementación y su evaluación en el ámbito sanitario3.
Falta de evidencia: La IA se basa en algoritmos que aprenden a partir de datos históricos o existentes, pero que pueden no ser representativos ni actualizados. Además, muchos algoritmos no son transparentes ni explicables, lo que dificulta su validación científica3.
Falta de confianza: La IA puede generar desconfianza o rechazo entre los profesionales sanitarios o los pacientes, que pueden sentirse amenazados o sustituidos por una máquina. También puede haber preocupación por posibles errores o malas prácticas derivados del uso de la IA3.
Falta de equidad: La IA puede reproducir o amplificar las desigualdades o los sesgos existentes en los datos o en los sistemas sanitarios. Por ejemplo, puede discriminar a ciertos grupos poblacionales por razones de género, edad, etnia o nivel socioeconómico3.
Falta de seguridad: La IA puede ser vulnerable a ataques cibernéticos o a fugas de información que pongan en riesgo la privacidad o la integridad de los datos personales o confidenciales de los pacientes3.
Estos son solo algunos ejemplos de cómo la IA puede plantear retos éticos o sociales que deben ser abordados con precaución. Por eso, es necesario seguir las recomendaciones de la OMS y otros organismos internacionales para garantizar un uso responsable y beneficioso de la IA en medicina.

Conclusión

La Inteligencia Artificial es una tecnología que tiene un gran potencial para mejorar la salud global. Sin embargo, también implica riesgos que deben ser prevenidos o minimizados mediante una regulación adecuada, una evaluación rigurosa y una participación activa de todos los actores implicados. Solo así se podrá aprovechar al máximo las ventajas que ofrece esta tecnología sin comprometer los derechos humanos ni los valores éticos.

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!