Discapacidad e inteligencia artificial: mucho más que tecnologías de asistencia
- autismovivo.org
- 22 ago
- 6 Min. de lectura

POR JACKIE LEACH SCULLY
Fuente: Science | 21/08/2025
Fotografía: Pixabay
https://orcid.org/0000-0002-7637-1225Authors Información y afiliaciones
Vol. 389, n.º 6762
DOI: 10.1126/science.aea4918
Se dice que nada tiene tanto éxito como el éxito, y sin duda eso parece cierto en el caso de la inteligencia artificial (IA). Es difícil exagerar la omnipresencia o el éxito de las tecnologías basadas en la IA en la ciencia y la tecnología, la investigación y la atención sanitaria, los medios de comunicación y la vida cotidiana.
Pero, como cualquier nueva tecnología, el uso de la IA plantea cuestiones éticas, algunas conocidas y otras nuevas. Junto con numerosos informes y recomendaciones sobre el uso responsable de la IA, ahora existe un consenso entre los especialistas en IA de que las poblaciones minoritarias y marginadas se enfrentan a una serie de problemas específicos con la IA, especialmente relacionados con los sesgos.
Un conjunto de trabajos convincentes demuestra la realidad de los sesgos de la IA en términos de raza, sexo/género y, en cierta medida, clase económica. Sin embargo, el impacto de la IA en las personas con discapacidad ha recibido menos atención.
La IA ofrece enormes posibilidades para mejorar la salud y la inclusión social de las personas con discapacidad de diversas maneras, sobre todo a través del potencial de mejora de los dispositivos de asistencia.

Las tecnologías de asistencia basadas en la IA abarcan desde sofisticados asistentes robóticos hasta subtítulos automatizados para personas sordas o con discapacidad auditiva; incluyen el reconocimiento de imágenes para personas con discapacidad visual, el reconocimiento de voz para permitir el uso de dispositivos activados por voz en lugar de controlados manualmente, la traducción automática de textos a un lenguaje accesible para personas con discapacidad intelectual, y mucho más.
Sin embargo, lo que a menudo se olvida es que, además de los dispositivos de asistencia, las personas con discapacidad también se encuentran y utilizan necesariamente la IA «ordinaria», es decir, sistemas que no están destinados principalmente a la discapacidad.

Aún más a menudo se olvida que esto incluye a los propios científicos y responsables políticos con discapacidad. En este contexto, la IA puede crear tantos problemas como los que resuelve.
Esto se debe en gran medida a que los sistemas de IA se diseñan en función de las necesidades de la mayoría. Los conjuntos de datos utilizados para entrenar los algoritmos de aprendizaje automático no suelen ser representativos de las poblaciones minoritarias. Los resultados de cualquier sistema basado en la IA están muy influenciados por los datos de entrenamiento, y si estos están sesgados, las respuestas algorítmicas también se verán distorsionadas.

En el caso de la discapacidad, las características inusuales se incluyen dentro de las de la mayoría o se tratan como valores atípicos y se excluyen. En cualquier caso, se pierden las características y necesidades de las diferentes discapacidades. En algunos casos, simplemente no se dispone de los conocimientos necesarios para el desarrollo de dispositivos asistidos por IA. Por ejemplo, hay muy pocos conjuntos de datos sobre lengua de signos, muchos menos que los escritos, lo que significa que cualquier cosa que implique lenguas de signos, como un sistema de interpretación basado en IA, se enfrenta a graves limitaciones.
Como resultado, la mayoría de los sistemas beneficiarán a las personas sin discapacidad, pero no a las personas con discapacidad y, en el peor de los casos, agravarán su exclusión. La autenticación multifactorial es tediosa para la mayoría de nosotros, pero puede suponer una barrera insuperable para las personas con discapacidades manuales o cuyo comportamiento no sigue los patrones esperados por el algoritmo; el reconocimiento de voz suele ser inútil para quienes tienen una dicción o patrones de habla inusuales.

Incluso cuando las fuentes de datos son adecuadas, los desarrolladores de sistemas basados en algoritmos tienden a integrar sus concepciones particulares de la discapacidad en su diseño y despliegue en el mundo.
Un estudio demostró que las descripciones de las personas generadas por ChatGPT y Gemini, dos chatbots basados en IA muy utilizados, se volvían mucho más negativas en general si las indicaciones para la tarea incluían la palabra «discapacidad», lo que sugiere que los datos de origen ya habían entrenado a estos chatbots generativos con este sesgo. Debido a la opacidad de muchos sistemas de IA, sesgos como este pueden ser prácticamente invisibles.

El potencial de sesgo no es el único ámbito en el que la discapacidad se enfrenta a problemas específicos con la IA. Las preocupaciones generales sobre la protección de datos y la privacidad se acentúan para muchas personas con discapacidad o enfermedades crónicas, cuyas vidas están entrelazadas con múltiples sistemas externos de diagnóstico, atención clínica, asistencia y apoyo social, educación, etc., que pueden interconectarse de formas que aumentan el riesgo de divulgación involuntaria de datos.
Mi observación es que las directrices para el uso de la IA suelen destacar el problema de esta filtración, pero hay poca conciencia de las sensibilidades particulares de las personas con discapacidad.
Fundamentalmente, todas las formas de IA se basan en la capacidad de convertir fenómenos y comportamientos en datos legibles por ordenador y, a continuación, en categorías utilizables algorítmicamente. Aquí es donde la IA tiene dificultades con la discapacidad.
Las características y el comportamiento de las personas con discapacidad a menudo no encajan fácilmente en las categorías que se desarrollan predominantemente a partir de datos sobre la vida de las personas sin discapacidad. Por muy grande que sea el número de categorías potenciales, los sistemas basados en la IA rara vez son capaces de integrar la naturaleza heterogénea, dinámica y contextual de la experiencia de la discapacidad. Cuando se utiliza la IA para apoyar la toma de decisiones en el diagnóstico o en la evaluación de las necesidades de atención clínica o social, la experiencia actual sugiere que los resultados pueden ser erróneos.

Dado que la IA es ahora omnipresente en la investigación científica, la traducción y las políticas, también posee una inmensa autoridad cultural. Esto conlleva el riesgo de que las categorías de identidad y comportamiento utilizadas por los sistemas de IA se consideren más auténticas o válidas que cualquier otra y, en última instancia, que nuestra comprensión de la discapacidad sea cada vez menos completa y matizada.
Es evidente que necesitamos investigación e innovación en materia de IA para la discapacidad, pero también es necesario dedicar el mismo esfuerzo a garantizar que los sistemas o dispositivos «cotidianos» asistidos por IA, destinados al público en general, sean accesibles y adecuados para las personas con diferentes formas de discapacidad.
La mayoría de los desarrolladores de IA tienen pocos conocimientos formales sobre la discapacidad y no se les enseña sobre accesibilidad o inclusión durante su formación, mientras que los cursos sobre ética de la IA que tratan el sesgo o la diversidad tienden a centrarse en el sexo/género y la raza, en lugar de en la discapacidad.
Comprender la discapacidad en el contexto de la tecnología basada en la IA debería ser un requisito para todos los estudiantes de informática. En consonancia con esto, es necesario contar con modelos financieros que fomenten el desarrollo de sistemas basados en la IA que sean universalmente accesibles.
Por el momento, hay pocos incentivos comerciales para que las empresas desarrollen, por ejemplo, sistemas de reconocimiento de voz para personas con dificultades del habla.
La falta de diversidad en el diseño y el desarrollo de la IA es un problema que viene de lejos y se extiende a la discapacidad. La ausencia de personas con discapacidad directamente involucradas en la investigación y el desarrollo es una de las razones clave por las que se sigue produciendo sin pensar una tecnología de IA inaccesible.
También está detrás del problema que la comentarista sobre discapacidad Liz Jackson describió como «dongles de discapacidad» (un dongle es un pequeño dispositivo electrónico, a menudo con forma de llave USB, que se conecta a un ordenador u otro dispositivo para proporcionar funcionalidades adicionales o seguridad. Generalmente, son dispositivos "plug-and-play", lo que significa que se conectan y empiezan a funcionar sin necesidad de instalaciones complejas). Los dongles son pequeños dispositivos informáticos adaptativos, y Jackson acuñó el término irónicamente para indicar «una solución bienintencionada, elegante, pero inútil a un problema que [las personas con discapacidad] nunca supimos que teníamos», como los guantes de lengua de signos habilitados para la IA.

Un mayor uso de la coproducción y el desarrollo participativo, en los que las personas con discapacidad son socios en el proceso de investigación y desarrollo desde el principio, reduciría el dinero, el tiempo y el esfuerzo desperdiciados en otro dongle más, además de ayudar a garantizar que los beneficios de las tecnologías apoyadas por la IA sean verdaderamente universales.
Artículo original en inglés:
Me encontré con esta discusión mientras buscaba maneras de que mi escritura sonara más natural. Al principio, pensé que revisar la gramática era suficiente, pero no sirvió de nada. Con una herramienta de humanización, mis palabras se sienten más cálidas y claras, lo que facilita la conexión entre las personas.
Cuando trabajo en tareas, lo más difícil es que el texto suene natural. Aunque el contenido sea correcto, no siempre fluye bien, y a veces a los profesores les cuesta conectar con mis palabras. Usar este https://smodin.io/es/ai-humanizer marca una gran diferencia. Facilita la lectura y la comprensión de mis tareas. Para mí, esta herramienta se centra menos en cambiar el significado y más en hacer que mi trabajo se sienta natural.
Sin duda, las herramientas Humanizer hacen que mi escritura suene más natural y real. Me ayudan a compartir mejor mis pensamientos. La IA no solo sirve para crear dispositivos de apoyo, sino que también ofrece a personas como yo nuevas formas de hablar y ser comprendidas. Creo que usar estas herramientas es una decisión inteligente si quieres que tus palabras suenen sencillas y claras.
Sí, la IA puede ayudar a que la escritura se sienta más humana. Al escribir, a veces las palabras suenan demasiado rígidas y la gente no capta el mensaje real. Las herramientas de humanización con IA pueden cambiar esto, haciendo que el texto sea más fluido y fácil de leer. He visto que cuando la escritura parece natural, más personas conectan con ella.
A menudo, la IA se considera solo como una forma de crear herramientas de asistencia, pero puede hacer mucho más. Para mí, un uso importante es la mejora del texto. A veces, mi escritura se siente demasiado robótica y la gente no conecta con ella. Por eso necesito herramientas de humanización de IA. ¿Crees que la IA realmente puede ayudar a que la escritura se sienta más humana? ¿Has probado alguna vez herramientas como esta?