Manos biónicas con inteligencia artificial: cómo funcionan y qué pueden hacer

Última actualización: 22 de enero de 2026
  • Las nuevas manos biónicas con IA combinan sensores de proximidad y presión con redes neuronales para ajustar de forma autónoma la postura y la fuerza de agarre.
  • El control compartido humano-máquina reduce la carga cognitiva del usuario y mejora la precisión en tareas delicadas del día a día.
  • Se están desarrollando diseños híbridos, modulares y gamificados, así como interfaces neurales, para acercar el control y el tacto de la prótesis al de una mano real.

mano biónica con inteligencia artificial

Las manos biónicas con inteligencia artificial están dando un salto brutal respecto a las prótesis tradicionales: ya no se trata solo de mover dedos de forma mecánica, sino de recuperar algo muy parecido a la destreza natural de una mano humana, con menos esfuerzo mental y más confianza en el día a día.

Lo realmente revolucionario de esta nueva generación de prótesis es que combinan sensores avanzados, modelos de IA, estructuras robóticas rígidas y blandas, y sistemas de control compartido entre humano y máquina, de forma que la mano “piensa” parte del movimiento mientras el usuario sigue decidiendo qué quiere hacer en cada momento.

De las primeras prótesis a las manos biónicas inteligentes

La idea de sustituir una extremidad perdida viene de muy lejos: ya en la antigüedad existían prótesis de brazos y manos, como la famosa “mano de Capua”, datada en torno al 300 a. C., elaborada con hierro, bronce y madera. Se cree que perteneció a un soldado romano que la utilizaba para sujetar el escudo tras perder parte del brazo.

Durante siglos, las prótesis fueron poco más que elementos estéticos, simples moldes que imitaban la forma de la extremidad pero sin aportar funcionalidad real. Su misión era básicamente cosmética, para “tapar” la ausencia del miembro sin ofrecer un movimiento útil.

Con los avances médicos y mecánicos de los siglos XIX y XX llegaron las primeras prótesis articuladas, capaces de reproducir algunos gestos básicos gracias a mecanismos simples. Posteriormente aparecieron las prótesis “robóticas” o “biónicas”, con motores, varios tipos de pinza y cierto control muscular o eléctrico.

Aun así, incluso las manos biónicas comerciales más modernas arrastran una limitación crucial: su control sigue siendo complejo, poco intuitivo y mentalmente agotador. Tareas que una persona con manos intactas realiza casi sin pensar —coger una taza, sostener un vaso de plástico, agarrar un papel fino— suponen un reto enorme para muchos usuarios de prótesis.

El esfuerzo cognitivo es tan alto que cerca de la mitad de los usuarios acaba abandonando su mano biónica, alegando dificultad de manejo, controles poco naturales y una carga mental constante. El gran problema es que la mayoría de estos dispositivos no reproduce bien el sentido del tacto ni la coordinación automática que el cerebro realiza sin que nos demos cuenta.

prótesis de mano biónica avanzada

El enfoque de la Universidad de Utah: control humano-máquina compartido

Un equipo del Laboratorio de NeuroRobótica de la Universidad de Utah, liderado por investigadores como Marshall Trout y Jacob A. George, ha desarrollado un sistema de control compartido que está cambiando por completo este panorama. Su propuesta se ha publicado en la revista Nature Communications y se basa en una mano protésica comercial (como la TASKA Hand) equipada con sensores y una IA entrenada de forma específica.

El punto clave de este trabajo es la cooperación continua entre persona y prótesis: el usuario indica la intención general de la acción (coger, soltar, acercar, sostener…), mientras que un modelo de inteligencia artificial se encarga de ajustar de manera autónoma la postura de los dedos y la fuerza de agarre con una finura muy difícil de lograr solo con control humano directo.

Para conseguirlo, los científicos han añadido sensores de proximidad y presión en las yemas de los dedos de la mano biónica. Estos sensores ópticos son capaces incluso de “ver” el objeto antes de tocarlo, estimar a qué distancia está y detectar variaciones minúsculas de contacto y presión una vez se inicia el agarre.

Toda esa información se introduce en una entrenada con miles de posturas de agarre. El modelo de IA “aprende” qué combinación de apertura de dedos y fuerza es más adecuada para cada tipo de objeto, de forma que, cuando la mano se acerca a una taza, a un huevo o a una hoja de papel, ajusta automáticamente los dedos a la posición óptima.

  Meta renueva su apuesta en IA con Llama 4: nuevos modelos, arquitectura más eficiente y despliegue limitado

Al mismo tiempo, la prótesis recibe señales humanas procedentes del cuerpo, como la actividad eléctrica de los músculos del antebrazo o de la piel, que indican la intención del movimiento. El sistema fusiona en tiempo real las señales del usuario y las decisiones de la IA para generar un control híbrido: ni la máquina manda sola, ni la persona tiene que microgestionar cada dedo.

sensor de mano biónica con IA

Sensores de tacto fino y proximidad: hacia un “sexto sentido” protésico

Uno de los grandes avances de esta mano biónica con IA está en sus yemas artificiales, diseñadas para imitar el tacto fino humano. No solo miden la presión ejercida sobre la superficie de un objeto, sino que también integran sensores ópticos de proximidad capaces de detectar elementos antes del contacto físico.

Gracias a estos sensores, los dedos pueden notar incluso una bola de algodón prácticamente sin peso al caer sobre ellos, algo impensable en muchas prótesis comerciales actuales. Esto permite estimar la masa, el volumen y la delicadeza del objeto y, por tanto, ajustar la fuerza de agarre de forma ultra precisa.

Cada dedo cuenta con su propio sensor de proximidad que le permite “ver” delante de sí, lo que significa que todos los dedos trabajan en paralelo para lograr un agarre estable. En lugar de que el usuario tenga que pensar “ahora cierro un poco más el índice, ahora relajo el pulgar”, la IA calcula la posición exacta necesaria para que el conjunto de la mano sujete el objeto sin aplastarlo ni dejarlo caer.

Los datos de proximidad y presión alimentan continuamente la red neuronal, que ajusta el movimiento de los dedos en tiempo real. Si el objeto comienza a resbalar, los sensores lo detectan y el sistema aumenta ligeramente la presión; si nota que se está deformando (por ejemplo, un vaso de plástico), reduce la fuerza para no romperlo.

Esta integración sensorial convierte a la mano biónica en un sistema mucho más autónomo a la hora de regular el agarre, descargando al cerebro del usuario de una parte importante de la tarea de supervisión constante que antes tenía que hacer de manera consciente.

La carga cognitiva: por qué las manos biónicas cansan tanto al cerebro

En nuestro día a día, mover la mano es algo casi automático: no calculamos voluntariamente la posición de cada dedo ni la fuerza que aplicamos. El cerebro se apoya en modelos internos y en el sentido del tacto para adaptar el agarre, y lo hace a una velocidad enorme y de forma inconsciente.

En las prótesis robóticas convencionales, esa automatización prácticamente desaparece. El usuario tiene que pensar minuciosamente qué gesto quiere hacer, cuánta fuerza aplicar, cuándo abrir y cuándo cerrar, y muchas veces lo hace sin apenas información táctil que le guíe.

El resultado es un enorme desgaste mental: controles poco intuitivos, necesidad de practicar una y otra vez gestos simples y una sensación de que cualquier despiste puede acabar con un vaso roto o un objeto en el suelo. Este escenario explica por qué tantos usuarios acaban dejando de usar la prótesis pese a su tecnología avanzada.

El sistema propuesto por el equipo de Utah busca aliviar precisamente esta carga cognitiva. Al delegar en la IA el ajuste fino del agarre y aprovechar sensores que simulan el tacto, el usuario puede centrarse en la intención global del movimiento (coger, sostener, soltar) en lugar de controlar cada microdetalle.

Los autores del estudio insisten en que no quieren que la persona “luche” con la máquina por el control de la mano. El objetivo es que la IA actúe como un refuerzo del control natural del usuario, no como un piloto automático que toma el mando sin permiso. De este modo, se respeta la voluntad del paciente mientras se le quita de encima parte del trabajo mental.

detalle de dedos de mano biónica

Resultados en pruebas reales: más precisión, menos esfuerzo

El sistema de mano biónica inteligente se ha probado con diferentes tipos de usuarios: nueve personas sin amputación (para validar el control y la interfaz) y cuatro personas amputadas con pérdida de extremidad entre el codo y la muñeca, es decir, con prótesis de antebrazo.

  Las desventajas de la Inteligencia Artificial: Retos y limitaciones en la era digital

En estas pruebas se plantearon tareas muy cotidianas pero delicadas, como sujetar un huevo sin romperlo, recoger una hoja de papel sin rasgarla, beber de una taza, manipular objetos pequeños o levantar una taza por el asa. Son ejemplos donde la fuerza y la postura del agarre tienen que estar muy ajustadas.

Los participantes mostraron una mejora clara en la seguridad y precisión del agarre cuando utilizaban el sistema con IA frente a los modos de control convencionales, puramente humanos o puramente automatizados. Además, los investigadores midieron una reducción notable de la carga cognitiva percibida durante las tareas.

Lo más llamativo es que muchos de estos gestos se realizaron sin entrenamiento intensivo previo. Es decir, la combinación de sensores y red neuronal hacía que, desde muy pronto, el usuario pudiera usar distintos estilos de agarre de forma más natural, sin tener que memorizar patrones complicados de activación muscular.

En los pacientes amputados también se observó una mejora en el llamado “control motor fino”, esa capacidad de realizar movimientos precisos y coordinados con los pequeños músculos de mano y dedos, fundamental para actividades como escribir, manipular utensilios, abrocharse la ropa o manejar objetos frágiles.

¿Tiene “mente propia” una mano biónica con IA?

La propia nota de prensa de la Universidad de Utah hablaba de dar a la mano una “mente propia”, una expresión llamativa que ha generado cierto debate filosófico y mediático. La idea no es que la prótesis sea consciente, sino que tenga suficiente autonomía para gestionar por sí misma parte del movimiento.

En la práctica, la mano biónica recibe información del entorno, la procesa y actúa sin que el usuario tenga que estar pendiente de cada microajuste. Desde fuera puede parecer que “decide” por su cuenta, pero lo que hace es ejecutar de forma muy sofisticada las órdenes generales del usuario, apoyándose en lo aprendido durante el entrenamiento de la red neuronal.

Algunos expertos en neurociencia cognitiva, como Tamar Makin, han mostrado que la relación entre el cerebro y las prótesis es más compleja de lo que se pensaba. Sus estudios de neuroimagen apuntan a que las prótesis no se representan en el cerebro exactamente como manos ni como herramientas, sino que generan una firma neural propia, una especie de “categoría nueva”.

Otros investigadores, como Dani Clode en la Universidad de Cambridge, exploran prótesis que no solo sustituyen, sino que amplían capacidades —por ejemplo, añadiendo un segundo pulgar—, aprovechando la plasticidad del cerebro para integrar elementos adicionales en el esquema corporal sin necesidad de imitar al 100 % la anatomía original.

Todo esto plantea preguntas interesantes sobre cómo atribuimos conciencia y agencia a máquinas y dispositivos. Hoy por hoy no tenemos forma de demostrar que una IA sea consciente, y en el caso de las prótesis hablamos más de sistemas muy sofisticados de control sensoriomotor que de “mentes” en sentido estricto.

interacción humano mano biónica

Otras líneas de innovación: manos híbridas, modularidad y gamificación

La mano inteligente de Utah no es el único avance potente en este campo. Otros equipos de investigación, como el de la Universidad Johns Hopkins, trabajan en manos robóticas híbridas que combinan estructuras rígidas y blandas para imitar mejor la anatomía humana y manipular tanto objetos delicados como pesados.

Estas manos híbridas suelen integrar una estructura interna impresa en 3D con polímeros similares al caucho y articulaciones flexibles. De esta manera, la prótesis se adapta mejor a formas irregulares, texturas distintas y presiones variadas, proporcionando un agarre mucho más versátil.

También incorporan varias capas de sensores táctiles inspirados en la piel humana, capaces de detectar contacto, cambios en la presión y deslizamiento. Esta “piel electrónica” permite que la mano note si un objeto empieza a resbalar y aumente la fuerza automáticamente para evitar que caiga al suelo.

Todo ello se complementa con sistemas de control basados en señales musculares, donde los músculos del antebrazo envían órdenes a los dedos artificiales, y algoritmos de inteligencia artificial y aprendizaje automático traducen esas señales en movimientos naturales. El “cerebro” de la prótesis interpreta si algo está duro o blando, caliente o frío, estable o a punto de escurrirse.

En pruebas con objetos cotidianos —peluches, esponjas, botellas, piñas o vasos de plástico—, algunas de estas manos han conseguido tasas de éxito cercanas al 100 % en la manipulación sin deformar ni romper los objetos. Un experimento especialmente ilustrativo consistió en levantar un vaso de plástico fino y lleno de agua usando solo tres dedos, ajustando la presión con enorme precisión.

  Inteligencia Artificial - Un enfoque moderno

En paralelo, empresas como Open Bionics han apostado por soluciones muy orientadas al usuario, como la línea Hero Arm, que ofrece manos biónicas totalmente inalámbricas, resistentes al agua y personalizables, pensadas para integrarse en la vida diaria de niños, adolescentes y adultos de forma mucho más cómoda.

Estas prótesis se controlan mediante electrodos EMG inalámbricos (MyoPods) colocados sobre el muñón o el antebrazo, que detectan la actividad muscular y la traducen en movimientos de los dedos biónicos. Al ser inalámbricos, permiten separar físicamente la mano del cuerpo y volver a conectarla, e incluso acoplar accesorios deportivos con el mismo sistema de anclaje estándar.

El componente emocional y motivacional también es clave. Algunas startups han desarrollado manos modulares y relativamente asequibles, pensadas sobre todo para niños, diseñadas para crecer con ellos: las piezas se pueden sustituir por otras más grandes según el cuerpo del menor va cambiando, reduciendo el coste de renovar prótesis completas cada pocos años.

Para que el aprendizaje del uso de la prótesis no sea un suplicio, se han creado entornos de realidad virtual como VREHAB, donde los niños practican movimientos con su mano biónica mediante juegos tipo “escalar edificios como un superhéroe”. A medida que mejoran, ganan puntos, y los terapeutas pueden monitorizar su progreso a distancia.

La estética personalizable también ayuda a que el usuario sienta la prótesis como algo propio: gracias a la impresión 3D, se ofrecen diseños inspirados en superhéroes, estilos futuristas o acabados que encajan con la moda juvenil. Esto transforma la mano biónica en algo más que un dispositivo médico, convirtiéndola también en un elemento de identidad.

Hacia el control por pensamiento y el tacto “de vuelta” al cerebro

Mirando al futuro cercano, los equipos de investigación más punteros planean combinar estas manos inteligentes con interfaces neurales implantadas, de modo que la prótesis pueda controlarse de forma directa mediante la actividad cerebral en lugar de depender solo de señales musculares superficiales.

El objetivo es que la mano biónica responda casi tan rápido y de forma tan natural como una mano biológica, reduciendo todavía más la carga cognitiva. Si el usuario piensa en cerrar la mano, la prótesis debería iniciar el movimiento sin necesidad de contraer el músculo deliberadamente o ejecutar patrones aprendidos.

Al mismo tiempo, se está trabajando para que el tacto vuelva al sistema nervioso del usuario: los sensores de presión y proximidad de la prótesis podrían enviar señales codificadas que se traduzcan en sensaciones de contacto, textura o fuerza percibidas en el cerebro, acercándose a una verdadera retroalimentación sensorial.

Investigadores como Jacob A. George subrayan que esta línea forma parte de una visión más amplia para mejorar la calidad de vida de las personas con amputaciones, integrando prótesis inteligentes, interfaces neurales y sistemas sensoriales avanzados en un ecosistema coherente.

Aunque todavía quedan años de desarrollo y ensayos clínicos, los resultados actuales muestran que ya es posible que tareas tan sencillas como beber de un vaso de plástico dejen de ser un reto extenuante y vuelvan a sentirse, poco a poco, tan naturales como antes de la amputación.

Todo apunta a que las manos biónicas con inteligencia artificial están dejando de ser ciencia ficción para convertirse en herramientas prácticas que reducen el esfuerzo mental, devuelven destrezas finas y amplían las posibilidades de interacción con el entorno, desde sostener con seguridad una taza o un huevo hasta abrazar a alguien sin miedo a hacerle daño.

Living Intelligence qué es
Artículo relacionado:
Living Intelligence: qué es, cómo funciona y por qué importa