Dos investigadores de la Universidad Nacional de Singapur (NUS, por sus siglas en inglés), miembros de la Comunidad de Investigación Neuromórfica de Intel (INRC, por sus siglas en inglés), han dado a conocer nuevos hallazgos que demuestran el compromiso de la visión adaptada al contexto y la detección táctil en combinación con el procesamiento neuromórfico de Intel para la robótica. El trabajo destaca cómo el hecho de llevar el sentido del tacto a la robótica puede mejorar significativamente las capacidades y la funcionalidad, en comparación con los sistemas actuales de sólo visión, y cómo los procesadores neuromórficos pueden superar las arquitecturas tradicionales en el procesamiento de esos datos sensoriales.
“Esta investigación de la NUS ofrece una visión convincente del futuro de la robótica, en la que la información se percibe y procesa de una manera impulsada por los acontecimientos, combinando múltiples modalidades. El trabajo se suma a un creciente conjunto de resultados que muestran que la computación neuromórfica puede proporcionar mejoras significativas en la latencia y el consumo de energía una vez que todo el sistema sea rediseñado en un paradigma adaptado al contexto que abarque sensores, formatos de datos, algoritmos y arquitectura de hardware” – Mike Davies, director of Intel’s Neuromorphic Computing Lab.
El sentido del tacto es lo suficientemente sensible como para apreciar la diferencia entre superficies que difieren por una sola capa de moléculas, sin embargo, la mayoría de los robots de hoy en día operan únicamente en el procesamiento visual. Los investigadores de la NUS esperan cambiar esto usando la piel artificial que han desarrollado recientemente. Según sus investigaciones puede detectar el tacto más de 1.000 veces más rápido que el sistema nervioso sensorial humano e identificar la forma, textura y dureza de los objetos 10 veces más rápido que el parpadeo de un ojo.
En este sentido, permitir un sentido del tacto similar al de los humanos en la robótica podría mejorar significativamente la funcionalidad actual e incluso conducir a nuevos casos de uso. Por ejemplo, los brazos robóticos dotados de piel artificial podrían adaptarse fácilmente a los cambios en los productos fabricados en una fábrica, utilizando la detección táctil para identificar y agarrar objetos desconocidos con la cantidad adecuada de presión para evitar el deslizamiento. Asimismo, la capacidad de sentir y percibir mejor el entorno también podría permitir una interacción humano-robótica más estrecha y segura, o acercarnos a la automatización de las tareas quirúrgicas dando a los robots quirúrgicos el sentido del tacto del que carecen hoy en día.
Si bien la creación de la piel artificial es un paso para dar vida a esta visión, también requiere un chip que pueda sacar conclusiones precisas basadas en los datos sensoriales de la piel en tiempo real, mientras opera a un nivel de potencia lo suficientemente eficiente como para ser desplegado directamente dentro del robot. “La creación de un sensor de piel artificial ultrarrápido resuelve aproximadamente la mitad del rompecabezas de hacer a los robots más inteligentes”, ha afirmado Benjamin Tee, profesor adjunto del Departamento de Ciencia e Ingeniería de Materiales de la NUS y del Instituto de Innovación y Tecnología de la Salud de la NUS. “También necesitan un cerebro artificial que pueda finalmente lograr la percepción y el aprendizaje como otra pieza crítica del rompecabezas. Nuestra demostración de un sistema de piel de Inteligencia Artificial con chips neuromórficos como el Intel Loihi supone un gran avance hacia la eficiencia energética y la escalabilidad”.
Para abrir nuevos caminos en la percepción robótica, el equipo de la NUS comenzó a explorar el potencial de la tecnología neuromórfica para procesar datos sensoriales de la piel artificial usando el chip de investigación neuromórfica Loihi de Intel. En su experimento inicial, los investigadores utilizaron una mano robótica equipada con la piel artificial para leer Braille, pasando los datos táctiles a Loihi, a través de la nube, para convertir los micro baches que la mano sentía en un significado semántico. De este modo, Loihi logró una precisión de más del 92 % en la clasificación de las letras del Braille, al tiempo que utilizaba 20 veces menos energía que un procesador estándar Von Neuman.
Basándose en este trabajo, el equipo de la NUS mejoró aún más las capacidades de percepción robótica combinando datos de visión y de tacto en la red neuronal de spiking. Para ello, encargaron a un robot que clasificara varios contenedores opacos que contenían diferentes cantidades de líquido, utilizando los datos sensoriales de la piel artificial y una cámara adaptada al contexto. De este modo, los investigadores utilizaron los mismos sensores táctiles y de visión para probar la capacidad del sistema de percepción para identificar el deslizamiento rotacional, que es importante para conseguir un agarre estable.
Una vez que estos datos sensoriales fueron recogidos, el equipo los envió a una GPU y al chip de investigación neuromórfica Loihi de Intel para comparar las capacidades de procesamiento. Los resultados, que fueron presentados en el congreso Robotics: Science and Systems esta semana, muestran que la combinación de la visión adaptada al contexto y el tacto utilizando una red neuronal de picos permitió un 10 % más de precisión en la clasificación de objetos en comparación con un sistema de sólo visión. Además, demostraron el compromiso de la tecnología neuromórfica para alimentar tales dispositivos robóticos, con Loihi lograron procesar los datos sensoriales un 21 % más rápido que una GPU de alto rendimiento, mientras que utilizaban 45 veces menos energía.
“Estamos emocionados con estos resultados. Demuestran que el sistema neuromórfico es una pieza prometedora del rompecabezas para combinar múltiples sensores para mejorar la percepción del robot. Es un paso hacia la construcción de robots fiables y de bajo consumo de energía que puedan responder rápida y apropiadamente en situaciones inesperadas”, ha asegurado Harold Soh, Profesor Asistente del Departamento de Ciencias de la Computación de la NUS.