Interactuar con un ordenador sin tocarlo

UCL, en colaboración con Intel, Microsoft e IBM, desarrolla UCL MotionInput V3, un software para computación sin contacto.

Noticias

author-image

By

Paris Baker, de 31 años y madre de dos hijos, fue una gimnasta acrobática de élite que representó a Gran Bretaña y ganó la plata en los campeonatos europeo y mundial. A los 26 años, Paris recibió un diagnóstico de enfermedad de la neurona motora (EMN), que causa debilidad muscular que empeora gradualmente con el tiempo y conduce a la discapacidad. De las muchas cosas que cambiaron en su vida, un elemento esencial fue perder la capacidad de jugar videojuegos con sus hijos.

Eso fue, hasta que descubrió MotionInput.

Desarrollado por académicos y estudiantes del departamento de Ciencias de la Computación del University College London (UCL), en colaboración con Intel, Microsoft e IBM, UCL MotionInput V3 permite un uso sin contacto.  Con MotionInput y una cámara web común, un usuario puede controlar una PC haciendo gestos con las manos, la cabeza, la cara y el cuerpo completo o a través del habla.  El software analiza estas interacciones y las convierte en señales de ratón, teclado y joystick haciendo pleno uso del software existente.

La tecnología se hace más accesible con UCL MotionInput y la informática sin contacto

Intel tiene una relación con UCL para asesorar proyectos de ciencias de la computación, dice Phillippa Chick, global account director, Health and Life Sciences, Intel UK. "Trabajamos con el profesor Dean Mohamedally, el profesor Graham Roberts y la Sra. Sheena Visram en proyectos de tutoría, así como en la estructura de apoyo para los estudiantes. Esta idea fue propuesta por primera vez por el equipo de UCL en verano de 2020 como una serie de proyectos estudiantiles de UCL Computer Science IXN [Industry Exchange Network] y surgió de la necesidad de ayudar a los trabajadores de la salud durante la pandemia cuando era necesario mantener los ordenadores compartidos limpios y libres de gérmenes". Atia Rafiq, médico médico de cabecera del NHS, para mejorar los requisitos clínicos que necesitan los trabajadores de atención médica de primera línea.

MotionInput puede abrir un mundo de casos de uso mediante el uso de manos u ojos simultáneamente a través del habla. Cada juego ahora puede ser accesible, el progreso de los movimientos de los pacientes se puede registrar en fisioterapia y, en un entorno hospitalario, los cirujanos pueden tomar notas a través de gestos con las manos y el habla sin tener que tocar un ordenador. La solución no requiere conectividad ni un servicio en la nube, lo que hace que sea mucho más fácil de implementar.

"Tiene una gran oportunidad de impactar positivamente en las vidas de las personas con afecciones crónicas que afectan el movimiento", apunta Phillippa.

Intel proporciona a los estudiantes de UCL tutoría y tecnología, incluidas capacidades de hardware y software como el kit de herramientas OpenVINO™ de Intel. El kit de herramientas facilita el desarrollo de aplicaciones basadas en IA y ayuda a aumentar su rendimiento.

Los modelos previamente entrenados proporcionados por OpenVINO™ permitieron un desarrollo más rápido de los diversos componentes y características de MotionInput, lo que permitió a los estudiantes avanzar sin entrenar sus propios modelos, generalmente un proceso largo en computación.

Costas Stylianou, especialista técnico en Ciencias de la Salud y Vida de Intel UK, explica que la optimización significa que MotionInput V3 "tiene varias mejoras de orden de magnitud en la eficiencia y una arquitectura para apoyar el crecimiento de las aplicaciones informáticas sin contacto como ecosistema". El desarrollo de ingeniería de software y arquitectura para V3 fue dirigido por los estudiantes de UCL, Sinead V. Tattan y Carmen Meinson. Juntos dirigieron a más de 50 estudiantes de UCL en varios cursos en ciencias de la computación de UCL para construir sobre el trabajo. El equipo también trabajó con mentores de Microsoft e IBM, en particular el Prof. Lee Stott y el Prof. John McNamara.

La solución emplea una combinación de modelos de aprendizaje automático y visión por computadora para permitir una interacción receptiva. Es personalizable al permitir al usuario elegir entre una variedad de módulos, tales como:

  • Navegación facial: El usuario puede usar su nariz u ojos y un conjunto de expresiones faciales para desencadenar acciones como clics en el botón del ratón, o con el habla diciendo "clic".

  • Gestos con las manos: se puede reconocer y asignar una selección de gestos con las manos a comandos y atajos de teclado específicos, movimientos del ratón, detección multitáctil nativa y lápices digitales con profundidad en el aire.

  • Mirada con modos de cuadrícula e imán: Para alinear el cursor en escenarios de accesibilidad, se implementa un método de calibración automática para el seguimiento ocular que obtiene la estimación de la mirada, incluido el modo de cuadrícula y el modo magnético.

  • Seguimiento de cuerpo completo: los usuarios pueden establecer ejercicios físicos y etiquetar regiones en su espacio circundante para jugar.

  • Teclas de acceso rápido de voz y subtítulos en vivo: Ask-KITA (Know-It-All) permite a los usuarios interactuar con el ordenador desde un conjunto de comandos de voz, subtítulos en vivo y atajos de teclado.

  • Joypad en el aire: Los usuarios pueden jugar juegos con los botones habituales del joypad ABXY en el aire con controles de disparo analógicos.

"Lo que hace que este software sea tan especial es que es totalmente accesible", dice Phillippa. "El código no requiere equipos caros para funcionar. Funciona con cualquier cámara web estándar, incluida la de un ordenador portátil. Con una simple descarga está listo para usarse".

Debido a que MotionInput permite la navegación facial utilizando la nariz, los ojos y la boca, agrega Costas, "es ideal para las personas que sufren EMN".

Próximos pasaos para MotionInput

"El proyecto continuará y busca colaborar con los sectores de la industria. Los académicos y mentores están investigando qué se puede hacer para ampliar los casos de uso y mejorar continuamente la experiencia del usuario", dice Phillippa. "Nos encanta trabajar con los estudiantes y el personal docente de UCL, ya que es inspirador ver lo que pueden hacer con la tecnología".

O como dice Paris, mientras juega un videojuego con sus hijos, "El potencial de UCL MotionInput para cambiar vidas es ilimitado".

Más información: Descargue el software e instrucciones de MotionInput Versión 3 (junio de 2022) | Ver demostraciones de MotionInput Versión 3 | Computación sin contacto: UCL MotionInput 3 (artículo de noticias de ciencias de la computación de UCL) | Más sobre Linkedin

Acerca de Intel

Intel (Nasdaq: INTC) es un líder de la industria que crea tecnologías que cambian el mundo al permitir el progreso global y enriquecer la vida de las personas. Inspirados por la Ley de Moore, trabajamos continuamente para avanzar en el diseño y la fabricación de semiconductores para ayudar a abordar los mayores desafíos de nuestros clientes. Al incorporar inteligencia en la nube, la red, el edge computing y todo tipo de dispositivos informáticos, liberamos el potencial de los datos para transformar las empresas y la sociedad para mejor. Para obtener más información sobre las innovaciones de Intel, visite newsroom.intel.es e intel.es.

© Intel Corporation. Intel, el logotipo Intel y otras marcas Intel son marcas comerciales de Intel Corporation o de sus filiales. Puede haber otras marcas y nombres que pertenezcan a terceros.