Google lanzará una nueva función que permitirá controlar tu móvil Android utilizando el reconocimiento facial. Este innovador proyecto se llama Project Gameface

23 de Mayo de 2024

Google utiliza la cámara frontal del smartphone para identificar gestos faciales, que se pueden asignar a diversas acciones.

Radio Viva Fenix En el evento Google I/O de 2024, además de las múltiples novedades sobre IA y Android 15, se hizo un anuncio importante que pasó desapercibido: el lanzamiento de Project Gameface. Esta tecnología permite a los usuarios controlar aplicaciones en Android solo con movimientos faciales. Similar a una función que Apple lanzará con iOS 18, Project Gameface es una herramienta de accesibilidad innovadora.
 
Google describe Project Gameface como un "ratón" que permite a las personas mover el cursor del ordenador usando la cabeza y los gestos faciales. Por ejemplo, los usuarios pueden abrir la boca para mover el cursor o levantar las cejas para hacer clic y arrastrar elementos, según explica la compañía en su blog.
 
El sistema utiliza la cámara frontal del dispositivo para reconocer los gestos faciales del usuario y asociarlos con acciones específicas, como sonreír para hacer clic. Además, Project Gameface permite personalizar la intensidad y la velocidad de los gestos, ajustándose a las necesidades individuales del usuario.
 
Google ha estado trabajando en este proyecto durante un tiempo y lo está integrando en Android a través de una API de MediaPipe. Esta API ofrece soluciones de inteligencia artificial y aprendizaje automático para la detección de rostros y puntos de referencia, y es capaz de reconocer más de 52 gestos faciales. Radio Viva Fenix Actualmente, Project Gameface de Google está disponible en GitHub, lo que permite a los desarrolladores implementarlo fácilmente en sus aplicaciones.
 
Aunque no es exactamente la misma tecnología, Apple también ha presentado una nueva función de accesibilidad en iOS que permitirá a los usuarios controlar el sistema y algunas aplicaciones usando solo la mirada.
 
Esta función, que estará disponible con iOS 18 y iPadOS 18, utiliza la cámara frontal del dispositivo. Apple ha confirmado que con el seguimiento ocular, los usuarios pueden navegar por los elementos de una aplicación y usar la permanencia para activar cada elemento, accediendo a funciones adicionales como botones físicos, deslizamientos y otros gestos solo con los ojos.

Escrito por: Daniel Martín

⇒Foto: Xataka Android

NOTICIAS RELEVANTES

Continúa el izaje de dovelas del viaducto del Metro de Bogotá en la avenida Caracas

17 de Marzo de 2026

La construcción de la Línea 1 del Metro de Bogotá continúa avanzando y ya alcanza un progreso...

Seguir leyendo →

Spotify permitirá organizar listas de reproducción en carpetas desde el celular

17 de Marzo de 2026

La plataforma de streaming musical Spotify prepara una actualización que permitirá a los usuarios...

Seguir leyendo →

Sellan obra de apartamentos en la Autopista Norte con calle 116 tras caída de estructura metálica

17 de Marzo de 2026

Una obra de construcción de apartamentos ubicada en la Autopista Norte con calle 116 fue sellada...

Seguir leyendo →
Radio Viva Fenix



VIVO
VIVO
VIVO
VIVO
VIVO
VIVO
VIVO