Google implementará la inteligencia artificial para reconocer a las personas que salgan de espalda en fotos

La aplicación recolectará información como la ubicación, hora, forma de vestir y demás características de la imagen para reconocer personas.

Google cada día incorpora más herramientas de la inteligencia artificial para que los usuarios puedan utilizarlas en sus diversas plataformas mejorando sus capacidades e incluso añadir funciones para el beneficio de los consumidores. Luego de la actualización del Buscador y todas las aplicaciones de Workspace, Google Fotos se suma a la lista servicios que implementan la IA.

La plataforma comenzara a utilizar un sistema mejorado de reconocimiento facial para identificar rostros que se encuentren parcialmente ocultos y a aquellas personas que se encuentren de espaldas en fotografías. De esta manera, se aumenta la precisión con la que se forman álbumes de personas en específico.

Te podria interesar:YouTube revela cuales son los tipos de videos que la Generación Z busca en su plataforma

Dicha característica, que ya se encuentra en uso en zonas puntuales de Estados Unidos y se espera que se extienda en otros países, utiliza la tecnología de la inteligencia artificial para identificar a personas basándose en información relacionada con la ubicación donde se tomó la fotografía, la hora en la que fue capturada la imagen e incluso la apariencia similar que pueda tener con un sujeto anteriormente identificado.

En los casos en que Google se permite etiquetar a una persona de espaldas dentro de una fotografía, se enseñará una etiqueta que incluya una sección en miniatura de una fotografía previa en la que se puede ver el rostro del usuario identificado. Dichas etiquetas pueden removerse si el usuario no desea incluir la información en la imagen o incluso podrán editarse si existe algún error.

google_photos.jpg

Si una persona no se ha podido reconocer, sea por error del programa o porque es la primera vez que se ha encontrado su presencia en una fotografía, se mostrará una etiqueta especial con un mensaje adjunto: “Rostro disponible para agregar”.

Según Android Authority, una de las explicaciones que podría presentar el desarrollo es que en la actualidad Google no solo se encuentra aprendiendo cómo almacenar información de los rostros, sino la manera de la cabeza de los usuarios basándose en videos o fotografías anteriores que los muestran en distintos ángulos.

Asi, algunos de los factores adicionales que la plataforma podría utilizar para encontrar un rostro dentro de una fotografía tienen el potencial de incluir detalles como la forma de vestir de una persona, no solo en la colección de imágenes que se tomen durante un viaje o una visita a un museo, sino que se encarga de buscar datos sobre toda la galería de imágenes, por lo que cada una de las fotografías, incluyendo las más antiguas, podrían usar las etiquetas.

dia o noche