Google llevó a cabo este martes su evento anual de desarrolladores (Google I/O 2021), en el que presentó nuevos programas y actualizaciones en varios de sus servidores o aplicaciones, entre ellas Maps, Buscador y Compras.
La empresa también anunció su más reciente proyecto basado en inteligencia artificial (IA), el cual consiste en identificar problemas de la piel, como el cáncer, utilizando únicamente la cámara del teléfono celular.
La compañía tecnológica desarrolló esta herramienta de IA que permitirá a cualquier persona identificar problemas de la piel con su móvil. Para ello, el usuario sólo tendría que apuntar con la cámara a la mancha o lunar que crea sospechoso y hacer tres fotografías desde distintos ángulos.
Así funciona la herramienta de Google
La IA relacionará las fotografías del usuario con las imágenes de los 288 problemas que es capaz de reconocer, para ofrecer sugerencias de la posible afectación, que mostrará en un carrusel.
El usuario podrá seleccionarlas para ampliar información, como síntomas, la gravedad de la enfermedad, un posible tratamiento. También las acompaña de imágenes procedentes de la red.
Esta herramienta de asistencia dermatológica forma parte de un proyecto de investigación que a finales de año se lanzara como una prueba piloto. Sin embargo, no se trata de una herramienta de diagnóstico ni sustituye el consejo médico, como advierten desde Google en su blog oficial. La compañía ve esta herramienta como una forma de ofrecer acceso a fuentes autorizadas para que los usuarios puedan tomar decisiones basadas en información.
En ella han dedicado tres años de investigación en aprendizaje automático y desarrollo de producto, y para evitar sesgos, y asegurarse de que funciona con cualquier persona, han utilizado 65 mil imágenes y datos de diagnósticos, así como “millones de imágenes curadas de problemas de la piel y miles de ejemplos de piel sana, todos en diferentes grupos demográficos”.
Nuevas funciones en Google Maps
Google Maps transformó el modo en que la gente, en todo el mundo, navega, explora y realiza sus tareas, y seguimos ampliando los límites de lo que se puede hacer con un mapa incorporando funciones pioneras en el sector, como la navegación en RA con Live View.
Google ha anunciado las nuevas funciones impulsadas por inteligencia artificial que ha introducido en sus servicio de mapas. Una de ellas es la mejora de enrutamiento, diseñadas para reducir la probabilidad de frenadas bruscas en la conducción, gracias al aprendizaje automático y los datos históricos de navegación.
Gracias a una mayor personalización, cuando el usuario busca cosas que hacer, el mapa destacará los lugares relevantes, dependiendo de la hora del día (por ejemplo, cafeterías a la hora del desayuno o bares por la tarde) y si estamos de viaje o no. Las mejoras introducidas en Live View -la navegación en el entorno real con la cámara del móvil- y el mayor detalle de los planos de calles (que muestran elementos como aceras, cruces o semáforos) permitirán explorar una zona, y si el usuario quiere saber si un barrio o una zona de la ciudad están muy concurridos, puede obtener esta información de un vistazo, en cuanto abra el servicio de mapas.