La línea Pixel 9 de Google funciona con hardware de última generación como el procesador Tensor G4 y toneladas de RAM que deberían ayudar a mantener su teléfono rápido. Pero todo ese hardware también está diseñado para impulsar nuevas experiencias de Inteligencia Artificial (IA).
“Android está reinventando tu teléfono con Gemini”, escribió Sameer Samat, presidente del Ecosistema Android de Google, en una publicación de blog publicada el martes. “Con Gemini profundamente integrado en Android, estamos reconstruyendo el sistema operativo con la IA en el centro. Y redefiniendo lo que los teléfonos pueden hacer”.
A continuación te contamos las nuevas funciones de IA que vienen con los nuevos dispositivos Pixel.
Superposiciones de Gemini y Gemini Live
Gemini, el chatbot impulsado por IA de Google, será el asistente predeterminado en los nuevos teléfonos Pixel 9, Pixel 9 Pro, Pixel 9 Pro XL y Pixel 9 Pro Fold. Para acceder a él, simplemente presiona el botón de encendido de tu teléfono y comienza a hablar o escribir su pregunta.
Un gran cambio nuevo es que ahora puedes abrir Gemini en la parte superior de cualquier aplicación que estés usando para hacer preguntas sobre lo que hay en tu pantalla, cómo encontrar información específica sobre un video de YouTube que estás viendo, por ejemplo.
También podrás generar imágenes directamente a partir de esta superposición y arrastrarlas y soltarlas en la aplicación subyacente, así como subir una foto a la superposición y hacer preguntas a Gemini al respecto.
Funciones de fotos y cámara
Una nueva función llamada Add Me, que se lanzará en vista previa con los nuevos dispositivos, por ejemplo, te permitirá tomar una foto grupal y luego tomar una foto del fotógrafo por separado y agregarla a la imagen principal sin problemas, útil si no tienes a nadie cerca para tomar una foto de todo tu grupo.
Mientras tanto, Magic Editor, la herramienta de edición integrada con IA en Android, ahora puede sugerir los mejores recortes e incluso expandir las imágenes existentes completando los detalles con IA generativa para obtener más de la escena.
Finalmente, una nueva función de ‘reimaginación’ le permitirá agregar elementos como hojas de otoño o hacer que el césped sea más verde, mejorando sus imágenes, sí, pero difuminando la línea entre cuáles de sus recuerdos son reales y cuáles no.
Capturas de pantalla de pixeles
Una nueva aplicación llamada Pixel Screenshots disponible en los nuevos dispositivos Pixel en el lanzamiento revisará su biblioteca de fotos (una vez que le dés permiso), seleccionará capturas de pantalla y luego identificará lo que hay dentro de cada imagen.
También puedes hacer clic en imágenes de carteles del mundo real (como un festival de música al que quieras asistir, por ejemplo) y hacer directamente preguntas relevantes a la aplicación, cómo cuándo salen a la venta las entradas para el festival.
Notas de la llamada
Una nueva función llamada Notas de llamada guardará automáticamente un resumen privado de cada llamada telefónica. Por lo tanto, puede consultar una transcripción para buscar rápidamente información importante de la llamada, como la hora de la cita, la dirección o el número de teléfono más tarde.
Google señala que la función se ejecuta completamente en el dispositivo, lo que significa que no se envía nada a los servidores de Google para su procesamiento. Y todos los participantes en la llamada recibirán una notificación si has activado las notas de llamada.
Estudio de pixeles
La aplicación se ejecuta en ambos, un modelo en el dispositivo impulsado por el nuevo procesador Tensor G4 y el modelo Imagen 3 de Google en la nube. Puede compartir cualquier imagen que cree en la aplicación a través de mensajería o correo electrónico directamente.
Google utilizará la IA para crear informes meteorológicos personalizados para su ubicación específica justo en la parte superior de una nueva aplicación Weather para que “no tenga que desplazarse por un montón de números para tener una idea del clima del día”, según la publicación del blog de la compañía.