AirPodsappleApple WatchAprendizaje automáticoAutocorrectordictaciónExperiencia de usuarioInteligencia ArtificialiPadOSJournalM2 UltraVision ProWWDC 2023

Apple evitó hablar de Inteligencia Artificial en el evento, pero sí la incluyó en varios productos

ia en apple

En el reciente evento WWDC 2023 de Apple, la compañía presentó avances significativos en términos de integración de aprendizaje automático en sus productos y servicios. Aunque evitó utilizar el término «inteligencia artificial» (IA), Apple destacó el uso de técnicas de «aprendizaje automático» (machine learning, ML) para mejorar la experiencia del usuario. Esto contrasta con la estrategia de sus competidores, como Microsoft y Google, que han puesto un gran énfasis en la IA generativa. A través de su enfoque en el ML, Apple demuestra su compromiso con la innovación tecnológica centrada en el usuario.

Transformando el autocorrector y la dictación en iOS 17

En iOS 17, Craig Federighi, Vicepresidente Senior de Ingeniería de Software de Apple, presentó mejoras significativas en el autocorrector y la dictación, potenciados por el aprendizaje automático en el dispositivo. Federighi mencionó el uso de un «modelo de lenguaje transformer» que hace que el autocorrector sea más preciso que nunca. Este modelo se basa en la arquitectura de transformer, que ha impulsado innovaciones en IA generativa. El autocorrector ahora puede completar palabras o frases enteras con solo presionar la barra espaciadora. Además, el modelo aprende del estilo de escritura del usuario, lo que mejora aún más las sugerencias ofrecidas.

La potencia del Apple Silicon y la Neural Engine

Apple ha integrado el aprendizaje automático en sus dispositivos gracias a la Neural Engine, una parte especializada de los chips Apple Silicon. Esta unidad está diseñada para acelerar las aplicaciones de aprendizaje automático y ha estado presente desde el chip A11 de 2017. En el evento, se destacó que la dictación en iOS 17 utiliza un «modelo de reconocimiento de voz basado en transformer», que se aprovecha de la Neural Engine para lograr una dictación aún más precisa.

Mejoras en el iPad, AirPods y Apple Watch

Durante el evento, Apple hizo referencia al aprendizaje automático en múltiples ocasiones. En relación con el iPad, se presentó una nueva función en la pantalla de bloqueo que utiliza un «modelo avanzado de aprendizaje automático» para sintetizar fotogramas adicionales en las Live Photos seleccionadas. iPadOS también puede identificar los campos en los archivos PDF, gracias a nuevos modelos de aprendizaje automático, lo que permite llenarlos rápidamente con información de los contactos mediante la función de autocompletado.

Los AirPods ahora ofrecen «Audio Adaptativo» que utiliza el aprendizaje automático para comprender las preferencias de escucha del usuario con el tiempo. Esto permite ajustar el volumen de forma personalizada. Por otro lado, el Apple Watch cuenta con un widget llamado Smart Stack, que utiliza el aprendizaje automático para mostrar información relevante en el momento adecuado.

Journal: una nueva aplicación que aprovecha el aprendizaje automático

Apple presentó una nueva aplicación llamada Journal, que permite a los usuarios escribir y mantener un diario personal con texto e imágenes encriptadas en el iPhone. Si bien Apple mencionó la presencia de IA en Journal, prefirió no utilizar el término explícitamente. Mediante el uso de aprendizaje automático en el dispositivo, la aplicación puede ofrecer sugerencias personalizadas para inspirar la escritura, basadas en información almacenada en el iPhone, como fotos, ubicación, música y ejercicios físicos. Los usuarios tienen control total sobre qué información incluir y guardar en su diario.

Vision Pro: una experiencia inmersiva creada con aprendizaje automático

El producto estrella presentado en el evento fue el Apple Vision Pro, un nuevo dispositivo que brinda una experiencia de realidad aumentada inmersiva. Durante la demostración, Apple reveló que la imagen en movimiento de los ojos del usuario en las gafas se genera mediante técnicas avanzadas de aprendizaje automático. Al escanear el rostro del usuario, se crea una representación digital llamada «Persona» utilizando una red neuronal codificador-decodificador. Esta red comprime la información facial capturada durante el proceso de escaneo y la utiliza para generar un modelo 3D del rostro del usuario.

El poderoso chip M2 Ultra y el futuro del aprendizaje automático en Apple

En el evento, Apple presentó su chip Apple Silicon más potente hasta la fecha, el M2 Ultra. Este chip cuenta con hasta 24 núcleos de CPU, 76 núcleos de GPU y una Neural Engine de 32 núcleos, capaz de realizar 31.6 billones de operaciones por segundo. Apple destacó que esta potencia será especialmente útil para entrenar «grandes modelos transformer», demostrando así su interés en las aplicaciones de IA. Los expertos en IA han mostrado entusiasmo por las capacidades del M2 Ultra, ya que su arquitectura de memoria unificada permite ejecutar modelos de IA más grandes.

Como veis, la Ia está en todos los sitios, aunque no se mencione específicamente.


Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button