appleBig SurchipGeneralgpum1machine learningmicroprocessorMmhmmoperating systemvideovideoconferencing

M1 y Big Sur: no una simple actualización más

IMAGE: Big Sur and M1 chip (Apple)

La nueva actualización de sistema operativo y chips presentada por Apple en sus máquinas el pasado martes 10 es más de lo que inicialmente podría parecer, y he tenido ocasión de comprobarlo gracias a las pruebas con una aplicación de vídeo. Los nuevos system-on-a-chip (SoC) con diseño de Apple sobre arquitectura ARM denominados M1 son diferencialmente más rápidos en general con respecto a los chips anteriores con arquitectura Intel, pero sobre todo, mucho más rápidos en el procesamiento de imagen, gracias a su GPU integrada de ocho núcleos, y en desarrollos asociados a machine learning, ejecutados en el también integrado Neural Engine de dieciséis núcleos.

El pasado miércoles, Phil Libin estuvo mostrándome el desarrollo de una nueva funcionalidad en mmhmm llamada Big Hand: una función aparentemente muy simple de reconocimiento de imágenes dinámicas sobre el vídeo capturado por la cámara del ordenador, que es capaz de reconocer una mano y una serie de gestos hechos con ella, y sobreimpresionar sobre esos gestos una mano grande y en colores vivos que replica esos gestos (un pulgar arriba o abajo, una mano abierta, dos dedos, etc.) y que puede verse más fácilmente cuando un vídeo se encuentra en formato thumbnail, en un recuadro pequeñito.

IMAGE: Big Hand functionality on  mmhmm

Esa funcionalidad, aparentemente sencilla, tiene requerimientos en términos de machine learning que, en este momento, sería muy difícil crear de manera mínimamente responsive en una máquina normal con un procesador menos avanzado. La función, de hecho, está creada específicamente para ese procesador y esos modelos recién presentados, y no funciona en otros modelos anteriores.

mmhmm también ha utilizado esas prestaciones avanzadas del procesador M1 para obtener un rendimiento muy superior de los fondos virtuales cuando no se utiliza pantalla de chroma: los bordes borrosos habituales que aparecen cuando un usuario recurre a un fondo virtual y se desplaza o mueve las manos, se reducen muchísimo, y cambia también mucho el ajuste del tono de la pantalla de chroma, que mejora sensiblemente su rendimiento.

Estos son simplemente dos ejemplos que he encontrado llamativos mientras preparaba información para un artículo anterior: como siempre en tecnología, pronto veremos muchos más usos de ese tipo de prestaciones que implican un fuerte procesamiento de imágenes en tiempo real y un uso avanzado de machine learning, sea para el reconocimiento de patrones o para cualquier otro uso. Pero por el momento, me caben muy pocas dudas: el procesador M1 de Apple es sensiblemente más potente en este tipo de usos – Apple habla del doble de rendimiento en su GPU y de quince veces más rápido en el tratamiento de machine learning, datos que obviamente hay que interpretar con pinzas – que la arquitectura anterior basada en procesadores Intel. Con el nuevo procesador M1, un simple MacBook Air es más potente que el laptop anteriormente más alto de la gama, el MacBook Pro de 16 pulgadas, con procesador Intel.

Además, Apple ha sido capaz de obtener esos rendimientos con una compatibilidad muy superior a la que había obtenido Microsoft sobre esa misma arquitectura, lo que implica que la gran mayoría de desarrolladores de aplicaciones serán capaces de adaptarlas al nuevo entorno sin demasiadas dificultades.

Considerando la creciente importancia del vídeo, del tratamiento de la imagen en tiempo real y del uso de machine learning, sin duda habrán sido condicionantes importantes a la hora de decidir algo tan relevante para una marca de dispositivos como un cambio de arquitectura.


Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Check Also
Close
Back to top button