Antes de crear el modo Cine del iPhone, tuvimos que estudiar a fondo las técnicas de enfoque selectivo que los grandes cineastas utilizan para dar emoción y suspense a sus historias.
En los rodajes de Hollywood, controlar el enfoque es tarea de todo un equipo de especialistas. La persona que dirige la fotografía decide lo que se debe enfocar y en qué momento, mientras que el ayudante de cámara se encarga de la fluidez de las transiciones, del control de los tiempos y de que todo salga bien enfocado y nítido.
Ahora imagina lograr que el iPhone haga las dos cosas.
El primer paso fue generar datos de profundidad complejos que permitieran al modo Cine calcular la distancia exacta a la que se encuentran las personas, animales y el resto de elementos que aparecen en escena. En el caso de la grabación de vídeo, esos datos se deben producir de forma continua a 30 fotogramas por segundo.
Después enseñamos al Neural Engine a trabajar como lo haría el equipo técnico de una película. Es decir, a tomar decisiones al vuelo sobre qué hay que enfocar y a generar transiciones fluidas cada vez que hay un cambio. Por supuesto, siempre puedes tomar el control y ajustar el enfoque por tu cuenta, ya sea mientras grabas o al editar el vídeo después.
Necesitábamos un chip con una potencia a la altura del desafío. Y el A15 Bionic clava su papel.
En resumen, ejecutar los algoritmos del aprendizaje automático, renderizar los cambios en el autoenfoque, permitir el ajuste manual y hacer la gradación de cada fotograma en Dolby Vision, todo en tiempo real, requiere una potencia estratosférica.
Es como si llevaras un estudio de cine en el bolsillo.