Apple buscó despejar dudas sobre la adopción de Apple Intelligence y, en ese marco, Tim Cook aseguró que la función de IA más usada por quienes tienen iPhones compatibles es Visual Intelligence, una herramienta pensada para interpretar lo que aparece en pantalla o frente a la cámara.
La función más elegida dentro de Apple Intelligence
Durante la conferencia de resultados del primer trimestre fiscal de 2026, el CEO de Apple, Tim Cook, afirmó que Visual Intelligence es hoy la opción de inteligencia artificial que más utilizan los dueños de iPhone con dispositivos compatibles. La declaración fue reportada el 30 Ene, 2026, a las 10:01 a.m. EST.
Ante analistas e inversores, Cook planteó que la compañía ve un uso activo de estas herramientas entre quienes pueden acceder a Apple Intelligence. En sus palabras, sostuvo: “Estamos entusiasmados de ver cómo la mayoría de los usuarios con iPhone compatibles están aprovechando activamente el poder de Apple Intelligence”. Sin embargo, no difundió cifras concretas sobre niveles de adopción ni un desglose estadístico por función.
Qué hace Visual Intelligence y por qué se volvió central
Según lo informado, Visual Intelligence fue concebida para que el usuario pueda entender y aprovechar mejor el contenido que tiene delante, ya sea dentro del iPhone o a través de su cámara. Apple describe que esta función agiliza búsquedas, facilita tareas y permite responder preguntas de manera contextual, con integración en aplicaciones del sistema.
Uno de los accesos principales es mediante una captura de pantalla. Al tomarla, el sistema ofrece acciones directas como:
- “Preguntar”
- “Añadir al calendario”
- “Buscar”
A partir de ese menú, se habilitan usos como pedir un resumen de un texto dentro de una app, solicitar una traducción, o incluso consultar a qué película pertenece un video que se está viendo en redes sociales como TikTok. Apple marca esta dinámica contextual como uno de los diferenciales del enfoque.
Uso con la cámara: cómo se activa y qué permite
La otra forma de utilizar Visual Intelligence es con la cámara del iPhone. El acceso se hace manteniendo pulsado durante dos segundos el botón de la cámara, lo que activa el análisis de lo que el usuario está enfocando en tiempo real.
Entre las capacidades mencionadas se incluyen:
- Identificar objetos
- Enumerar libros en una estantería
- Reconocer la raza de un perro
La propuesta apunta a convertir lo que se ve a través del lente en información accionable dentro del ecosistema del teléfono.
Otras funciones que Apple dice que ganan tracción
Además de destacar a Visual Intelligence como la más usada, Cook mencionó otras herramientas de Apple Intelligence que, según describió, también vienen creciendo en utilización:
- Live Translation: permite traducir audio en tiempo real usando AirPods, con foco en conversaciones en otros idiomas.
- Writing Tools: orientada a la escritura y edición, con funciones para redactar, generar resúmenes o convertir información en tablas.
- Clean Up: pensada para edición de fotos, con la posibilidad de eliminar elementos no deseados del fondo de una imagen.
Críticas, comparación con la competencia y preguntas abiertas
El énfasis de Apple llega en un escenario donde Apple Intelligence no habría logrado el impacto esperado desde su debut y quedó por detrás de otras propuestas del mercado. En particular, fue comparada de forma desfavorable con Gemini, el sistema de Google integrado en Android, y con soluciones nativas de fabricantes como Samsung.
Aun así, el mensaje de Cook buscó reforzar que la apuesta de Apple por la inteligencia artificial ya está en marcha y que sus funciones tienen usos cotidianos, más allá de promesas futuras.
En paralelo, el texto plantea que siguen abiertas dudas sobre el rumbo de Apple Intelligence en un mercado cada vez más competitivo. Entre los interrogantes aparece cómo se integrará Gemini dentro del ecosistema de Apple y si esa colaboración podría ayudar a achicar la distancia frente a la IA que Google ofrece de manera nativa en los Pixel y que Samsung adoptó en los Galaxy.




