En un desarrollo que parece sacado directamente de un episodio de la aclamada serie «Black Mirror», Apple está incursionando en tecnologías que podrían redefinir la interacción hombre-máquina. La compañía de Cupertino, está invirtiendo significativamente en la posibilidad de controlar dispositivos como iPhones y Apple Vision Pro directamente con el poder del pensamiento.

Aunque los rumores sobre las próximas iteraciones del iPhone continúan circulando, en los laboratorios secretos del Apple Park se está gestando una revolución silenciosa: la creación de un nuevo estándar tecnológico que permitiría a las personas comunicarse con sus iPhones a través de señales neuronales capturadas por implantes cerebrales. Esta ambiciosa iniciativa, cuyo lanzamiento preliminar se rumorea para finales de este año, se está llevando a cabo en colaboración con Synchron, una empresa especializada en interfaces cerebro-computadora (BCI) con sedes en Nueva York y Australia.
El objetivo fundamental de este proyecto visionario es democratizar el acceso a la tecnología, especialmente para aquellos con limitaciones de movilidad severas, ofreciéndoles una nueva forma de interactuar con el mundo digital. Este esfuerzo se alinea con las recientes revelaciones sobre las mejoras de accesibilidad que llegarán con iOS 19, lo que subraya la creciente importancia que Apple otorga a las personas con diversas discapacidades. Este implante cerebral, que ya ha demostrado su potencial para controlar las Apple Vision Pro, refuerza la visión de Tim Cook de utilizar la innovación para mejorar la vida de todos.
La motivación detrás de esta investigación es profundamente humana: proporcionar a miles de individuos que han perdido la capacidad de usar sus manos debido a lesiones medulares graves o enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA) el acceso a la tecnología que la mayoría de nosotros damos por sentada.
El Testimonio de Mark Jackson: Un Mundo Virtual al Alcance de la Mente
Un ejemplo tangible del potencial de esta tecnología emergente es la experiencia de Mark Jackson, un paciente con ELA que participa activamente en las pruebas de este revolucionario sistema. A pesar de su inmovilidad y la imposibilidad de viajar desde su hogar cerca de Pittsburgh, Jackson ha experimentado algo extraordinario: la sensación de «asomarse» virtualmente al borde de una montaña en los Alpes suizos, una experiencia sensorial completa que incluso evocó la sensación de temblor en sus piernas.

Esta vivencia no fue un sueño ni una alucinación. Jackson estaba utilizando un Apple Vision Pro conectado a su implante Stentrode, desarrollado por Synchron, que traducía sus ondas cerebrales en comandos para el dispositivo de realidad mixta de Apple. «Es como volver a sentirse capaz», comentó Jackson, ilustrando el profundo impacto emocional y la recuperación de la autonomía que esta tecnología podría brindar a quienes viven con limitaciones físicas extremas.
Se estima que alrededor de 150.000 personas en Estados Unidos que sufren de impedimentos críticos en las extremidades superiores podrían ser candidatos directos para dispositivos equipados con esta interfaz cerebro-ordenador. Si bien este nicho de mercado puede parecer reducido en comparación con las ventas masivas de iPhones, la historia de Apple demuestra una consistente inversión en funciones de accesibilidad, incluso cuando el retorno económico inmediato no es la principal motivación.
Esta no es la primera vez que Apple se involucra en la creación de estándares tecnológicos para mejorar la accesibilidad. En 2014, la compañía introdujo un estándar que permitía a los audífonos comunicarse directamente con los iPhones a través de Bluetooth, una tecnología que desde entonces ha sido adoptada por la gran mayoría de los fabricantes de audífonos, demostrando la capacidad de Apple para impulsar la adopción de soluciones inclusivas.
Un Futuro sin Botones ni Pantallas: La Mente como Interfaz
Mientras el trabajo pionero con Synchron avanza, Apple también está explorando otras formas de interacción sin contacto. Se está desarrollando una función para las Apple Vision Pro que permitirá a los usuarios navegar por el software utilizando únicamente el movimiento de sus ojos, aprovechando la tecnología de seguimiento ocular ya integrada en el dispositivo. Esta capacidad de desplazamiento ocular se encuentra en fase de prueba como parte de visionOS 3, cuyo lanzamiento se espera en la WWDC25 el próximo 9 de junio.
El desarrollo de interfaces cerebro-computadora inevitablemente plantea interrogantes sobre la privacidad de los datos. ¿Qué implicaciones tendrá la recopilación de información directamente de nuestros cerebros? Synchron enfatiza su compromiso con la protección de la privacidad de los datos cerebrales, asegurando que no se comparte información sensible con terceros. La reputación de Apple en cuanto a la privacidad de sus usuarios podría ofrecer cierta tranquilidad en este aspecto.
La próxima WWDC de junio proporcionará más detalles sobre la visión de Apple para este futuro sin precedentes y el papel que la compañía planea desempeñar en él. Lo que está cada vez más claro es que la empresa que revolucionó la forma en que interactuamos con los teléfonos móviles ahora se prepara para transformar la propia naturaleza de la interacción entre la mente humana y la tecnología, abriendo las puertas a un futuro que hasta hace poco solo existía en la ciencia ficción.