Llegará un momento, en un futuro no muy lejano, en el que decidirás insertar un chip de computadora en tu cerebro.
Al menos eso es lo que dice D. dijo Scott Phoenix a la audiencia en TED 2026 en Vancouver el mes pasado.
“Alguien con quien usted trabaje lo recibirá primero. Y aguantarás un rato, como lo hiciste con el teléfono inteligente. Pero eventualmente no lo harás”, dijo Phoenix, vestido completamente de negro con un pequeño micrófono pegado a su oreja. “Será difícil competir con las ventajas de la integración”.
Dicho sin rodeos, en su opinión, “estamos en la cúspide de la próxima gran transición, la fusión de los humanos y la IA”.
Esta perspectiva, por extravagante que parezca, es común en Silicon Valley. El director ejecutivo de OpenAI, Sam Altman, reflexionó allá por 2017 que “una fusión es probablemente nuestro mejor escenario” para sobrevivir después del surgimiento de la IA sobrehumana. El multimillonario tecnológico Peter Thiel es un firme defensor del “transhumanismo”.
Hay buenas razones para ser escépticos ante una evolución inminente de la especie. La tecnología para llevar a cabo este tipo de fusión (para cambiar radicalmente lo que realmente significa ser humano) aún se encuentra en sus primeras etapas. Incluso dejando de lado el futuro incierto de la IA, la llamada interfaz cerebro-computadora implantable (BCI) todavía es bastante incipiente.
Y, sin embargo, ya hay enormes sumas de dinero desperdiciadas en torno a esta tecnología, y habrá más por venir. Se espera que el mercado BCI, que actualmente ronda los 350 millones de dólares, alcance los 1.200 millones de dólares en 2035, según Future Market Insights. Eso no incluye empresas como la que fundó Phoenix, llamada Vicarious, que buscaba utilizar principios básicos en el cerebro para construir una IA que pudiera actuar como humanos. Phoenix, que ahora es un capitalista de riesgo, vendió su empresa a Alphabet en 2022, después de que inversores como Elon Musk y Mark Zuckerberg la financiaran con 250 millones de dólares. Se prevé que el mercado más amplio de la neurotecnología se expandirá a 52 mil millones de dólares para 2032, según la Neurorights Foundation.
Con tanto dinero en juego, por no hablar del futuro de la humanidad, no debería sorprender que la batalla política sobre nuestras ondas cerebrales esté comenzando a calentarse. Esto es particularmente cierto en medio del escepticismo tanto de la izquierda como de la derecha hacia el incesante impulso de Silicon Valley para el crecimiento de la IA.
Hasta ahora, el caso de uso de los dispositivos implantables es en gran medida de naturaleza médica. Noland Arbaugh, el primer ser humano en recibir un BCI implantado de Neuralink, fundado por Musk, está paralizado del cuello para abajo, pero ahora puede usar una computadora con su mente. (Neuralink ha informado de 21 ensayos clínicos de BCI implantables en humanos hasta enero, después de años de ensayos con primates que a menudo terminaron de manera espantosa).
También existen formas menos intrusivas de BCI;
La propiedad de una gran cantidad de datos neuronales se puede utilizar para hacer cualquier cosa, desde publicar anuncios extremadamente específicos hasta vigilar o manipular el comportamiento de los consumidores. Los multimillonarios tecnológicos que creen en la posibilidad de una verdadera integración entre humanos y IA también pueden ver una oportunidad de ganar algo más de dinero mientras tanto.
“Si los datos son el petróleo del siglo XXI”, escribió en noviembre la ex directora general de la UNESCO, Audrey Azoulay, en el Financial Times, “entonces los datos ‘cerebrales’ son el petróleo crudo. Necesitamos protegerlo con más celo”.
La resistencia a la acumulación de datos neuronales por parte del sector privado está creciendo rápidamente, y tanto los estados rojos como los azules aprueban leyes para proteger la privacidad de la información neuronal.
Dentro del floreciente movimiento de defensores de los neuroderechos, existen debates reales sobre la mejor manera de abordar a las empresas que se introducen en el cerebro de los consumidores. Pero existe una amplia oposición entre los defensores de la noción de que la IA y los humanos deben convertirse en uno para que la especie sobreviva, y una amplia preocupación acerca de que el sector privado extraiga datos neuronales de los consumidores para acelerar ese proceso.
“Esa lógica me parece muy retorcida”, dijo Susan Schneider, directora del Centro para el Futuro de la IA, la Mente y la Sociedad de la Florida Atlantic University, y agregó que la IA debería desarrollarse “de una manera que proteja la privacidad y promueva el florecimiento humano”.
En última instancia, el debate latente sobre la recopilación de datos neuronales es mucho más que una simple legislación sobre privacidad. Toca el corazón mismo de lo que nos hace humanos, ahora y en el futuro.
A finales del año pasado, la empresa de neurotecnología Kernel, fundada por Bryan Johnson, un emprendedor tecnológico que insiste en que puede vivir para siempre, publicó su boletín trimestral. Además de los anuncios de nuevos productos, el director ejecutivo Ryan Field escribió: “Si ha estado soñando con crear modelos a partir de datos cerebrales, tenemos la mejor solución para la recopilación de datos de alta calidad a escala y estamos desarrollando capacidades más avanzadas”.
En una entrevista, Field dijo que la empresa está vendiendo tecnología que otras empresas pueden utilizar para recopilar datos neuronales y entrenar grandes modelos de lenguaje. “[Nuestra tecnología] brinda información muy rica y poderosa que se puede utilizar para entrenar nuevos modelos para que hagan todo tipo de cosas diferentes”, dijo.
Field dijo que no venden datos neuronales en Kernel, pero que quieren recopilar la mayor cantidad posible con el consentimiento para construir sus propios dispositivos portátiles que midan mejor la salud y la actividad cognitiva. “Estoy buscando personas que intercambien sus datos cerebrales a cambio de algún tipo de compensación”, continuó, señalando que su trabajo está en el ámbito de la investigación e incluye formularios de consentimiento claros.
Pero a medida que las empresas de neurotecnología se vuelven más orientadas al consumidor y menos centradas en los ensayos clínicos, no está del todo claro qué información pueden recopilar de sus usuarios. Un pequeño grupo de abogados, científicos y defensores ahora están tratando de proteger los datos de los usuarios para que no sean comprados y vendidos sin su consentimiento. Es decir, si pueden estar en sintonía entre sí.
La regulación de los datos neuronales a cualquier nivel gubernamental aún está en sus primeras etapas, pero algunos estados han comenzado a tomar medidas para impedir que las empresas tengan acceso a ciertos tipos de información.
En Colorado, California y Connecticut, los legisladores han modificado los estatutos de privacidad existentes para incluir información generada por el “sistema nervioso central o periférico del consumidor”. Y Minnesota está considerando un marco amplio de “derechos de neurodatos”, que incluye algo más que una simple expansión de las protecciones de la privacidad.
A nivel federal, el líder de la minoría del Senado, Chuck Schumer (D-N.Y.), junto con los senadores. Maria Cantwell (D-Wash.) y Ed Markey (D-Mass.), presentaron la Ley MIND en septiembre pasado. El proyecto de ley ordenaría a la Comisión Federal de Comercio que estudie cómo los datos neuronales pueden revelar pensamientos, emociones o patrones de toma de decisiones, y cómo deben regularse estos datos y los relacionados.
Muchas de estas propuestas han sido escritas en parte por la Neurorights Foundation, un grupo de defensa global que reporta financiamiento de Omidyar Network y Alfred P. Fundación Sloan. El grupo, iniciado por el neurocientífico Rafael Yuste en 2022, está tratando de crear regulaciones que protejan los datos cerebrales en Europa, América Latina y Estados Unidos. La fundación dice que actualmente están trabajando en otros nueve Estados Unidos. los estados aprueban una legislación similar a la que ya han impulsado hasta la línea de meta en California, Colorado, Montana y Connecticut.
El grupo está formado en gran parte por tecnólogos que no tienen ninguna oposición fundamental a la construcción de neurotecnología, pero que también están preocupados por la seguridad. Su objetivo es adoptar un enfoque de regulación específico: ampliar las leyes de privacidad existentes para proteger los datos neuronales de los consumidores, sin sofocar la innovación.
“Las neurotecnologías tienen implicaciones maravillosas y profundas para mejorar el florecimiento humano”, dijo Stephen Damianos, director ejecutivo de la Neurorights Foundation. “Sin regulaciones y salvaguardias de sentido común, existe el riesgo de que la humanidad nunca se beneficie de lo que estas tecnologías tienen para ofrecer. [Eso es] debido a una regulación estricta que vendrá a corregir los daños que pueden ocurrir y ocurrirán debido a una enorme falta de confianza pública, debido a escándalos y casos reales de tecnologías que dañan a las personas”.
Es un argumento diseñado tanto para la industria como para quienes se preocupan por la seguridad: considere algunas salvaguardias razonables ahora, para que no haya multitudes enojadas más adelante. Damianos parece ansioso por evitar el tipo de batallas cáusticas que han surgido sobre otras cuestiones relacionadas con la IA, como la construcción de centros de datos o el uso de LLM.
No todo el mundo está de acuerdo con el enfoque de la Neurorights Foundation.
Nita Farahany, profesora de derecho y filosofía en Duke y destacada académica en tecnologías emergentes, cree que las cuestiones de datos neuronales deben tratarse por separado de otras cuestiones de privacidad en lugar de simplemente modificar la ley de privacidad existente.
“Los datos más íntimos son los datos sobre lo que estás pensando y sintiendo que podrían recopilarse a través de datos neuronales”, dijo Farahany. Incluso en medio del desacuerdo sobre cómo tratar las cuestiones de privacidad de datos de manera más amplia, dijo que podría ser posible establecer reglas distintas para lo que hay en nuestras ondas cerebrales.
A otros les preocupa que la defensa dirigida específicamente a proteger nuestros pensamientos más íntimos sea un enfoque equivocado. Después de todo, incluso si la mayoría de las personas no están cerca de tener un chip implantado en su cerebro, las neurotecnologías portátiles (desde relojes inteligentes hasta anillos de seguimiento del sueño y el estrés) están aquí y las corporaciones ya están devorando esos datos.
“Los datos neuronales realmente no pueden revelar nuestros pensamientos privados en este momento, entonces, ¿por qué estamos dando la alarma sobre esto ahora mismo? Cualquier cosa que los datos neuronales realmente revelar puedan hoy puede revelarse a través de otros medios”, dijo Anna Wexler, investigadora principal del Laboratorio Wexler de la Universidad de Pensilvania, donde estudia las cuestiones éticas, legales y sociales que rodean la tecnología emergente.
Eso no significa que no sea necesaria la regulación, sino que debería incluir información que ya están recopilando empresas que se especializan en tecnología portátil. “Tal vez valga la pena crear nuevas leyes o legislación, pero eso no debería ser específico de los datos neuronales”, dijo Wexler. “Tal vez debería capturar inferencias más amplias sobre los estados mentales”.
Aquellos en la industria se enfurecen ante la idea de tener que cumplir con una serie de leyes estatales diferentes que rigen los datos neuronales.
Field, director ejecutivo de Kernel, sostiene que cualquier regulación debería realizarse a nivel federal. “Para que haya innovación en este espacio, no podemos estar navegando por 50 agendas legislativas diferentes”, dijo. “Involucremos a las partes aceptables adecuadas, para que haya verdaderos expertos en la materia y no sólo entusiastas de la ciencia ficción que escriban leyes”.
Este enfoque se hace eco de la postura más amplia de la administración Trump sobre la IA, que según los críticos equivale a dejar que la industria se vuelva loca. Los defensores del establecimiento de restricciones a los datos neuronales, muchos de los cuales son científicos, insisten en que las empresas que trabajan en productos de datos neuronales están utilizando la idea de competencia con China y un potencial mosaico de legislación estatal como garrote para acabar con cualquier regulación.
El debate sigue siendo fluido, en parte porque el campo aún es muy incipiente. Los vaivenes en torno a algunas de estas propuestas son incluso desconocidos para muchos que trabajan en la industria. Phoenix insistió en que creía ampliamente en la protección de la privacidad, pero que no había oído hablar de ninguna legislación estatal específica sobre el cerebro.
En una entrevista con Ross Douthat el año pasado, Thiel se mostró notablemente indeciso cuando se le preguntó si la raza humana debería sobrevivir. Finalmente dijo que sí, antes de agregar: “Pero también me gustaría que resolviéramos radicalmente estos problemas. Y así es siempre, no lo sé, sí, el transhumanismo. Lo ideal era esta transformación radical donde tu cuerpo humano, natural, se transforma en un cuerpo inmortal”.
Thiel no está solo entre los titanes de la tecnología que hablan cada vez más de la idea de que la “humanidad” podría no parecerse mucho a la humanidad tal como la conocemos.
“La próxima era del ser humano está aquí”, dijo en noviembre Johnson, el gurú antienvejecimiento que hace todo lo posible en su cuerpo para extender su vida útil. En enero, el director ejecutivo de Anthropic, Dario Amodei, escribió: “Creo que estamos entrando en un rito de iniciación, a la vez turbulento e inevitable, que pondrá a prueba quiénes somos como especie”.
Esto convierte la ya importante cuestión de cuál es la mejor manera de mantener la privacidad de nuestros cerebros en una discusión aún más tensa sobre el futuro de la vida humana.
Phoenix dice que la palabra “transhumanismo” no es una frase particularmente útil, pero aboga absolutamente por la fusión del hombre y la máquina, y sostiene que no hacerlo significaría inevitablemente que una IA poderosa destruiría o esclavizaría a los humanos.
“O nos subimos al tren o nos quedamos atrás de una manera que es profundamente mala para nosotros”, dijo. “No creo que seamos capaces de controlar un cerebro divino. Creo que tenemos la oportunidad de humanizarlo”.
Estas ideas han producido una feroz oposición de todo el espectro político.
“Ha desmoralizado a toda una generación y les ha dicho que pueden esperar ser básicamente mascotas de las máquinas o de multimillonarios con máquinas”, dijo en una entrevista el año pasado Joe Allen, un conservador social y colaborador de War Room de Steve Bannon. “Si eso realmente se hace realidad, pesadilla”.
Muchas críticas también provienen de la izquierda, y algunos argumentan que la adopción total de la IA sólo beneficia a un pequeño grupo de la élite tecnológica. “¿Crees que se quedan despiertos por las noches preocupándose por los trabajadores y cómo esta tecnología afecta a esas personas?” “No lo hijo. Lo hacen para enriquecerse y ser aún más poderosos”.
En general, los aceleracionistas de la IA tienen mucho a su favor en este momento. Tienen un aliado en la Casa Blanca y un fondo de guerra casi ilimitado antes de las elecciones intermedias. Pero la oposición pública a la IA es real;.
Según los principales evangelistas de Silicon Valley, es sólo cuestión de tiempo que se implantan chips en todos nuestros cerebros. Quizás se estén engañando a sí mismos, o quizás simplemente vean una oportunidad de ganar mucho dinero. Pero para muchos, ésta es su sincera convicción.
Para los defensores y otras personas preocupadas por la privacidad, no importa cómo sea el futuro, no debería ser determinado únicamente por empresas tecnológicas con fines de lucro. De lo contrario, los humanos pierden un tipo diferente de agencia.
De hecho, una reacción política a la IA o a la recopilación masiva de datos neuronales podría poner en peligro los sueños mismos de quienes esperan construir un mundo nuevo.
“Los transhumanistas que conozco están muy preocupados de que sus bien intencionados puntos de vista sobre el florecimiento humano no puedan hacerse realidad debido a la tecnovigilancia y los abusos contra los derechos humanos”, dijo Schneider, del Centro para el Futuro de la IA, la Mente y la Sociedad.
“Los datos de pensamiento son los datos más íntimos y privados que existen”, añadió. “Cuando las plataformas abusivas obtienen el control de nuestros datos de pensamiento y los utilizan indebidamente, y los utilizan para manipular nuestro comportamiento sin que nosotros lo sepamos, habremos arruinado el florecimiento de la perspectiva transhumanista”.
