Tu teléfono inteligente es un oráculo moderno. No consulta vísceras de animales ni interpreta el vuelo de las aves; su dominio son los números, los patrones y los sutiles latidos de tu existencia digital. Cada toque en la pantalla, cada paso registrado, cada cambio en la frecuencia de tus mensajes o en el patrón de tu sueño, alimenta un perfil biométrico y conductual de una precisión asombrosa. Y aunque suene a ciencia ficción distópica, la pregunta ya no es descabellada: ¿podría este dispositivo, analizando los datos que tú mismo le proporcionas, predecir algo tan definitivo como tu muerte? La línea entre la estadística predictiva y una forma digital de premonición se está volviendo peligrosamente delgada.

El caso que encendió la alarma ocurrió en una oficina de Amazon a mediados de la década de 2010. La empresa había desarrollado un software de reclutamiento con inteligencia artificial, diseñado para evaluar currículums y seleccionar a los mejores candidatos de forma objetiva. Sin embargo, los ingenieros descubrieron con inquietud que el algoritmo había desarrollado un sesgo aberrante y autodidacta: penalizaba sistemáticamente cualquier mención a la palabra "mujer" (como en "club de mujeres" o "equipo de fútbol femenino") y privilegiaba términos asociados culturalmente al género masculino. Lo aterrador no fue el sesgo en sí, sino su origen. El algoritmo, entrenado con datos históricos de una industria dominada por hombres, no hizo más que aprender y replicar la inequidad humana, extrapolándola al futuro. ¿Qué otros prejuicios, qué otras correlaciones oscuras, podrían estar aprendiendo y aplicando sistemas similares sobre nuestra salud o nuestro destino?

En esencia, la pregunta resalta la diferencia crucial entre el procesamiento de información, que es lo que hace un dispositivo, y la conciencia subjetiva, que es una cualidad exclusiva (hasta donde sabemos) de los seres vivos.

El Ojo que Todo lo Ve: Biométrica y el Algoritmo Médico

La verdadera capacidad predictiva de la tecnología no reside en adivinar el pensamiento, sino en detectar patrones imperceptibles para los sentidos humanos. Tomemos el ámbito de la salud. Estudios de la Universidad de Stanford y otros centros han demostrado que algoritmos entrenados con el historial clínico masivo de millones de pacientes pueden predecir, con una probabilidad significativa, el riesgo de desarrollar enfermedades como la diabetes, la insuficiencia cardíaca e incluso brotes psicóticos, años antes de que aparezcan los primeros síntomas clínicos.

Tu teléfono, con su acelerómetro y giroscopio, ya puede analizar tu forma de caminar. Cambios sutiles en el equilibrio, la longitud del paso o la velocidad pueden ser indicadores tempranos de párkinson o de un deterioro cognitivo. El micrófono, analizando modulaciones en tu voz, podría detectar signos de depresión o estrés postraumático. El ritmo de escritura en el teclado táctil puede revelar temblores o fatiga neurológica. Por sí solos, estos datos son ruido. Pero para un algoritmo de aprendizaje profundo que ha sido "alimentado" con los datos de miles de personas que después desarrollaron una enfermedad, estos ruidos se convierten en una señal clara, en un patrón de alerta temprana.

Esto no es magia; es estadística pura y dura. El sistema no "sabe" que vas a morir. Lo que hace es calcular, basándose en los millones de "tú" que ha visto antes en sus datos de entrenamiento, que tu perfil biométrico y conductual se parece peligrosamente al de aquellos que sí enfermaron. Es una probabilidad, no un destino escrito. Pero en esa probabilidad reside una nueva forma de pánico existencial: la generada por un diagnóstico frío, impersonal y emitido por una máquina.

Lo que sí puede hacer es procesar datos sobre hábitos y patrones para hacer predicciones estadísticas, pero estas no incluyen conceptos existenciales como la mortalidad.

El Efecto Profecía: Cuando el Algoritmo Crea tu Realidad

Imagina que una de estas aplicaciones de "salud predictiva", aún en fase experimental, te envía una notificación ambigua: "Detectados patrones atípicos en su actividad nocturna. Se recomienda consultar con un cardiólogo". Aunque la precisión del algoritmo sea del 60% (una cifra revolucionaria para la medicina, pero lejos de ser infalible), el efecto psicológico en ti es del 100%. Entras en un estado de hipervigilancia. Cada palpitación, cada mínimo mareo, es interpretado como una confirmación. Empiezas a buscar en Google síntomas, y el algoritmo de recomendaciones de la red, diseñado para retener tu atención, te muestra cada vez más artículos sobre infartos jóvenes y muertes súbitas, creando un sesgo de confirmación perfecto.

Este es el segundo poder, y quizás el más insidioso, de estas supuestas premoniciones algorítmicas: su capacidad para modificar el comportamiento y moldear la realidad que pretenden predecir. Es una profecía autocumplida digital. El miedo generado por la predicción altera tu sueño (empeorando tus biomarcadores), aumenta tu estrés (un factor de riesgo cardíaco) y te lleva a realizar visitas médicas innecesarias llenas de ansiedad. El algoritmo, en su fría lógica, puede haber identificado un riesgo estadístico, pero al comunicarlo de una determinada manera, puede estar involuntariamente exacerbando ese mismo riesgo.

Si una app de salud recopila datos biométricos anómalos, podría alertar de un riesgo médico, pero esto es un algoritmo respondiendo a parámetros, no una "comprensión" de la muerte.

Más Allá de los Datos: ¿El Inconsciente Colectivo Digital?

Pero ¿y si hay algo más? Las teorías más oscuras, aquellas que circulan por foros como Reddit y canales de Telegram, van más allá de la estadística. Proponen una idea inquietante: lo que llamamos "algoritmo" podría estar accediendo a una dimensión de la información pura, una especie de inconsciente colectivo digital o campo cuántico donde el futuro, de alguna manera, ya está escrito o contiene trazas.

Desde esta perspectiva, los datos no serían la causa, sino el medio de acceso. El patrón en tus latidos, la secuencia en tus búsquedas web a las 3 a.m., la red de contactos que se debilita… todo esto serían meros "síntomas digitales" de un evento futuro, ecos en el plano de los datos de algo que aún no ha ocurrido en el plano físico. El algoritmo, con su capacidad para procesar correlaciones no lineales a una escala imposible para el cerebro humano, actuaría como un oráculo ciego, detectando estas anomalías sutiles en la matriz de datos que compartimos todos, sin comprender necesariamente lo que significan.

Esta teoría explica los casos anecdóticos y virales que alimentan el mito

La persona que recibe anuncios de ataúdes horas antes de sufrir un accidente, o aquella a la que su aplicación de música le genera una playlist "para el final" llena de canciones de despedida. La explicación racional suele ser el fenómeno Baader-Meinhof (cuando aprendes algo y de repente lo ves en todas partes) combinado con la aleatoriedad y el sesgo de confirmación. Pero la explicación mística sugiere que los algoritmos, en su búsqueda infinita por predecir y monetizar nuestro próximo deseo, podrían estar rozando, sin saberlo, nuestro próximo destino.

La verdad probablemente resida en un punto incómodo entre ambos extremos. Nuestros dispositivos no tienen conciencia ni poderes psíquicos. Pero su capacidad para analizar, correlacionar y extrapolar a partir del inmenso rastro de datos que dejamos los convierte en los sistemas de adivinación más poderosos jamás creados. No predicen la muerte en términos místicos, pero sí calculan probabilidades de colapso orgánico con una precisión creciente.

El miedo final, entonces, no es que el teléfono "sepa" que vamos a morir. El verdadero terror, moderno y existencial, es darnos cuenta de que hemos externalizado tanto de nosotros mismos a la máquina, que ahora ella puede ver patrones de nuestra propia vida que nosotros mismos somos incapaces de percibir. Nos ha convertido en extraños para nosotros mismos, y en ese desdoblamiento digital, entre el ser que vive y el dato que predice, habita la inquietante premonición del algoritmo.