#7 ¿Estás manipulando tu realidad?
Exploro cómo nuestros modelos mentales limitan nuestra percepción de la realidad y su relación con la IA.

Tú construyes la realidad de tus modelos, pero, ¿quién construye la tuya?
La "realidad" no existe. Al menos, no una realidad única a la que todos tengamos acceso.
Igual que los modelos de IA, nuestras visiones del mundo están limitadas por los datos que hemos ido consumiendo a lo largo de nuestra vida.
A partir de aquí podemos tomar dos caminos principales:
Entenderlo y aceptarlo, y hacerlo lo mejor que podamos con los datos que tenemos.
Vivir en una mentira y asumir que lo que vemos es lo que hay.
Hoy te cuento cómo caen los modelos de IA en esta trampa, y lo que podemos aprender de ellos para aplicarlo a nuestra vida.
El problema del sobreajuste
En ciencia de datos, el sobreajuste (overfitting) es un problema común en los modelos de IA. Ocurre cuando un modelo aprende demasiado bien los detalles y el ruido de sus datos de entrenamiento, hasta el punto de que pierde capacidad de generalizar a nuevos datos.
Para entender esto bien, pensemos en un modelo entrenado para diferenciar imágenes de gatos y perros. Si queremos que sea bueno en su tarea, le dejaremos que vea miles de imágenes de gatos y perros junto con sus etiquetas. Esto le permite aprender patrones y luego clasificar imágenes nuevas que nunca ha visto.
Nota: Las etiquetas (en este caso) son lo que le indica al modelo si lo que está viendo es un gato o un perro.
Idealmente, el modelo construirá una especie de "mapa mental" que le ayude a reconocer qué hace que un gato sea un gato. Pero, ¿Qué pasa si en su entrenamiento solo ha visto gatos naranjas?
En ese caso, si le pasamos una imagen de un gato naranja, es muy probable que diga con cerca del 100% de confianza que es un gato. Sin embargo, si le pasamos un gato negro, es probable que responda que es un perro, o, si tenemos suerte y nos toca un modelo listo, es posible que diga que un perro no es, pero que tampoco cree que sea un gato, quizás algo entre medias, una nueva criatura desconocida.
Este es un caso clásico de sobreajuste. El modelo no ha aprendido que hace que un gato sea un gato, sino qué hace que un gato, dentro de su base de datos, sea un gato. Ha identificado el color naranja como un rasgo distintivo, cuando en realidad solo era una característica de los datos con los que fue entrenado.
Los límites de la realidad que creamos
Esto nos lleva a plantearnos lo siguiente:
Podemos crear modelos cuya "realidad" esté limitada por los datos que les damos. Si entrenamos un clasificador de gatos y perros, su mundo estará formado por gatos y perros. No podrá identificar frutas ni vehículos, porque nunca los ha visto. En esencia, le diseñamos una realidad a medida.
Claro, aquí entraríamos nosotros a guiar al modelo y ponerlo en tareas en las que no pueda fallar.
Esto nos lleva a preguntarnos, ¿Importa que el modelo tenga esa visión tan reducida del mundo cuando su misión en la vida es esa? Realmente, no nos hace falta que haga otra cosa que no sea clasificar gatos y perros.
El sesgo del modelo lo hace creer que los gatos son naranjas. Pero, si lo pensamos bien, ¿está realmente equivocado? En función de sus datos de entrenamiento, su respuesta es lógica. El modelo podría haber entrenado perfectamente bien, pero sus datos no eran muy buenos.
Esto es clave cuando desarrollamos modelos de IA para negocios o aplicaciones reales. Si los datos con los que entrenamos no reflejan con precisión el mundo en el que operarán, terminaremos con modelos que fallan cuando realmente importa.
Por desgracia, a la hora de la verdad no es tan fácil ver esto como en este ejemplo. Suele ser complicado llegar a un equilibrio para un modelo lo suficientemente bueno como para resolver la tarea de manera efectiva sin entrar en sobreajustes. Y cuanto más perfecto queramos que sea nuestro modelo, más complicado será conseguir este equilibrio.
Pero aquí viene la pregunta importante: ¿Y nosotros? ¿No hacemos lo mismo?
Nosotros también sobreajustamos la realidad
Al final del día, nosotros también somos una especie de modelos de clasificación (salvando las distancias). Nuestro cerebro está constantemente categorizando lo que vemos, lo que experimentamos y lo que aprendemos. Construimos nuestra realidad en base a lo que hemos vivido, los libros que hemos leído, las noticias que consumimos y las personas con las que interactuamos.
Ahora me pregunto, ¿y si hubiera algo más arriba, observándonos como nosotros observamos a nuestros modelos de machine learning?
Quizás nos han colocado en tareas que podemos manejar y para las que somos eficientes. Quizás no nos damos cuenta de la verdadera magnitud del universo porque, simplemente, nuestro "modelo" humano no ha sido entrenado para verlo.
¿Habrá un punto en el que la humanidad evolucione tanto como la IA y podamos empezar a "quitarle el trabajo" a seres superiores? ¿En algún momento nuestros límites de percepción se expandirán hasta el punto de trascender la realidad como la conocemos?
"Oh, dios... los humanos ahora también transmiten señales cuánticas a través del multiverso. ¿A cuánto estamos de la HST (Human Super Trascendence)?"
Puede que nos falte capacidad de cómputo para llegar a eso. Y si comparamos el ritmo de evolución humano con el de la IA, parece que antes nos extinguimos.
Pero quién sabe… quizás algún día logremos romper nuestro propio sobreajuste. Tal vez dejemos de ver el mundo en binario: blanco o negro, izquierda o derecha, bueno o malo, tortilla con o sin cebolla...
Quizás, cuando afiemos nuestros modelos mentales, estemos listos para enfrentar las preguntas que realmente importan.
¿Cuales?
A saber.