Por Antonio Cámara Largo
Los límites fundamentales
La entrada anterior terminó con una pregunta abierta: si el cuello de botella es idiosincrático, y si el valor migra hacia aquello que la IA no puede hacer sola, ¿qué aporta el abogado humano exactamente? La respuesta, que llevamos toda la vida utilizando sin darle nombre, es la metacognición.
La metacognición se define como la capacidad de razonar sobre el proceso de razonamiento. Es lo que sucede cuando operamos en niveles superiores de abstracción. Un ejemplo sencillo: una abogada se da cuenta de que la primera conclusión a la que ha llegado puede haber contaminado su juicio, así que pide a un asociado que revise el asunto desde cero, sin revelarle sus conclusiones. Sabe que él pensará sin sesgo y agradecerá que contradiga su visión inicial. La segunda opinión aporta valor, pero solo en el sentido de que es una opinión limpia, sin sesgo, que ayuda a actualizar la primera. La petición al asociado demuestra una buena estrategia metacognitiva: no va tanto sobre la opinión en sí, sino sobre el proceso de llegar a ella.
La IA actual (abril de 2026) muestra capacidades metacognitivas muy superficiales. No puedo predecir cuánto mejorará esto con el tiempo, pero es una asunción razonable que sigan yendo por detrás de las capacidades de razonamiento de primer orden. Con las máquinas haciendo el trabajo pesado de extracción de fuentes y razonamiento básico, la metacognición puede ser precisamente lo que separe a los buenos abogados de los mediocres.
Algunos terrenos metacognitivos
Sin ánimo de ser exhaustivo, aquí algunas áreas donde el pensar sobre el pensar aporta un valor difícil de replicar:
- Flexibilidad jurídica. Es frecuente que el seguimiento ciego de la letra de la ley no sea el mejor consejo. La arquitectura actual de la IA tiende a sesgarla hacia ese tipo de interpretación y depende de sus curadores humanos para determinar cuándo tiene sentido restar peso a algo que, teóricamente, está en los libros.
- Sobreajuste. Cuando se le pide a la IA encontrar precedentes relevantes y usarlos como base, corre el riesgo de darles excesiva importancia y forzar su uso. Al fin y al cabo, es lo que le estamos pidiendo. Es labor metacognitiva la de entender si los precedentes o las fuentes que utiliza son suficientemente pertinentes.
- Subajuste. Al contrario, también es labor del curador humano entender si la IA está operando sobre fuentes insuficientes y forzando una conclusión. La gestión de la incertidumbre es parte del oficio, y aunque las IA probablemente mejorarán en manejarla, espero que la correcta calibración siga siendo una tarea humana.
- Novedad. Relacionado con lo anterior: de la misma manera que la IA puede sobreajustar, también puede estar sesgada hacia soluciones no novedosas. Le estamos pidiendo que interpole conocimiento existente, pero puede no tener el criterio para entender cuándo conviene un enfoque no estándar. Esto puede deberse a que la decisión implica estrategia, política o sicología humana más amplia, ausente del contexto de la IA. Espero que los humanos sean mejores leyendo el contexto completo en el que se toma una decisión, y adaptando el resultado de la IA para optimizar esa función de decisión.
- Contextos adversarios. La excesiva predictibilidad puede ser un estorbo cuando todas las partes de un conflicto tienen acceso a IA avanzada. Las IA han demostrado capacidad de jugar estratégicamente en juegos de suma cero como Diplomacy, pero incluso ahí el contexto es relativamente autocontenido. Espero que las IA que tratan los asuntos de uno en uno y carecen de contexto más amplio muestren niveles de varianza ineficientes (innoven demasiado poco en sus argumentos), especialmente cuando hay decisores humanos de por medio. Si la IA del juez puede predecir fácilmente los argumentos que van a presentar ambas partes, quizá la originalidad sea una ventaja.
El hilo común: el contexto amplio
Estas tareas metacognitivas tienen algo en común: requieren un contexto amplio y holgado. Polanyi, el padre de la teoría del conocimiento tácito, lo llamó subsidiary awareness: el conocimiento periférico que guía nuestro juicio sin que seamos conscientes de él. La investigación neurocientífica posterior ha mostrado que el cerebro opera con representaciones dispersas distribuidas por redes enormes, lo que le da una capacidad asociativa vastísima pero difusa. Una ventana de contexto inmensa pero de baja resolución, si se quiere. Las IA actuales operan con el mecanismo inverso: atención densa sobre un contexto acotado. Pueden ser extraordinariamente precisas dentro de su ventana, pero carecen de esa periferia difusa que permite al experto humano sentir que algo no encaja antes de bajar a explicar por qué.
La capacidad de gestión de contexto no ha experimentado en los últimos dos años saltos tan exponenciales como lo han hecho otras métricas de los LLM. No dudo de que irá mejorando y quizá deba tragarme mis palabras, pero mi impresión actual es que el cerebro humano estará por delante en este campo incluso si las capacidades brutas de la IA en todos los demás campos específicos siguen mejorando. No he conseguido encontrar estudios que aproximen el número de tokens que puede mantener un cerebro humano en contexto, pero baste decir que el estándar actual de un millón equivale a una hora de vídeo. ¿Cuántas horas de historial de input visual tenemos en nuestras cabezas directamente extraíbles?
La IA puede sobresalir en lo que cabe en su ventana de contexto, o en lo que puede trocear y orquestar en pasos con contextos separados. Pero no espero que igualen a corto plazo la capacidad del cerebro humano de entender contextos vagamente relacionados, heredada de nuestra evolución biológica. Por eso las tareas en niveles de abstracción más altos están probablemente mejor servidas por humanos: al retroceder uno o varios pasos, vemos la imagen más amplia y aun así le encontramos sentido. Lo ideal será una sinergia entre ambas fortalezas.
La verificación es la labor metacognitiva clave del abogado
La importancia económica de este elemento humano se ha formalizado recientemente en un marco más amplio sobre la transición hacia la IA agéntica. Catalini, Hui y Wu (2026) modelizan esta transición como una carrera estructural entre dos curvas de coste: un coste de ejecución automatizada que decae exponencialmente, y un coste de verificación humana biológicamente limitado. Su hallazgo central es que, a medida que las capacidades de la IA escalan, la restricción sobre la creación de valor migra desde ejecutar tareas hacia verificarlas: saber si el resultado es correcto, completo y está alineado con la intención real del cliente.
Esto es precisamente la función metacognitiva descrita arriba. El abogado que detecta un argumento sobreajustado, que señala una IA trabajando con fuentes insuficientes, o que lee el contexto adversario que ningún modelo ha indexado, no es un complemento útil a la IA: en el marco de Catalini, Hui y Wu, es el recurso escaso en la función de producción jurídica.
Dicho sin jerga económica: en tanto la verificación siga siendo escasa, los verificadores nos movemos al centro económico del sistema. Las horas que la IA libera son horas cuyo valor se determina por lo que hacemos con ellas al verificar, calibrar y dirigir la máquina.
Por verificación no debemos pensar solamente en lo que hacemos ahora cuando leemos un resultado de un chatbot para asegurarnos de que no tiene alucinaciones. La verificación en este sentido es mucho más amplia. Especialmente en el mundo de IA agéntica, la principal tarea es identificar que los pasos orquestados y los inputs elegidos como base de contexto son los más adecuados. Incluso si llegamos a erradicar las alucinaciones, los errores de concepto seguirán siendo posibles en tareas complejas. Puedo imaginar un aumento de la precisión de la extracción de datos de texto a un nivel en que podamos fiarnos de que no ha cometido errores de bulto, del mismo modo que me fío de Ctrl+F. Pero esto no desplazaría el juicio sobre dónde y por qué tiene que ir a extraer información, o cómo encajar las 50 fuentes fiables de datos en un contexto específico que tenga sentido estratégico.
En otras palabras, aunque la tecnología consiga eliminar los errores fácticos, sigue existiendo el riesgo de que encuentre la respuesta perfecta a la pregunta equivocada o que elabore el argumento perfecto de una estrategia procesal subóptima. Los agentes de IA capaces de encadenar las tareas que constituyen un entregable serán, casi por definición, menos precisos en el conjunto de la orquestación de tareas que en cada una de ellas individualmente consideradas. Cuanto más compleja y multidimensional sea la orquestación, peor. Tendremos que acostumbrarnos a evaluar los resultados no en términos de si el modelo ha alucinado un dato, sino si ha meta-alucinado un paso ineficiente dentro del proceso.
El futuro agéntico
Aún no hemos respondido a la pregunta más inquietante: si la IA absorbe tanta parte de lo que antes hacíamos, ¿no habrá simplemente menos trabajo jurídico? Es una pregunta legítima, y la próxima entrada tratará de responderla.
foto: Pedro Fraile

Comentarios Recientes