El problema era menos glamuroso y más cotidiano: la logística de cargar herramientas. Hasta ahora, Código Claude used “meter en la cabeza” del modelo las instrucciones de todas las herramientas disponibles al inicio de la sesión, eran necesarias o no. Es como si, antes de cocinar una tortilla, alguien te obligará a leerte el manual completo de una cocina industrial, con esquemas, advertencias y recambios, solo por si acaso quisieras hornear pan, hacer sushi o montar una campana extractora.
El “impuesto de arranque”: cuando los fichas se evaporan antes de empezar
En los agentes basados en LLM, el ventana contextual es el espacio de trabajo mental: ahí viven tu petición, la conversación y también las descripciones de herramientas. Si ese espacio se llena de documentación irrelevante, el modelo tiene menos sitio para razonar y recordar lo importante.
Thariq Shihipar, del equipo técnico de Anthropic, puso números a esa fricción al presentar la nueva función: servidores MCP con “50+ herramientas” y configuraciones con “7+ servidores” que podían consumir “67k+ tokens”. Aakash Gupta, autor de un boletín sobre IA y muy activo en X, lo tradujo a una consecuencia directa: con un límite de 200.000 tokens, un desarrollador podía perder alrededor de un tercio del presupuesto de contexto antes incluso de escribir el primer aviso.
El ejemplo más llamativo que circuló en la comunidad fue el de un servidor MCP para Docker: definir 135 herramientas podía costar en torno a 125.000 tokens. En términos prácticos, era como pagar medio depósito de gasolina antes de arrancar el coche, solo para llevar en el maletero un catálogo enorme de piezas que quizás no usarás en ese trayecto.
Qué es Búsqueda de herramientas MCP y por qué cambia la arquitectura
La actualización anunciada por el equipo de Código Claude introducir Búsqueda de herramientas MCPun mecanismo de “carga diferida” o carga diferida: el agente ya no necesita tragarse el manual completo de herramientas al principio. En su lugar, obtiene lo mínimo para orientarse y busca definiciones concretas solo cuando las necesita.
La novedad técnica suena, pero es una mejora muy reconocible para cualquiera que utilice software moderno. Un editor como VSCode no carga todas las extensiones y su documentación en el arranque; activa lo que toca cuando toca. Gupta comparó este salto con pasar de importaciones estáticas “a lo viejo” a una filosofía de carga bajo demanda.
Según las notas de lanzamiento citadas en el artículo, el sistema observa el consumo de contexto y, cuando las descripciones de herramientas superaban el 10% de la ventana disponible, cambia de estrategia. En vez de volcar páginas y páginas de especificaciones, crea o utiliza un índice de búsqueda ligero. Cuando el usuario pide una acción concreta —por ejemplo, desplegar un contenedor— el agente consulta ese índice, localiza la herramienta relevante y trae al contexto solo esa definición.
Es, en esencia, sustituir un trastero lleno de cajas sin etiquetar por un catálogo: no necesitas subirte a una escalera y abrir veinte paquetes para encontrar un destornillador; miras “destornillador” y vas directo.
Ahorro de contexto y dinero: el dato que vende, sin perder capacidad
El atractivo inmediato es obvio: menos fichas consumidos significa menos costo y más espacio para trabajo real. En el análisis compartido por Gupta, las pruebas internas de Anthropic apuntaban a una reducción aproximada del uso de tokens desde ~134k a ~5k en ciertos escenarios, lo que equivaldría a un recorte del 85% manteniendo el acceso completo a herramientas.
Ese matiz es importante. No se trata de recortar funcionalidades, ni de forzar a los usuarios a elegir dos o tres servidores “imprescindibles”. Se trata de mantener un arsenal amplio sin pagar el peaje completo si solo vas a disparar dos veces.
Para el usuario final, la sensación esperable es que Código Claude “respira” mejor: retiene más de la conversación, pierde menos el hilo y tiene margen para manejar tareas largas sin que el contexto se convierta en una habitación atestada.
Menos ruido, más acierto: por qué la precisión sube cuando el contexto se limpia
Hay otra consecuencia menos intuitiva que, para muchos equipos, vale tanto como el ahorro: la precisión. Los LLM son sensibles al “ruido” en contexto. Si les das cientos de definiciones parecidas, creas un juego de diferencias mínimas donde es fácil equivocarse, como confundir dos botones casi idénticos en un ascensor con cincuenta plantas.
El artículo menciona un ejemplo típico de confusión: herramientas con nombres similares del estilo notification-send-user frente a notification-send-channel. Con un contexto saturado, el modelo tiene más probabilidades de elegir mal o de mezclar parámetros.
Boris Cherny, responsable de Código Claudeexperimentó el cambio en X destacando más contexto útil, mejor seguimiento de instrucciones y la posibilidad de conectar todavía más herramientas. Los números que se compartieron internamente en la comunidad van en esa línea: con Tool Search activado, la precisión de Opus 4 en evaluaciones MCP habría pasado del 49% al 74%; es Obra 4.5del 79,5% al 88,1%. En lectura humana, es la diferencia entre un asistente que “se pierde” cada dos por tres y otro que, la mayoría de las veces, toca el interruptor correcto a la primera.
Lo que cambia para quienes construyen servidores MCP
Esta evolución también mueve el foco de optimización para desarrolladores. Antes, el incentivo era comprimir documentación, recortar herramientas o dividir servidores para que el modelo no se atragantara al arrancar. Estafa Búsqueda de herramientas MCPel valor se desplaza hacia describir bien el “cuándo” y el “para qué” de las herramientas, porque el sistema necesita pistas para saber qué buscar.
Shihipar señaló un detalle concreto: el campo server instructions en la definición MCP, que podía considerarse opcional, pasa a ser crítico como metadato. Funciona como esos rótulos claros en un supermercado que te dicen si debes ir al pasillo de lácteos o al de limpieza. Si el servidor explica bien su propósito, el agente tiene más probabilidades de lanzar la búsqueda adecuada y cargar la herramienta correcta sin traer media enciclopedia.
Anthropic también recomendó a quienes construyen clientes MCP implementar HerramientaBuscarHerramienta para soportar esta carga dinámica. Dicho de otra forma: la búsqueda no es solo una mejora puntual de Claude Code; apunta a un patrón que puede extenderse por el ecosistema.
Un síntoma de madurez: de la fuerza bruta a la ingeniería de plataformas
Hay una lectura más amplia detrás de la función: los agentes están dejando de ser una demostración brillante para convertirse en plataformas con problemas “de verdad”. En los primeros ciclos de cualquier tecnología, la fuerza bruta suele ganar por velocidad de implementación. Cuando el uso escala, la eficiencia deja de ser un capricho y se convierte en requisito.
La idea de que un agente pueda tener acceso potencial a millas de herramientas sin quedarse sin memoria antes de saludar cambia la conversación. Ya no es “qué dos conectores elijo para no romper el contexto”, sino “qué catálogo de capacidades puedo ofrecer con un costo razonable y una experiencia estable”. Ese salto abre puertas a configuraciones más ricas para trabajo con datos, despliegues, automatización interna y tareas de ingeniería que combinan muchas piezas pequeñas.
Qué debería vigilar una empresa o un equipo técnico desde hoy
Para equipos que usan Código Claude en flujos reales, el cambio invita a revisar dos cosas: la ambición del conjunto de herramientas y la calidad de la descripción. En un entorno con Tool Search, puede tener sentido conectar más servidores MCP sin miedo a penalizar cada sesión. El contrapunto es que el orden y la semántica importan más: nombres claros, instrucciones de servidor bien pensadas y herramientas diseñadas para ser encontrables.
Para quien esté evaluando agentes, la actualización también ayuda a separar “capacidad potencial” de “costo de arranque”. Un agente puede ser potente sin ser pesado, siempre que la arquitectura permita cargar solo lo que se usa. Como metáfora, es pasar de llevar una mochila con todo tu armario a viajar con una maleta pequeña y una dirección donde recoger lo que necesites.



