Si trabajas conectando LLMs a herramientas externas, en 2026 la pregunta ya no es “¿debería usar function calling o LangChain?”. La pregunta es MCP vs LangChain Tools. Ambos resuelven problemas similares pero con filosofías opuestas. Este artículo te ayuda a elegir según tu contexto.
El problema que ambos resuelven
Quieres que un modelo (Claude, GPT, Gemini, Llama) ejecute acciones reales: consultar una base de datos, llamar una API, escribir un archivo, abrir un navegador. Ambas tecnologías estandarizan ese contrato modelo↔herramienta.
La diferencia fundamental
LangChain Tools es una librería: tú escribes Python o TypeScript que importa langchain, defines herramientas como funciones decoradas, y el modelo (cualquiera, vía OpenAI / Anthropic / etc.) las invoca. La integración es in-process: las herramientas viven en tu proceso de aplicación.
Model Context Protocol es un protocolo: las herramientas viven en un proceso aparte (servidor MCP), separado del cliente (Claude Desktop, Cursor, Cline, Continue, Windsurf), y se comunican por stdio o WebSocket. La integración es out-of-process: el servidor MCP es un binario reusable.
Cuándo gana MCP
- Reutilización entre clientes: el mismo servidor sirve a Claude Desktop, Cursor y un cliente custom. Con LangChain reescribes la herramienta cada vez.
- Aislamiento: el servidor MCP corre en su propio proceso, con su propio entorno, y un crash no derriba la app. Para producción seria, esto importa.
- Distribución: publicas un paquete npm o PyPI y cualquiera lo instala vía
npx/uvx. Hay un ecosistema curado en MCP·es con miles de servidores listos. - Productos al usuario final: si tu usuario es alguien con Claude Desktop, no un dev escribiendo Python, MCP es el contrato natural.
Cuándo gana LangChain Tools
- Aplicación a medida: construyes un agente custom con flujo, memoria, retries y orchestración. LangChain te da grafos (LangGraph), retries por defecto y un ecosistema de chains/agents.
- Lógica fuertemente acoplada: tu herramienta consulta variables internas de tu app, accede a un cache compartido o usa el mismo cliente HTTP que el resto del backend. Out-of-process añade fricción.
- Modelo no soporta MCP: si trabajas con OpenAI o Gemini sin un wrapper, LangChain (o function calling nativo) es la ruta más directa.
- Iteración rápida: en un notebook, definir una herramienta como decorador es más rápido que arrancar un servidor MCP.
El patrón híbrido
Cada vez más equipos usan ambos: MCP para herramientas de propósito general (filesystem, GitHub, Postgres) y LangChain para la orchestración del agente que decide cuándo invocar cada uno. Algunos servidores MCP incluso exponen agentes LangChain como una sola tool — lo mejor de los dos mundos.
Decisión rápida
¿Construyes un asistente personal o producto que se distribuye? MCP. ¿Construyes un agente backend con flujo complejo y producción interna? LangChain. ¿Estás en duda? Empieza por MCP — es más fácil migrar después y aprovechas el catálogo existente.
Recursos
Si vienes desde LangChain, lee primero la guía MCP en español para entender el modelo mental. Y si quieres ver código real, los servidores oficiales en GitHub (@modelcontextprotocol/servers) son la mejor referencia: están bien documentados y son idiomatic.