MCP vs LangChain Tools: ¿cuándo usar cada uno?

Si trabajas conectando LLMs a herramientas externas, en 2026 la pregunta ya no es “¿debería usar function calling o LangChain?”. La pregunta es MCP vs LangChain Tools. Ambos resuelven problemas similares pero con filosofías opuestas. Este artículo te ayuda a elegir según tu contexto.

El problema que ambos resuelven

Quieres que un modelo (Claude, GPT, Gemini, Llama) ejecute acciones reales: consultar una base de datos, llamar una API, escribir un archivo, abrir un navegador. Ambas tecnologías estandarizan ese contrato modelo↔herramienta.

La diferencia fundamental

LangChain Tools es una librería: tú escribes Python o TypeScript que importa langchain, defines herramientas como funciones decoradas, y el modelo (cualquiera, vía OpenAI / Anthropic / etc.) las invoca. La integración es in-process: las herramientas viven en tu proceso de aplicación.

Model Context Protocol es un protocolo: las herramientas viven en un proceso aparte (servidor MCP), separado del cliente (Claude Desktop, Cursor, Cline, Continue, Windsurf), y se comunican por stdio o WebSocket. La integración es out-of-process: el servidor MCP es un binario reusable.

Cuándo gana MCP

  • Reutilización entre clientes: el mismo servidor sirve a Claude Desktop, Cursor y un cliente custom. Con LangChain reescribes la herramienta cada vez.
  • Aislamiento: el servidor MCP corre en su propio proceso, con su propio entorno, y un crash no derriba la app. Para producción seria, esto importa.
  • Distribución: publicas un paquete npm o PyPI y cualquiera lo instala vía npx/uvx. Hay un ecosistema curado en MCP·es con miles de servidores listos.
  • Productos al usuario final: si tu usuario es alguien con Claude Desktop, no un dev escribiendo Python, MCP es el contrato natural.

Cuándo gana LangChain Tools

  • Aplicación a medida: construyes un agente custom con flujo, memoria, retries y orchestración. LangChain te da grafos (LangGraph), retries por defecto y un ecosistema de chains/agents.
  • Lógica fuertemente acoplada: tu herramienta consulta variables internas de tu app, accede a un cache compartido o usa el mismo cliente HTTP que el resto del backend. Out-of-process añade fricción.
  • Modelo no soporta MCP: si trabajas con OpenAI o Gemini sin un wrapper, LangChain (o function calling nativo) es la ruta más directa.
  • Iteración rápida: en un notebook, definir una herramienta como decorador es más rápido que arrancar un servidor MCP.

El patrón híbrido

Cada vez más equipos usan ambos: MCP para herramientas de propósito general (filesystem, GitHub, Postgres) y LangChain para la orchestración del agente que decide cuándo invocar cada uno. Algunos servidores MCP incluso exponen agentes LangChain como una sola tool — lo mejor de los dos mundos.

Decisión rápida

¿Construyes un asistente personal o producto que se distribuye? MCP. ¿Construyes un agente backend con flujo complejo y producción interna? LangChain. ¿Estás en duda? Empieza por MCP — es más fácil migrar después y aprovechas el catálogo existente.

Recursos

Si vienes desde LangChain, lee primero la guía MCP en español para entender el modelo mental. Y si quieres ver código real, los servidores oficiales en GitHub (@modelcontextprotocol/servers) son la mejor referencia: están bien documentados y son idiomatic.