Ollama MCP

IA / LLM TypeScript MIT stdio

Llama, Mistral, Phi y otros modelos locales vía Ollama. Privacidad total, sin API keys.

Instalación rápida
npx -y ollama-mcp

Llama, Mistral, Phi y otros modelos locales vía Ollama. Privacidad total, sin API keys.

Instalación

npx -y ollama-mcp

Casos de uso reales

  • Inferencia local
  • Fallback offline
  • A/B con cloud
  • Clasificación rápida

Ficha técnica

Autor
Comunidad
Paquete
ollama-mcp
Clientes
Claude Desktop, Cursor

Ver en GitHub ↗

Servidores MCP relacionados

OpenAI MCP

Llama a modelos de OpenAI desde Claude (chat, embeddings, dall-e). Útil para comparar outputs.

Replicate MCP

Cualquier modelo en Replicate (Flux, SDXL, llama-2, music-gen, etc.) como tool de Claude.

Hugging Face MCP

Modelos, datasets y Spaces. Inference API + Hub. Búsqueda y descripciones para descubrimiento.

Perplexity MCP

Search + LLM con citas. Acceso a Sonar API. Bueno para Q&A con fuentes.