Ollama MCP
IA / LLM TypeScript MIT stdio
Llama, Mistral, Phi y otros modelos locales vía Ollama. Privacidad total, sin API keys.
Instalación rápida
npx -y ollama-mcp
Llama, Mistral, Phi y otros modelos locales vía Ollama. Privacidad total, sin API keys.
Instalación
npx -y ollama-mcp
Casos de uso reales
- Inferencia local
- Fallback offline
- A/B con cloud
- Clasificación rápida
Ficha técnica
Autor
Comunidad
Paquete
ollama-mcp
Clientes
Claude Desktop, Cursor
Ver en GitHub ↗
Servidores MCP relacionados
OpenAI MCP
Llama a modelos de OpenAI desde Claude (chat, embeddings, dall-e). Útil para comparar outputs.
Replicate MCP
Cualquier modelo en Replicate (Flux, SDXL, llama-2, music-gen, etc.) como tool de Claude.
Hugging Face MCP
Modelos, datasets y Spaces. Inference API + Hub. Búsqueda y descripciones para descubrimiento.
Perplexity MCP
Search + LLM con citas. Acceso a Sonar API. Bueno para Q&A con fuentes.