
Pico AI Server LLM VLM MLX
Impulsado por GPT-oss
Sólo para Mac
Gratis
Mac
Servidor LLM y VLM ultrarrápido para redes locales de hogar y oficina. Basado en MLX, con los modelos más recientes: DeepSeek, Gemma, Llama, Mistral, Qwen y Phi.
LLM y VLM privados en 60 segundos. Convierte cualquier Mac con Apple-silicon en un servidor AI listo para empresas sin configuración. Una descarga ofrece a tu equipo una interfaz de chat web y más de 300 modelos de vanguardia de código abierto—sin nube, sin línea de comandos.
Por qué Pico:
- Todo incluido
Interfaz web integrada y configuraciones sencillas. Sin instalaciones extra.
- Cero configuración
Lánzalo una vez; Pico detecta GPUs, obtiene modelos iniciales y se comparte en tu red local.
- Valor en 60 segundos
Primera respuesta antes de que tu café se enfríe.
- Hecho para equipos
Asientos multiusuario y registros.
- Privacidad y cumplimiento
Los datos nunca salen de tu Mac. Funciona completamente offline—ideal para GDPR y mandatos locales.
- Velocidad Apple-silicon
Aceleración MLX ofrece hasta 3× tokens más rápidos que las versiones genéricas.
- APIs listas para estándares
Endpoints estilo Ollama y compatibles con OpenAI se integran en apps existentes.
- Modelos intercambiables
Explora Llama, Gemma, DeepSeek y cientos más, o carga tus propios modelos ajustados.
Diseñado para donde la nube no llega
Salud, legal, finanzas—donde la privacidad o latencia excluyen SaaS, Pico lleva AI de primer nivel al hardware que ya posees.
Desarrolladores bienvenidos
Usa tu SDK favorito. Transmite respuestas, llamadas a funciones y más—sin terminal.
Requisitos
Mac con Apple-silicon (M1, M2, M3)• 16 GB RAM mínimo (32 GB+ recomendado para modelos grandes)
Sin registros. Sin suscripciones. Sin nube.
Descarga Pico AI Server hoy y ofrece a cada escritorio en tu red un AI rápido, privado y flexible—dentro de tu Mac.
• Pico AI Homelab soporta más de 300 modelos LLM y VLM de vanguardia, como:
• OpenAI GPT-oss
• Google Gemma 3
• Google Gemma 3n
• DeepSeek R1
• Meta Llama
• Alibaba Qwen 3
• Alibaba QwQ
• XBai o4
• Polaris
• Microsoft Phi 4
• Microsoft BitNet
• Mistral
• Devstral
• Baichuan M1
• EXAONE
• GLM 4.5
• DeepHermes
• Granite Code
• Hugging Face SmolLM
• Hugging Face SmolVLM
• Jan nano
…Y muchos más
• Pico AI Homelab soporta 23 modelos de incrustación, como:
• BERT
• RoBERTa
• XLM-RoBERTa
• CLIP
• Word2Vec
• Model2Vec
• Static
• Compatible con tu app de chat existente, incluyendo:
• Open WebUI
• Apollo AI
• Bolt AI
• IntelliBar
• Msty
• Ollamac
• MindMac
• Enchanted
• Kerling
• LibreChat
• Hollama
• Ollama-SwiftUI
• Witsy
• Reactor AI
... Y muchos más
Calificaciones y reseñas
Esta app no ha recibido suficientes calificaciones ni reseñas para mostrar un resumen.
Corrección de error: Llamada de herramienta Qwen 3 VL
Nuevos modelos:
- Más modelos Granite 4.0
- FastVLM
El desarrollador (Starling Protocol Inc) indicó que las prácticas de privacidad de la app pueden incluir el manejo de datos que se describe a continuación. Para obtener más detalles, consulta la política de privacidad del desarrollador .
No se recopilan datos
El desarrollador no recopila ningún dato en esta app.
Accesibilidad
El desarrollador aún no ha indicado cuáles funciones de accesibilidad admite esta app. Obtén detalles
Ficha técnica
- Vendedor
- Starling Protocol, Inc
- Tamaño
- 82.9 MB
- Categoría
- Productividad
- Compatibilidad
Requiere macOS 15.0 o posterior.
- Mac
Requiere macOS 15.0 o posterior.
- Idiomas
Español y 32 más
- Español, Alemán, Catalán, Checo, Chino simplificado, Chino tradicional, Coreano, Croata, Danés, Eslovaco, Finés, Francés, Griego, Hebreo, Hindi, Húngaro, Indonesio, Inglés, Italiano, Japonés, Malayo, Neerlandés, Noruego bokmål, Polaco, Portugués, Rumano, Ruso, Sueco, Tailandés, Turco, Ucraniano, Vietnamita, Árabe
- Edad
13+
- 13+
- Poco frecuente
Información de tratamientos médicos
- Copyright
- © 2025 Starling Protocol, Inc