Pico AI Server LLM VLM MLX A12A12 +12

Com GPT-oss

Starling Protocol Inc

    • 5,0 • 2 avaliações
    • Grátis

Capturas de tela

Descrição

Servidor LLM e VLM rápido e privado para casa e escritório. Baseado em MLX, com os modelos mais recentes: DeepSeek, Gemma, Llama, Mistral, Qwen e Phi.

LLM e VLM privados em 60 segundos. Transforme qualquer Mac com Apple Silicon em um servidor de IA pronto para empresas, sem configuração. Um download oferece à sua equipe uma interface de chat web e mais de 300 modelos open-source de ponta—sem nuvem, sem linha de comando.

Por que Pico:

- Tudo incluído
UI web integrada e configurações fáceis. Sem instalações extras.

- Zero configuração
Inicie uma vez; Pico descobre GPUs, baixa modelos iniciais e se compartilha na sua rede local.

- Valor em 60 segundos
Primeira resposta antes do café esfriar.

- Feito para equipes
Assentos multiusuário e registros.

- Privacidade e conformidade
Dados nunca saem do seu Mac. Funciona totalmente offline—ideal para GDPR e exigências locais.

- Velocidade Apple Silicon
Aceleração MLX entrega até 3× mais rápido que builds genéricos.

- APIs prontas para padrões
Endpoints estilo Ollama e compatíveis com OpenAI se integram direto em apps existentes.

- Modelos intercambiáveis
Explore Llama, Gemma, DeepSeek e centenas mais, ou carregue seus próprios modelos ajustados.

Feito para onde a nuvem não chega
Saúde, advocacia, finanças—onde privacidade ou latência excluem SaaS, Pico traz IA de ponta para o hardware que você já possui.

Desenvolvedores bem-vindos
Use seu SDK favorito. Transmita respostas, chamadas de função e mais—sem terminal necessário.

Requisitos
Mac com Apple Silicon (M1, M2, M3)• 16 GB RAM mínimo (32 GB+ recomendado para modelos maiores)
Sem cadastros. Sem assinaturas. Sem nuvem.
Baixe o Pico AI Server hoje e ofereça a cada mesa da sua rede uma IA rápida, privada e infinitamente flexível—dentro do seu Mac.

• Pico AI Homelab suporta mais de 300 modelos LLM e VLM de ponta, como:
• OpenAI GPT-oss
• Google Gemma 3
• Google Gemma 3n
• DeepSeek R1
• Meta Llama
• Alibaba Qwen 3
• Alibaba QwQ
• XBai o4
• Polaris
• Microsoft Phi 4
• Microsoft BitNet
• Mistral
• Devstral
• Baichuan M1
• EXAONE
• GLM 4.5
• DeepHermes
• Granite Code
• Hugging Face SmolLM
• Hugging Face SmolVLM
• Jan nano

...E muitos mais

• Pico AI Homelab suporta 23 modelos de embedding, como:
• BERT
• RoBERTa
• XLM-RoBERTa
• CLIP
• Word2Vec
• Model2Vec
• Static

• Compatível com seu app de chat existente, incluindo:
• Open WebUI
• Apollo AI
• Bolt AI
• IntelliBar
• Msty
• Ollamac
• MindMac
• Enchanted
• Kerling
• LibreChat
• Hollama
• Ollama-SwiftUI
• Witsy
• Reactor AI
... E muitos mais

Novidades

Versão 1.2.13

Correção: Jan v1 bf16 (obrigado Ivan!)

Avaliações e opiniões

5,0 de 5
2 avaliações

2 avaliações

Privacidade do app

Starling Protocol Inc, responsável pelo desenvolvimento do app, indicou que as práticas de privacidade do app podem incluir o gerenciamento de dados conforme descrito abaixo. Para mais informações, consulte sua política de privacidade.

Dados não coletados

Os desenvolvedores não coletam nenhum dado deste app.

As práticas de privacidade podem variar, por exemplo, com base nos recursos que você usa ou na sua idade. Saiba mais

Mais deste desenvolvedor