
Pico AI Server LLM VLM MLX 12+
Angetrieben von GPT-oss
Starling Protocol Inc
-
- Gratis
Screenshots
Beschreibung
Blitzschneller LLM- und VLM-Server für Heim- und Büronetzwerke. Basierend auf MLX, mit den neuesten DeepSeek-, Gemma-, Llama-, Mistral-, Qwen- und Phi-Modellen.
Private LLM und VLM in 60 Sekunden. Verwandeln Sie jeden Apple-Silicon-Mac in einen sofort einsatzbereiten, unternehmensfähigen AI-Server. Ein Download bietet Ihrem Team eine Web-Chat-Oberfläche und über 300 kostenlose, hochmoderne Open-Source-Modelle—ohne Cloud, ohne Kommandozeile.
Warum Pico:
- Alles inklusive
Integrierte Web-UI und einfache Einstellungen. Keine zusätzlichen Installationen.
- Null Konfiguration
Einmal starten; Pico erkennt automatisch GPUs, lädt Startmodelle und teilt sich im lokalen Netzwerk.
- 60 Sekunden bis zum Wert
Erste Antwort, bevor Ihr Kaffee abkühlt.
- Für Teams gemacht
Mehrbenutzer-Sitze und Protokolle
- Datenschutz & Compliance
Daten verlassen nie Ihren Mac. Funktioniert vollständig offline—ideal für DSGVO und On-Premises-Anforderungen.
- Apple-Silicon-Geschwindigkeit
MLX-Beschleunigung liefert bis zu 3× schnellere Tokens als generische Builds.
- Standardbereite APIs
Ollama-Stil und OpenAI-kompatible Endpunkte fügen sich nahtlos in bestehende Apps ein.
- Austauschbare Modelle
Entdecken Sie Llama, Gemma, DeepSeek und Hunderte mehr oder laden Sie Ihre eigenen feinabgestimmten Modelle.
Für Orte gebaut, die die Cloud nicht erreichen kann
Gesundheitswesen, Anwaltskanzleien, Handelsplätze—wo Datenschutz oder Latenz SaaS ausschließen, bringt Pico erstklassige KI auf die vorhandene Hardware.
Entwickler willkommen
Nutzen Sie Ihr bevorzugtes SDK. Streamen Sie Antworten, Funktionsaufrufe und mehr—kein Terminal erforderlich.
Anforderungen
Apple-Silicon-Mac (M1, M2, M3)• Mindestens 16 GB RAM (32 GB+ empfohlen für größere Modelle)
Keine Anmeldungen. Keine Abonnements. Keine Cloud.
Laden Sie Pico AI Server heute herunter und geben Sie jedem Schreibtisch in Ihrem Netzwerk eine schnelle, private, unendlich flexible KI—verpackt in Ihrem Mac.
• Pico AI Homelab unterstützt über 300 hochmoderne LLM- und VLM-Modelle, wie:
• OpenAI GPT-oss
• Google Gemma 3
• Google Gemma 3n
• DeepSeek R1
• Meta Llama
• Alibaba Qwen 3
• Alibaba QwQ
• XBai o4
• Polaris
• Microsoft Phi 4
• Microsoft BitNet
• Mistral
• Devstral
• Baichuan M1
• EXAONE
• GLM 4.5
• DeepHermes
• Granite Code
• Hugging Face SmolLM
• Hugging Face SmolVLM
• Jan nano
…Und viele mehr
• Pico AI Homelab unterstützt 23 Einbettungsmodelle, wie:
• BERT
• RoBERTa
• XLM-RoBERTa
• CLIP
• Word2Vec
• Model2Vec
• Static
• Kompatibel mit Ihrer bestehenden Chat-App, einschließlich:
• Open WebUI
• Apollo AI
• Bolt AI
• IntelliBar
• Msty
• Ollamac
• MindMac
• Enchanted
• Kerling
• LibreChat
• Hollama
• Ollama-SwiftUI
• Witsy
• Reactor AI
... Und viele mehr
Neuheiten
Version 1.2.13
Fehlerbehebung: Jan v1 bf16 (Danke, Ivan!)
Bewertungen und Rezensionen
Super Idee mit Potenzial
Die App "Pico KI-Server" basiert auf einer super Idee, die eindeutig Potenzial hat – insbesondere für KI-Begeisterte Tüftler. Aktuell gibt es aber noch Verbesserungspotenzial:
- Das Einrichten über die Open Web UI ist noch etwas hakelig, insbesondere für Anfänger. Eine detailliertere Anleitung oder eine vereinfachte Einstiegsseite würde helfen.
- Die MLX-Version sollte separat per Update vom Nutzer selbst bestimmt werden können, um Kompatibilitätprobleme zu vermeiden.
- Das Laden der MLX Modelle ist noch nicht komfortabel: Die Fortschrittsanzeige ist unklar, und die Speicherverwaltung könnte besser gestaltet werden.
Mein Fazit lautet: Für technisch interessierte Benutzer lohnt sich der Test – solange man ein bisschen Geduld mit der noch jungen App hat. Mit weiteren Updates könnten diese Hürden schnell überwunden sein! 😊
Entwickler-Antwort ,
Das ist tolles Feedback! Aufgrund deines Feedbacks wird Open WebUI schon sehr bald direkt mit der App gebündelt. Es ist dann nicht mehr nötig, Open WebUI manuell zu installieren und einzurichten.
Der Fortschritt beim Herunterladen und die Fehlerbehandlung wurden seit deiner Bewertung ebenfalls verbessert.
Ich bin mir nicht sicher, was du mit der MLX-Version meinst. Falls du es noch nicht getan hast, tritt bitte dem Discord-Server bei und erkläre mir, was du damit meinst. Teile mir dort auch gerne weitere Ideen oder Wünsche mit.
Vielversprechend, aber…
…wie gebe ich wieder RAM frei?? Mein 64 GB M4 Pro Mac Mini hat nach dem Laden des ersten größeren Modells 30 GB Speicher für Pico reserviert. Nachdem ich das Modell gelöscht und kleiner Modelle installiert habe, ging der Speicherverbrauch nicht nach unten. Als ich dann ein KLEINES Modell (6 GB) geladen habe, sprang der RAM-Verbrauch von 30 auf 40 GB hoch. Also: Eigentlich toll, aber GIB MIR MEIN RAM ZURÜCK
Entwickler-Antwort ,
Hey Strike,
vielen Dank, dass du dieses Problem gemeldet hast. Aufgrund deines Feedbacks werden Modelle jetzt automatisch nach 5 Minuten Inaktivität aus dem Speicher entfernt.
Du kannst den Timer in den Einstellungen anpassen – von sofortiger Löschung bis zu 8 Stunden.
Nutzt nicht die Neural Engine
Ich hatte gehofft, dass diese App endlich die neural engine (ANE) der Mx-Chips nutzen würde. Das ist aber leider nicht so. (Geprüft mit macmon. GPU wird zu 100% ausgelastet, ANE bleibt auf 0.)
Entwickler-Antwort ,
Danke für Ihre Bewertung. Keine App auf Mac oder iOS nutzt die Apple Neural Engine (ANE) für LLMs. Die Tools existieren nicht. Alle Apps, einschließlich Pico, verwenden die GPU für LLM-Inferenz. Wenn MLX oder ein anderes natives Apple Silicon-Framework in Zukunft ANE unterstützen wird, werde ich es sicherlich hinzufügen. Allerdings können Text-Embedding-Modelle in Pico (eine Funktion, die derzeit auf TestFlight getestet wird und bald veröffentlicht wird) ANE nutzen. Beachten Sie, dass ANE strenge Anforderungen hat und das System letztendlich entscheidet, wie Modelle ausgeführt werden.
App-Datenschutz
Der Entwickler, Starling Protocol Inc, hat darauf hingewiesen, dass die Datenschutzrichtlinien der App den unten stehenden Umgang mit Daten einschließen können. Weitere Informationen findest du in den Datenschutzrichtlinien des Entwicklers.
Keine Daten erfasst
Der Entwickler erfasst keine Daten von dieser App.
Die Datenschutzpraktiken können zum Beispiel je nach den von dir verwendeten Funktionen oder deinem Alter variieren. Weitere Infos
Informationen
- Anbieter
-
Starling Protocol, Inc hat sich als Händler für diese App ausgewiesen und bestätigt, dass dieses Produkt oder diese Dienstleistung dem Recht der Europäischen Union entspricht.
- DUNS-Nummer
- 117716226
- Adresse
- 1708B Franklin St Berkeley California 94702-1413 Vereinigte Staaten
- Telefonnummer
- +1 4156889597
- info@starlingprotocol.com
- Größe
- 22 MB
- Kategorie
- Produktivität
- Kompatibilität
-
- Mac
- Erfordert macOS 15.0 oder neuer.
- Sprachen
-
Deutsch, Arabisch, Dänisch, Englisch, Finnisch, Französisch, Griechisch, Hebräisch, Hindi, Indonesisch, Italienisch, Japanisch, Katalanisch, Koreanisch, Kroatisch, Malaiisch, Niederländisch, Norwegisch (Bokmål), Polnisch, Portugiesisch, Rumänisch, Russisch, Schwedisch, Slowakisch, Spanisch, Thai, Tradit. Chinesisch, Tschechisch, Türkisch, Ukrainisch, Ungarisch, Vereinf. Chinesisch, Vietnamesisch
- Alter
- 12+ Selten/schwach ausgeprägt: medizinische/Behandlungs-Informationen
- Copyright
- © 2025 Starling Protocol, Inc
- Preis
- Gratis