Als KI-Beratung aus Rosenheim empfehlen wir Microsoft Phi für Unternehmen im DACH-Raum, die leistungsstarke KI auf ressourcenbeschränkter Hardware betreiben möchten. Seit der Veröffentlichung von Phi-4 im Dezember 2024 haben sich die Phi-Modelle als zuverlässige Lösung für Edge- und On-Premise-Deployments etabliert und bieten beeindruckende Leistung bei minimalen Anforderungen.
Neu: Phi-4-reasoning-vision (März 2026)
Microsoft hat mit Phi-4-reasoning-vision-15B ein neues Modell veröffentlicht, das Vision und Reasoning in einem 15B-Parameter-Modell kombiniert. Das Modell kann eigenständig entscheiden, wann tieferes Reasoning erforderlich ist – eine wichtige Fähigkeit für effiziente lokale Deployments.
- 15B Parameter: Mehr Kapazität als Phi-4 (14B)
- Vision + Reasoning: Versteht Bilder und kann komplexe Schlussfolgerungen ziehen
- MIT-Lizenz: Vollständige kommerzielle Nutzung erlaubt
- Self-Hosting: Läuft auf RTX 4090 oder M2 Mac
Small Language Models (SLMs)
Microsoft Phi ist Microsofts Familie von “Small Language Models” - kompakte, aber leistungsstarke Modelle, die speziell für Effizienz optimiert sind.
Warum Phi für Unternehmen?
- Kompakt: 3.8B bis 14B Parameter
- Effizient: Laeuft auf Consumer-Hardware
- MIT-Lizenz: Volle kommerzielle Nutzung erlaubt
- Self-Hosting: Volle Datenkontrolle
- Edge-fähig: Smartphones, IoT, Embedded
Besondere Stärken
Effizienz
Phi-Modelle erreichen beeindruckende Leistung bei minimaler Größe:
| Modell | Parameter | Vergleichbare Leistung zu |
|---|---|---|
| Phi-4 | 14B | GPT-4 (teilweise) |
| Phi-3.5-Mö | 42B (6.6B aktiv) | Llama 3 70B |
| Phi-3.5-mini | 3.8B | Llama 3 8B |
Lokales Deployment
Phi-Modelle können vollständig lokal betrieben werden:
- Ollama:
ollama run phi4 - LM Studio: Einfache GUI
- vLLM: Produktions-Deployment
- ONNX: Optimierte Inferenz
Hardware-Anforderungen
| Modell | RAM/VRAM | Empfohlene Hardware |
|---|---|---|
| Phi-4 | 16 GB | RTX 4070 / M2 Mac |
| Phi-3.5-Mö | 24 GB | RTX 4090 |
| Phi-3.5-mini | 4 GB | Laptop / Smartphone |
| Phi-3.5-vision | 8 GB | RTX 3060 |
Reasoning-Stärke
Phi-4 zeigt besonders starke Reasoning-Fähigkeiten:
- Mathematik und Logik
- Coding-Aufgaben
- Strukturierte Analyse
- Chain-of-Thought
Vergleich zu anderen SLMs
| Feature | Phi-4 | Llama 3.2 3B | Gemma 2 2B |
|---|---|---|---|
| Parameter | 14B | 3B | 2B |
| Reasoning | Stark | Mittel | Mittel |
| Coding | Stark | Gut | Gut |
| Vision | Ja (3.5) | Nein | Nein |
| Lizenz | MIT | Community | Apache 2.0 |
Integration mit CompanyGPT
Microsoft Phi kann in CompanyGPT als Self-Hosted-Option integriert werden - ideal für Unternehmen, die KI ohne Cloud-Abhängigkeit betreiben möchten.
Unsere Empfehlung
Microsoft Phi-4-reasoning-vision-15B ist unsere Top-Empfehlung für lokale und Edge-Deployments mit Vision- und Reasoning-Anforderungen. Für reine Text-Aufgaben bleibt Phi-4 eine ausgezeichnete Wahl. Für Smartphones und IoT eignet sich Phi-3.5-mini, für einfachere multimodale Anwendungen Phi-3.5-vision.
Für Anwendungen, die maximale Qualität erfordern und Cloud-Hosting akzeptabel ist, empfehlen wir stattdessen OpenAI GPT oder Anthropic Claude.
