Zum Hauptinhalt springen
9 – 17 UHR +49 8031 3508270 LUITPOLDSTR. 9, 83022 ROSENHEIM
DE / EN
LLM Microsoft USA

Microsoft Phi

Microsoft Phi-4 und Phi-3 - kompakte Open-Source LLMs für Edge und lokale Deployments. DSGVO-konform via Self-Hosting. KI-Beratung Rosenheim.

Lizenz MIT
DSGVO-Hosting Verfügbar
Kontext 16k (Phi-4), bis 128k (Phi-3 Varianten) Tokens
Modalität Text, Image → Text

Versionen

Verfügbare Modellvarianten im Überblick

ModellReleaseEUStärkenSchwächenStatus
Phi-4 Empfohlen
2024-12
14B Parameter - sehr effizient Starke Reasoning-Fähigkeiten
Kleiner als Frontier-Modelle
Aktuell
Phi-3.5-Mö
2024
Mixture-of-Experts 42B Parameter (16 aktiv)
Aktuell
Phi-3.5-mini
2024
3.8B Parameter Laeuft auf Smartphones
Begrenzte Kapazität
Aktuell
Phi-3.5-vision
2024
Multimodal Bildverständnis
Aktuell
Phi-3-medium
2024
14B Parameter Balance aus Größe und Leistung
Aktuell

Einsatzbereiche

Typische Anwendungsgebiete für dieses Modell

Edge AI & IoT
Mobile Anwendungen
Offline-Szenarien
Embedded Systems
Ressourcenbeschränkte Umgebungen
Coding-Assistenten
Lokale LLM-Deployments

Technische Details

API, Features und Capabilities

API & Verfügbarkeit
Verfügbarkeit Public
Latenz (TTFT) ~100ms (lokal)
Durchsatz Hardwareabhängig Tokens/Sek
Features & Capabilities
Tool Use Function Calling Structured Output Vision Reasoning Mode Datei-Upload
Training & Wissen
Wissensstand 2024-10
Fine-Tuning Verfügbar (LoRA, QLoRA, Full Fine-Tuning)
Sprachunterstützung
Beste Qualität Englisch, Deutsch
Unterstützt 20+ Sprachen
Optimiert für Englisch, brauchbare Qualität in Deutsch

Hosting & Compliance

DSGVO-konforme Hosting-Optionen und Lizenzierung

DSGVO-konforme Hosting-Optionen
Self-Hosted
Eigene Infrastruktur
Empfohlen - volle Datenkontrolle
Azure
West Europe / Germany
Azure AI Model Catalog
Ollama
Lokal
Einfaches lokales Deployment
Lizenz & Hosting
Lizenz MIT
Sicherheitsfilter Anpassbar
Enterprise Support Ja
SLA verfügbar Ja
On-Premise Edge-fähig

Als KI-Beratung aus Rosenheim empfehlen wir Microsoft Phi für Unternehmen, die leistungsstarke KI auf ressourcenbeschränkter Hardware betreiben möchten. Phi-Modelle bieten beeindruckende Leistung bei minimalen Anforderungen.

Small Language Models (SLMs)

Microsoft Phi ist Microsofts Familie von “Small Language Models” - kompakte, aber leistungsstarke Modelle, die speziell für Effizienz optimiert sind.

Warum Phi für Unternehmen?

  • Kompakt: 3.8B bis 14B Parameter
  • Effizient: Laeuft auf Consumer-Hardware
  • MIT-Lizenz: Volle kommerzielle Nutzung erlaubt
  • Self-Hosting: Volle Datenkontrolle
  • Edge-fähig: Smartphones, IoT, Embedded

Besondere Stärken

Effizienz

Phi-Modelle erreichen beeindruckende Leistung bei minimaler Größe:

ModellParameterVergleichbare Leistung zu
Phi-414BGPT-4 (teilweise)
Phi-3.5-Mö42B (16 aktiv)Llama 3 70B
Phi-3.5-mini3.8BLlama 3 8B

Lokales Deployment

Phi-Modelle können vollständig lokal betrieben werden:

  • Ollama: ollama run phi4
  • LM Studio: Einfache GUI
  • vLLM: Produktions-Deployment
  • ONNX: Optimierte Inferenz

Hardware-Anforderungen

ModellRAM/VRAMEmpfohlene Hardware
Phi-416 GBRTX 4070 / M2 Mac
Phi-3.5-Mö24 GBRTX 4090
Phi-3.5-mini4 GBLaptop / Smartphone
Phi-3.5-vision8 GBRTX 3060

Reasoning-Stärke

Phi-4 zeigt besonders starke Reasoning-Fähigkeiten:

  • Mathematik und Logik
  • Coding-Aufgaben
  • Strukturierte Analyse
  • Chain-of-Thought

Vergleich zu anderen SLMs

FeaturePhi-4Llama 3.2 3BGemma 2 2B
Parameter14B3B2B
ReasoningStarkMittelMittel
CodingStarkGutGut
VisionJa (3.5)NeinNein
LizenzMITCommunityApache 2.0

Integration mit CompanyGPT

Microsoft Phi kann in CompanyGPT als Self-Hosted-Option integriert werden - ideal für Unternehmen, die KI ohne Cloud-Abhängigkeit betreiben möchten.

Unsere Empfehlung

Microsoft Phi-4 ist unsere Top-Empfehlung für lokale und Edge-Deployments. Für Smartphones und IoT eignet sich Phi-3.5-mini, für multimodale Anwendungen Phi-3.5-vision.

Für Anwendungen, die maximale Qualität erfordern und Cloud-Hosting akzeptabel ist, empfehlen wir stattdessen OpenAI GPT oder Anthropic Claude.

Beratung zu diesem Modell?

Wir helfen Ihnen bei der Auswahl und Integration des richtigen KI-Modells für Ihren Anwendungsfall.