🦙 Ollama Lokale LLMs

Ollama ermöglicht es Ihnen, Large Language Models lokal auf Ihrem Computer oder Server zu betreiben. Keine Cloud, keine API-Kosten, keine Datenschutzbedenken - Ihre KI läuft bei Ihnen vor Ort.

🔒

Lokale Ausführung

LLMs komplett offline auf Ihrem eigenen Server oder PC betreiben.

🛡️

Datenschutz

Ihre Daten verlassen niemals Ihren Server - 100% Privatsphäre.

💰

Keine API-Kosten

Einmalige Hardware-Kosten statt laufende API-Gebühren.

🎮

GPU Beschleunigung

NVIDIA und AMD GPU Support für schnelle Inferenz.

🦙

Modelle

Unterstützung für Llama, Mistral, Codellama, Phi und viele mehr.

🐳

Docker Support

Einfache Installation und Verwaltung via Docker Container.

Unterstützte Modelle

Modell Parameter VRAM Einsatz
Llama 3.1 8B ~16GB Allround
Llama 3.1 70B ~140GB Hochleistung
Mistral 7B ~14GB Schnell
Codellama 13B ~26GB Programmierung
Phi-3 4B ~8GB Einsteiger
Qwen 2.5 14B ~28GB Programmierung

Installationsanleitung

1

macOS

brew install ollama
2

Linux/WSL

curl -fsSL https://ollama.com/install.sh | sh
3

Docker

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Empfohlene Hardware

Die richtige Hardware hängt davon ab, welche Modelle Sie betreiben möchten:

Einsteiger

Für kleine Modelle (bis 7B Parameter)

Minisforum UM690S

AMD Ryzen 9 6900HX, 32GB RAM

kleine Modelle, Tests

€500-600 Amazon ↗

Beelink SER6 Pro

AMD Ryzen 7 6800H, 32GB RAM

Einsteiger-Modelle

€450-550 Amazon ↗

Fortgeschritten

Für mittlere Modelle (7-14B Parameter)

ASUS PN64 mit eGPU

Intel Core i7, 32GB RAM + RTX 4060

Llama 3.1 8B, Mistral

€1.200-1.500 Amazon ↗

Custom Build PC

Intel i5 12400, 32GB RAM, RTX 4060 Ti

Mittlere Modelle

€1.000-1.200 Amazon ↗

Profi/Server

Für große Modelle (70B+)

Dell PowerEdge Server

2x Intel Xeon, 256GB RAM, A100

Große Modelle, Multi-User

€5.000-10.000 Amazon ↗

Custom Server Build

AMD EPYC 7443, 128GB RAM, RTX 4090

70B Modelle

€3.500-4.500 Amazon ↗