Ein paar Wochen nach meinem grundlegenden Post zu Large Language Models erschien veröffentlichte Google mit Gemma3 sein LLM.

Gemma3
Wie die bisherigen Modelle lässt sich Gemma3 mit ollama auf dem Raspberry Pi betreiben. Googles Modell steht unter der „Gemma Terms of Use“ Lizenz.
Gemma3 wird in verschiedenen Parameterkonfigurationen zum >Download angeboten, die dadurch unterschiedlich groß sind.
4,3b
Mit 4,3 Milliarden Parametern ist dies das kleinste Model und hat eine Größe von 3,3GB. Um es auf dem Raspberry Pi 5 zu testen, muss ich zunächst die ollama Version aktualisieren. Dies geht sehr einfach mit dem gleichen Script wie bei der Installation
curl -fsSL https://ollama.com/install.sh | sh
Danach lässt sich mit
ollama run gemma3:4b
Dieses Modell runterladen und starten

Wie schon im Februar soll mir Gemma3 die Handlung des ersten „Men in Black“ Films zusammenfassen.
Nach 4 Minuten und 41 Sekunden kam dabei eine völlig unbrauchbare Antwort heraus.

12b
Mit 8,1GB ist das 12b Modell mehr als doppelt so umfangreich. Leider reicht der freie Speicher des Raspberry Pi 5B nicht aus, um das Modell zu laden. Daher versuche ich es auf dem Orange Pi 5 Pro, dort erhalte ich nach dem Download aber Fehlermeldungen wie Error: llama runner process has terminated: signal: killed
und Error: Post "http://127.0.0.1:11434/api/generate": EOF
, die ich mir nicht erklären kann. Also wechsle ich auf meinen „dicken“ Rechner und erhalte dort innerhalb von 3 Minuten und 35 Sekunden eine wirklich gute Zusammenfassung des Films.

27b
Das umfangreichste Modell von gemma3 mit 27 Milliarden Parametern lädt satte 17GB an Daten runter. Aufgrund der Erfahrungen von eben starte ich das direkt auf dem großen Rechner und die Antwort nach 4 Minuten und 41 Sekunden ist genauso gut wie bei 12b.

Zusammenfassung
gemma3 ist in den größeren Modellen wirklich brauchbar. Allerdings bräuchte ich einen Raspberry Pi mit 32GB Speicher, um eine einheitliche Vergleichsbasis zu schaffen. Die Vergleichstabelle aller Modelle wird sich vielleicht in Zukunft noch um weitere Modelle erweitern.
Model | Hersteller | Parameter | Speicherverbrauch | Lizenz | Testsystem | Laufzeit | Antwortqualität |
---|---|---|---|---|---|---|---|
tinyllama | OpenSource | 1,1b | 637MB | Apache | Raspberry Pi 5B 8GB | 24.387617981s | Unsinnige Antwort. |
phi | Microsoft | 2,8b | 1,6GB | MIT | Raspberry Pi 5B 8GB | 2 Minuten 39.691083496s | teilweise brauchbar |
llava | Microsoft | 7,2b | 4,7GB | Apache | Raspberry Pi 5B 8GB | 1 Minute 25.629187111s | zufriedenstellend |
llama3 | Meta | 8,0b | 4,7GB | META LLAMA 3 COMMUNITY LICENSE AGREEMENT | Raspberry Pi 5B 8GB | 3 Minuten 4.925977295s | gut |
deepseek-v3 | Deepseek | 681,0b | 404GB | DEEPSEEK LICENSE AGREEMENT | Raspberry Pi 5B 8GB | – | – |
deepseek-r1 | Deepseek | 7,6b | 4,7GB | MIT | Raspberry Pi 5B 8GB | 8 Minuten 23.00118112s | völlig unbrauchbar |
gemma3 | 4,3b | 3,3GB | Gemma Terms of Use | Raspberry Pi 5B 8GB | 1 Minute 14.086309352s | unbrauchbar | |
gemma3 | 12b | 8,1GB | Gemma Terms Of Use | Intel i9-10900K (20) @ 5.300GHz | 3 Minuten 34.5325445s | sehr gut | |
gemma3 | 27b | 17GB | Gemma Terms of Use | Intel i9-10900K (20) @ 5.300GHz | 4 Minuten 41.199445574s | sehr gut |