Enkelt for team
GUI for nedlasting, parametre og testing – uten at alle må lære en ny CLI først.
LM Studio • Lokale LLM • OpenAI‑API • GGUF
LM Studio er en brukervennlig desktop-app for å laste ned og kjøre store språkmodeller lokalt. På LMStudio.no finner du en praktisk norsk startpakke: modellvalg, ytelse (CPU/GPU), kvantisering (GGUF), og hvordan du eksponerer et OpenAI‑kompatibelt API fra din egen maskin.
GUI for nedlasting, parametre og testing – uten at alle må lære en ny CLI først.
Du kan kjøre modeller uten å sende tekst til en ekstern leverandør (avhengig av oppsett og integrasjoner).
Start en lokal server og bruk standard klientbibliotek i apper, scripts og verktøy.
I LM Studio finner du typisk modeller i GGUF-format (kvantisert for lokal kjøring). Mange velger én «allround»-modell + én kode‑modell. Her er et utvalg navn du ofte ser:
Tips: Se etter «instruct»/«chat»-varianter for dialog, og «coder» for programmeringsoppgaver. Velg kvantisering (f.eks. Q4/Q5/Q8) ut fra maskinvare.
Når du har startet Local Server i LM Studio, kan du teste med curl:
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "lokal-modell-navn",
"messages": [
{"role": "system", "content": "Svar kort på norsk."},
{"role": "user", "content": "Forklar hva GGUF og kvantisering er."}
]
}'
I guider viser vi også hvordan du kobler dette til Python/Node, og hvordan du setter temperatur, topp‑p og kontekstlengde.
Start med en modell som passer maskinen din. Lavere kvantisering gir lavere minnebruk, men kan redusere kvalitet.
Lag en fast «rolle» (systemprompt) og test på representative oppgaver før du bestemmer deg for modell.
Bruk LM Studio sin Local Server og koble på apper, verktøy og integrasjoner via OpenAI‑kompatible endepunkter.
Når du trenger egne data: hent relevant kontekst fra dokumenter, og la modellen svare med tydelige kildekrav.