Installer LM Studio
Last ned fra offisiell side, start appen og gå til fanen Models.
Sjekkliste • Beste praksis • Ytelse
Målet er rask oppstart og stabil kvalitet. Denne siden gir deg en gjennomtestet rekkefølge: installer, velg modell (inkludert Qwen3 Coder Next og Gemma), sett riktig kvantisering og start et lokalt API.
Last ned fra offisiell side, start appen og gå til fanen Models.
Store modeller tar mye plass. Sett en disk med god kapasitet (helst SSD) som modell‑cache.
I Runtime/Settings kan du ofte velge GPU‑offload. Mer VRAM gir vanligvis høyere throughput.
Start med en modell som matcher oppgaven og maskinvaren din. Et praktisk oppsett er: én allround chat‑modell + én kode‑modell.
Se etter «GGUF» når du laster ned for lokal kjøring, og «instruct/chat» når du vil ha god dialog.
Forutsigbare svar handler mer om prosess enn «magisk» modell.
Du er en presis assistent.
Svar på norsk.
Bruk punktliste når det passer.
Hvis du er usikker, si det eksplisitt.
Gå til Local Server i LM Studio, velg modellen, og start serveren.
Standard endepunkt er vanligvis http://localhost:1234/v1.
Test med curl (chat):
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "lokal-modell-navn",
"messages": [
{"role": "user", "content": "Skriv 5 fordeler med lokale språkmodeller."}
]
}'
base_url lokalt.Del dokumenter i biter med metadata (kilde, dato, seksjon) så svaret kan være etterprøvbart.
Bruk embeddings + vektorsøk for å hente relevant kontekst før du spør modellen.
Be modellen svare kun basert på kontekst og vise kildehenvisninger.