Installer LM Studio
Last ned og start appen. Åpne Models og søk etter en GGUF‑modell.
Guider • Oppskrifter • Eksempler
Her er en praktisk samling av oppskrifter som dekker de vanligste behovene – fra modellvalg og ytelse til integrasjon i apper via OpenAI‑kompatibelt API.
Last ned og start appen. Åpne Models og søk etter en GGUF‑modell.
Start med Q4 eller Q5 på en 7–8B‑modell hvis du er usikker.
Bekreft språk, format og kvalitet i GUI før du kobler på et API eller integrasjoner.
«Beste modell» avhenger av oppgaven. Her er en enkel oppdeling som fungerer i praksis:
I LM Studio er det vanlig å bruke GGUF‑filer med kvantisering (Q4–Q8). Velg etter VRAM/RAM.
Start Local Server i LM Studio. Da får du et OpenAI‑kompatibelt endepunkt. Dette gjør integrasjon enkel: bytt bare base‑URL i klienten.
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "lokal-modell-navn",
"messages": [
{"role": "user", "content": "Skriv en JavaScript-funksjon som validerer e-post."}
]
}'
Q4 bruker mindre minne og er ofte rask. Q8 bruker mer minne og kan gi bedre presisjon.
Lengre kontekst = mer minne og tregere. Bruk bare så mye du trenger.
Hvis du har dedikert GPU: mer VRAM og riktig offload gir ofte stor gevinst på tokens/sek.
Del dokumenter smart og behold kildeinfo, slik at svar kan etterprøves.
Hent relevant kontekst før du spør modellen. Resultatet blir mer presist enn «fulltekst i prompt».
Be om svar kun basert på kontekst og inkluder kilder. Dette reduserer hallusinasjoner.