41 modeller
Swiss AI/Apertus 70B Instruct
Mellemstor open-source model. Dens vægte og træningskode er open-source. Modellen er udviklet af et konsortium af schweiziske institutioner. Den er blevet trænet på mere end 1.800 sprog ud fra 15.000 milliarder tokens. Modellen er trænet på CSCS' supercomputer Alps i Lugano, som er drevet af CO2 neutral vandkraft og er dermed en mere bæredygtig tilgang til AI-udvikling. Den er blevet designet fra starten til at være i overensstemmelse med AI Act.
Anthropic/Claude 4.5 Sonnet
Meget stor multimodal og multilingual model, ekstremt ydeevnestærk inden for kodning, ræsonnement og matematik. Brugeren eller udvikleren, som anvender denne model, kan vælge mellem flere niveauer af ræsonnement.
Cohere/Command A
Stor model, ydeevnestærk til programmering, brug af eksterne værktøjer og "retrieval augmented generation" (RAG).
DeepSeek/DeepSeek R1 0528
Meget stor model, specialiseret i matematiske, videnskabelige og programmeringsopgaver. Den simulerer et ræsonnemenstrin, før den genererer sit svar, og med opdateringen fra maj 2025 har den opnået større analysedybde og præcision takket være en optimering af post-træningen.
DeepSeek/DeepSeek v3.1
Meget stor model designet til komplekse opgaver: kodegenerering, analyse af lange dokumenter. Denne version er særlig stærk til brug af værktøjer og kan simulere en ræsonneringsfase, før den leverer det endelige svar.
DeepSeek/DeepSeek V3.2
Très grand modèle conçu pour des tâches complexes : orchestration agentique, génération de code, analyse de documents longs. Cette version est particulièrement forte en utilisation d’outils et peut simuler une phase de raisonnement avant de fournir la réponse finale.
- Ny
Google/Gemini 2.5 Flash
Stor multimodal og flersproget model med to svarmuligheder: brugeren kan vælge mellem en ræsonneringstilstand for mere dybdegående svar eller en hurtig tilstand til at generere det endelige svar direkte.
Google/Gemini 3 Pro
Stor multimodal og flersproget model. Den integrerer en avanceret ræsonneringskapacitet ("Deep Think"), der kan aktiveres efter behov til komplekse opgaver (matematik, logik, kodning), som er adskilt fra dens hurtigere standard genereringskapacitet. Modellen understøtter tekst, kode, lyd, billede, video og 3D.
- Ny
Google/Gemma 3 12B
Lille multimodal model egnet til almindelige opgaver som spørgsmål-svar, resuméer eller fortolkning af billeder.
Google/Gemma 3 27B
Mellemstor multimodal model egnet til almindelige opgaver som spørgsmål-svar, resuméer eller fortolkning af billeder.
Google/Gemma 3 4B
Meget lille og kompakt multimodal model egnet til almindelige opgaver som spørgsmål-svar, resuméer eller fortolkning af billeder.
Google/Gemma 3n 4B
Meget lille og kompakt multimodal model designet til at køre lokalt på en computer eller smartphone uden brug af en server - den er i stand til at tilpasse sin ydeevne efter enhedens kapacitet og behovet.
Zhipu/GLM 4.5
Meget stor model skabt af Zhipu AI, en kinesisk AI-modeludvikler grundlagt i 2019 af professorer fra Tsinghua-universitetet og støttet af store aktører som Alibaba og Tencent. Modellen har to svarmuligheder: brugeren kan vælge mellem en ræsonneringstilstand for mere dybdegående svar eller en hurtig tilstand til at generere det endelige svar direkte.
Zhipu/GLM 4.6
Opdatering af den store model skabt af Zhipu AI - GLM 4.6, en kinesisk AI-modeludvikler grundlagt i 2019 af professorer fra Tsinghua-universitetet og støttet af store aktører som Alibaba og Tencent. Denne opdatering øger størrelsen på kontekstvinduet, forbedrer dens kodningspræstationer, alignerer den bedre med menneskelige præferencer og er merekapabel ved agentiske anvendelser/brug af værktøjer.
OpenAI/GPT 5 Mini
GPT-5 Mini er en lettet version af den primære GPT-5-model. Den er designet til at blive brugt i miljøer, hvor det er nødvendigt at begrænse omkostningerne, for eksempel i stor skala. Dens ræsonneringsmodel er næsten lige så performant som den primære models (gpt-5-thinking) på trods af dens mindre størrelse. Takket være sit kontekstvindue på 400.000 tokens kan den acceptere lange forespørgsler, hvilket gør det muligt at analysere flere dokumenter på én gang.
OpenAI/GPT 5 Nano
GPT-5 Nano er den mindste og hurtigste version af GPT-5-ræsonneringsmodellen. Den er designet til kontekster, hvor ultralav latens eller omkostning er nødvendig. Takket være sit kontekstvindue på 400.000 tokens kan den acceptere lange forespørgsler, hvilket gør det muligt at analysere flere dokumenter på én gang.
OpenAI/GPT 5.1
Anden iteration af GPT 5, med en stil, der vurderes (af udgiveren) som mere naturlig, med bedre resultater i kode og agentopgaver. Modellen har den særlige egenskab at justere sin ræsonneringstid efter sværhedsgraden.
- Ny
OpenAI/GPT OSS-120B
Den største af de to første semi-åbne modeller fra OpenAI siden GPT-2. Designet som svar på fremgangen for open source-aktører som Meta (LLaMA) og Mistral, er det en performant ræsonneringsmodel, især til komplekse opgaver og i "agentiske" miljøer.
OpenAI/GPT OSS-20B
Den mindste af de to semi-åbne modeller fra OpenAI. Den er blevet designet som svar på konkurrencen fra open source og er beregnet til anvendelsestilfælde, der kræver lav latens, samt til lokale eller specialiserede implementeringer.
xAI/Grok 4 Fast
Grok 4 Fast er en model med fokus på balancen mellem performance, hastighed og omkostninger, især til opgaver som informationssøgning og andre "agentiske" handlinger.
xAI/Grok 4.1 Fast
Grok 4.1 Fast er den fjerde generation af Grok. Baseret på den samme grundmodel nyder den ifølge udgiveren godt af en forbedret post-træningsproces, som giver den en bedre stil, bedre agentisk adfærd og mere konsistens i svarene, især under lange samtaler.
- Ny
Nous/Hermes 4 70B
Stor model gentrænet ud fra Llama 3.1 70B, justeret til bedre at imødekomme brugernes forespørgsler og stilistiske instruktioner.
Moonshot AI/Kimi K2
Udviklet af Moonshot AI (亦称「月之暗面」/ Yue Zhi An Mian), en virksomhed baseret i Beijing, er Kimi K2 en meget stor model orienteret mod kode og agentiske anvendelser. Den er anerkendt for udviklingsopgaver i agentiske kontekster (f.eks. i Cursor eller Windsurf), især for sin rolle som orkestrator. Den eksponerer ikke en eksplicit "ræsonneringstilstand", men til store opgaver underopdeler den sit svar i trin og veksler mellem handlinger (værktøjskald) og tekstudarbejdelse.
Moonshot AI/Kimi K2 Thinking
Denne version af Kimi K2 integrerer en mere avanceret ræsonneringsfase, hvilket forbedrer dens præstationer sammenlignet med den oprindelige iteration. Den er blevet udviklet af Moonshot AI (亦称「月之暗面」/ Yue Zhi An Mian), et selskab baseret i Beijing.
- Ny
Liquid/LFM 2 8B A1B
En model specifikt designet til effektiv inferens på lokale enheder (on-device deployment). Dens arkitektur sigter mod at tilbyde en outputkvalitet, der er konkurrencedygtig med større dense modeller, samtidig med at latency og krav til computeressourcer minimeres.
- Ny
Meta/Llama 3.3 70B
Stor model beregnet til et bredt udvalg af opgaver og kan konkurrere med større modeller.
Meta/Llama 4 Maverick
Meget stor model udstyret med et meget bredt kontekstvindue, egnet for eksempel til resumering af flere dokumenter på samme tid.
Meta/Llama 4 Scout
Stor model udstyret med et meget bredt kontekstvindue, egnet for eksempel til syntese af et sæt dokumenter.
Mistral AI/Magistral Medium
Mellemstor multimodal og flersproget ræsonneringsmodel. Egnet til programmeringsopgaver eller andre opgaver, der kræver dybdegående analyse, forståelse af komplekse logiske systemer eller planlægning - for eksempel til agentiske anvendelsestilfælde eller udarbejdelse af langt komplekst indhold.
Mistral AI/Magistral Small
Mellemstor ræsonneringsmodel, multimodal og flersproget. Egnet til opgaver, der kræver dybdegående analyse, forståelse af logiske systemer eller planlægning - for eksempel til agentiske anvendelsestilfælde eller udarbejdelse af langt komplekst indhold.
MiniMax/MiniMax M2
Model specialiseret i kode med et meget konkurrencedygtigt forhold mellem kvalitet/hastighed/pris. Den er blevet designet af MiniMax, et selskab baseret i Shanghai i Kina.
- Ny
Mistral AI/Mistral 3 Large
Très grand modèle multimodal semi-ouvert performant en code et contextes multilingues.
- Ny
Mistral AI/Mistral Medium 2508
Mellemstor flersproget, multimodal model, der er billigere sammenlignet med andre modeller, som tilbyder lignende præstationer. Den blev særligt interessant efter en opdatering i august 2025 med betydelige forbedringer af den generelle performance, en "forbedret" tone og en bedre evne til at søge information på internettet.
Mistral AI/Mistral Medium 3.1
Mellemstor flersproget, multimodal model, der er billigere sammenlignet med andre modeller, som tilbyder lignende præstationer. Den er særligt interessant til programmeringsopgaver eller ræsonneringsopgaver, for eksempel matematik.
Mistral AI/Mistral Small 3.2
På trods af sit navn er det en mellemstor model. Den er multimodal (i stand til at behandle tekst og billeder) og skiller sig ud ved præcis overholdelse af forespørgsler og sin evne til at bruge avancerede værktøjer.
Ai2/Olmo 3 32B Think
Ræsonneringsmodel, hvis kode og data er fuldstændig åbne. Den er blevet trænet af AI2, et nonprofit-forskningsinstitut.
- Ny
Alibaba/Qwen 3 32B
Mellemstor flersproget model med to svarmuligheder: brugeren kan vælge mellem en ræsonneringstilstand for mere dybdegående svar eller en hurtig tilstand til at generere det endelige svar direkte.
Alibaba/Qwen 3 8B
Lille flersproget tæt model fra Qwen 3-familien, der tilbyder en "ræsonnements"-tilstand til komplekse opgaver (matematik, kode) og en "direkte svar"-tilstand til hurtigere svar.
Alibaba/Qwen 3 Max
Blandt de få proprietære modeller fra Qwen er denne den største og mest kraftfulde i tredje generation. Den er blevet trænet med særlig opmærksomhed på virksomhedsbrug og agentiske anvendelsestilfælde.
Alibaba/Qwen3 Coder 480B A35B
Meget stor model specialiseret i kodegenerering, analyse af hele repositories og løsning af multi-trins problemer. Denne version er særligt stærk i brug af værktøjer og kan simulere en ræsonneringsfase, før den leverer det endelige svar.
