43 modeller
Swiss AI/Apertus 70B Instruct
Mellemstor open-source model. Dens vægte og træningskode er open-source. Modellen er udviklet af et konsortium af schweiziske institutioner. Den er blevet trænet på mere end 1.800 sprog ud fra 15.000 milliarder tokens. Modellen er trænet på CSCS' supercomputer Alps i Lugano, som er drevet af CO2 neutral vandkraft og er dermed en mere bæredygtig tilgang til AI-udvikling. Den er blevet designet fra starten til at være i overensstemmelse med AI Act.
Anthropic/Claude 4.5 Sonnet
Meget stor multimodal og multilingual model, ekstremt ydeevnestærk inden for kodning, ræsonnement og matematik. Brugeren eller udvikleren, som anvender denne model, kan vælge mellem flere niveauer af ræsonnement.
Anthropic/Claude 4.6 Sonnet
Meget stor multimodal og flersproget model, som er højtydende inden for kode, autonom computerbrug og ræsonnering. Brugeren eller udvikleren kan vælge mellem flere niveauer af ræsonnering.
- Ny
Cohere/Command A
Stor model, ydeevnestærk til programmering, brug af eksterne værktøjer og "retrieval augmented generation" (RAG).
DeepSeek/DeepSeek R1 0528
Meget stor model, specialiseret i matematiske, videnskabelige og programmeringsopgaver. Den simulerer et ræsonnemenstrin, før den genererer sit svar, og med opdateringen fra maj 2025 har den opnået større analysedybde og præcision takket være en optimering af post-træningen.
DeepSeek/DeepSeek V3.2
Meget stor model designet til komplekse opgaver: agentisk orkestrering, kodegenerering, analyse af lange dokumenter. Denne version er særligt stærk til brug af værktøjer og kan simulere en ræsonneringsfase før den leverer det endelige svar.
EuroLLM/EuroLLM 22B Instruct
En flersproget model designet specifikt til europæisk sproglig mangfoldighed med stærke flersprogede oversættelses- og forståelsesevner.
Google/Gemini 3 Flash
Stor, native, multimodal og flersproget model, destilleret fra Gemini 3 Pro. Den inkorporerer en avanceret ræsonneringsevne ("Deep Think"), der kan aktiveres efter behov, med et ræsonneringsniveau, der kan konfigureres af brugeren eller udvikleren. Modellen understøtter nativt tekst, kode, lyd, billeder, video og PDF'er.
Google/Gemini 3 Pro
Stor multimodal og flersproget model. Den integrerer en avanceret ræsonneringskapacitet ("Deep Think"), der kan aktiveres efter behov til komplekse opgaver (matematik, logik, kodning), som er adskilt fra dens hurtigere standard genereringskapacitet. Modellen understøtter tekst, kode, lyd, billede, video og 3D.
Google/Gemini 3.1 Flash Lite
Mellemstor, multimodal og hurtig model, egnet til automatiseret brug eller relativt simple opgaver: oversættelse, klassificering, indholdsmoderationering. Den tilbyder justerbare niveauer af ræsonnering, fra minimal til mere dybdegående.
- Ny
Google/Gemini 3.1 Pro
Meget stor multimodal og flersproget model, en videreudvikling af Gemini 3 Pro. Den bibeholder de samme multimodale egenskaber og ræsonneringstilstanden ("Deep Think"), og tilføjer et tredje mellemliggende ræsonneringsniveau samt forbedringer inden for planlægningsopgaver og værktøjsbrug.
- Ny
Google/Gemma 3 12B
Lille multimodal model egnet til almindelige opgaver som spørgsmål-svar, resuméer eller fortolkning af billeder.
Google/Gemma 3 27B
Mellemstor multimodal model egnet til almindelige opgaver som spørgsmål-svar, resuméer eller fortolkning af billeder.
Google/Gemma 3 4B
Meget lille og kompakt multimodal model egnet til almindelige opgaver som spørgsmål-svar, resuméer eller fortolkning af billeder.
Google/Gemma 3n 4B
Meget lille og kompakt multimodal model designet til at køre lokalt på en computer eller smartphone uden brug af en server - den er i stand til at tilpasse sin ydeevne efter enhedens kapacitet og behovet.
Zhipu/GLM 4.7
En stor, specialiseret kodemodel skabt af Zhipu AI, en kinesisk AI-modeludvikler grundlagt i 2019 af professorer fra Tsinghua University og støttet af store aktører som Alibaba og Tencent. Denne opdatering forbedrer dens kodeydeevne (især for webgrænseflader), interagerer bedre med AI-assisterede kodemiljøer og præsterer generelt bedre i agentiske sammenhænge.
Zhipu/GLM 5
Meget stor model designet til komplekse opgaver: softwareudvikling, agentisk orkestrering og avanceret ræsonnering. Den simulerer et ræsonneringstrin inden den genererer sit svar.
- Ny
OpenAI/GPT 5 Mini
GPT-5 Mini er en lettet version af den primære GPT-5-model. Den er designet til at blive brugt i miljøer, hvor det er nødvendigt at begrænse omkostningerne, for eksempel i stor skala. Dens ræsonneringsmodel er næsten lige så performant som den primære models (gpt-5-thinking) på trods af dens mindre størrelse. Takket være sit kontekstvindue på 400.000 tokens kan den acceptere lange forespørgsler, hvilket gør det muligt at analysere flere dokumenter på én gang.
OpenAI/GPT 5 Nano
GPT-5 Nano er den mindste og hurtigste version af GPT-5-ræsonneringsmodellen. Den er designet til kontekster, hvor ultralav latens eller omkostning er nødvendig. Takket være sit kontekstvindue på 400.000 tokens kan den acceptere lange forespørgsler, hvilket gør det muligt at analysere flere dokumenter på én gang.
OpenAI/GPT 5.3
Fjerde iteration af GPT 5, med fokus på samtalemæssig flydende. Sammenlignet med GPT 5.2 reducerer den ifølge udgiveren hallucinationer og anlægger en mere direkte stil med færre unødvendige forbehold.
OpenAI/GPT 5.4
Très grand modèle multimodal conçu pour des tâches professionnelles complexes : génération de code, utilisation autonome d'un ordinateur, analyse de documents longs. Il unifie les lignes GPT et Codex en un seul système et simule une étape de raisonnement avant de générer sa réponse.
- Ny
OpenAI/GPT OSS-120B
Den største af de to første semi-åbne modeller fra OpenAI siden GPT-2. Designet som svar på fremgangen for open source-aktører som Meta (LLaMA) og Mistral, er det en performant ræsonneringsmodel, især til komplekse opgaver og i "agentiske" miljøer.
OpenAI/GPT OSS-20B
Den mindste af de to semi-åbne modeller fra OpenAI. Den er blevet designet som svar på konkurrencen fra open source og er beregnet til anvendelsestilfælde, der kræver lav latens, samt til lokale eller specialiserede implementeringer.
xAI/Grok 4.1 Fast
Grok 4.1 Fast er den fjerde generation af Grok. Baseret på den samme grundmodel nyder den ifølge udgiveren godt af en forbedret post-træningsproces, som giver den en bedre stil, bedre agentisk adfærd og mere konsistens i svarene, især under lange samtaler.
Nous/Hermes 4 70B
Stor model gentrænet ud fra Llama 3.1 70B, justeret til bedre at imødekomme brugernes forespørgsler og stilistiske instruktioner.
Moonshot AI/Kimi K2
Udviklet af Moonshot AI (亦称「月之暗面」/ Yue Zhi An Mian), en virksomhed baseret i Beijing, er Kimi K2 en meget stor model orienteret mod kode og agentiske anvendelser. Den er anerkendt for udviklingsopgaver i agentiske kontekster (f.eks. i Cursor eller Windsurf), især for sin rolle som orkestrator. Den eksponerer ikke en eksplicit "ræsonneringstilstand", men til store opgaver underopdeler den sit svar i trin og veksler mellem handlinger (værktøjskald) og tekstudarbejdelse.
Moonshot AI/Kimi K2 Thinking
Denne version af Kimi K2 integrerer en mere avanceret ræsonneringsfase, hvilket forbedrer dens præstationer sammenlignet med den oprindelige iteration. Den er blevet udviklet af Moonshot AI (亦称「月之暗面」/ Yue Zhi An Mian), et selskab baseret i Beijing.
Moonshot AI/Kimi K2.5
Med udgangspunkt i Kimi K2 har udgiveren fortsat fortræningen på cirka 15 billioner yderligere tokens, der blander tekst og visuelle data. Udgiveren fremhæver dens native multimodalitet samt dens agentiske egenskaber, der er særligt velegnede til opgaver som softwareudvikling.
Liquid/LFM 2 8B A1B
En model specifikt designet til effektiv inferens på lokale enheder (on-device deployment). Dens arkitektur sigter mod at tilbyde en outputkvalitet, der er konkurrencedygtig med større dense modeller, samtidig med at latency og krav til computeressourcer minimeres.
Meta/Llama 3.3 70B
Stor model beregnet til et bredt udvalg af opgaver og kan konkurrere med større modeller.
Meta/Llama 4 Maverick
Meget stor model udstyret med et meget bredt kontekstvindue, egnet for eksempel til resumering af flere dokumenter på samme tid.
Meta/Llama 4 Scout
Stor model udstyret med et meget bredt kontekstvindue, egnet for eksempel til syntese af et sæt dokumenter.
MiniMax/MiniMax M2
Model specialiseret i kode med et meget konkurrencedygtigt forhold mellem kvalitet/hastighed/pris. Den er blevet designet af MiniMax, et selskab baseret i Shanghai i Kina.
MiniMax/MiniMax M2.5
Meget stor semi-åben model specialiseret i kode og agentiske opgaver, med en integreret ræsonneringstilstand. Den er udviklet af MiniMax, en virksomhed med base i Shanghai, Kina.
- Ny
Mistral AI/Mistral 3 Large
En meget stor, semi-åben, multimodal model, der præsterer godt i flersproget kode og kontekster.
Mistral AI/Mistral Medium 3.1
Mellemstor multilingual, multimodal model, der er billigere sammenlignet med andre modeller, som tilbyder lignende ydeevne. Den blev særligt interessant efter en opdatering i august 2025 med betydelige forbedringer af den generelle ydeevne, en "forbedret" tone og en bedre evne til at søge information på internettet.
Mistral AI/Mistral Small 3.2
På trods af sit navn er det en mellemstor model. Den er multimodal (i stand til at behandle tekst og billeder) og skiller sig ud ved præcis overholdelse af forespørgsler og sin evne til at bruge avancerede værktøjer.
Ai2/Olmo 3 32B Think
Ræsonneringsmodel, hvis kode og data er fuldstændig åbne. Den er blevet trænet af AI2, et nonprofit-forskningsinstitut.
Alibaba/Qwen 3 Max
Blandt de få proprietære modeller fra Qwen er denne den største og mest kraftfulde i tredje generation. Den er blevet trænet med særlig opmærksomhed på virksomhedsbrug og agentiske anvendelsestilfælde.
Alibaba/Qwen 3.5 35B A3B
Mellemstor multimodal, flersproget model med en ræsonneringstilstand. På trods af sin beskedne størrelse konkurrerer den med langt større modeller takket være en ultra-sparse arkitektur, der kun aktiverer en lille brøkdel af sine parametre for hvert token.
- Ny
Alibaba/Qwen 3.5 397B
En meget stor, multimodal og flersproget model med en ræsonneringstilstand. Takket være en hybridarkitektur der kombinerer lineær opmærksomhed (Gated DeltaNet) og ekspertblanding, aktiverer den kun 17 milliarder parametre ud af i alt 397 milliarder.
- Ny
Alibaba/Qwen3 Coder Next
En model designet specifikt til kode (særligt til lokal udvikling). Takket være en hybridarkitektur der kombinerer Gated DeltaNet, Gated Attention og MoE, opnår den præstationer sammenlignelige med langt større modeller, mens den kun aktiverer 3 milliarder parametre ud af i alt 80 milliarder.
