42 modeller
Swiss AI/Apertus 70B Instruct
Mellemstor open-source model. Dens vægte og træningskode er open-source. Modellen er udviklet af et konsortium af schweiziske institutioner. Den er blevet trænet på mere end 1.800 sprog ud fra 15.000 milliarder tokens. Modellen er trænet på CSCS' supercomputer Alps i Lugano, som er drevet af CO2 neutral vandkraft og er dermed en mere bæredygtig tilgang til AI-udvikling. Den er blevet designet fra starten til at være i overensstemmelse med AI Act.
Anthropic/Claude 4.6 Sonnet
Meget stor multimodal og flersproget model, som er højtydende inden for kode, autonom computerbrug og ræsonnering. Brugeren eller udvikleren kan vælge mellem flere niveauer af ræsonnering.
DeepSeek/DeepSeek R1 0528
Meget stor model, specialiseret i matematiske, videnskabelige og programmeringsopgaver. Den simulerer et ræsonnemenstrin, før den genererer sit svar, og med opdateringen fra maj 2025 har den opnået større analysedybde og præcision takket være en optimering af post-træningen.
DeepSeek/DeepSeek V3.2
Meget stor model designet til komplekse opgaver: agentisk orkestrering, kodegenerering, analyse af lange dokumenter. Denne version er særligt stærk til brug af værktøjer og kan simulere en ræsonneringsfase før den leverer det endelige svar.
DeepSeek/DeepSeek V4 Flash
Version réduite et plus économique de DeepSeek V4 Pro, qui conserve la même fenêtre d'un million de jetons en entrée pour l'analyse de très longs documents. Son tarif d'API se situe parmi les plus bas de sa catégorie pour le traitement du long contexte, à un niveau de performance comparable à celui des modèles intermédiaires propriétaires, ce qui en fait une option intéressante en termes de rapport coût/performance. Il intègre une capacité de raisonnement avancée activable à la demande, avec un niveau de raisonnement paramétrable par l'utilisateur ou le développeur.
- Ny
DeepSeek/DeepSeek V4 Pro
Très grand modèle conçu pour analyser de très longs documents (jusqu'à un million de jetons en entrée, soit l'équivalent de plusieurs livres) et pour les tâches agentiques comme la génération de code et l'utilisation d'outils. Son tarif d'API est inférieur à celui des principaux modèles propriétaires de niveau comparable, ce qui en fait une option à considérer en termes de rapport coût/performance. Il intègre une capacité de raisonnement avancée activable à la demande, avec un niveau de raisonnement paramétrable par l'utilisateur ou le développeur.
- Ny
EuroLLM/EuroLLM 22B Instruct
En flersproget model designet specifikt til europæisk sproglig mangfoldighed med stærke flersprogede oversættelses- og forståelsesevner.
Google/Gemini 3 Flash
Stor, native, multimodal og flersproget model, destilleret fra Gemini 3 Pro. Den inkorporerer en avanceret ræsonneringsevne ("Deep Think"), der kan aktiveres efter behov, med et ræsonneringsniveau, der kan konfigureres af brugeren eller udvikleren. Modellen understøtter nativt tekst, kode, lyd, billeder, video og PDF'er.
Google/Gemini 3.1 Flash Lite
Mellemstor, multimodal og hurtig model, egnet til automatiseret brug eller relativt simple opgaver: oversættelse, klassificering, indholdsmoderationering. Den tilbyder justerbare niveauer af ræsonnering, fra minimal til mere dybdegående.
- Ny
Google/Gemini 3.1 Pro
Meget stor multimodal og flersproget model, en videreudvikling af Gemini 3 Pro. Den bibeholder de samme multimodale egenskaber og ræsonneringstilstanden ("Deep Think"), og tilføjer et tredje mellemliggende ræsonneringsniveau samt forbedringer inden for planlægningsopgaver og værktøjsbrug.
Google/Gemma 4 26B A4B
Variante à mélange d'experts (MoE, Mixture of Experts) de la famille Gemma 4, ce modèle multimodal multilingue offre des performances proches de la version dense 31B pour un coût d'inférence bien inférieur. Il intègre une capacité de raisonnement avancée activable à la demande, avec un niveau de raisonnement paramétrable par l'utilisateur ou le développeur.
- Ny
Google/Gemma 4 31B
Variante dense de la famille Gemma 4, ce modèle de taille moyenne multimodal est performant en génération de code, raisonnement et compréhension de documents. Il intègre une capacité de raisonnement avancée activable à la demande, avec un niveau de raisonnement paramétrable par l'utilisateur ou le développeur.
- Ny
Zhipu/GLM 4.7
En stor, specialiseret kodemodel skabt af Zhipu AI, en kinesisk AI-modeludvikler grundlagt i 2019 af professorer fra Tsinghua University og støttet af store aktører som Alibaba og Tencent. Denne opdatering forbedrer dens kodeydeevne (især for webgrænseflader), interagerer bedre med AI-assisterede kodemiljøer og præsterer generelt bedre i agentiske sammenhænge.
Zhipu/GLM 5
Meget stor model designet til komplekse opgaver: softwareudvikling, agentisk orkestrering og avanceret ræsonnering. Den simulerer et ræsonneringstrin inden den genererer sit svar.
Zhipu/GLM 5.1
Très grand modèle conçu pour des tâches complexes : ingénierie logicielle, orchestration agentique et raisonnement avancé. Il simule une étape de raisonnement avant de générer sa réponse. Cette version améliore sensiblement les performances en code et en exécution autonome prolongée par rapport à GLM 5.
- Ny
OpenAI/GPT 5.4
En get stor multimodal model designet til komplekse professionelle opgaver: kodegenerering, autonom computerbrug, analyse af lange dokumenter. Den forener GPT- og Codex-linjerne i ét samlet system og simulerer et ræsonneringstrin inden svaret genereres.
OpenAI/GPT 5.4 Mini
En kompakt version af GPT 5.4, designet til at tilbyde en god balance mellem ydeevne og omkostninger. Velegnet til kodegenerering, agentiske systemer og autonom computerbrug. Den kan simulere et ræsonneringstrin inden svaret genereres.
OpenAI/GPT 5.4 Nano
Den mindste og mest økonomiske model i GPT 5.4-familien, designet til opgaver med stort volumen såsom klassificering, dataudtrækning eller sortering. Den kan simulere et ræsonneringstrin inden svaret genereres.
OpenAI/GPT 5.5
Modèle multimodal (entrées texte et image) qui se distingue surtout de GPT 5.4 par un saut important sur deux axes : la récupération d'information dans les très longs contextes (où il double pratiquement le score de la version précédente) et les tâches agentiques de programmation et d'utilisation d'un ordinateur. Selon l'éditeur, ses affirmations sont 23 % plus souvent factuellement correctes que celles de GPT 5.4 ; en revanche, lorsqu'il se trompe, il a tendance à inventer une réponse plutôt qu'à reconnaître son ignorance. Il simule une étape de raisonnement avant de générer sa réponse, avec cinq niveaux d'effort paramétrables.
- Ny
OpenAI/GPT OSS-120B
Den største af de to første semi-åbne modeller fra OpenAI siden GPT-2. Designet som svar på fremgangen for open source-aktører som Meta (LLaMA) og Mistral, er det en performant ræsonneringsmodel, især til komplekse opgaver og i "agentiske" miljøer.
OpenAI/GPT OSS-20B
Den mindste af de to semi-åbne modeller fra OpenAI. Den er blevet designet som svar på konkurrencen fra open source og er beregnet til anvendelsestilfælde, der kræver lav latens, samt til lokale eller specialiserede implementeringer.
xAI/Grok 4.1 Fast
Grok 4.1 Fast er den fjerde generation af Grok. Baseret på den samme grundmodel nyder den ifølge udgiveren godt af en forbedret post-træningsproces, som giver den en bedre stil, bedre agentisk adfærd og mere konsistens i svarene, især under lange samtaler.
xAI/Grok 4.20
En stor ny iteration af Grok, xAI's modelfamilie. Den skiller sig ud med en multi-agent-tilstand, hvor fire agenter ræsonnerer parallelt over det samme spørgsmål, før deres svar syntetiseres til ét, samt med et usædvanligt stort kontekstvindue på 2 millioner tokens. Udgiveren annoncerer også en løbende læringsevne med ugentlige opdateringer baseret på reel brug. Ræsonneringen kan slås til eller fra efter behov.
- Ny
Moonshot AI/Kimi K2.5
Med udgangspunkt i Kimi K2 har udgiveren fortsat fortræningen på cirka 15 billioner yderligere tokens, der blander tekst og visuelle data. Udgiveren fremhæver dens native multimodalitet samt dens agentiske egenskaber, der er særligt velegnede til opgaver som softwareudvikling.
Moonshot AI/Kimi K2.6
Meget stor åben model udviklet af Moonshot AI, som skiller sig ud med en agent-tilstand, der kan koordinere op til 300 underagenter, der arbejder parallelt på en enkelt kompleks opgave. Den er nativt multimodal (tekst, billede, video) og har en ræsonneringstilstand. Ifølge udgiveren konkurrerer den med de bedste proprietære modeller som Claude Opus 4.6 og GPT-5.4 på flere softwareudviklings-benchmarks, samtidig med at den udgives med åbne vægte.
- Ny
Liquid/LFM2 24B A2B
Åben model udviklet af Liquid AI til effektiv deployment, herunder lokalt på en kraftig computer. Dens særkende er, at den genererer tekst mærkbart hurtigere end en model af tilsvarende størrelse, takket være en arkitektur, der bryder med de aktuelt dominerende modeldesigns.
- Ny
Meta/Llama 4 Maverick
Meget stor model udstyret med et meget bredt kontekstvindue, egnet for eksempel til resumering af flere dokumenter på samme tid.
Meta/Llama 4 Scout
Stor model udstyret med et meget bredt kontekstvindue, egnet for eksempel til syntese af et sæt dokumenter.
MiniMax/MiniMax M2.5
Meget stor semi-åben model specialiseret i kode og agentiske opgaver, med en integreret ræsonneringstilstand. Den er udviklet af MiniMax, en virksomhed med base i Shanghai, Kina.
MiniMax/MiniMax M2.7
Meget stor, semi-åben model specialiseret i kode og agentiske opgaver, udviklet af MiniMax, en virksomhed med base i Shanghai. Udgiveren præsenterer den som en „selvudviklende" model: den optimerer autonomt sine egne metoder til at løse opgaver, med et betydeligt præstationsløft som resultat. Ifølge udgiveren konkurrerer den med de bedste proprietære modeller inden for softwareudvikling, samtidig med at den udgives med åbne vægte.
- Ny
Mistral AI/Mistral 3 Large
En meget stor, semi-åben, multimodal model, der præsterer godt i flersproget kode og kontekster.
Mistral AI/Mistral Medium 3.1
Mellemstor multilingual, multimodal model, der er billigere sammenlignet med andre modeller, som tilbyder lignende ydeevne. Den blev særligt interessant efter en opdatering i august 2025 med betydelige forbedringer af den generelle ydeevne, en "forbedret" tone og en bedre evne til at søge information på internettet.
Mistral AI/Mistral Small 4
En stor semi-åben multimodal model, der forener kapaciteter inden for instruktionsfulgte opgaver, ræsonnering og agentisk programmering. Den simulerer et ræsonneringstrin inden svaret genereres, med konfigurerbar ræsonneringsindsats.
- Ny
Nvidia/Nemotron 3 Super 120B-A12B
En stor model fra Nvidia, producenten af grafikkort, baseret på en hybrid arkitektur, der kombinerer forskellige typer lag for effektivt at behandle meget lange dokumenter, samtidig med at beregningsomkostningerne begrænses. Nvidia offentliggør vægtene, træningsopskrifterne og en stor del af træningsdataene.
- Ny
Ordbogen/Odin Medium
Den mellemstore version af Odin-modellerne fra det danske selskab Ordbogen.com.
- Ny
Alibaba/Qwen 3 Max
Blandt de få proprietære modeller fra Qwen er denne den største og mest kraftfulde i tredje generation. Den er blevet trænet med særlig opmærksomhed på virksomhedsbrug og agentiske anvendelsestilfælde.
Alibaba/Qwen 3.5 35B A3B
Mellemstor multimodal, flersproget model med en ræsonneringstilstand. På trods af sin beskedne størrelse konkurrerer den med langt større modeller takket være en ultra-sparse arkitektur, der kun aktiverer en lille brøkdel af sine parametre for hvert token.
Alibaba/Qwen 3.5 397B
En meget stor, multimodal og flersproget model med en ræsonneringstilstand. Takket være en hybridarkitektur der kombinerer lineær opmærksomhed (Gated DeltaNet) og ekspertblanding, aktiverer den kun 17 milliarder parametre ud af i alt 397 milliarder.
Alibaba/Qwen 3.6 Plus
Flagskibsmodellen i den nye Qwen 3.6-generation, udviklet af Alibaba omkring „agentic coding": den kan nedbryde et programmeringsprojekt, skrive koden, teste den og rette sine egne fejl, indtil den når frem til et fungerende resultat. Den skiller sig også ud ved et meget stort kontekstvindue, der giver mulighed for at indlæse hele kodebaser eller dokumentkorpora. Det er en af de sjældne proprietære modeller udgivet af Qwen, som ellers typisk udgiver mange modeller med åbne vægte.
- Ny
Alibaba/Qwen3 Coder Next
En model designet specifikt til kode (særligt til lokal udvikling). Takket være en hybridarkitektur der kombinerer Gated DeltaNet, Gated Attention og MoE, opnår den præstationer sammenlignelige med langt større modeller, mens den kun aktiverer 3 milliarder parametre ud af i alt 80 milliarder.
