- ZeroSearch reducerer dramatisk omkostningerne ved træning af AI-modeller gennem simulerede søgninger og eliminerer dermed afhængigheden af eksterne søgemaskiner.
- Den bruger et overvåget forstærkningslæringssystem, der forbedrer LLM'ers evne til at huske og ræsonnere.
- Det giver virksomheder og udviklere mulighed for at træne avancerede modeller til lave omkostninger, hvilket giver dem autonomi og kontrol over processen.
Innovation inden for kunstig intelligens er eksploderet i de senere år, især i forhold til store sprogmodeller (LLM'er). Et af de mest betydningsfulde gennembrud i 2025 har været ZeroSearch, en teknologi udviklet af Alibaba, der ryster fundamentet for, hvordan disse modeller trænes. Hvad handler ZeroSearch præcist om, og hvorfor skaber det så meget opmærksomhed i branchen? I denne artikel ser vi nærmere på denne nye metode, herunder hvordan den fungerer, hvilke fordele den tilbyder i forhold til traditionelle metoder, og hvordan den kan ændre udviklingen af AI på alle niveauer.
I tech-kredse går snakken udelukkende om det: ZeroSearch lover at reducere træningsomkostningerne for kunstig intelligens-modeller med ikke mindre end 88 %.. Dette effektivitetsspring er langt fra blot et marketingtrick, men har dybtgående konsekvenser for store som små virksomheder, udviklere og selvfølgelig for udviklingen af generel kunstig intelligens.
Hvad er ZeroSearch, og hvor kommer det fra?
ZeroSearch er en ny teknik baseret på forstærkningslæring, der er designet til at træne sprogmodeller uden at være afhængige af rigtige eksterne søgemaskiner under træningsprocessen. Denne innovation kommer fra Alibabas Tongyi-laboratorium med det formål at løse to almindelige problemer i træning af AI-modeller, der bruger websøgninger: høje økonomiske omkostninger til brug af API'er og uforudsigelighed i kvaliteten af de gendannede dokumenter.
Indtil nu har udvikling af avancerede assistenter, chatbots eller anbefalingsmotorer krævet, at man sendte titusindvis af forespørgsler til søgemaskiner som Google via betalte tjenester, hvilket øgede omkostningerne og begrænsede skalerbarheden, især for virksomheder med stramme budgetter.
ZeroSearch ændrer spillets regler ved at satse på et system, hvor LLM'en lærer selv at simulere en søgemaskines funktion, generere relevante eller endda støjende (irrelevante) dokumenter som svar på forespørgsler og dermed muliggøre træning uden ekstern interaktion.
Hvordan fungerer ZeroSearch? Detaljeret teknisk forklaring
Kernen i ZeroSearch er et reinforcement learning (RL) framework, der eliminerer behovet for faktiske websøgninger under træning. Lad os se på denne proces trin for trin, baseret på Alibabas tilgang og de omfattende publicerede analyser af teknikken.
1. Letvægts, overvåget tuning til simulering af søgninger
Alt starter fra én overvåget finjustering (SFT) hvor LLM'en er trænet til at opføre sig som et informationssøgningsmodul. Gennem denne justering lærer den at generere svardokumenter til forespørgsler, der efterligner den tekstlige stil og type indhold, som en rigtig søgemaskine ville tilbyde. I denne indledende fase indsamles interaktionsbaner mellem modellen og en søgemaskine, hvilket etablerer registreringer af forespørgsler og hentede dokumenter.
Succesfulde stier, dvs. dem der fører til det korrekte svar, er mærket som positive (nyttige dokumenter), mens dem der resulterer i fejl eller forkerte svar er markeret som negative (støjende dokumenter). Denne differentiering vil senere hjælpe modellen med at forstå og reproducere dynamikken i en realistisk søgning, herunder relevante resultater og mindre nyttige.
2. Rollen af forstærkende læring med curriculumsimulering
Efter superviseret tuning går modellen ind i forstærkningstræningsfasen, hvor god praksis forstærkes, og fejl straffes. Her fungerer den simulerede LLM selv som en søgemaskine, der svarer på forespørgsler genereret af policymodellen og returnerer dokumenter, der kan være nyttige eller støjende.
Modellens sværhedsgrad stiger gradvist, idet den følger en kurrikulær strategi, der langsomt forringer kvaliteten af de genererede dokumenter, således at Systemet lærer først i kontrollerede miljøer og konfronteres efterhånden som det skrider frem, med stadig mere støjende eller komplekse eksempler.. Denne tilgang hjælper modellen med at udvikle robuste søge- og ræsonnementsevner under realistiske forhold.
3. Design af belønnings- og evalueringsmålinger
For at guide læringen bruger ZeroSearch en funktion af belønning baseret på F1-scoren, som balancerer præcision og genkaldelse ved at tage højde for ordoverensstemmelsen mellem forudsigelsen og det korrekte svar. Målet er at maksimere nøjagtigheden af de endelige svar, som modellen er i stand til at generere, uden at bekymre sig for meget om formatering, da LLM'er typisk producerer velformaterede tekster naturligt.
4. Skabeloner til interaktion og ræsonnement med flere vendinger
Under træningen anvendes interaktionsskabeloner, der opdeler processen i tre faser: indre ræsonnement (afgrænset mellem tags som f.eks. <think>...</think>
), afholdelse af konsultationen (<search>...</search>
) Og generering af svar (<answer>...</answer>
). Dette gør det muligt for modellen at forbedre sin evne til at formulere relevante spørgsmål og give velfunderede svar.
5. Kompatibilitet og skalerbarhed
ZeroSearch understøtter større sprogmodeller, såsom Qwen-2.5-familien, Qwen-2.5, LLaMA-3.2 og basis- eller instruktionsafstemmede varianter. Derudover kan den implementeres med forskellige forstærkningsalgoritmer (blandt andet PPO, GRPO), hvilket letter dens anvendelse i forskellige udviklingsmiljøer.
Data fra den virkelige verden: Hvor meget sparer ZeroSearch, og hvordan klarer det sig?
Eksperimenter udført af Alibaba og rapporteret i specialiserede publikationer og databaser viser, at ZeroSearch opnår en ydeevne, der er sammenlignelig med, og endda bedre end, den, der opnås gennem rigtige kommercielle søgemaskiner.. Omkostningsbesparelserne er særligt bemærkelsesværdige:
- Det kan koste omkring at udføre 64.000 forespørgsler ved hjælp af Google Search API Dollar 586,70 (ca. €540).
- Den samme forespørgselsvolumen, genereret og administreret med en LLM med 14.000 milliarder parametre ved hjælp af ZeroSearch, reducerer omkostningerne til blot Dollar 70,80 (ca. € 65).
- Denne forskel indebærer en 88% besparelser på træningsomkostninger, hvilket eliminerer afhængigheden af eksterne API'er og muliggør større skalerbarhed.
På den anden side er kvalitetsresultaterne imponerende: eksperimenter viser, at et 7B-parameter hentningsmodul matcher ydeevnen af systemer baseret på Google Search, mens modellen med 14B parametre endda overgår den i spørgsmål-og-svar-opgaver, ved hjælp af både single-hop og komplekse inferensdatasæt.
Vigtigste fordele og indflydelse på den kunstige intelligens-industri
Ankomsten af ZeroSearch repræsenterer et radikalt skift i den måde, virksomheder og udviklere kan gribe træningen af avancerede modeller an.:
- Drastisk reduktion af den økonomiske barriereLetter adgangen til avancerede AI-teknikker for SMV'er, startups og uafhængige udviklere, som tidligere blev hæmmet af omkostningerne ved kommercielle API'er.
- Større kontrol over træningenVed at generere simulerede dokumenter kan teams definere præcis, hvilke oplysninger modellen modtager, og justere sværhedsgraden og kvaliteten, så de passer til deres behov.
- Styrkelse af teknisk autonomiMinimerer afhængigheden af store udenlandske teknologiplatforme og fremmer den lokale udvikling af skræddersyede AI-løsninger.
- Tilpasningsevne og modularitetZeroSearch kan implementeres på en række forskellige modeller og skræddersys til forskellige arbejdsgange og forretningskrav.
Forskelle fra tidligere strategier: RAG, reelle søgninger og simuleringer
Før ZeroSearch var den mest almindelige løsning til at levere opdaterede og præcise oplysninger til LLM'er brugen af RAG (Retrieval-Augmented Generation), hvor modellen forespørger eksterne kilder ved hjælp af søgninger i den virkelige verden. Dette giver dog nogle åbenlyse problemer:
- Høj omkostningFortsat brug af API'er kan øge budgetterne voldsomt.
- Variabel kvalitetHentede dokumenter kan være meget inkonsistente afhængigt af søgningerne og selve API'en.
- Juridiske og privatlivsmæssige begrænsningerAt stole på tredjepartstjenester indebærer juridiske og politiske risici, især hvis du træner med følsomme oplysninger.
ZeroSearch eliminerer behovet for konstant at henvise til eksterne kilder, hvilket giver modellen mulighed for at lære at søge "i sig selv", mens den simulerer oplevelsen af at interagere med en søgemaskine.
Effekt og anvendelser i det virkelige liv: fra Quark til demokratiseringen af AI
Alibaba har allerede integreret ZeroSearch i kommercielle produkter. Deres Quark-applikation, drevet af Qwen-modeller, har set betydelige forbedringer i ræsonnement og præcise svar på komplekse forespørgsler takket være denne teknik. Men måske det mest relevante er, at ZeroSearch åbner døren for mindre virksomheder, så de kan designe deres egne avancerede modeller uden behov for dyr ekstern infrastruktur..
Forskermiljøet har adgang til kodearkivet, datasættene og præ-trænede modeller på både GitHub og Hugging Face, hvilket fremmer global adoption og eksperimentering.
Hvordan vil fremtiden for AI-træning se ud takket være ZeroSearch?
Efterhånden som disse teknikker modnes, vil vi se en udbredelse af intelligente assistenter med avancerede søgefunktioner uden at være afhængige af Google, Bing eller lignende. Dette åbner op for nye muligheder inden for uddannelse, erhvervsliv og forskning, og det kan potentielt udhule de store søgemaskiners dominans inden for kunstig intelligens.
For Spanien og Europa repræsenterer dette muligheden for autonom vækst, reduceret teknologisk afhængighed og omkostninger samt større strategisk kontrol over kritiske informationssystemer.
ZeroSearchs fremkomst markerer begyndelsen på en ny æra, hvor træning af AI-modeller ikke længere er en luksus tilgængelig for nogle få udvalgte, men i stedet vil blive et tilgængeligt, skalerbart og stadig mere sofistikeret værktøj. Ved at lære AI at søge uden at forlade sit eget miljø har Alibaba taget et kæmpe skridt i retning af at udvikle selvforsynende, effektive systemer, der tilpasser sig ethvert behov.. Det handler ikke længere kun om at reducere omkostninger, men om at genopfinde spillereglerne for hele industrien for kunstig intelligens.
Indholdsfortegnelse
- Hvad er ZeroSearch, og hvor kommer det fra?
- Hvordan fungerer ZeroSearch? Detaljeret teknisk forklaring
- Data fra den virkelige verden: Hvor meget sparer ZeroSearch, og hvordan klarer det sig?
- Vigtigste fordele og indflydelse på den kunstige intelligens-industri
- Forskelle fra tidligere strategier: RAG, reelle søgninger og simuleringer
- Effekt og anvendelser i det virkelige liv: fra Quark til demokratiseringen af AI
- Hvordan vil fremtiden for AI-træning se ud takket være ZeroSearch?