Bing tar på Google och visar sökresultaten 10 gånger snabbare

Innehållsförteckning:

Video: Force Microsoft Edge to Use Google Search & Remove Bing New Tabs 2024

Video: Force Microsoft Edge to Use Google Search & Remove Bing New Tabs 2024
Anonim

Microsofts specialiserade hårdvara för AI-beräkning kallas Brainwave, och den är skapad på ett sådant sätt att köra ett neuralt nätverk så snabbt som möjligt med minsta latens.

Företaget meddelade att sedan Brainwave använde det lyckades man få tio gånger snabbare prestanda från Bings AI. Maskininlärningsmodellen ger i grunden sökmotorns funktionalitet.

Microsofts mål som bör uppnås via Brainwave är att tillhandahålla AI-förutsägelser i realtid för appar som de senaste Bing-funktionerna.

Bing får nya funktioner

Microsoft ger också Bing några nya funktioner, och de mest betydelsefulla som är värda att nämna är att erbjuda fler svar på hur man ställer frågor och stöd för att definiera ord som inte används så ofta när användare hover muspekaren över dem. Dessa funktioner drivs av Brainwave.

Microsoft använder Intels FPGA för att driva AI-beräkning

FPGA: er är ett slags tomma canvases för utvecklare att använda när de vill distribuera olika kretsar genom att skicka ny programvara. Detta innebär en potent blandning av prestanda och programmerbarhet.

Nu kan Microsoft göra mer än att skapa snabbare modeller med hårdvaran; företaget kan också bygga mer sofistikerade AI-system. Till exempel är Bings Turing Prototype 1 nu tio gånger mer komplexa och snabbare tack vare den beräkningskapacitet som läggs till via Brainwave.

FGA: er som används av Microsoft kommer med dedikerade digitala signalprocessorer ombord förbättrade för komplex AI-matematik.

Den största fördelen med FPGA: er

Den viktigaste fördelen med FPGA: er jämfört med GPU: er (som blev det föredragna valet för AI-beräkning) är att de inte kräver omfattande användning av batchberäkningar.

En viktig nyskapning som gör att Microsoft kan få sådana framgångsrika resultat via FPGA är användningen av 8- och 9-bitars datatyper med flytande punkter som radikalt ökar prestanda.

Intels FPGA-chips gör att Bing snabbt kan läsa och analysera miljarder dokument på hela webben och ge det bästa svaret på din fråga på mindre än en bråkdel av en sekund.

I själva verket har Intels FPGA: er gjort det möjligt för oss att minska latens för våra modeller med mer än 10 gånger och samtidigt öka vår modellstorlek med 10x.

Användningen av FPGA för att påskynda AI-beräkningen går tillbaka 2012

Microsoft började använda FPGA för att förbättra hastigheten på AI-beräkningen för mer än sex år sedan när Bing-teamet började använda chips. Allt detta är bra nyheter för Intel också. Företaget köpte Altera, en FPGA-tillverkare 2015 och 16, 7 miljarder dollar-affären gav Intel den nödvändiga kraften för att driva Microsofts behov fram till idag.

Vi ser fram emot att se Brainwave tillgänglig via Microsoft Azure för att erbjuda kunderna möjlighet att distribuera sina modeller.

Bing tar på Google och visar sökresultaten 10 gånger snabbare