La oss se hvordan du kan utføre inferens med Phi-3-mini på Android-enheter. Phi-3-mini er en ny serie modeller fra Microsoft som gjør det mulig å bruke store språkmodeller (LLMs) på kant- og IoT-enheter.
Semantic Kernel er et rammeverk som lar deg lage applikasjoner kompatible med Azure OpenAI Service, OpenAI-modeller og til og med lokale modeller. Hvis du er ny på Semantic Kernel, anbefaler vi at du tar en titt på Semantic Kernel Cookbook.
Du kan kombinere det med Hugging Face Connector i Semantic Kernel. Se denne eksempelkoden.
Som standard tilsvarer det modell-ID-en på Hugging Face. Du kan imidlertid også koble til en lokalt bygget Phi-3-mini-modelltjener.
Mange brukere foretrekker å bruke kvantiserte modeller for å kjøre modeller lokalt. Ollama og LlamaEdge lar enkeltbrukere kjøre ulike kvantiserte modeller:
Du kan kjøre ollama run Phi-3
direkte eller konfigurere det offline ved å opprette en Modelfile
med banen til din .gguf
-fil.
FROM {Add your gguf file path}
TEMPLATE \"\"\"<|user|> .Prompt<|end|> <|assistant|>\"\"\"
PARAMETER stop <|end|>
PARAMETER num_ctx 4096
Hvis du ønsker å bruke .gguf
-filer både i skyen og på kant-enheter samtidig, er LlamaEdge et godt valg. Du kan se denne eksempelkoden for å komme i gang.
- Last ned MLC Chat-appen (gratis) for Android-telefoner.
- Last ned APK-filen (148 MB) og installer den på enheten din.
- Start MLC Chat-appen. Du vil se en liste over AI-modeller, inkludert Phi-3-mini.
Oppsummert åpner Phi-3-mini opp for spennende muligheter for generativ AI på kant-enheter, og du kan begynne å utforske dens funksjoner på Android.
Ansvarsfraskrivelse:
Dette dokumentet er oversatt ved hjelp av maskinbaserte AI-oversettingstjenester. Selv om vi tilstreber nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på dets opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for eventuelle misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.