Phi er en serie av open source AI-modeller utviklet av Microsoft.
Phi er for tiden den kraftigste og mest kostnadseffektive lille språkmodellen (SLM), med svært gode resultater innen flerspråklighet, resonnement, tekst-/chat-generering, koding, bilder, lyd og andre scenarier.
Du kan distribuere Phi til skyen eller til kant-enheter, og enkelt bygge generative AI-applikasjoner med begrenset regnekraft.
Følg disse trinnene for å komme i gang med disse ressursene:
- Forgrein Repositoriet: Klikk
- Klon Repositoriet:
git clone https://github.com/microsoft/PhiCookBook.git
- Bli med i Microsoft AI Discord-fellesskapet og møt eksperter og andre utviklere
-
Introduksjon
-
Kjøre Phi i forskjellige miljøer
-
Kjøre Phi-familien
-
Evaluere Phi
-
RAG med Azure AI Search
-
Eksempler på Phi-applikasjonsutvikling
- Tekst- og chatteapplikasjoner
- Phi-4-eksempler 🆕
- Phi-3 / 3.5-eksempler
- Lokal chatbot i nettleseren ved bruk av Phi3, ONNX Runtime Web og WebGPU
- OpenVino Chat
- Multi-modell - Interaktiv Phi-3-mini og OpenAI Whisper
- MLFlow - Lage en wrapper og bruke Phi-3 med MLFlow
- Modelloptimalisering - Hvordan optimalisere Phi-3-min-modellen for ONNX Runtime Web med Olive
- WinUI3-app med Phi-3 mini-4k-instruct-onnx
- WinUI3 Multi Model AI-drevet notatapp eksempel
- Finjustere og integrere tilpassede Phi-3-modeller med Promptflow
- Finjustere og integrere tilpassede Phi-3-modeller med Promptflow i Azure AI Foundry
- Evaluere den finjusterte Phi-3 / Phi-3.5-modellen i Azure AI Foundry med fokus på Microsofts prinsipper for ansvarlig AI
- Tekst- og chatteapplikasjoner
-
[📓] Phi-3.5-mini-instruct språkpredictor eksempel (Kinesisk/Engelsk) - Phi-3.5-Instruct WebGPU RAG Chatbot - Bruke Windows GPU til å lage en Prompt flow-løsning med Phi-3.5-Instruct ONNX - Bruke Microsoft Phi-3.5 tflite til å lage en Android-app - Q&A .NET-eksempel med lokal ONNX Phi-3-modell ved bruk av Microsoft.ML.OnnxRuntime - Konsollbasert chat .NET-app med Semantic Kernel og Phi-3
-
Azure AI Inference SDK Kodebaserte Eksempler
-
Avanserte Resonneringseksempler
- Phi-4 Eksempler 🆕
-
Demoer
-
Visjonseksempler
- Phi-4 Eksempler 🆕
- Phi-3 / 3.5 Eksempler
- [📓]Phi-3-vision-Bildetekst til tekst
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP Embedding
- DEMO: Phi-3 Resirkulering
- Phi-3-vision - Visuell språkassistent - med Phi3-Vision og OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Phi-3.5 Vision flerbilder eller flerramme-eksempel
- Phi-3 Vision Lokal ONNX-modell ved bruk av Microsoft.ML.OnnxRuntime .NET
- Menydrevet Phi-3 Vision Lokal ONNX-modell ved bruk av Microsoft.ML.OnnxRuntime .NET
-
Lyd Eksempler
-
MOE Eksempler
-
Funksjonskall Eksempler
- Phi-4 Eksempler 🆕
-
Multimodal Mikse Eksempler
- Phi-4 Eksempler 🆕
-
-
Finjustering av Phi-eksempler
- Scenarier for finjustering
- Finjustering vs RAG
- Finjustering: La Phi-3 bli en bransjeekspert
- Finjustering av Phi-3 med AI Toolkit for VS Code
- Finjustering av Phi-3 med Azure Machine Learning Service
- Finjustering av Phi-3 med Lora
- Finjustering av Phi-3 med QLora
- Finjustering av Phi-3 med Azure AI Foundry
- Finjustering av Phi-3 med Azure ML CLI/SDK
- Finjustering med Microsoft Olive
- Finjustering med Microsoft Olive Hands-On Lab
- Finjustering av Phi-3-vision med Weights and Bias
- Finjustering av Phi-3 med Apple MLX Framework
- Finjustering av Phi-3-vision (offisiell støtte)
- Finjustering av Phi-3 med Kaito AKS, Azure Containers (offisiell støtte)
- Finjustering av Phi-3 og 3.5 Vision
-
Praktisk workshop
-
Akademiske forskningsartikler og publikasjoner
- Textbooks Are All You Need II: phi-1.5 teknisk rapport
- Phi-3 teknisk rapport: En svært kapabel språkmodell lokalt på mobilen din
- Phi-4 teknisk rapport
- Optimalisering av små språkmodeller for funksjonskalling i kjøretøy
- (WhyPHI) Finjustering av PHI-3 for flervalgsspørsmål: Metodikk, resultater og utfordringer
Du kan lære hvordan du bruker Microsoft Phi og hvordan du bygger ende-til-ende-løsninger på ulike maskinvareenheter. For å oppleve Phi selv, start med å teste modellene og tilpasse Phi til dine scenarioer ved å bruke Azure AI Foundry Azure AI Model Catalog. Du kan lære mer i "Kom i gang med Azure AI Foundry".
Playground
Hver modell har en dedikert testarena for å prøve modellen: Azure AI Playground.
Du kan lære hvordan du bruker Microsoft Phi og hvordan du bygger ende-til-ende-løsninger på ulike maskinvareenheter. For å oppleve Phi selv, start med å teste modellen og tilpasse Phi til dine scenarioer ved å bruke GitHub Model Catalog. Du kan lære mer i "Kom i gang med GitHub Model Catalog".
Playground Hver modell har en dedikert lekeplass for å teste modellen.
Du finner også modellen på Hugging Face
Lekeplass
Hugging Chat-lekeplass
Microsoft er forpliktet til å hjelpe kundene våre med å bruke våre AI-produkter på en ansvarlig måte, dele våre erfaringer og bygge tillitsbaserte partnerskap gjennom verktøy som Transparency Notes og Impact Assessments. Mange av disse ressursene finner du på https://aka.ms/RAI.
Microsofts tilnærming til ansvarlig AI er forankret i våre AI-prinsipper om rettferdighet, pålitelighet og sikkerhet, personvern og sikkerhet, inkludering, åpenhet og ansvarlighet.
Storskala modeller for naturlig språk, bilder og tale – som de som brukes i dette eksempelet – kan potensielt oppføre seg på måter som er urettferdige, upålitelige eller støtende, og dermed forårsake skade. Vennligst les Azure OpenAI-tjenestens Transparency note for å bli informert om risikoer og begrensninger.
Den anbefalte tilnærmingen for å redusere disse risikoene er å inkludere et sikkerhetssystem i arkitekturen din som kan oppdage og forhindre skadelig oppførsel. Azure AI Content Safety gir et uavhengig beskyttelseslag som kan oppdage skadelig bruker- eller AI-generert innhold i applikasjoner og tjenester. Azure AI Content Safety inkluderer tekst- og bilde-API-er som lar deg oppdage skadelig materiale. I Azure AI Foundry gir Content Safety-tjenesten deg muligheten til å se, utforske og prøve ut eksempelkode for å oppdage skadelig innhold på tvers av ulike modaliteter. Følgende hurtigstart-dokumentasjon veileder deg gjennom hvordan du kan sende forespørsler til tjenesten.
En annen ting å ta hensyn til er den generelle ytelsen til applikasjonen. Med multimodale og multi-modell applikasjoner, definerer vi ytelse som at systemet oppfyller forventningene til deg og brukerne dine, inkludert å unngå å generere skadelige resultater. Det er viktig å vurdere ytelsen til hele applikasjonen din ved hjelp av Performance and Quality og Risk and Safety evaluators. Du har også muligheten til å lage og evaluere med egendefinerte evaluators.
Du kan evaluere AI-applikasjonen din i utviklingsmiljøet ved hjelp av Azure AI Evaluation SDK. Med enten et testdatasett eller et mål blir generasjonene fra din generative AI-applikasjon målt kvantitativt ved hjelp av innebygde evaluators eller egendefinerte evaluators etter eget valg. For å komme i gang med azure ai evaluation sdk for å evaluere systemet ditt, kan du følge hurtigstart-guiden. Når du har gjennomført en evalueringskjøring, kan du visualisere resultatene i Azure AI Foundry.
Dette prosjektet kan inneholde varemerker eller logoer for prosjekter, produkter eller tjenester. Autorisert bruk av Microsoft-varemerker eller logoer er underlagt og må følge Microsofts retningslinjer for varemerker og merkevarer.
Bruk av Microsoft-varemerker eller logoer i modifiserte versjoner av dette prosjektet må ikke skape forvirring eller antyde sponsing fra Microsoft. All bruk av tredjeparts varemerker eller logoer er underlagt disse tredjepartenes retningslinjer.
Ansvarsfraskrivelse:
Dette dokumentet er oversatt ved hjelp av maskinbaserte AI-oversettingstjenester. Selv om vi bestreber oss på nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på dets opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.