Skip to content

Latest commit

 

History

History
220 lines (176 loc) · 20.4 KB

README.md

File metadata and controls

220 lines (176 loc) · 20.4 KB

Phi Kokebok: Praktiske Eksempler med Microsofts Phi-Modeller

Åpne og bruk eksemplene i GitHub Codespaces Åpne i Dev Containers

GitHub bidragsytere GitHub problemer GitHub forespørsler PRs Velkommen

GitHub følgere GitHub forgreininger GitHub stjerner

Azure AI Community Discord

Phi er en serie av open source AI-modeller utviklet av Microsoft.

Phi er for tiden den kraftigste og mest kostnadseffektive lille språkmodellen (SLM), med svært gode resultater innen flerspråklighet, resonnement, tekst-/chat-generering, koding, bilder, lyd og andre scenarier.

Du kan distribuere Phi til skyen eller til kant-enheter, og enkelt bygge generative AI-applikasjoner med begrenset regnekraft.

Følg disse trinnene for å komme i gang med disse ressursene:

  1. Forgrein Repositoriet: Klikk GitHub forgreininger
  2. Klon Repositoriet: git clone https://github.com/microsoft/PhiCookBook.git
  3. Bli med i Microsoft AI Discord-fellesskapet og møt eksperter og andre utviklere

cover

Innholdsfortegnelse

Bruke Phi-modeller

Phi på Azure AI Foundry

Du kan lære hvordan du bruker Microsoft Phi og hvordan du bygger ende-til-ende-løsninger på ulike maskinvareenheter. For å oppleve Phi selv, start med å teste modellene og tilpasse Phi til dine scenarioer ved å bruke Azure AI Foundry Azure AI Model Catalog. Du kan lære mer i "Kom i gang med Azure AI Foundry".

Playground
Hver modell har en dedikert testarena for å prøve modellen: Azure AI Playground.

Phi på GitHub-modeller

Du kan lære hvordan du bruker Microsoft Phi og hvordan du bygger ende-til-ende-løsninger på ulike maskinvareenheter. For å oppleve Phi selv, start med å teste modellen og tilpasse Phi til dine scenarioer ved å bruke GitHub Model Catalog. Du kan lære mer i "Kom i gang med GitHub Model Catalog".

Playground Hver modell har en dedikert lekeplass for å teste modellen.

Phi på Hugging Face

Du finner også modellen på Hugging Face

Lekeplass
Hugging Chat-lekeplass

Ansvarlig AI

Microsoft er forpliktet til å hjelpe kundene våre med å bruke våre AI-produkter på en ansvarlig måte, dele våre erfaringer og bygge tillitsbaserte partnerskap gjennom verktøy som Transparency Notes og Impact Assessments. Mange av disse ressursene finner du på https://aka.ms/RAI.
Microsofts tilnærming til ansvarlig AI er forankret i våre AI-prinsipper om rettferdighet, pålitelighet og sikkerhet, personvern og sikkerhet, inkludering, åpenhet og ansvarlighet.

Storskala modeller for naturlig språk, bilder og tale – som de som brukes i dette eksempelet – kan potensielt oppføre seg på måter som er urettferdige, upålitelige eller støtende, og dermed forårsake skade. Vennligst les Azure OpenAI-tjenestens Transparency note for å bli informert om risikoer og begrensninger.

Den anbefalte tilnærmingen for å redusere disse risikoene er å inkludere et sikkerhetssystem i arkitekturen din som kan oppdage og forhindre skadelig oppførsel. Azure AI Content Safety gir et uavhengig beskyttelseslag som kan oppdage skadelig bruker- eller AI-generert innhold i applikasjoner og tjenester. Azure AI Content Safety inkluderer tekst- og bilde-API-er som lar deg oppdage skadelig materiale. I Azure AI Foundry gir Content Safety-tjenesten deg muligheten til å se, utforske og prøve ut eksempelkode for å oppdage skadelig innhold på tvers av ulike modaliteter. Følgende hurtigstart-dokumentasjon veileder deg gjennom hvordan du kan sende forespørsler til tjenesten.

En annen ting å ta hensyn til er den generelle ytelsen til applikasjonen. Med multimodale og multi-modell applikasjoner, definerer vi ytelse som at systemet oppfyller forventningene til deg og brukerne dine, inkludert å unngå å generere skadelige resultater. Det er viktig å vurdere ytelsen til hele applikasjonen din ved hjelp av Performance and Quality og Risk and Safety evaluators. Du har også muligheten til å lage og evaluere med egendefinerte evaluators.

Du kan evaluere AI-applikasjonen din i utviklingsmiljøet ved hjelp av Azure AI Evaluation SDK. Med enten et testdatasett eller et mål blir generasjonene fra din generative AI-applikasjon målt kvantitativt ved hjelp av innebygde evaluators eller egendefinerte evaluators etter eget valg. For å komme i gang med azure ai evaluation sdk for å evaluere systemet ditt, kan du følge hurtigstart-guiden. Når du har gjennomført en evalueringskjøring, kan du visualisere resultatene i Azure AI Foundry.

Varemerker

Dette prosjektet kan inneholde varemerker eller logoer for prosjekter, produkter eller tjenester. Autorisert bruk av Microsoft-varemerker eller logoer er underlagt og må følge Microsofts retningslinjer for varemerker og merkevarer.
Bruk av Microsoft-varemerker eller logoer i modifiserte versjoner av dette prosjektet må ikke skape forvirring eller antyde sponsing fra Microsoft. All bruk av tredjeparts varemerker eller logoer er underlagt disse tredjepartenes retningslinjer.

Ansvarsfraskrivelse:
Dette dokumentet er oversatt ved hjelp av maskinbaserte AI-oversettingstjenester. Selv om vi bestreber oss på nøyaktighet, vennligst vær oppmerksom på at automatiserte oversettelser kan inneholde feil eller unøyaktigheter. Det originale dokumentet på dets opprinnelige språk bør betraktes som den autoritative kilden. For kritisk informasjon anbefales profesjonell menneskelig oversettelse. Vi er ikke ansvarlige for misforståelser eller feiltolkninger som oppstår ved bruk av denne oversettelsen.