Skip to content

Latest commit

 

History

History
219 lines (176 loc) · 21.3 KB

README.md

File metadata and controls

219 lines (176 loc) · 21.3 KB

Phi Cookbook: Exemple practice cu Modelele Phi de la Microsoft

Deschide și folosește mostrele în GitHub Codespaces
Deschide în Dev Containers

Contribuitori GitHub
Probleme GitHub
Pull Requests GitHub
PR-uri binevenite

Urmăritori GitHub
Fork-uri GitHub
Stele GitHub

Azure AI Community Discord

Phi este o serie de modele AI open-source dezvoltate de Microsoft.

Phi este în prezent cel mai puternic și eficient model de limbaj de dimensiuni mici (SLM), cu performanțe remarcabile în scenarii precum multilingvism, raționament, generare text/chat, codare, imagini, audio și altele.

Poți implementa Phi în cloud sau pe dispozitive edge și poți construi cu ușurință aplicații generative AI folosind resurse limitate de calcul.

Urmează acești pași pentru a începe să folosești aceste resurse:

  1. Fă un Fork al Repozitoriului: Click Fork-uri GitHub
  2. Clonează Repozitoriul: git clone https://github.com/microsoft/PhiCookBook.git
  3. Alătură-te Comunității Microsoft AI pe Discord pentru a întâlni experți și alți dezvoltatori

cover

Cuprins

Utilizarea modelelor Phi

Phi pe Azure AI Foundry

Poți învăța cum să utilizezi Microsoft Phi și cum să construiești soluții end-to-end pe diferite dispozitive hardware. Pentru a experimenta Phi, începe prin a testa modelele și a personaliza Phi pentru scenariile tale utilizând Catalogul de modele Azure AI Foundry. Poți afla mai multe în secțiunea Începe cu Azure AI Foundry.

Playground
Fiecare model are un spațiu dedicat pentru testare: Azure AI Playground.

Phi pe modelele GitHub

Poți învăța cum să utilizezi Microsoft Phi și cum să construiești soluții end-to-end pe diferite dispozitive hardware. Pentru a experimenta Phi, începe prin a testa modelul și a personaliza Phi pentru scenariile tale utilizând Catalogul de modele GitHub. Poți afla mai multe în secțiunea Începe cu Catalogul de modele GitHub.

Playground Fiecare model are un spațiu de testare dedicat pentru a experimenta modelul.

Phi pe Hugging Face

De asemenea, poți găsi modelul pe Hugging Face

Spațiu de testare
Hugging Chat playground

AI Responsabil

Microsoft este dedicat să ajute clienții să folosească produsele noastre AI în mod responsabil, împărtășind învățămintele noastre și construind parteneriate bazate pe încredere prin instrumente precum Transparency Notes și Impact Assessments. Multe dintre aceste resurse pot fi găsite la https://aka.ms/RAI.
Abordarea Microsoft în ceea ce privește AI-ul responsabil este fundamentată pe principiile noastre AI: echitate, fiabilitate și siguranță, confidențialitate și securitate, incluziune, transparență și responsabilitate.

Modelele de scară largă pentru limbaj natural, imagini și vorbire - precum cele utilizate în acest exemplu - pot să se comporte uneori într-un mod incorect, nesigur sau ofensator, cauzând astfel daune. Te rugăm să consulți nota de transparență a serviciului Azure OpenAI pentru a te informa despre riscuri și limitări.

Abordarea recomandată pentru a reduce aceste riscuri este să incluzi un sistem de siguranță în arhitectura ta, care să poată detecta și preveni comportamentele dăunătoare. Azure AI Content Safety oferă un strat independent de protecție, capabil să detecteze conținut dăunător generat de utilizatori sau de AI în aplicații și servicii. Azure AI Content Safety include API-uri pentru text și imagini care îți permit să detectezi materiale dăunătoare. În cadrul Azure AI Foundry, serviciul Content Safety îți permite să vizualizezi, să explorezi și să testezi coduri de exemplu pentru detectarea conținutului dăunător în diferite modalități. Documentația următoare quickstart te ghidează în realizarea solicitărilor către acest serviciu.

Un alt aspect de luat în considerare este performanța generală a aplicației. În cazul aplicațiilor multi-modale și multi-model, considerăm că performanța înseamnă ca sistemul să funcționeze conform așteptărilor tale și ale utilizatorilor, inclusiv să nu genereze rezultate dăunătoare. Este important să evaluezi performanța aplicației tale folosind evaluatori pentru Performanță și Calitate și pentru Risc și Siguranță. De asemenea, ai posibilitatea să creezi și să evaluezi cu evaluatori personalizați.

Poți evalua aplicația AI în mediul tău de dezvoltare folosind Azure AI Evaluation SDK. Având fie un set de date de testare, fie un obiectiv, generările aplicației tale AI generative sunt măsurate cantitativ folosind evaluatori încorporați sau personalizați, în funcție de preferințele tale. Pentru a începe să folosești Azure AI Evaluation SDK pentru a evalua sistemul tău, poți urma ghidul quickstart. După ce execuți o rulare de evaluare, poți vizualiza rezultatele în Azure AI Foundry.

Mărci comerciale

Acest proiect poate conține mărci comerciale sau logo-uri pentru proiecte, produse sau servicii. Utilizarea autorizată a mărcilor comerciale sau logo-urilor Microsoft este supusă și trebuie să respecte Ghidurile de utilizare a mărcilor și brandurilor Microsoft.
Utilizarea mărcilor comerciale sau logo-urilor Microsoft în versiuni modificate ale acestui proiect nu trebuie să creeze confuzie sau să implice sponsorizarea de către Microsoft. Orice utilizare a mărcilor comerciale sau logo-urilor terților este supusă politicilor acelor terți.

Declinarea responsabilității:
Acest document a fost tradus utilizând servicii de traducere automată bazate pe inteligență artificială. Deși ne străduim să asigurăm acuratețea, vă rugăm să rețineți că traducerile automate pot conține erori sau inexactități. Documentul original în limba sa maternă ar trebui considerat sursa autoritară. Pentru informații critice, se recomandă traducerea umană realizată de profesioniști. Nu ne asumăm răspunderea pentru neînțelegerile sau interpretările greșite care pot apărea din utilizarea acestei traduceri.