Phi este o serie de modele AI open-source dezvoltate de Microsoft.
Phi este în prezent cel mai puternic și eficient model de limbaj de dimensiuni mici (SLM), cu performanțe remarcabile în scenarii precum multilingvism, raționament, generare text/chat, codare, imagini, audio și altele.
Poți implementa Phi în cloud sau pe dispozitive edge și poți construi cu ușurință aplicații generative AI folosind resurse limitate de calcul.
Urmează acești pași pentru a începe să folosești aceste resurse:
- Fă un Fork al Repozitoriului: Click
- Clonează Repozitoriul:
git clone https://github.com/microsoft/PhiCookBook.git
- Alătură-te Comunității Microsoft AI pe Discord pentru a întâlni experți și alți dezvoltatori
-
Introducere
-
Inferență Phi în diferite medii
-
Inferență pentru familia Phi
-
Evaluarea Phi
-
RAG cu Azure AI Search
-
Exemple de dezvoltare aplicații Phi
- Aplicații Text & Chat
- Exemple Phi-4 🆕
- Exemple Phi-3 / 3.5
- Chatbot local în browser folosind Phi3, ONNX Runtime Web și WebGPU
- Chat OpenVino
- Model multiplu - Interacțiune între Phi-3-mini și OpenAI Whisper
- MLFlow - Construirea unui wrapper și folosirea Phi-3 cu MLFlow
- Optimizarea modelului - Cum să optimizezi modelul Phi-3-min pentru ONNX Runtime Web cu Olive
- Aplicație WinUI3 cu Phi-3 mini-4k-instruct-onnx
- Exemplu de aplicație de notițe AI multi-model cu WinUI3
- Perfecționarea și integrarea modelelor personalizate Phi-3 cu Promptflow
- Perfecționarea și integrarea modelelor personalizate Phi-3 cu Promptflow în Azure AI Foundry
- Evaluarea modelului perfecționat Phi-3 / Phi-3.5 în Azure AI Foundry cu accent pe principiile AI responsabile ale Microsoft
- Aplicații Text & Chat
-
[📓] Exemplu de predicție a limbajului Phi-3.5-mini-instruct (Chineză/Engleză)
- Chatbot RAG WebGPU Phi-3.5-Instruct
- Utilizarea GPU-ului Windows pentru a crea o soluție Prompt flow cu Phi-3.5-Instruct ONNX
- Crearea unei aplicații Android cu Microsoft Phi-3.5 tflite
- Exemplu Q&A .NET folosind modelul local ONNX Phi-3 cu Microsoft.ML.OnnxRuntime
- Aplicație .NET de chat în consolă cu Semantic Kernel și Phi-3-
Exemple bazate pe cod pentru SDK-ul Azure AI Inference
-
Exemple de raționament avansat
- Exemple Phi-4 🆕
-
Demonstrații
-
Exemple de viziune
- Exemple Phi-4 🆕
- Exemple Phi-3 / 3.5
- [📓]Phi-3-vision - Imagine text la text
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP Embedding
- DEMO: Phi-3 Recycling
- Phi-3-vision - Asistent vizual lingvistic - cu Phi3-Vision și OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Phi-3.5 Vision - exemplu multi-cadru sau multi-imagine
- Model ONNX local Phi-3 Vision utilizând Microsoft.ML.OnnxRuntime .NET
- Model ONNX local Phi-3 Vision bazat pe meniu, utilizând Microsoft.ML.OnnxRuntime .NET
-
Exemple audio
-
Exemple MOE
-
Exemple de apelare a funcțiilor
- Exemple Phi-4 🆕
-
Exemple de amestec multimodal
- Exemple Phi-4 🆕
-
-
Ajustarea fină a eșantioanelor Phi
- Scenarii de ajustare fină
- Ajustare fină vs RAG
- Ajustare fină: Transformarea Phi-3 într-un expert industrial
- Ajustare fină a Phi-3 cu AI Toolkit pentru VS Code
- Ajustare fină a Phi-3 cu Azure Machine Learning Service
- Ajustare fină a Phi-3 cu Lora
- Ajustare fină a Phi-3 cu QLora
- Ajustare fină a Phi-3 cu Azure AI Foundry
- Ajustare fină a Phi-3 cu Azure ML CLI/SDK
- Ajustare fină cu Microsoft Olive
- Laborator practic de ajustare fină cu Microsoft Olive
- Ajustare fină a Phi-3-vision cu Weights and Bias
- Ajustare fină a Phi-3 cu Apple MLX Framework
- Ajustare fină a Phi-3-vision (suport oficial)
- Ajustare fină a Phi-3 cu Kaito AKS, Azure Containers (suport oficial)
- Ajustare fină a Phi-3 și 3.5 Vision
-
Laborator practic
-
Lucrări de cercetare academică și publicații
- Manualele sunt tot ce ai nevoie II: raport tehnic phi-1.5
- Raport tehnic Phi-3: Un model lingvistic extrem de capabil, local pe telefonul tău
- Raport tehnic Phi-4
- Optimizarea modelelor lingvistice mici pentru apelarea funcțiilor în vehicul
- (WhyPHI) Ajustarea fină a PHI-3 pentru răspunsuri la întrebări cu răspunsuri multiple: Metodologie, rezultate și provocări
Poți învăța cum să utilizezi Microsoft Phi și cum să construiești soluții end-to-end pe diferite dispozitive hardware. Pentru a experimenta Phi, începe prin a testa modelele și a personaliza Phi pentru scenariile tale utilizând Catalogul de modele Azure AI Foundry. Poți afla mai multe în secțiunea Începe cu Azure AI Foundry.
Playground
Fiecare model are un spațiu dedicat pentru testare: Azure AI Playground.
Poți învăța cum să utilizezi Microsoft Phi și cum să construiești soluții end-to-end pe diferite dispozitive hardware. Pentru a experimenta Phi, începe prin a testa modelul și a personaliza Phi pentru scenariile tale utilizând Catalogul de modele GitHub. Poți afla mai multe în secțiunea Începe cu Catalogul de modele GitHub.
Playground Fiecare model are un spațiu de testare dedicat pentru a experimenta modelul.
De asemenea, poți găsi modelul pe Hugging Face
Spațiu de testare
Hugging Chat playground
Microsoft este dedicat să ajute clienții să folosească produsele noastre AI în mod responsabil, împărtășind învățămintele noastre și construind parteneriate bazate pe încredere prin instrumente precum Transparency Notes și Impact Assessments. Multe dintre aceste resurse pot fi găsite la https://aka.ms/RAI.
Abordarea Microsoft în ceea ce privește AI-ul responsabil este fundamentată pe principiile noastre AI: echitate, fiabilitate și siguranță, confidențialitate și securitate, incluziune, transparență și responsabilitate.
Modelele de scară largă pentru limbaj natural, imagini și vorbire - precum cele utilizate în acest exemplu - pot să se comporte uneori într-un mod incorect, nesigur sau ofensator, cauzând astfel daune. Te rugăm să consulți nota de transparență a serviciului Azure OpenAI pentru a te informa despre riscuri și limitări.
Abordarea recomandată pentru a reduce aceste riscuri este să incluzi un sistem de siguranță în arhitectura ta, care să poată detecta și preveni comportamentele dăunătoare. Azure AI Content Safety oferă un strat independent de protecție, capabil să detecteze conținut dăunător generat de utilizatori sau de AI în aplicații și servicii. Azure AI Content Safety include API-uri pentru text și imagini care îți permit să detectezi materiale dăunătoare. În cadrul Azure AI Foundry, serviciul Content Safety îți permite să vizualizezi, să explorezi și să testezi coduri de exemplu pentru detectarea conținutului dăunător în diferite modalități. Documentația următoare quickstart te ghidează în realizarea solicitărilor către acest serviciu.
Un alt aspect de luat în considerare este performanța generală a aplicației. În cazul aplicațiilor multi-modale și multi-model, considerăm că performanța înseamnă ca sistemul să funcționeze conform așteptărilor tale și ale utilizatorilor, inclusiv să nu genereze rezultate dăunătoare. Este important să evaluezi performanța aplicației tale folosind evaluatori pentru Performanță și Calitate și pentru Risc și Siguranță. De asemenea, ai posibilitatea să creezi și să evaluezi cu evaluatori personalizați.
Poți evalua aplicația AI în mediul tău de dezvoltare folosind Azure AI Evaluation SDK. Având fie un set de date de testare, fie un obiectiv, generările aplicației tale AI generative sunt măsurate cantitativ folosind evaluatori încorporați sau personalizați, în funcție de preferințele tale. Pentru a începe să folosești Azure AI Evaluation SDK pentru a evalua sistemul tău, poți urma ghidul quickstart. După ce execuți o rulare de evaluare, poți vizualiza rezultatele în Azure AI Foundry.
Acest proiect poate conține mărci comerciale sau logo-uri pentru proiecte, produse sau servicii. Utilizarea autorizată a mărcilor comerciale sau logo-urilor Microsoft este supusă și trebuie să respecte Ghidurile de utilizare a mărcilor și brandurilor Microsoft.
Utilizarea mărcilor comerciale sau logo-urilor Microsoft în versiuni modificate ale acestui proiect nu trebuie să creeze confuzie sau să implice sponsorizarea de către Microsoft. Orice utilizare a mărcilor comerciale sau logo-urilor terților este supusă politicilor acelor terți.
Declinarea responsabilității:
Acest document a fost tradus utilizând servicii de traducere automată bazate pe inteligență artificială. Deși ne străduim să asigurăm acuratețea, vă rugăm să rețineți că traducerile automate pot conține erori sau inexactități. Documentul original în limba sa maternă ar trebui considerat sursa autoritară. Pentru informații critice, se recomandă traducerea umană realizată de profesioniști. Nu ne asumăm răspunderea pentru neînțelegerile sau interpretările greșite care pot apărea din utilizarea acestei traduceri.