Kurzusleírás

Bevezetés az DeepSeek LLM-be Fine-Tuning

  • Az DeepSeek modellek áttekintése, pl. DeepSeek-R1 és DeepSeek-V3
  • Az LLM-ek finomhangolásának szükségességének megértése
  • A finomhangolás és az azonnali tervezés összehasonlítása

Adatkészlet előkészítése a Fine-Tuning számára

  • Domainspecifikus adatkészletek gondozása
  • Adat-előfeldolgozási és -tisztítási technikák
  • Tokenizálás és adatkészlet formázása DeepSeek LLM-hez

A Fine-Tuning környezet beállítása

  • A GPU és a TPU gyorsítás beállítása
  • Hugging Face Transzformátorok beállítása DeepSeek LLM-mel
  • Hiperparaméterek megértése a finomhangoláshoz

Fine-Tuning DeepSeek LLM

  • Felügyelt finomhangolás végrehajtása
  • LoRA (alacsony rangú adaptáció) és PEFT (paraméter-hatékony) használata Fine-Tuning
  • Elosztott finomhangolás futtatása nagyméretű adatkészletekhez

Finomhangolt modellek értékelése és optimalizálása

  • A modell teljesítményének értékelése értékelési mérőszámokkal
  • A túl- és alulszerelés kezelése
  • A következtetési sebesség és a modell hatékonyságának optimalizálása

Finomhangolt DeepSeek modellek telepítése

  • Csomagolási modellek API-telepítéshez
  • Finomhangolt modellek integrálása alkalmazásokba
  • Telepítések méretezése felhő- és szélső számítástechnikával

Valós világ Use Case és alkalmazások

  • Finomított LLM-ek a pénzügy, az egészségügy és az ügyfélszolgálat számára
  • Esettanulmányok ipari alkalmazásokról
  • Etikai megfontolások a tartomány-specifikus AI modellekben

Összegzés és a következő lépések

Követelmények

  • Gépi tanulással és mély tanulási keretrendszerekkel kapcsolatos tapasztalat
  • A transzformátorok és a nagy nyelvi modellek (LLM) ismerete
  • Adat-előfeldolgozási és modellképzési technikák ismerete

Közönség

  • AI-kutatók az LLM finomhangolását vizsgálják
  • Gépi tanulási mérnökök egyedi AI-modelleket fejlesztenek
  • AI-vezérelt megoldásokat megvalósító haladó fejlesztők
 21 Órák

Résztvevők száma


Ár résztvevőnként

Közelgő kurzusok

Rokon kategóriák