NVIDIA 認證課程

使用大型語言模型快速開發應用
Rapid Application Development Using Large Language Models

近期大型語言模型(LLMs)的技術和普及度都有顯著提升,為企業帶來前所未有的機會,使其能夠簡化營運流程、降低成本,並大規模提高生產力。企業還可以利用LLM驅動的應用程式,為客戶提供創新且更完善的服務,或鞏固客戶關係。舉例來說,企業可以透過AI虛擬助理提供客戶支援,或使用情緒分析應用程式來分析客戶意見,從中獲得有價值的見解。在本課程中,您將透過探索開源生態系統(包括預訓練的LLM),獲得對LLM應用程式開發的紮實理解和實作知識,這將能幫助您快速開始開發基於LLM的應用程式。

學習目標

參加本實作坊可學會:

  • 尋找、提取並實驗 Hugging Face 模型庫和相關的 transformers API
  • 使用編碼器模型來執行語義分析、嵌入、問答和零樣本分類等任務
  • 使用解碼器模型來生成程式碼、無限制答案和對話等序列
  • 使用狀態管理和組合技術來引導 LLM 進行安全、有效且準確的對話

實作坊大綱

時程 程序項目
15 分鐘   概覽
  • 認識講師
  • 在 learn.nvidia.com/join 建立帳號
75 分鐘   從深度學習到LLM
   學習大型語言模型的結構以及如何使用它們:
  • 回顧深度學習和基於類別的推理,並了解語言建模如何從中產生。
  • 討論 Transformer 架構、介面和直觀概念,以及它們如何擴展和改變,以形成最先進的 LLM 解決方案。運用資料增強技術加強資料集,並改善模型的歸納能力。
15 分鐘 休息時間
45 分鐘   Encoder-Decoder Models for Seq2Seq
   學習如何看待不同的任務規範:
  • 探索最先進的 Hugging Face 編碼器模型。
  • 使用已調整好的模型來執行有趣的任務,例如標記分類、序列分類、範圍預測和零樣本分類。
60 分鐘 休息時間
75 分鐘   Encoder-Decoder Models for Seq2Seq
   學習關於預測 LLM 以預測無界序列:
  • 介紹用於自迴歸文本生成的解碼器組件。
  • 討論用於將序列作為上下文的公式的交叉注意力機制。
  • 討論多任務、零樣本推理的通用方法。
45 分鐘   用於文本生成的解碼器模型
   學習關於decoder-only的 GPT 風格模型,以及如何指定和使用它們:
  • 探索何時decoder-only是好的,並討論其形成的問題。
  • 討論模型大小、特殊的部署技術和注意事項。
  • 引入一些大型文本生成模型,並了解它們如何運作。
15 分鐘 休息時間
60 分鐘   Stateful LLMs
   學習如何透過注入上下文來提升語言模型,使其超越隨機鸚鵡:
  • 展示用於歷史和狀態管理的現代 LLM 組合技術。
  • 討論用於存取外部環境的檢索增強生成 (RAG)。
  • 學習如何建立您自己的 AI 應用程式開發環境。
60 分鐘   評估與Q&A
  • 回顧學習重點並回答問題。
  • 完成測驗並取得認證。
  • 填寫實作坊調查問卷。

實作坊詳情

時間: 8 小時

必備基礎能力:

  • 需要具備深度學習的入門知識,熟悉 PyTorch 和遷移學習者更佳。DLI 的「深度學習入門」或「深度學習基礎」課程,或具有類似經驗者即可。
  • 需要具備中級 Python 經驗,包括物件導向程式設計和函式庫的使用。相當於完成 Python Tutorial (w3schools.com) 課程或具有類似經驗者即可。

技術: Python, PyTorch, HuggingFace, transformers, LangChain, LlamaIndex

認證證書: 完成測驗後,參與者將會收到 NVIDIA DLI 認證證書,證明他們具有相關主題的能力,支援其專業職涯成長。