Python知識分享網(wǎng) - 專業(yè)的Python學(xué)習(xí)網(wǎng)站 學(xué)Python,上Python222
大模型原理與訓(xùn)練實戰(zhàn) 視頻教程 下載
匿名網(wǎng)友發(fā)布于:2025-05-28 11:04:15
(侵權(quán)舉報)
(假如點擊沒反應(yīng),多刷新兩次就OK!)

大模型原理與訓(xùn)練實戰(zhàn) 視頻教程 下載   圖1

 

 

資料目錄:

 

├─第一階段  大模型頂尖架構(gòu)原理精講
│      00 不同基礎(chǔ)不同目標(biāo)的學(xué)習(xí)路徑規(guī)劃.mp4
│      【Transformer】1 Transformer與注意力機(jī)制入門.mp4
│      【Transformer】2 Attention注意力機(jī)制的本質(zhì).mp4
│      【Transformer】3 Transformer中的注意力計算流程 & 多頭注意力機(jī)制.mp4
│      【Transformer】4 Transformer的基本架構(gòu).mp4
│      【Transformer】5 Embedding與位置編碼.mp4
│      【Transformer】6 正余弦編碼的數(shù)學(xué)與實用意義.mp4
│      【Transformer】7 正余弦編碼的實際計算與高維空間可視化.mp4
│      【Transformer】8 編碼器結(jié)構(gòu)詳解之殘差鏈接.mp4
│      【Transformer】9 編碼器結(jié)構(gòu)詳解之Layer Normalization.mp4
│      【Transformer】10 編碼器結(jié)構(gòu)詳解之前饋神經(jīng)網(wǎng)絡(luò)FFN.mp4
│      【Transformer】11 完整Transformer結(jié)構(gòu)下的解碼器Decoder.mp4
│      【Transformer】12 Decoder的輸入與teacher forcing.mp4
│      【Transformer】13 掩碼與掩碼注意力機(jī)制.mp4
│      【Transformer】14 填充掩碼與前瞻掩碼的實現(xiàn).mp4
│      【Transformer】15 編碼-解碼注意力層.mp4
│      【Transformer】16 Decoder-Only結(jié)構(gòu)下的Decoder.mp4
│      【LLaMA】1 LLaMA中的Decoder架構(gòu)詳解.mp4
│      【LLaMA】2 LLaMA中的Embedding層.mp4
│      【LLaMA】3 RMSNorm均方根層歸一化.mp4
│      【LLaMA】4 旋轉(zhuǎn)位置編碼ROPE.mp4
│      【LLaMA】4.5 旋轉(zhuǎn)位置編碼的Q&A.mp4
│      【LLaMA】5 KV緩存的原理與初步實現(xiàn).mp4
│      【LLaMA】5.5 時間復(fù)雜度、機(jī)器翻譯等Q&A.mp4
│      【LLaMA】原理與架構(gòu)復(fù)現(xiàn) Part 2.mp4
│      【LLaMA】原理與架構(gòu)復(fù)現(xiàn) Part 3.mp4
│      【LLaMA】原理與架構(gòu)復(fù)現(xiàn) Part 4.mp4
│      
├─【贈送】10小時NLP高效入門
│      01_【神經(jīng)網(wǎng)絡(luò)入門】1 SSE與二分類交叉熵?fù)p失.mp4
│      02_【神經(jīng)網(wǎng)絡(luò)入門】2 二分類交叉熵的原理與實現(xiàn).mp4
│      03_【神經(jīng)網(wǎng)絡(luò)入門】3 多分類交叉熵的原理與實現(xiàn).mp4
│      04_【DNN】1 梯度下降中的兩個關(guān)鍵問題.mp4
│      05_【DNN】2.1 反向傳播的原理.mp4
│      06_【DNN】2.2 反向傳播的實現(xiàn).mp4
│      07_【DNN】3 走出第一步:動量法Momentum.mp4
│      08_【DNN】4 開始迭代:batch與epochs.mp4
│      09_【DNN】5.1 在Fashion-MNIST數(shù)據(jù)集上實現(xiàn)完整的神經(jīng)網(wǎng)絡(luò)(上).mp4
│      10_【DNN】5.2 在Fashion-MNIST數(shù)據(jù)集上實現(xiàn)完整的神經(jīng)網(wǎng)絡(luò)(下).mp4
│      11_【RNN】1.1 歡迎來到NLP的世界.mp4
│      12_【RNN】1.2 大模型的行業(yè)影響與發(fā)展.mp4
│      13_【RNN】2.1 深度學(xué)習(xí)中的時間序列數(shù)據(jù).mp4
│      14_【RNN】2.2 文字序列數(shù)據(jù) - 結(jié)構(gòu)與分詞操作.mp4
│      15_【RNN】2.3 文字序列數(shù)據(jù) - Token與編碼.mp4
│      16_【RNN】3.1~3.2 RNN的架構(gòu)與數(shù)據(jù)流.mp4
│      17_【RNN】3.3 各類NLP任務(wù)下循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入與輸出.mp4
│      18_【RNN】3.4.1 認(rèn)識PyTorch中nn.RNN層.mp4
│      19_【RNN】3.4.2 在PyTorch中實現(xiàn)RNN.mp4
│      20_【RNN】3.4.3 深度神經(jīng)網(wǎng)絡(luò)的實現(xiàn).mp4
│      21_【RNN】3.4.4 自定義循環(huán)層中的循環(huán)數(shù)據(jù)流.mp4
│      22_【RNN】3.4.5 雙向循環(huán)神經(jīng)網(wǎng)絡(luò).mp4
│      23_【RNN】3.4.6【加餐】手動實現(xiàn)RNN執(zhí)行情感分類任務(wù).mp4
│      24_【RNN】3.4.7【加餐】手動實現(xiàn)RNN執(zhí)行文本生成任務(wù).mp4
│      25_【RNN】3.5.1 RNN反向傳播的數(shù)學(xué)流程.mp4
│      26_【RNN】3.5.2 RNN各類缺陷的數(shù)學(xué)本質(zhì).mp4
│      
├─【贈送】2小時從0到1訓(xùn)練LlaMA模型
│      01 環(huán)境準(zhǔn)備與算力準(zhǔn)備.mp4
│      02 預(yù)訓(xùn)練微調(diào)數(shù)據(jù)集準(zhǔn)備.mp4
│      03 訓(xùn)練定制化Tokenizer.mp4
│      04 llama-like模型的預(yù)訓(xùn)練(上).mp4
│      05 llama-like模型的預(yù)訓(xùn)練(下).mp4
│      06 指令微調(diào) + 結(jié)果展示.mp4
│      
├─【贈送】python基礎(chǔ)
│      Lesson 1.Hello World!.mp4
│      Lesson 2.數(shù)值型對象的創(chuàng)建.mp4
│      Lesson 3.數(shù)值型對象的科學(xué)運算.mp4
│      Lesson 4.布爾型對象.mp4
│      Lesson 5.字符串型對象的創(chuàng)建.mp4
│      Lesson 6.字符串索引.mp4
│      Lesson 7.字符串的常用方法(一).mp4
│      Lesson 8.字符串常用方法(二).mp4
│      Lesson 9.列表對象的創(chuàng)建與索引.mp4
│      Lesson 10.列表的常用方法(一).mp4
│      Lesson 11.列表常用方法(二).mp4
│      Lesson 12.元組對象的創(chuàng)建與索引.mp4
│      Lesson 13.元組的常用方法.mp4
│      Lesson 14.字典對象的創(chuàng)建與索引.mp4
│      Lesson 15.字典的常用方法.mp4
│      Lesson 16.集合的創(chuàng)建(新).mp4
│      Lesson 17.集合的常用方法(新).mp4
│      Lesson 18.凍集合的創(chuàng)建與使用.mp4
│      Lesson 19.控制語句(一):判別語句.mp4
│      Lesson 20.控制語句(二):循環(huán)語句.mp4
│      Lesson 21.控制語句(三):條件循環(huán).mp4
│      Lesson 22.函數(shù)(一):函數(shù)的使用.mp4
│      Lesson 23.函數(shù)(二):函數(shù)的參數(shù).mp4
│      Lesson 24.函數(shù)(三):變量作用域與lambda函數(shù).mp4
│      Lesson 25.類的創(chuàng)建.mp4
│      Lesson 26.類的方法和繼承.mp4
│      Lesson 27.NumPy基礎(chǔ).mp4
│      Lesson 28.NumPy數(shù)組的常用方法.mp4
│      Lesson 29.NumPy的廣播與科學(xué)計算.mp4
│      Lesson 30.Pandas入門.mp4
│      Lesson 31.DataFrame數(shù)據(jù)結(jié)構(gòu)基礎(chǔ).mp4
│      
├─【贈送】大模型入門基礎(chǔ)
│      01_【預(yù)習(xí)課】Lesson 1 谷歌郵箱Gmail注冊.mp4
│      02_【預(yù)習(xí)課】Lesson 2 OpenAI賬號注冊.mp4
│      03_【預(yù)習(xí)課】Lesson 3 ChatGPT Plus升級流程.mp4
│      04_【預(yù)習(xí)課】Lesson 4 ChatGPT防封指南.mp4
│      05_Ch 1.1 OpenAI官網(wǎng)使用說明.mp4
│      06_Ch 1.2 本地調(diào)用OpenAI API方法.mp4
│      07_Ch 2.1 Completion模型與Chat模型介紹.mp4
│      08_Ch 2.2 Completion.create函數(shù)參數(shù)詳解.mp4
│      09_Ch 2.3 Completion.create函數(shù)調(diào)參數(shù)實踐.mp4
│      10_Ch 2.4手動創(chuàng)建可調(diào)節(jié)對話風(fēng)格的對話機(jī)器人創(chuàng)建.mp4
│      11_Ch 3.1 大語言模型原生能力與涌現(xiàn)能力介紹.mp4
│      12_Ch 3.2 提示工程技術(shù)入門.mp4
│      13_Ch 4.1 One-shot&Few-shot提示方法.mp4
│      14_Ch 4.2 Zero-shot-CoT提示法(新).mp4
│      15_Ch 4.3Few-shot-CoT提示法.mp4
│      16_Ch 4.4 LtM提示方法.mp4
│      17_Ch 5.1 SCAN指令翻譯項目介紹與數(shù)據(jù)集準(zhǔn)備.mp4
│      18_Ch 5.2 針對SCAN數(shù)據(jù)集的Few-shot-LtM提示工程流程.mp4
│      19_Ch 5.3 SCAN指令翻譯項目完整建模流程.mp4
│      20_Ch 6.1 Chat Completion模型背景介紹.mp4
│      21_Ch 6.2 Chat Completion模型發(fā)展現(xiàn)狀.mp4
│      22_Ch 7.1 Chat Completion模型API詳解.mp4
│      23_Ch 7.2 Messages參數(shù)設(shè)置技巧.mp4
│      24_Ch 7.3 基于特定知識的簡易問答機(jī)器人創(chuàng)建方法.mp4
│      
└─【贈送】大模型必備PyTorch基礎(chǔ)
       Lesson 1 張量的創(chuàng)建與常用方法.mp4
       Lesson 2 張量的索引、分片、合并及維度調(diào)整.mp4
       Lesson 3 張量的廣播和科學(xué)運算.mp4
       Lesson 4 張量的線性代數(shù)運算.mp4
       Lesson 5 基本優(yōu)化方法與最小二乘法.mp4
       Lesson 6 動態(tài)計算圖與梯度下降入門.mp4
       Lesson 7.1 神經(jīng)網(wǎng)絡(luò)的誕生與發(fā)展.mp4
       Lesson 7.2 機(jī)器學(xué)習(xí)中的基本概念.mp4
       Lesson 7.3 深入理解PyTorch框架.mp4
       Lesson 8.1單層回歸神經(jīng)網(wǎng)絡(luò) & Tensor新手避坑指南.mp4
       Lesson 8.2 torch.nn.Linear實現(xiàn)單層回歸網(wǎng)絡(luò)的正向傳播.mp4
       Lesson 8.3 二分類神經(jīng)網(wǎng)絡(luò)的原理與實現(xiàn).mp4
       Lesson 8.4 torch.nn.functional實現(xiàn)單層二分類網(wǎng)絡(luò)的正向傳播.mp4
       Lesson 8.5 多分類神經(jīng)網(wǎng)絡(luò).mp4
       Lesson 9.1 從異或門問題認(rèn)識多層神經(jīng)網(wǎng)絡(luò).mp4
       Lesson 9.2 黑箱:深度神經(jīng)網(wǎng)絡(luò)的不可解釋性.mp4
       Lesson 9.3 & 9.4 層與激活函數(shù).mp4
       Lesson 9.5 從0實現(xiàn)深度神經(jīng)網(wǎng)絡(luò)的正向傳播.mp4