AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)-2天

  培訓(xùn)講師:尹立慶

講師背景:
尹立慶老師多年從事人工智能、深度學(xué)習(xí)、大數(shù)據(jù)、區(qū)塊鏈、云計(jì)算、物聯(lián)網(wǎng)研發(fā)工作經(jīng)驗(yàn),資深軟件架構(gòu)師,數(shù)學(xué)博士,北航移動(dòng)云計(jì)算碩士,Cloudera大數(shù)據(jù)認(rèn)證,項(xiàng)目管理師(PMP)認(rèn)證,移動(dòng)云計(jì)算專(zhuān)家,主要研究方向包括人工智能、深度學(xué)習(xí)、機(jī)器學(xué) 詳細(xì)>>

尹立慶
    課程咨詢(xún)電話(huà):

AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)-2天詳細(xì)內(nèi)容

AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)-2天

AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)
-15240011430課程簡(jiǎn)介
大模型的應(yīng)用場(chǎng)景很廣泛,可以用于處理多種類(lèi)型的對(duì)話(huà),包過(guò)對(duì)話(huà)機(jī)器人、問(wèn)答機(jī)器人和客服機(jī)器人等。它還可以用于各種自然語(yǔ)言處理任務(wù),比如文本摘要、情感分析和信息提取等。例如,在一個(gè)問(wèn)答系統(tǒng)中,大模型可以提供準(zhǔn)確的答案,解決用戶(hù)的疑惑;在一個(gè)客服機(jī)器人中,他可以幫助用戶(hù)解決問(wèn)題,提供更好的服務(wù)體驗(yàn)。
大模型是用網(wǎng)絡(luò)上之前的數(shù)據(jù)訓(xùn)練的,因此會(huì)有信息滯后的局限性。雖然這些模型的通用知識(shí)很棒,但是如果能讓它們連接到自定義的數(shù)據(jù)和計(jì)算,就會(huì)有更多的實(shí)用價(jià)值,LangChain即可以解決以上的局限性和提供實(shí)用價(jià)值。LangChain是一個(gè)開(kāi)源的框架,它可以讓AI開(kāi)發(fā)人員把大型語(yǔ)言模型(LLM)和企業(yè)內(nèi)部數(shù)據(jù)結(jié)合起來(lái)。它提供了Python或JavaScript(TypeScript)的包。
LangChain可以讓自己的LLM在回答問(wèn)題時(shí)參考整個(gè)數(shù)據(jù)庫(kù)。所以可以讓自己的大模型訪問(wèn)最新的數(shù)據(jù),比如報(bào)告、文檔和網(wǎng)站信息。
此課程是尹立慶老師多年人工智能工作經(jīng)驗(yàn)的分享,重點(diǎn)介紹LangChain帶來(lái)的技術(shù)變革與應(yīng)用落地和未來(lái)發(fā)展趨勢(shì)。
-15240011430培訓(xùn)目標(biāo)

深入講解AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù),大模型微調(diào);
LangChain概述;
LangChain環(huán)境部署;
LangChain的Pipeline現(xiàn)場(chǎng)實(shí)操;
深度解讀LangChain帶來(lái)的技術(shù)變革與行業(yè)應(yīng)用落地;
深度解讀業(yè)界最新的LangChain技術(shù);
深度解讀LangChain的原理、技術(shù)特性;
深度解讀glm2_6b大模型;
深度剖析LangChain的價(jià)值、應(yīng)用場(chǎng)景;
課程重點(diǎn)探討LangChain的未來(lái)發(fā)展趨勢(shì);
介紹LangChain實(shí)施落地技術(shù);
-15240011430培訓(xùn)對(duì)象

本課程適合于對(duì)ChatGPT、LangChain感興趣的人員;
本課程適合于架構(gòu)師、技術(shù)經(jīng)理、高級(jí)工程師;
適合于企業(yè)科技研發(fā)人員和人工智能科學(xué)家;
-15240011430培訓(xùn)方式

以課堂講解、演示、案例分析為主,內(nèi)容偏實(shí)用,結(jié)合講解與演示方式,循序漸進(jìn),輔以互動(dòng)研討、現(xiàn)場(chǎng)答疑、學(xué)以致用。
-15240011430課程安排

課程時(shí)間:2天
課程內(nèi)容:
時(shí)間
內(nèi)容
備注
第1天
AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)大模型微調(diào)(深入講解AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù))(120分鐘)
AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)
大模型微調(diào)
大模型微調(diào)的概念和意義
預(yù)訓(xùn)練模型的優(yōu)勢(shì)和應(yīng)用場(chǎng)景
大模型微調(diào)基本原理
大模型微調(diào)方法
數(shù)據(jù)加載、模型訓(xùn)練、調(diào)參等常見(jiàn)操作的優(yōu)化和加速方法
使用可視化工具進(jìn)行模型訓(xùn)練過(guò)程的分析和調(diào)試
大模型微調(diào)的基本流程和關(guān)鍵步驟
常用的深度學(xué)習(xí)框架和工具
TensorFlow、PyTorch等常見(jiàn)深度學(xué)習(xí)框架
Parameter-Efficient Fine-Tuning (PEFT)
預(yù)訓(xùn)練階段
目標(biāo)任務(wù)準(zhǔn)備
構(gòu)建微調(diào)任務(wù)
PEFT微調(diào)
常用的PEFT方法
Adapter Tuning
Prefix Tuning
Prompt Tuning
P-Tuning
LoRA
案例剖析:應(yīng)用大模型微調(diào)技術(shù)解決實(shí)際問(wèn)題
大模型微調(diào)技術(shù)與實(shí)踐(大模型微調(diào)技術(shù)與實(shí)踐)(90分鐘)
大模型微調(diào)技術(shù)與實(shí)踐
常見(jiàn)的大模型微調(diào)技術(shù)
知識(shí)蒸餾
遷移學(xué)習(xí)
領(lǐng)域適應(yīng)
案例大模型微調(diào)的實(shí)踐
文本分類(lèi)
圖像識(shí)別
自然語(yǔ)言處理
探討大模型微調(diào)過(guò)程中可能遇到的問(wèn)題和解決方案
選擇合適的預(yù)訓(xùn)練模型并進(jìn)行微調(diào)
如何評(píng)估微調(diào)效果和改進(jìn)方案
實(shí)際應(yīng)用案例分享與討論
LangChain概述(LangChain概述)(30分鐘)
LangChain概述
LangChain介紹
LangChain的重要概念
Components
Prompts
Chains
Agents
大模型微調(diào)
LangChain工作原理(LangChain工作原理)(30分鐘)
LangChain工作原理
LangChain如何與OpenAI的LLM合作
LoRA模型(LoRA模型)(90分鐘)
LoRA模型
LangChain如何與OpenAI的LLM合作
LoRA模型概述
繪畫(huà)模型
LoRA 原論文
LoRA模型的核心思想
數(shù)學(xué)原理
LoRA模型訓(xùn)練
低秩適應(yīng)訓(xùn)練方法
LoRA 庫(kù)的GitHub存儲(chǔ)庫(kù)
時(shí)間
內(nèi)容
備注
第2天
深度解讀glm2_6b大模型(深度解讀glm2_6b大模型)(90分鐘)
深度解讀glm2_6b大模型
glm2_6b大模型的原理
GPT(Generative Pre-trained Transformer)架構(gòu)
glm2_6b大模型數(shù)據(jù)集
glm2_6b大模型的部署
準(zhǔn)備環(huán)境
安裝依賴(lài)庫(kù)
下載模型權(quán)重
加載模型
部署API或服務(wù)
調(diào)優(yōu)和監(jiān)控
glm2_6b大模型的訓(xùn)練
glm2_6b大模型的應(yīng)用
自然語(yǔ)言處理
文本生成
機(jī)器翻譯
問(wèn)答系統(tǒng)
LangChain環(huán)境部署(LangChain環(huán)境部署)(90分鐘)
LangChain環(huán)境部署
安裝依賴(lài)包
配置環(huán)境
獲取pinecone環(huán)境和KPI_KEY
獲取OPENAI_KPI_KEY
LangChain的Pipeline現(xiàn)場(chǎng)實(shí)操(LangChain的Pipeline現(xiàn)場(chǎng)實(shí)操)(90分鐘)
LangChain的Pipeline現(xiàn)場(chǎng)實(shí)操
Pipeline執(zhí)行流程
大模型包裝器
LangChain應(yīng)用實(shí)戰(zhàn)(LangChain應(yīng)用實(shí)戰(zhàn))(90分鐘)
模型(LLM包裝器)
提示Prompts
Prompts模板
鏈Chains
嵌入和向量存儲(chǔ)Embeddings and VectorStores
代理Agents
示例代碼

 

尹立慶老師的其它課程

人工智能大模型應(yīng)用案例實(shí)戰(zhàn)-15240011430課程簡(jiǎn)介大模型也稱(chēng)為大語(yǔ)言模型(LLM)是指使用大量文本數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型,可以生成自然語(yǔ)言文本或理解語(yǔ)言文本的含義。這些模型通常基于深度學(xué)習(xí)架構(gòu),如Transformer等,這有助于它們?cè)诟鞣NNLP任務(wù)上取得令人驚嘆的表現(xiàn)。目前的大語(yǔ)言模型(如GPT和BERT)采用與小模型類(lèi)似的Transformer架

 講師:尹立慶詳情


 發(fā)布內(nèi)容,請(qǐng)點(diǎn)我!  講師申請(qǐng)/講師自薦
清華大學(xué)卓越生產(chǎn)運(yùn)營(yíng)總監(jiān)高級(jí)研修班
清華大學(xué)卓越生產(chǎn)運(yùn)營(yíng)總監(jiān)高級(jí)研修班
COPYRIGT @ 2001-2018 HTTP://musicmediasoft.com INC. ALL RIGHTS RESERVED. 管理資源網(wǎng) 版權(quán)所有