《大模型項目實戰:多領域智能應用開發》封麵

內容簡介

  本書係統地講解了大語言模型的實戰應用過程,涵蓋基礎知識、常見操作和應用開發3個方麵,幫助大語言模型的使用者、應用開發者循序漸進地掌握大模型的原理、操作以及多個場景下的應用開發技能。全書共18章,分為三篇:
  基礎篇介紹大語言模型的基礎知識、應用架構和應用工作模式。
  操作篇詳細講解大模型的實操環節,包括環境搭建、多種有代表性的開源大語言模型的安裝、微調與量化等常見操作。
  開發篇講述大語言模型在Chat、輔助編程、RAG、翻譯、AI Agent、智能語音對話、數字人、模型訓練、AI小鎮這9個領域的應用開發過程,從工作原理、源碼分析、部署運行和測試驗證等方麵進行了詳細介紹。中間還穿插講解了VS Code插件的開發,豐富了應用運行的場景。

作者簡介

  高強文
互鏈高科(北京)技術發展有限公司總經理,銀川方達電子係統工程有限公司董事長,寧夏回族自治區勞動模範。專注於人工智能大語言模型應用開發、開源社區開發與運營。參加工作20多年來,一直從事醫療健康領域信息化、人工智能等產品研發與管理工作,近年來致力於開源事業,開發運營aliendao.cn、gitclone.com和opendao.cn等開源社區,在GitHub上貢獻了20多個開源代碼庫。

目錄

前言
基礎篇
第1章 大語言模型的基礎知識
1.1 大語言模型概述
1.1.1 基本情況
1.1.2 發展歷史
1.1.3 發展現狀
1.1.4 發展趨勢
1.2 基本原理
1.2.1 Transformer架構
1.2.2 編碼器與解碼器
1.2.3 自注意力機製
1.3 應用開發技術
1.3.1 Python
1.3.2 React.js
1.4 訓練方法
1.4.1 FFT
1.4.2 RLHF
1.4.3 P-Tuning
1.4.4 LoRA
1.5 常見現象
1.5.1 幻覺
1.5.2 災難性遺忘
1.5.3 湧現
1.5.4 價值對齊
第2章 大語言模型應用架構
2.1 整體架構
2.2 基礎設施
2.2.1 硬件部分
2.2.2 操作係統
2.3 基礎軟件
2.3.1 CUDA
2.3.2 PyTorch
2.3.3 Anaconda
2.3.4 Nginx
2.4 應用軟件
2.4.1 大語言模型文件
2.4.2 Transformers庫
2.4.3 服務程序
2.4.4 API
2.4.5 客戶端程序
第3章 大語言模型應用的工作模式
3.1 硬件部署
3.2 應用軟件部署
3.3 運行模式
3.3.1 模型API服務的工作模式
3.3.2 模型API服務的運行過程
3.3.3 前後端交互方法
3.3.4 前端實現
操作篇
第4章 應用環境搭建
4.1 基礎設施
4.1.1 服務器要求
4.1.2 操作係統準備
4.1.3 推理卡安裝
4.2 基礎軟件安裝
4.2.1 Linux
4.2.2 Windows
4.3 其他軟件安裝
4.3.1 Nginx
4.3.2 Git
第5章 大語言模型安裝
5.1 ChatGLM安裝
5.1.1 ChatGLM3模型介紹
5.1.2 ChatGLM3-6B安裝
5.1.3 編程驗證
5.2 Qwen-VL安裝
5.2.1 Qwen模型介紹
5.2.2 Qwen-VL-Chat-Int4安裝
5.2.3 編程驗證
5.3 LLaMA2安裝
5.3.1 LLaMA2模型介紹
5.3.2 Llama-2-7b-chat安裝
5.3.3 運行驗證
5.4 Gemma安裝
5.4.1 Gemma模型介紹
5.4.2 Gemma-2B安裝
5.4.3 編程驗證
5.5 Whisper安裝
5.5.1 Whisper-large-v3介紹
5.5.2 Whisper-large-v3安裝
5.5.3 編程驗證
第6章 大語言模型微調
6.1 ChatGLM微調
6.1.1 微調方法介紹
6.1.2 微調環境準備
6.1.3 語料準備
6.1.4 模型下載
6.1.5 微調過程
6.1.6 微調模型測試
6.2 LLaMA2微調
6.2.1 微調方法介紹
6.2.2 微調環境準備
6.2.3 語料準備
6.2.4 模型下載
6.2.5 微調過程
6.2.6 PEFT微調模型測試
6.2.7 模型合並
6.2.8 合並後模型測試
6.3 Gemma微調
6.3.1 微調方法介紹
6.3.2 微調環境準備
6.3.3 模型下載
6.3.4 微調程序開發
6.3.5 語料文件下載
6.3.6 微調與測試過程
第7章 大語言模型量化
7.1 量化介紹
7.2 llama.cpp量化過程
7.2.1 llama.cpp編譯
7.2.2 模型GGUF格式轉換
7.2.3 模型下載
7.2.4 量化過程
7.2.5 量化模型測試
7.2.6 Web方式運行
7.3 gemma.cpp量化過程
7.3.1 gemma.cpp源碼下載
7.3.2 gemma.cpp編譯
7.3.3 量化模型下載
7.3.4 推理
第8章 多模態模型應用
8.1 Stable Diffusion介紹
8.2 Stable Diffusion部署
8.2.1 代碼獲取
8.2.2 Python虛擬環境準備
8.2.3 依賴庫安裝
8.2.4 模型下載
8.2.5 服務運行
8.3 Stable Diffusion應用
8.3.1 文生圖應用
8.3.2 圖生圖應用
開發篇
第9章 Chat應用
9.1 目標
9.2 原理
9.2.1 功能概要
9.2.2 係統架構
9.2.3 運行原理
9.3 開發過程
9.3.1 Node.js安裝
9.3.2 chat-app新建
9.3.3 源代碼
9.3.4 測試
9.3.5 應用發布
第10章 輔助編程應用
10.1 目標
10.2 原理
10.2.1 功能概要
10.2.2 係統架構
10.2.3 運行原理
10.3 開發過程
10.3.1 開發環境準備
10.3.2 測試模型準備
10.3.3 API服務實現
10.3.4 測試
第11章 VS Code插件
11.1 目標
11.2 原理
11.2.1 功能概要
11.2.2 係統架構
11.2.3 運行原理
11.3 開發過程
11.3.1 環境準備與項目創建
11.3.2 插件開發
11.3.3 插件發布
第12章 檢索增強生成應用
12.1 目標
12.2 原理
12.2.1 功能概要
12.2.2 係統架構
12.2.3 運行原理
12.3 開發過程
12.3.1 大語言模型安裝
12.3.2 依賴庫安裝
12.3.3 向量化模型下載
12.3.4 源代碼
12.3.5 測試
第13章 PDF翻譯應用
13.1 目標
13.2 原理
13.2.1 功能概要
13.2.2 係統架構
13.2.3 運行原理
13.3 開發過程
13.3.1 大語言模型安裝
13.3.2 依賴環境安裝
13.3.3 下載英譯中模型
13.3.4 源代碼
13.3.5 測試
第14章 智能代理應用
14.1 目標
14.2 原理
14.2.1 AI Agent
14.2.2 AutoGen
14.3 開發過程
14.3.1 大語言模型安裝
14.3.2 Docker安裝
14.3.3 虛擬環境準備
14.3.4 運行環境驗證
14.3.5 多代理會話應用開發
第15章 語音模型應用
15.1 目標
15.2 原理
15.2.1 功能概要
15.2.2 係統架構
15.2.3 運行原理
15.3 開發過程
15.3.1 運行環境安裝
15.3.2 模型下載
15.3.3 Demo運行
15.3.4 服務端開發
15.3.5 客戶端開發
15.3.6 測試
第16章 數字人應用
16.1 目標
16.2 原理
16.2.1 功能概要
16.2.2 係統架構
16.2.3 運行原理
16.3 開發過程
16.3.1 環境準備
16.3.2 源代碼
16.3.3 測試
第17章 提示詞生成應用:從零訓練模型
17.1 目標
17.2 原理
17.2.1 GPT-2
17.2.2 訓練流程與應用架構
17.2.3 訓練方法與運行原理
17.3 開發與訓練過程
17.3.1 語料整理
17.3.2 訓練
17.3.3 推理與服務
17.3.4 測試
第18章 AI小鎮應用
18.1 目標
18.2 原理
18.2.1 功能概要
18.2.2 係統架構
18.2.3 運行原理
18.3 開發過程
18.3.1 大語言模型安裝
18.3.2 開發環境搭建
18.3.3 地圖製作
18.3.4 app.js
18.3.5 BootScene.js
18.3.6 GameScene.js
18.3.7 ChatUtils.js
18.3.8 測試
推薦閱讀

最後修改:2024 年 11 月 16 日