年度學習展
AI程式設計、深度學習與LLM入門到精通:PyTorch × GPT × Transformer × LLaMA實作指南(iThome鐵人賽系列書)

AI程式設計、深度學習與LLM入門到精通:PyTorch × GPT × Transformer × LLaMA實作指南(iThome鐵人賽系列書)

  • 定價:650
  • 優惠價:9585
  • 本商品單次購買10本85折553
  • 運送方式:
  • 臺灣與離島
  • 海外
  • 可配送點:台灣、蘭嶼、綠島、澎湖、金門、馬祖
  • 可配送點:台灣、蘭嶼、綠島、澎湖、金門、馬祖
載入中...
  • 分享
 

*內容簡介

全面掌握AI技術,開創屬於自己的AI之路,晉升專業實戰AI工程師
AI模型優化與實戰入門,矩陣到大型語言模型的完整攻略
理論與實作並行,完整理解AI的邏輯與機制

  ♚AI知識剖析:完整理解數學、程式及實戰案例
  ♚實務能力提升:學會建構、優化並實際應用AI模型
  ♚實戰案例培訓:提供競賽經驗與案例,符合現場實務需求
  ♚前瞻技術學習:掌握從經典模型到Transformer架構

  本書內容改編自第16屆iThome鐵人賽AI/ ML & Data組佳作系列文章《從零開始學AI:數學基礎與程式碼撰寫全攻略》。本書是專為AI初學者與工程師所寫的實戰指南,涵蓋從數學基礎、NumPy操作到PyTorch建模與經典深度學習架構,強調不只教「怎麼做」,更解析「為什麼這樣做」。

  作者結合競賽與實務經驗,深入剖析流程邏輯與常見錯誤,帶你掌握資料前處理、特徵選取、模型訓練、效能評估與部署,並逐步理解從感知器到Transformer的核心概念,幫助你真正理解模型原理、具備獨立設計與優化AI模型的能力。

  【目標讀者】
  ✪想要補足實作能力並加強理解、提升競賽與研究成果的學生與研究者。
  ✪想用多樣的方式理解複雜概念、對AI感興趣的非專業人士。
  ✪想要理解並導入AI技術、強化職場競爭力軟體的開發人員與工程師。
  ✪調整模型成為特定領域專家、使其協助日常生活的專業領域人士。

專業推薦

  本書最討喜的地方在於理論與實作並重。更難得的是,書中穿插各式實務場景,點出真實專案裡那些惱人的小坑與解法,不只給漂亮結果,而是教你面對雜訊與限制。─ 許芫齊,2025 AI CUP春季賽亞軍

  本書建立了一個完整的學習流程:大綱引導→動手實作→QA問答,既易於理解,又能引導實作。對初學者而言,它是最穩妥的起點;對已有基礎的讀者,則提供了深化理論、補強實務的完整路徑。─ 蘇連宏,2025 AI CUP春季賽殿軍

  本書是一套實戰導向的可遷移知識體系,把數學直覺、程式實作、實驗設計與效能量測有機地扣在一起,既能支撐學術研究的嚴謹,也能對接產業場景的效率與可靠度。─ 吳宇祈,國立成功大學 電機工程系碩士

  本書以六個階段鋪陳學習路徑,先用NumPy把數學與張量運算動手拆開,再平順橋接到PyTorch的現代訓練框架,最後銜接自建模型與經典架構的理解與應用,結構清楚、節點分明,不會迷失方向。─ 陳冠穎,國立成功大學 電機工程系碩士
 

作者介紹

作者簡介

黃朝隆


  現任AI研發工程師,專注於人工智慧與軟體開發,擅長自然語言處理、生成式AI及大型語言模型應用,致力於將前沿技術導入企業實務與智慧化系統。自碩士期間起,積極參與跨領域專案與學術研究,曾率領團隊於2025 AI CUP全國大專院校人工智慧競賽榮獲冠軍與亞軍,並取得多項競賽佳績。

  除研發與著作外,亦受邀擔任企業內訓與學術講師,並具有國內外家教經驗,長期協助澳洲、新加坡及台灣的大專學生及業界工程師學習Python、深度學習、自然語言處理及AI專案開發。以實務導向與國際視野的教學方式,協助學生成功完成學業、研究專案,並順利進入人工智慧相關產業。
 

目錄

|Chapter 01| 人工智慧入門與Python環境建置
1.1 人工智慧的發展歷程:從熱潮到寒冬,再到現在
1.2 拆解三大核心:人工智慧、機器學習與深度學習
1.3 機器學習的四種學習方式:監督、非監督、強化與遷移
1.4 Python與Jupyter Notebook實作的開發利器
1.5 常見問題與知識總整理
1.6 小結

|Chapter 02| 單層感知器的數學原理與實作入門
2.1 感知器簡介:人工智慧的起點
2.2 前向傳播:從輸入到預測的數學轉換
2.3 損失函數與反向傳播:學習的數學核心
2.4 梯度下降與參數更新:從錯誤中修正的機制
2.5 章節實作:從單層感知器建立到預測輸出
2.6 常見問題與知識總整理
2.7 小結

|Chapter 03| 多層感知器與優化策略實戰
3.1 多層感知器的誕生:破解單層感知器的限制
3.2 MLP結構與數學原理:從輸入到機率輸出
3.3 反向傳播機制:從損失回推模型調整方向
3.4 選擇適當優化器:GD與SGD差異比較
3.5 章節實作:MLP訓練與優化器效能分析
3.6 常見問題與知識總整理
3.7 小結

|Chapter 04| PyTorch環境搭建與深度神經網路實作
4.1 PyTorch安裝與環境驗證 
4.2 資料處理與MLP模型訓練流程 
4.3 章節實作:MLP在CIFAR-10上的應用 
4.4 常見問題與知識總整理 
4.5 小結

|Chapter 05| CNN原理與PyTorch實作
5.1 CNN基礎與卷積細節
5.2 章節實作:圖像前處理與可調式CNN模型設計
5.3 常見問題與知識總整理 
5.4 小結

|Chapter 06| 文字處理、序列模型與情緒分析實戰
6.1 斷詞與子詞策略
6.2 向量化方法:獨熱編碼 vs 詞嵌入
6.3 循環神經網路(RNN)
6.4 長短期記憶(LSTM)
6.5 門控循環單元(GRU)
6.6 章節實作:IMDB情緒分類(BERT分詞 + GRU)
6.7 常見問題與知識總整理
6.8 小結

|Chapter 07| Seq2Seq與Attention架構解析
7.1 Seq2Seq基礎:Encoder + Decoder
7.2 Attention強化:解決資訊壓縮瓶頸
7.3 章節實作:中英翻譯模型 
7.4 常見問題與知識總整理 
7.5 小結

|Chapter 08| 萬物皆可Transformer:Encoder與BERT系列
8.1 遷移學習與微調
8.2 Transformer Encoder 
8.3 BERT:雙向編碼器預訓練模型 
8.4 章節實作:假新聞辨識 with BERT 
8.5 常見問題與知識總整理 
8.6 小結

|Chapter 09| 萬物皆可Transformer:Decoder與GPT系列
9.1 Transformer Decoder 
9.2 GPT-1 
9.3 GPT-2:規模、Pre-LN與殘差縮放
9.4 GPT-3:少樣本 / 零樣本與提示學習
9.5 章節實作:微調GPT-2用於翻譯任務
9.6 常見問題與知識總整理
9.7 小結

|Chapter 10| 萬物皆可Transformer:中文語音辨識與Whisper微調
10.1 語音資料格式與特徵萃取 
10.2 Whisper模型架構 
10.3 QLoRA:高效微調大模型 
10.4 章節實作:中文語音辨識微調實作流程 
10.5 常見問題與知識總整理 
10.6 小結

|Chapter 11| 萬物皆可Transformer:從GPT-3到LLaMA 3的指示學習
11.1 從提示學習到指示學習
11.2 ChatGPT三階段訓練流程 
11.3 LLM架構優化技術 
11.4 章節實作:用LLaMA 3訓練繁中聊天機器人
11.5 常見問題與知識總整理 
11.6 小結

 
 

詳細資料

  • ISBN:9786264143035
  • 規格:平裝 / 296頁 / 17 x 23 x 1.9 cm / 普通級 / 單色印刷 / 初版
  • 出版地:台灣

最近瀏覽商品

 

相關活動

  • 【自然科普、電腦資訊】AI時代的職場生存術:打開職場新思維,打造新世代職場競爭力,電子書85折起
 

購物說明

若您具有法人身份為常態性且大量購書者,或有特殊作業需求,建議您可洽詢「企業採購」。 

退換貨說明 

會員所購買的商品均享有到貨十天的猶豫期(含例假日)。退回之商品必須於猶豫期內寄回。 

辦理退換貨時,商品必須是全新狀態與完整包裝(請注意保持商品本體、配件、贈品、保證書、原廠包裝及所有附隨文件或資料的完整性,切勿缺漏任何配件或損毀原廠外盒)。退回商品無法回復原狀者,恐將影響退貨權益或需負擔部分費用。 

訂購本商品前請務必詳閱商品退換貨原則 

  • 電腦人全書系(止)
  • 楓葉社全書系(止)
  • 五南暢銷展