【科普】人工智能是如何工作的?

人工智能是如何工作的?機器學習和神經網絡又是什麼?

李永樂老師

2024年10月19日, 【漫士科普】90分鐘深度!一口氣看懂人工智慧和神經網路

一位来自清华的人工智能博士生,日常思索和科普。

An artificial intelligence doctoral student from Tsinghua University who likes to delve into thinking and science popularization.

【漫士科普】GPT是如何運作的?為什麼要學習接下一個字?

2025年1月29日< 奇跡還是抄襲?DeepSeek巨浪的背後,那些你最想知道的——時移世易,不再與你我無關

遙遙領先的噱頭,還是言論審查下的技術奇跡?——DeepSeek 的突然爆火,讓英偉達股價一度大跌,也引發了全球 AI 圈的強烈震動。到底是怎樣的一家小公司,在被制裁的環境下還能拿出可比肩頂級模型的成果?本期視頻,我將帶你深入探討 DeepSeek 的技術原理、它對大公司和普通用戶的影響、以及 AI 在政治與社會層面或將帶來的巨大變局。

2025年2月1日, 最快反轉,Deepseek抄襲ChatGPT實錘?大模型究竟是怎麼煉成的——抄襲門背後的技術內幕.

OpenAI突然指控DeepSeek對ChatGPT進行「蒸餾」訓練,這是否構成抄襲?本期視頻我將深入探討:DeepSeek與OpenAI的最新爭議:從“抄襲”到“蒸餾門”的來龍去脈

大模型是怎麼訓練的:從數據收集到微調,每一步的關鍵

技術與商業的交鋒:開放與封閉、版權與共享的碰撞

中美AI博弈的背後:為何DeepSeek的出現會引爆如此大的輿論

在這場大模型軍備競賽里,我們應該注意哪些核心思維?而OpenAIDeepSeek的爭端,又會對整個行業帶來何種影響?歡迎你在評論區分享看法,我們一起討論!

2024年7月8日 , 【重製版】【人工智能】萬字通俗講解大語言模型內部運行原理 | LLM | 詞向量 | Transformer | 注意力機制 | 前饋網絡 | 反向傳播 | 心智理論.

因為原視頻《萬字通俗講解大語言模型內部運行原理》製作的比較早,所以比較粗糙,也沒有加太多後期素材,應很多觀眾的要求,重新製作了該影片,包括以下改進:

1. 優化了聲音,降低了背景噪音和空曠感

2. 增加了大量的後期素材和相關知識畫面,方便大家更好的理解視頻內容。

2023年10月21日 , 【生成式AI科普1】啥是“AIGC”?帶你分清一堆AI技術詞 | What is Generative AI?

當下熱門科技詞彙,AIGC當之無愧位列其中

但你真的瞭解AIGC嗎?

AIGC,和AI、機器學習、監督學習、無監督學習、強化學習、深度學習、大語言模型,又是什麼關係?

2023年10月23日, 【生成式AI科普2】啥是大語言模型(LLM)?| What is large language model?

經常用AI聊天助手,卻不懂大語言模型?

8分鐘帶你瞭解 🫡

2023年10月26日, 【生成式AI科普3】ChatGPT原理揭密!背後的黑科技Transformer | Demystify Transformer Behind ChatGPT.

ChatGPT生成文本的原理是啥?

背後的transformer大揭密 👀

2023年10月30日, 【生成式AI科普4】如何3步煉成一個ChatGPT?| How was ChatGPT Created.

把大象裝進冰箱只需要三步 🐘

要得到一個ChatGPT,攏共分幾步?也是三步.

2023年11月1日, 【生成式AI科普5】調教AI的秘密!提示工程:小樣本提示、思維鏈、分步驟思考 | Prompt Engineering: Few Shots, Chain of Thought.

AI有時候像個二傻子怎麼辦?

必知的調教秘密!

2023年11月5日 , 【生成式AI科普6】AI數據過時、編造事實、計算不准,怎麼辦?詳解RAG、ReAct、PAL | Demystify RAG, ReAct, PAL for Improving Responses.

AI數據過時、編造事實、計算不准,怎麼辦?

AI變聰明的辦法 🤫

2022817, 學習分享一年,對神經網絡的理解全都在這40分鐘里了.

202448, 從編解碼和詞嵌入開始,一步一步理解Transformer,注意力機制(Attention)的本質是卷積神經網絡(CNN).