【科普】人工智能是如何工作的? 人工智能是如何工作的?機器學習和神經網絡又是什麼?李永樂老師 2024年10月19日, 【漫士科普】90分鐘深度!一口氣看懂人工智慧和神經網路一位来自清华的人工智能博士生,日常思索和科普。An artificial intelligence doctoral student from Tsinghua University who likes to delve into thinking and science popularization. 【漫士科普】GPT是如何運作的?為什麼要學習接下一個字? 2025年1月29日< 奇跡還是抄襲?DeepSeek巨浪的背後,那些你最想知道的——時移世易,不再與你我無關是“遙遙領先”的噱頭,還是言論審查下的技術奇跡?——DeepSeek 的突然爆火,讓英偉達股價一度大跌,也引發了全球 AI 圈的強烈震動。到底是怎樣的一家“小公司”,在被制裁的環境下還能拿出可比肩頂級模型的成果?本期視頻,我將帶你深入探討 DeepSeek 的技術原理、它對大公司和普通用戶的影響、以及 AI 在政治與社會層面或將帶來的巨大變局。 2025年2月1日, 最快反轉,Deepseek抄襲ChatGPT實錘?大模型究竟是怎麼煉成的——抄襲門背後的技術內幕.OpenAI突然指控DeepSeek對ChatGPT進行「蒸餾」訓練,這是否構成抄襲?本期視頻我將深入探討:DeepSeek與OpenAI的最新爭議:從“抄襲”到“蒸餾門”的來龍去脈大模型是怎麼訓練的:從數據收集到微調,每一步的關鍵技術與商業的交鋒:開放與封閉、版權與共享的碰撞中美AI博弈的背後:為何DeepSeek的出現會引爆如此大的輿論在這場大模型“軍備競賽”里,我們應該注意哪些核心思維?而OpenAI和DeepSeek的爭端,又會對整個行業帶來何種影響?歡迎你在評論區分享看法,我們一起討論! 2024年7月8日 , 【重製版】【人工智能】萬字通俗講解大語言模型內部運行原理 | LLM | 詞向量 | Transformer | 注意力機制 | 前饋網絡 | 反向傳播 | 心智理論.因為原視頻《萬字通俗講解大語言模型內部運行原理》製作的比較早,所以比較粗糙,也沒有加太多後期素材,應很多觀眾的要求,重新製作了該影片,包括以下改進:1. 優化了聲音,降低了背景噪音和空曠感2. 增加了大量的後期素材和相關知識畫面,方便大家更好的理解視頻內容。 2023年10月21日 , 【生成式AI科普1】啥是“AIGC”?帶你分清一堆AI技術詞 | What is Generative AI?當下熱門科技詞彙,AIGC當之無愧位列其中但你真的瞭解AIGC嗎?AIGC,和AI、機器學習、監督學習、無監督學習、強化學習、深度學習、大語言模型,又是什麼關係? 2023年10月23日, 【生成式AI科普2】啥是大語言模型(LLM)?| What is large language model?經常用AI聊天助手,卻不懂大語言模型?8分鐘帶你瞭解 🫡 2023年10月26日, 【生成式AI科普3】ChatGPT原理揭密!背後的黑科技Transformer | Demystify Transformer Behind ChatGPT.ChatGPT生成文本的原理是啥?背後的transformer大揭密 👀 2023年10月30日, 【生成式AI科普4】如何3步煉成一個ChatGPT?| How was ChatGPT Created.把大象裝進冰箱只需要三步 🐘要得到一個ChatGPT,攏共分幾步?也是三步. 2023年11月1日, 【生成式AI科普5】調教AI的秘密!提示工程:小樣本提示、思維鏈、分步驟思考 | Prompt Engineering: Few Shots, Chain of Thought.AI有時候像個二傻子怎麼辦?必知的調教秘密! 2023年11月5日 , 【生成式AI科普6】AI數據過時、編造事實、計算不准,怎麼辦?詳解RAG、ReAct、PAL | Demystify RAG, ReAct, PAL for Improving Responses.AI數據過時、編造事實、計算不准,怎麼辦?讓AI變聰明的辦法 🤫 2022年8月17日, 學習分享一年,對神經網絡的理解全都在這40分鐘里了. 2024年4月8日, 從編解碼和詞嵌入開始,一步一步理解Transformer,注意力機制(Attention)的本質是卷積神經網絡(CNN).