第 01 章:大模型解剖学:参数与 Scaling Law

核心观点:大模型本质上是对人类知识的”有损压缩”。参数量决定了压缩的”分辨率”,而 Scaling Law 揭示了算力转化为智能的物理定律。 1. 引言:智能的”分辨率” 当我们谈论 7B、70B、671B 这些数字时,我们在谈论什么? 很多人认为参数量仅仅意味着”更大的硬盘”,存了更多的死记硬背的知识。大错特错。 参数量实际上代表了模型对世界认知的分辨率。就像一张 JPG 图片,像素越高,边缘越清晰;参数越多,模型对逻辑、因果、微妙情感的”边缘”刻画就越精准。 本章我们将拆解这个黑盒,看看智能是如何从这些浮点数中涌现的。 2. 核心概念:压缩即智能 2.1 这里的”压缩”不是 WinRA

10X AI 全栈工程师的进化之路

内网文档 - 全栈手册) 👆🏻 全栈手册,是我在近期全栈化转型过程汇总梳理的较为结构化、系统性的知识库手册,希望能够对后来人有所帮助。 自我介绍: 1. 还是前端的我,目前负责 Lazada B 端前端基建,Merlion UI (UI 框架)) 作者,LAGO (页面发布平台))、Lazada Material (物料平台)) 等平台主要设计者及维护人,维护 Lazada 商家工作台 Node.js 应用(1000+ QPS)。 2. 开始转 Java 全栈的我,不到 4 个月被紧急成长完成了 Java 迭代需求 30+,主导大型重点项目 —— 智能审核(40 人日以上)交付

第 20 章:系统架构与工程实践

“算法只是冰山一角,工程才是水面下的巨兽。” 恭喜你,你已经掌握了无监督学习的所有核心算法。 但在实际工作中,写出算法代码可能只占 10% 的时间。 剩下的 90% 时间,你在处理:数据管道、异常恢复、性能优化、成本控制。 本章将以一个典型的文本分析系统为例,剖析工业级数据挖掘系统的架构设计。 1. 核心概念:批处理 vs 流处理 1.1 批处理 (Batch Processing) * 模式:T+1。每天凌晨把昨天的数据全量跑一遍。 * 适用:Embedding, KMeans, LLM 总结。这些算法很重,没法实时跑。 * 常见选择:文本分析系统通常采用批处理。因为”风险挖

第 19 章:从模型到规则:知识蒸馏

“最好的模型,是用完了就可以扔掉的模型。” 在 Python 里跑完聚类和 LLM 之后,我们得到了深刻的洞察。 但 Python 脚本难以处理亿级的实时数据流。 我们需要把 Python/AI 学到的知识,转移到更轻量级、更高效的系统(如 SQL 引擎、规则引擎)中去。 这一过程被称为 知识蒸馏 (Knowledge Distillation),或者更具体地说,规则提取 (Rule Extraction)。 1. 核心概念:Model-to-Rule 1.1 为什么需要规则? 1. 性能:SQL RLIKE 比 Embedding 快一万倍。 2. 成本:不需要调 API,不需

第 18 章:大语言模型在数据分析中的应用

“以前我们教机器学数学,现在我们教机器读课文。” 在传统的无监督学习流程中,最大的痛点是“结果不可读”。 * 聚类结果:Cluster_42。 * 异常结果:Anomaly_Score = 98.5。 * 业务人员:??? 在大模型 (LLM) 时代,我们有了一种全新的范式:使用 LLM 作为这一流程的“解释层” (Interpretation Layer)。 1. 核心概念:LLM 的三种角色 在数据分析链路中,LLM 可以扮演三种角色: 1.1 摘要员 (Summarizer) 这是最基础的用法。 * 输入:Cluster 42 中的 50 条工单文本。 * Pr
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×