给代码仓库造一个 DeepWiki:Tree-sitter + Embedding + 图谱 + LLM 的方法论

Posted on 四 16 4月 2026 in Journal • Tagged with RAG, Code Knowledge Base, Tree-sitter, Embedding, Memgraph, pgvector, sqlite-vec, LLM, DeepWiki, AI Coding

把一个陌生代码库变成可问可答的 DeepWiki 知识库,靠的不是"把 README 喂给 GPT",而是 Tree-sitter 解析 + Embedding 向量 + 图数据库 + LLM 生成 四件套。本文不谈具体实现代码,只讲方法论、流程与取舍,并进一步讨论:代码作为 source of truth 之后,文档如何分层,以及如何让知识库反过来 harness AI 编码。


Continue reading

用 Promptfoo 给 AI skill 做体检:评估、测试、质量与安全把关

Posted on 三 15 4月 2026 in Journal • Tagged with Promptfoo, AI, LLM, Agent, Skill, Evaluation, Red Team, Security, CI/CD

很多团队做 AI skill,还停留在“这次跑通了,看起来不错”的阶段。可真正上线之后,问题往往不在第一次回答,而在波动、成本、工具调用路径和安全边界。本文借 Promptfoo 这把尺子,聊聊怎么系统地评估、测试并给 AI skill 做质量与安全把关。


Continue reading

在 Kubernetes 里用 cert-manager + Venafi 自动签发和轮换证书

Posted on 三 15 4月 2026 in Journal • Tagged with Kubernetes, cert-manager, Venafi, TLS, certificate, security, DevOps

很多团队把 TLS 证书当成一次性配置,直到某个周五晚上证书快过期了,才想起这件事不能靠日历提醒。本文以 Kubernetes 服务为例,讲清楚怎么把 cert-manager 当执行层,把 Venafi 当策略和 CA 门卫,做到声明式签发、自动续期、私钥轮转,以及应用侧平滑 reload。


Continue reading

Obsidian 加 LLM,个人知识库的正确打开方式

Posted on 三 08 4月 2026 in Journal • Tagged with Obsidian, LLM, 知识管理, AI, MCP, RAG

笔记散落各处,AI 却帮不了你?聊聊怎么用 Obsidian 的本地 Markdown 文件,配合 LLM 插件、MCP 和编译式知识库,把"一堆文件"变成"能回答问题的第二大脑"。


Continue reading

Gevent 是什么,和 asyncio 一起用有什么坑

Posted on 二 07 4月 2026 in Journal • Tagged with Python, Flask, Gevent, asyncio, 并发

从 Flask 老项目里的聚合接口说起,聊聊 gevent 和 asyncio 到底差在哪里,各自适合什么场景,又各有哪些坑。


Continue reading

AI Agent 会越来越像人吗?从 Tool、Skill、Memory 到 Soul 和 Rules

Posted on 日 05 4月 2026 in AI • Tagged with AI, agent, memory, skills, rules, MCP, multi-agent, governance, multimodal

AI Agent 的演化,表面上看越来越拟人,技术上看其实是在一层层补齐“器官”:从思考与推理、多模态感知,到工具、技能、记忆、人格、规则、身体接口,再到多 Agent 协作与治理。它未必先替代人,但一定会先重写很多知识工作的分工边界。


Continue reading

蒸馏:AI 世界里的"吸星大法"

Posted on 日 05 4月 2026 in AI • Tagged with AI, distillation, LLM, agent, skill, knowledge-distillation, DeepSeek, OpenAI

大模型能蒸馏,Agent 的 Skill 也能蒸馏。蒸馏到底是什么?为什么 DeepSeek 能把 671B 的推理能力塞进 1.5B 的小模型?为什么你的 Agent 技能越写越臃肿时,也需要来一轮"蒸馏"?这篇把模型蒸馏和技能蒸馏串起来讲,一次搞懂。


Continue reading

AI Agent 为什么会越用越懂你?从 OpenClaw 的“养龙虾”聊起

Posted on 三 01 4月 2026 in AI • Tagged with AI, agent, OpenClaw, memory, personalization, context-engineering

很多人觉得 OpenClaw 这类 AI Agent 用久了会“自我进化”。真相没那么玄:多数时候,不是模型偷偷变聪明了,而是记忆、偏好画像、工具调用、反馈回路和工作流沉淀一起把它越养越顺手。


Continue reading

Axios 被投毒:一场教科书级的供应链攻击复盘

Posted on 三 01 4月 2026 in Tech • Tagged with security, supply-chain, npm, axios, RAT, dependency-management

2026 年 3 月 31 日,周下载量过亿的 npm 包 axios 被投毒,两小时内所有 npm install 的机器可能已沦陷。这次事件再次说明:你写的代码也许没有 bug,但你装的依赖里可能藏着一扇后门。


Continue reading

从 Prompt Engineering 到 Harness Engineering:AI 编程的四次进化

Posted on 六 28 3月 2026 in Tech • Tagged with harness-engineering, AI, prompt-engineering, context-engineering, Tauri, Rust, Claude Code

OpenAI 用 Codex 在五个月内生成了百万行代码,零行手写。背后的方法论叫 Harness Engineering——不是教 AI 怎么写代码,而是给 AI 搭一个"跑不偏"的环境。本文梳理从 Prompt Engineering 到 Harness Engineering 的四次进化,并用一个实战案例演示:一个不会 Rust 的老程序员,如何靠 Harness Engineering 用 Tauri 写出一个桌面 Todo 应用。


Continue reading

从 LiteLLM 供应链投毒事件聊聊密钥安全

Posted on 六 28 3月 2026 in Tech • Tagged with security, supply-chain, python, secrets-management, LiteLLM

2026年3月,LiteLLM 遭遇供应链投毒,恶意包窃取用户密钥和云凭证。本文从 .pth 文件机制、漏洞根因、密钥不落盘理念到业界通用方案,聊聊 AI 时代的密钥安全。


Continue reading

证书这活儿:PEM/JKS/P12 怎么选、免费证书哪家强、自动轮换怎么搞

Posted on 二 24 3月 2026 in Journal • Tagged with certificate, TLS, SSL, PEM, JKS, PKCS12, Let's Encrypt, cert-manager, security, DevOps

以我自己的个人网站证书过期为引子,讲清楚 Root CA、Intermediate CA、Leaf Certificate 的职责、格式与验证过程,再把 PEM/JKS/P12 的选择和自动轮换这件事说透。


Continue reading

再聊 nanobot 的记忆机制:从消息计数到 Token 预算

Posted on 六 21 3月 2026 in AI • Tagged with nanobot, AI Agent, memory, LLM, session management

上次聊了 nanobot 双层记忆的基本设计,这次深入源码,看看它最近的几个关键演进:基于 Token 预算的整理策略、会话历史的合法性校验、以及一个"连续 assistant 消息"的 bug 是怎么产生和修复的。


Continue reading

用 Playwright 自动发帖到知乎和小红书:一个程序员的偷懒指南

Posted on 六 21 3月 2026 in Tech • Tagged with Playwright, automation, Python, 知乎, 小红书, browser automation

写完一篇文章,手动复制粘贴到知乎、小红书、公众号……每次都要重新排版、加标签、传图片,烦不烦?这篇文章聊聊怎么用 Playwright 把这些重复劳动自动化掉——从录制操作到封装脚本,附完整代码。


Continue reading

AI Agent Loop 讲透:以一个会自己写博客的 Python Demo 为例

Posted on 四 19 3月 2026 in Journal • Tagged with agent, agent-loop, AI, LLM, python, tool-calling, memory, planning

以 lazy-rabbit-agent 里的 agent_loop_demo.py 为例,讲清楚 AI Agent Loop 的本质:它不是玄学,而是由规划、记忆、工具调用、观察回流、格式约束与失败恢复组成的一台小发动机。


Continue reading

演讲的认知科学:别再浪费彼此的时间了

Posted on 四 19 3月 2026 in Journal • Tagged with 演讲, 演示, 认知科学, 沟通, 方法论, presentation

你精心准备了 40 页 PPT,讲了 45 分钟,台下却只记住了你那句"下一页"。问题不在你的内容不好,而在你忽视了一件事:人脑不是硬盘,它有带宽限制、有注意力衰减曲线、有情绪开关。本文从认知科学的角度,拆解演讲中"听懂"这件事的底层逻辑,给你一套可落地的演讲清单。


Continue reading

Workload Identity:别再把云上身份塞进 Secret 里了

Posted on 四 19 3月 2026 in Journal • Tagged with journal, blog, security, cloud, kubernetes, iam, workload identity

讲清楚 workload identity 是什么、为什么它比长期凭证更靠谱,以及在 Kubernetes 和云平台里如何落地。


Continue reading

如何写好一个 AI Skill:让 AI Agent 从"什么都会"变成"真的能干活"

Posted on 二 17 3月 2026 in Tech • Tagged with AI, Skill, Agent, Prompt Engineering, Claude Code, Cursor, 方法论

AI Agent 就像你新招的天才实习生——什么都学过,但到了你的项目里,连 CI 怎么跑都不知道。AI Skill 就是那份"入职培训手册",把你的领域知识、工作流程、最佳实践打包成 AI 能理解和执行的模块。本文拆解写好 AI Skill 的方法、原则、示例和自检清单。


Continue reading

职场工具箱之 Radical Candor:怎样既不当老好人,也不当刺头?

Posted on 二 17 3月 2026 in Journal • Tagged with 职场工具箱, Radical Candor, 反馈, 管理, 沟通, 方法论

你要么什么都不说(老好人),要么一开口就得罪人(刺头)。Radical Candor(彻底坦诚)告诉你:好的反馈 = 关心对方 + 直接挑战。两个维度画出四个象限:彻底坦诚、恶意攻击、虚伪客套、过度同情。本文教你怎么在"关心"和"直接"之间找到那个甜蜜点。


Continue reading

职场工具箱之利益-立场拆分:为什么"我不同意"背后可能是同一目标?

Posted on 一 16 3月 2026 in Journal • Tagged with 职场工具箱, 利益, 立场, 谈判, 沟通, 方法论

你和同事吵了半小时"用 Redis 还是用 Kafka",最后发现你们其实都想解决同一个问题——消息不丢。立场是"我要什么",利益是"我为什么要"。大多数职场冲突不是利益冲突,而是立场冲突。学会拆分利益和立场,你会发现 80% 的"不同意"其实可以变成"换个方式都同意"。


Continue reading