https://leafw-blog-pic.oss-cn-hangzhou.aliyuncs.com/avatar.jpg

我开发了一款关于病历管理的app:安康记

上线了!上线了!基于Vibe Coding我终于也能独立开发出一款属于自己的app-安康记,目前终于成功上架App Store啦。

独立开发app这个事情我很早之前就有点念头,但学习Swift过程还挺痛苦的,总觉的各种语法糖很膈应,导致进度缓慢,后面就一直搁置了。ChatGPT出来之后也尝试了一点,但还是觉得当时的AI能力不够,并且纯靠聊天还是不太行,自从Cursor、Windsurf、CC、Codex这一类AI开发工具出来之后,Vibe Coding的概念也随之火热,我想也是时候重启自己的开发计划了,花了接近两个月的晚上和周末时间,终于将其开发完成并上架!

苹果芯片Mac使用Docker部署MinerU api服务

最近试了下 Mineru 解析 PDF,感觉还是挺好的,但为了本地开发方便,就直接在电脑上部署个 API 服务,官网上虽然也有部署教程,但感觉对于 Mac 用户并不算友好,就自己又瞎折腾了好久,现在总算 OK 了,也把我的部署方式分享下,主要还是依靠 ChatGPT 的大力支持 🐶。

高效智能体设计:如何在不牺牲效果的前提下降低成本?

本文解读的是 OPPO AI Agent 团队于 2025 年 8 月发布的论文
《Efficient Agents: Building Effective Agents While Reducing Cost》
arXiv: 2508.02694v1

引言

大语言模型驱动的智能体(Agent)近年来在复杂任务上展现了惊人的能力——从多轮推理、跨工具调用,到信息检索与整合。然而,性能的提升往往伴随着成本的飙升:更多的推理步数、更多的工具调用、更复杂的记忆机制,都意味着更多的 token 消耗与 API 调用费用。

大语言模型的上下文工程(Context Engineering for Large Language Models)

LLM 刚开始火热的时候,有个词非常热门,叫做提示词工程,甚至有各种网文声称市面上可能会招聘大量的提示词工程师,当初在一些招聘网站上倒是也的确能搜索到这样的岗位。但随着大模型技术的发展和应用复杂度的激增,单独依赖写一句好的提示词已经不能满足工业级的生产场景。一个新的概念产生了,叫做 Context Engineering(上下文工程)

让 LLM 拥有“可治理的记忆”:MemOS:A Memory OS for AI System 论文解读

随着大语言模型(LLM)能力的持续扩展,研究者和开发者逐渐意识到,若要真正迈向通用人工智能(AGI),模型不仅需要强大的语言生成能力,更应具备长期一致性、知识演化能力与用户个性化适配能力。因此,越来越多的系统开始尝试将 LLM 作为智能体(Agent)进行封装,并探索其在多轮对话、长期任务、知识积累等真实场景中的表现。

大模型真的能做推荐系统吗?ARAG论文给了我一个颠覆性的答案

前两天刷微博无意间刷到了一位老师转发的关于大模型做推荐系统的论文,这是 Walmart AI 团队近期发布的一篇论文:《ARAG: Agentic Retrieval-Augmented Generation for Personalized Recommendation》。老实说,在看这篇论文之前,我一直觉得大模型做推荐系统跟传统推荐系统是不值得比较的,自己虽然没做过推荐系统,但也看过一些科普,觉得这应该主要还是依靠机器学习、特征工程、协同过滤和排序模型等技术来实现,而大语言模型(LLM)擅长的是对话、写代码、写文案、问答推理这些,拿来做推荐?感觉不太靠谱。但这篇论文,用一个代理式多智能体 RAG 框架,把我从这条旧路径中拽了出来。