如何用更小的模型和更少的数据打败大型语言模型?
今天看了一篇来自于llmstack的创始人及CTO写的关于RAG的文章,正好最近在研究怎么玩本地知识库来着,感觉这篇文章很有帮助,这里翻译一下分享给大家,不过有时间的话更建议大家去看原文。
今天看了一篇来自于llmstack的创始人及CTO写的关于RAG的文章,正好最近在研究怎么玩本地知识库来着,感觉这篇文章很有帮助,这里翻译一下分享给大家,不过有时间的话更建议大家去看原文。
前几天我分享了一篇跟Agent研究有关的文章,文章最后说过我还有一篇想要分享的,今天我就给大家带来了,它就是 “AutoGen: Enabling Next-Gen LLM Applications via Multi-Agent Conversation”。
我们知道,LLM不仅能够生成文本,还能进行复杂的任务和计算。然而,尽管这些模型具有巨大的潜力,但如何有效地将它们应用于实际问题仍然是一个挑战。这正是这篇论文要解决的问题。
好久没更新论文的分享了,今天来给大家分享一篇最近阅读的个人感觉非常有价值的一篇:MEMGPT: TOWARDS LLMS AS OPERATING SYSTEMS。我们都知道无论是ChatGPT、LLaMA、Claude等等大模型,虽然支持结合上下文进行对话,但这个对话长度实际是受限的,尤其是如果想进行长文档处理的时候就更头疼了,那么对于大模型这种记忆能力薄弱的问题要如何解决呢?这篇论文从操作系统的存储设计上得到灵感,从而尝试让大模型拥有了"无限"的记忆能力。
如今国际上各种大语言模型蜂拥而至,但我们个人或者小公司想玩一个大模型要么花钱买硬件要么花钱买服务,因为大型语言模型(LLMs)虽然厉害,但部署起来非常困难!此外,这些巨型语言模型就像是那些吃不胖的人,吃了无数的数据,练了无数的参数,但是一到要“出门”工作的时候,问题来了。它们需要的计算资源和内存就像是一个永无止境的黑洞,让人望而却步。
最近看了两篇关于大模型幻觉问题的论文,一篇叫做 A Survey of Hallucination in “Large” Foundation Models,是关于大型基础模型(Large Foundation Models, LFMs)的幻觉问题的一个综述。另外一篇是来自MetaAI的 Chain-of-Verification Reduces Hallucination in Large Language Models ,讲得是一种减轻大语言模型幻觉问题的一个方法。
终于来到Andrew Ng教授深度学习专项课程CNN课程的的最后一节课的笔记博客了,这也是这门课程专栏的最后一篇博文了,本篇主要内容主要是CNN在人脸识别和神经风格迁移中的应用。那我们开始吧!