自从2022年12月ChatGPT横空面世以来,AI领域获得了十足的关注和资本,其实AI的概念在早些年也火过一波,本轮AI热潮相比于之前的AI,最大的区别在于:生成式。
我从23年初开始写AI资讯日报来学习和记录AI发展轨迹,积累了很多有效的知识,但是在甄别信息上花费了不少时间。为了方便后续的学习者快速入门AI,我计划写一个系列文章,来全面介绍AI的发展现状,系列名为:5天追上AI潮流。
这些文章会写的比较浅显,适合小白入门,并且提供了各种AI工具的使用地址,对大多数人来说,把AI工具先用起来更重要。
本文是“5天追上AI潮流”系列的第一篇文章,介绍大语言模型(Large Language Model,简称LLM)。
通过海量文本训练的、能识别人类语言、执行语言类任务、拥有大量参数的模型,称之为大语言模型。GPT、LLaMA、Mistral、BERT等都是LLM,LLM是对训练文本信息的压缩,同时拥有了泛化能力,不同于数据库和搜索引擎,LLM能创造性地生成历史上没有出现过的文本内容。
总体可以概括为:创作内容、处理和分析数据、自动化任务、智能客服
• 写作:写邮件、计划书、宣传文案、简单的故事等,可以模仿小红书风格、指定作家风格,尤其适合写长篇套话,但目前要写出完整且有趣的小说还比较难。
• 润色:提供大纲或已有文本,由LLM来扩写、改写,适用于洗稿、避免被查重等场景。
• 总结:提供会议记录、文章,由LLM自动总结要点和待办。
• 翻译:多语言翻译、白话文和文言文翻译,结合特定prompt进行多轮翻译可以实现惊艳的结果。
• 数据分析:从报告中提取数据、分析数据,做成可视化图表。
• 编程:Github Copilot,程序员都应该用。
• 提取结构化信息:从用户的自然语言中,提取出结构化的信息,方便传给程序做自动化处理。
• 智能助手:利用Agent实现工作流
• 智能客服:基于RAG实现智能客服
……等等
目前LLM最大的缺陷是幻觉严重,经常会生成无中生有的回复,如果你没有对应的专业知识,很容易被带偏。所以如果你要用于工作、教育等严肃场景,人工二次校验是必要的。幻觉短期内是无法消除的,甚至LLM的泛化能力也跟幻觉有关,就像人类会做离奇的梦一样。为了解决LLM回复准确性的问题,RAG技术被广泛应用。
另外还有一些问题:训练信息更新不及时、逻辑能力差、推理速度慢等。
排名有先后,仅代表个人意见。
国外产品的通病:对网络有要求;
国内产品的通病:有时会触发莫名其妙的限制;
各个产品的使用地址:因个人公众号无法插入超链接,请点击最底部的“阅读原文”来查看链接。
• ChatGPT:网页版;非国区应用商店可下载APP;
• Poe:网页版;非国区应用商店可下载APP;
• Coze:国际版;国内版
• Gemini:个人版;开发者版,100万上下文
• Arc Search:官网下载客户端;非国区应用商店可下载APP;
• Perplexity:网页版;非国区应用商店可下载APP;
• 通义:网页版;各大应用商店可下载APP;
• 秘塔:网页版
• Kimi:网页版;各大应用商店可下载APP;
• 文心一言:网页版;各大应用商店可下载APP;
• 海螺AI:网页版;各大应用商店可下载APP;
• 智谱清言:网页版;各大应用商店可下载APP;
• 豆包:网页版;各大应用商店可下载APP;
• Microsoft Copilot:网页版;非国区应用商店可下载APP;
• HuggingChat:网页版;非国区应用商店可下载APP;
• 讯飞星火:网页版;各大应用商店可下载APP;
• 百小应:网页版;各大应用商店可下载APP;
部分数据参考LLM竞技场,含个人主观评判,仅代表个人意见。图片太大,在电脑端查看更佳。
关于LLM相关的概念,我之前写过一个比喻:
LLM就像是一个考生,训练数据是教材,context是短时记忆力,prompt是题目,prompt engineering是带解题提示的题目,finetune是补充教材和辅导书,RAG是开卷考试,function calling是允许用计算器。
对于大多数人来说,没必要专门学习LLM的知识,最多学一下Prompt Engineering就够了。就像我们不需要学习iOS和安卓的底层系统,只需要知道有哪些便捷的系统功能即可。
因个人公众号无法插入超链接,请点击最底部的“阅读原文”来查看链接。
· 3Blue1Brown视频教程
首推这套教程,可视化讲解了Token、Embedding、Transformer等一系列概念,绝对是入门的最佳教程。
深度学习第5章:https://b23.tv/k68hwjD
深度学习第6章:https://b23.tv/11SNpcT
· Cohere文字教程
虽然是英文文字教程,但是写的非常浅显易懂,四级水平就能看懂。
链接:Cohere教程
· 电子书:《大语言模型》
这是一套包含了项目落地和实操的教程,适合程序员和AI从业人员。
链接:Github
· 台大李宏毅课程
大学的实际教学内容,从线性代数的角度讲解Transformer的原理。
视频地址:https://b23.tv/sasg96g
最有效的提示词策略是:使用更好的模型。使用小模型时各种提示词方法都控制不了输出结果,换成更大更好的模型后,一句提示词就可以解决。
提示词工程是用于弥补现阶段LLM能力的不足,随着LLM的能力提升,提示词工程的作用会越来越小。
这类教程有很多,我常用的是这个:Prompt教程
微调可以补充和强化LLM的知识,例如使用中文数据集微调LLaMA 3 8B,即可大幅提升中文能力、减少回复里出现表情的情况。小模型推荐基于Phi 3、LLaMA 3、Mistral模型微调。中模型推荐基于Yi-34B微调。
这个Github仓库,提供了colab链接,可以在线微调小模型:colab免费微调模型
数据集的质量对LLM能力有很大的影响,人类可用的数据集现在已经被全部用于训练LLM了,并且已经开始使用AI合成的数据来训练LLM。关于数据集,可以查看这篇数据集综述
对应的开源数据集,包含444个数据集,大小超过774TB,覆盖8种语言:开源数据集
LLM是语言模型,只能理解文字、生成文字,多模态的含义是除了文字能力外,还可以理解和生成图片、语音、视频。目前多模态LLM有两种,一种是GPT-4V和LLaVA,通过额外的图片识别模块具备多模态能力,另外一种是GPT-4o和Gemini,模型原生就是多模态,可以更快地处理和生成多模态信息。
关于多模态模型的综述
对应的项目地址
RAG(Retrieval Augmented Generation,检索增强生成)是目前LLM应用落地的重要方向,主要的应用场景是企业客服系统和搜索结果结构化展示(代表作是Perplexity和秘塔)。RAG对数据的规范程度要求比较高,数据越规范,查询效果越好,结合树形结构或知识图谱结构的数据,RAG可以实现更好的效果。
开源RAG框架推荐:Cohere;Cognita
Agent翻译成中文是智能体的意思,是AGI的前奏。现阶段的Agent只能算工作流,什么时候Agent能根据用户要求直接创建好Agent,才算是真正的智能体。
目前好用的Agent平台是Coze和Dify
LLM有安全机制,会拒绝回答一些问题,LLM越狱可以让LLM按要求回答任何问题。
这个仓库收集了各个模型的越狱提示词:LLM越狱
个人电脑运行LLM,最大只能运行20B以下的模型,33B模型需要32G显存。比较适合本地运行的是Phi 3 Medium(14B)、LLaMA 3 8B、Mistral 7B。
推荐以下两个客户端:Ollama; LM Studio
目前可以预见的趋势:
• Scaling Law依旧有效,GPT-4在22年年中完成训练,GPT-5在24年年中完成训练,参数规模提升依旧可以提升性能;
• 原生多模态展露头角,GPT-4o的亮相,实现了实时语音交互,为语音助手的落地提供了技术支撑;
• 多token预测,Meta发布的多token预测方法,一次预测多个token而不是单个token,可以提升LLM的逻辑能力,很有发展前景;
本次AI浪潮来势汹汹,“AI会取代人类”、“会AI的人会淘汰不会AI的人”等说法广为传播,实际目前AI的能力非常早期,能取代的工作也非常有限,但是确实每个人都应该开始使用AI,因为能在不同程度上提升工作效率,尤其是翻译、文案写作、代码、速读等方面。
每天新的AI技术也层出不穷,新技术的发布甚至比你了解的速度还要快,我每天会跟进这些新的前沿技术,我的看法是,对于铺天盖地的新技术,尤其是部分媒体会冠以“震惊”、“颠覆”等夸张词汇的情况,完全不需要过度关注这些新技术,大部分都是研究性和概念性的,真正可应用的、需要你关注的总会以各种渠道推送到你的面前。
后面我也会分门别类写LLM、AI绘画、AI语音、AI视频对实际工作和创作可用的工作流。找到适合自己的AI工具,提升实际效率是目前最实际最有效的做法。
开发者在基于AI研发产品时,尽量避开大厂的研发方向,可能你辛辛苦苦研发的产品,不过是大厂的一次模型升级(例如GPT-4o对于语音交互的改变),我的建议是不做AI Native应用,而是基于已有产品跟AI结合,提升产品的护城河。
如果有需要,你可以在这里联系我
注:因个人公众号无法插入超链接,请点击最底部的“阅读原文”来查看文章中的链接。
微信扫一扫
关注该公众号