◦1950年,图灵测试的提出,为机器智能供应了一个评估标准。
◦1956年,达特茅斯会议标志着人工智能作为一门学科的正式出身。
◦1960年代,早期的AI研究集中在逻辑推理和问题办理上。
2.1980s:专家系统的兴起
◦专家系统的成功运用,如MYCIN在医学诊断领域的运用。
◦机器学习算法开始发展,如决策树和早期的神经网络。
3.1990s:机器学习的进展
◦反向传播算法的提出,极大地推动了神经网络的研究。
◦1997年,IBM的深蓝击败国际象棋天下冠军,展示了AI在策略游戏中的能力。
4.2000s:大数据和打算能力的提升
◦互联网的遍及带来了海量数据,为机器学习供应了丰富的演习素材。
◦打算能力的提升,尤其是GPU的广泛运用,加速了深度学习的发展。
5.2010s:深度学习革命
◦2012年,AlexNet在ImageNet竞赛中的胜利,标志着深度学习在图像识别领域的打破。
◦深度学习在语音识别、自然措辞处理等领域取得显著进展。
6.2017年:Transformer和自把稳力机制
◦2017年,Transformer模型的提出,引入了自把稳力机制,极大地提升了模型的性能。
◦Transformer模型在自然措辞处理任务中取得了革命性的成果,如BERT、GPT等模型。
7.2020s:大模型和多模态学习
◦大模型如chatGPT、Claude、Gemini、Llama、chatglm、Kimi等等都展示了强大的能力。
◦多模态学习的发展,如CLIP模型,能够理解和天生跨模态内容。
大模型的实质大模型是能够从海量数据中学习、利用这些数据进行推理,并利用这些推理来回答用户的问题或是实行特定的任务。大模型(如ChatGPT、LLM等)在人工智能领域中被广泛运用,其核心理念和事情事理可以总结为以下几个方面:
1. LLM的组成 - 两个文件大模型由以下两个关键部分构成:一个是 参数集,另一个是 实行代码。
•参数集:这是模型的"大脑",包含了通过演习学习到的神经网络权重。
•实行代码:这是模型的"引擎",包含用于运行参数集的软件代码,可以采取任何编程措辞实现。
演习大模型须要对大量互联网数据进行有损压缩,是一项打算量更大的任务,常日须要一个巨大的GPU集群。
有趣的是,你只须要一台标准的打算机就可以运行像Llama-3这样的LLM并得出推论。在本地做事器上运行,因此,乃至不须要互联网连接。
2. LLM的神经网络究竟在“想”什么 - 预测下一个单词大模型的核心功能之一是预测文本序列中的下一个单词:
•输入一个“部分”句子,如“cat sat on a”。
•利用分布在网络中的参数及其连接关系预测下一个最可能的单词,并给出概率。如“mat(97%)”
•仿照了人类措辞天生的办法,使得模型能够天生连贯和符合语境的句子,如天生完全的句子“cat sat on a mat”
模型根据它所得到的大量演习数据,天生“合理的延续”,即天生符合人类措辞习气的文本。
注:Transformer架构为这个神经网络供应了动力。
3. 神经网络“真正”的事情办法仍旧是个谜只管我们可以将数十亿个参数输入到网络中,并通过反复微调演习这些参数,从而得到更好的预测效果,但我们并不完备理解这些参数在网络中是如何准确协作的,以及为什么它们能够天生如此准确的回答。科学上,这种征象被称为呈现。
我们知道,这些参数构建并掩护了某种形式的知识数据库。然而,这种数据库有时表现得既奇怪又不完美。例如,一个大型措辞模型(LLM)可能会精确回答“谁是小明的母亲?”这个问题,但如果你问它“X的儿子是谁?”,它可能会回答“我不知道”。这种征象常日被称为递归谩骂。
4. 演习大模型的步骤预演习,演习须要对大量互联网数据进行有损压缩,输出参数文件
•网络大量互联网文本数据。
•准备强大的打算资源,如GPU集群。
•实行演习,天生基本模型。
微调阶段:
•准备高质量的演习数据,如问答对。
•在这些数据上调度模型参数,优化性能。
•进行评估和支配,确保模型达到预期效果。
微调阶段 - 比较
对付每个问题,人工标注者都会比较赞助模型的多个答案,并标注出最佳答案。这一步骤称为从人类反馈中强化学习(RLHF)。
5. 模型性能提升1.模型越大,能力越强:
◦参数量:模型的规模常日与其参数量成正比。参数是模型学习到的知识的载体,参数越多,模型能够捕捉的信息和模式就越丰富,从而能够处理更繁芜的任务。
◦学习能力:大模型常日拥有更强的学习能力。它们能够从大量数据中学习到更深层次的特色和规律,这使得它们在诸如自然措辞处理、图像识别等任务上表现更佳。
◦泛化能力:大模型每每有更好的泛化能力,即在面对未见过的数据时,也能做出准确的预测和判断。
2.工具越多,能力越强:
◦功能扩展:为AI模型供应各种工具,可以使其功能得到显著扩展。例如,集成搜索引擎可以让模型访问互联网信息,增强其回答问题的能力。
◦多任务处理:工具的集成使得AI模型能够同时处理多种任务。例如,集成打算器功能可以让模型实行数学打算,集成编程接口则可以让模型编写代码。
◦灵巧性温柔应性:拥有多种工具的AI模型更加灵巧温柔应性强,能够根据任务需求快速调度其行为和策略。类似于人类通过利用工具办理各种任务。
面临的问题幻觉幻觉问题指的是大模型在天生文本时可能会产生与现实天下事实不一致的内容。这种征象可以分为几种类型:
1.事实性幻觉(Factuality Hallucination):模型天生的内容与可验证的现实天下事实不一致。大模型可能天生听起来合理但实际上缺点的信息,例如,天生一篇关于一个不存在的历史事宜的文章,模型可能天生一篇关于“拿破仑在月球上宣告法国胜利”的文章,只管这在现实中从未发生过。
2.虔诚性幻觉(Faithfulness Hallucination):模型天生的内容与用户的指令或高下文不一致。例如在一个关于康健饮食的谈论中,模型可能溘然开始谈论健身运动,只管这与用户的问题不直接干系。
产生幻觉的缘故原由可能包括:
•利用的数据集存在缺点信息或偏见。
•模型过度依赖演习数据中的模式,可能导致缺点的关联。
•预演习阶段的架构毛病,如基于前一个token预测下一个token的办法可能阻碍模型捕获繁芜的高下文关系。
•对齐阶段的能力错位,即模型的内在能力与标注数据中描述的功能之间可能存在错位。
为了缓解幻觉问题,研究者们提出了多种方法,如改进预演习策略、数据清理以肃清偏见、知识编辑、检索增强天生(RAG)等。
安全性问题安全性问题涉及大模型可能遭受的恶意攻击和滥用,以及它们对用户隐私和数据安全的潜在威胁:
1.对抗样本攻击:攻击者可能布局分外的输入样本,导致模型做出错误的预测。
2.后门攻击:在模型中植入后门,使得在特定触发条件下模型表现出非常行为。
3.成员推断攻击:攻击者考试测验推断出演习集中是否包含特定的数据点。
4.模型盗取:通过查询模型来复制其功能,陵犯模型版权。
5.数据隐私透露:模型可能透露演习数据中的敏感信息。
为了提高大模型的安全性,业界和研究界正在探索多种安全防护策略,包括:
•加强数据的采集和洗濯过程,确保数据质量和安全性。
•对模型进行加固,提高其抗攻击能力。
•采取加密存储和差分隐私技能来保护数据隐私。
•增强模型的可阐明性,以便更好地理解和掌握模型行为。
干系技能Prompt Engineering (提示词工程)是什么提示词(prompt)是人与大模型交互的主要媒介。因此,对提示词的节制、利用、研究,便具有非常重大的意义。从人机交互出发,将大模型视为一种分外的、很强大的打算设备,那么,提示词之于我们:“prompt是一种新型的自然用户界面”。
大多数的prompt具有以下的形式:由「指令」(instruction)和「内容」(content)两部分构成。个中,指令部分为我们须要大模型做的事,如“判断下列句子的情绪”,而内容则为真正的句子,如“我本日很高兴”。把稳,并不是所有的prompt都必须是这样的形式,如比较简短的prompt:“中国的都城在哪里”、“模拟百年孤独的开头写一段话”等这种言简意赅的prompt就只有指令、内容为空。
Prompt的不同分类Prompt千变万化、不可名状,其紧张由以下几种常见形式构成:
•Zero-shot prompt:零样本的prompt。此为最常见的利用形式。之以是叫zero-shot,是由于我们直接用大模型做任务而不给其参考示例。这也被视为评测大模型能力的主要场景之一。
•Few-shot prompt:与zero-shot相对,在与大模型交互时,在prompt中给出少量示例。
•Role prompt:与大模型玩“角色扮演”游戏。让大模想象自己是某方面专家、因而得到更好的任务效果。
•Instruction prompt:指令形式的prompt。
•Chain-of-thought prompt:常见于推理任务中,通过让大模型“Let's think step by step”来逐步办理较难的推理问题。
•Multimodal prompt:多模态prompt。顾名思义,输入不再是单一模态的prompt,而是包含了浩瀚模态的信息。犹如时输入文本和图像与多模态大模型进行交互,现在的4o就能做到。
Prompt技巧(后续章节详解)Prompt或许并不是人类与大模型进行交互的唯一和最好的办法,但一定是当下利用最多的办法。
RAG(Retrieval-Augmented Generation)什么是RAGRAG(Retrieval-Augmented Generation)技能是一种结合检索和天生的方法,用于提升大措辞模型(LLM)在知识密集型任务中的性能。通过一个两阶段的过程提升LLMs的输出质量:
•检索(Retrieval)阶段,可以从各种数据源检索干系信息;
•天生(Generation)阶段,将检索到的文档与原始查询,形成提示模板,一起输入到天生模型中,产生终极的回答。
这种方法使模型拥有了利用实时和外部的知识库(非演习时利用的数据)的能力,提高了其在特定问题处理上的灵巧性和准确性。
RAG办理什么问题大型措辞模型(LLM)虽然在多个领域展现出了卓越的性能,但在实际业务场景中仍面临一些寻衅:
•知识的局限性:LLM的知识仅限于其演习数据,对付实时性、非公开或离线数据的获取存在困难。
•幻觉问题:基于概率的输出可能导致模型天生不准确的信息。
•数据安全性:企业对付数据透露风险的担忧限定了对第三方平台的依赖。
为理解决这些问题,RAG作为一套有效的办理方案应运而生。
RAG事情事理分为三个部分:索引、检索、天生。
1.索引 Indexing:处理外部知识源,将知识源分割为chunk,编码为向量,存储在向量数据库 Vetor-DataBase 中。
2.检索 Retrieval: 接管用户问题,将问题编码为向量,用这些向量去向量数据库中找到最干系的文档库 top-k chunks。
3.天生 Generation: 将检索到的文档与原始问题一起作为提示 (Promot)输入到LLM中,天生回答。
RAG的上风•知识丰富:RAG能够访问和利用大量的外部知识,供应更全面的回答。
•高下文干系性:通过检索到的信息,RAG能够天生与用户查询高度干系的相应。
•灵巧性:适用于问答系统、内容创作等多种运用处景。
•减少幻觉:结合实际数据,降落天生缺点信息的风险。
RAG 的运用处景•问答系统:RAG可以用于问答系统,个中检索模型可以根据用户的问题从大规模的文本数据库或者互联网中检索干系答案,天生模型则可以将检索到的信息转化为自然措辞的回答。
•文本择要:RAG可以用于文本择要任务,个中检索模型可以检索与原文干系的择要信息,天生模型则可以基于检索到的信息天生更准确和完全的择要。
•对话系统:RAG可以运用于对话系统,个中检索模型可以检索与对话历史干系的信息,天生模型则可以基于检索到的信息天生更连贯和准确的回答。
•事实核查:RAG 可以帮助识别和天生基于证据的阐明,以验证陈述的真实性。
•内容推举:在推举系统中,RAG 可以根据用户的历史行为和偏好,检索并天生个性化的内容推举。
RAG 是一种强大的技能,但它也有一些局限性,比如对检索系统性能的依赖,以及可能天生的答案质量受限于检索到的文档片段的质量。随着技能的进步,RAG 及其变体在处理繁芜的认知任务方面展现出了巨大的潜力。
Agent智能体为什么涌现LLM Agent近年来,人工智能(AI)和自然措辞处理(NLP)技能迅猛发展,特殊是大型措辞模型(LLM)的涌现,如 OpenAI 的 GPT 系列。这些模型展示了在各种任务中的卓越表现,从文本天生到对话系统。然而,只管 LLM 拥有强大的处理和理解能力,它们的运用仍旧须要进一步的优化和详细化。LLM Agent 的涌现正是为理解决这些需求,实现更灵巧、更智能的自动化任务处理。
1.繁芜任务需求:传统的 AI 系统在处理繁芜任务时每每须要大量的领域知识和手工调试。LLM Agent 通过预演习模型和少量的微调,可以更好地适应各种繁芜任务。
2.人机交互提升:随着用户对付智能助手和对话系统的需求不断增加,LLM Agent 可以供应更自然、更流畅的交互体验。
3.自动化和效率:在企业和个人生活中,自动化任务需求逐渐增加。LLM Agent 能够通过自然措辞指令实行多种任务,提升效率。
LLM Agent是什么大略来说,LLM Agent是基于大型措辞模型(如GPT-4)开拓的智能代理。它不仅能理解和天生自然措辞,还能实行一系列繁芜的任务,如回答问题、天生文本、进行对话等。想象一下,你的打算机能够像人类一样理解你的问题并供应有用的答案。
LLM充当 Agent 大脑的角色,并由几个关键组件组成:方案(Planning)、影象(Memory)、工具(Tool Use)
•方案
◦子目标拆解:繁芜任务不是一次性就能办理的,须要拆分成多个并行或串行的子任务来进行求解,任务方案的目标是找到一条最优的、能够办理问题的路线。
◦反思和完善:智能体可以对过去的行为进行自我批评和自我反思,从缺点中吸取教训,并针对未来的步骤进行完善,从而提高终极结果的质量。
•影象
◦短期影象:所有的高下文学习(提示词工程)都是利用模型的短期影象来学习。
◦长期影象:为 Agent 供应了永劫光保留和回顾(无限)信息的能力,常日是通过利用外部向量存储和快速检索。
•工具
◦调用外部 API 来获取模型权重中缺失落的额外信息(常日在预演习后很难变动),包括当前信息、代码实行能力、对专有信息源的访问等。
LLM Agent 的上风1.高效性:LLM Agent 可以快速理解和处理自然措辞指令,减少了任务处理的韶光和繁芜度。
2.灵巧性:通过少量的微调,LLM Agent 可以适应不同的运用处景,从而具有很高的灵巧性。
3.用户体验提升:得益于强大的自然措辞处理能力,LLM Agent 能够供应更加自然和智能的交互体验,提升用户满意度。
4.可扩展性:LLM Agent 可以不断学习和扩展新的功能和知识,使得它在长期利用中表现越来越好。
LLM Agent 的运用•自动化客服:LLM Agent可以供应24/7的客户做事,自动回答用户的查询,提高做事效率和用户满意度。
•内容创作:从博客文章到营销文案,LLM Agent可以帮助内容创作者天生初稿或供应写作灵感。
•数据剖析与择要:LLM Agent可以从大量文本数据中提取关键信息,天生报告择要,帮助决策者快速获取信息。
•教诲和培训:在教诲领域,LLM Agent可以供应个性化的学习材料,赞助措辞学习,或者作为智能辅导员。
•研究助手:对付研究职员,LLM Agent可以帮助文献搜索、信息整理,乃至参与创造性的研究过程。
多模态多模态定义什么是多模态呢?大略来说,多模态就像是一个多才多艺的艺术家,能够同时利用多种艺术形式来创作作品。在AI领域,多模态模型能够同时处理和理解多种类型的数据,比如笔墨、图像、声音和视频。
为什么须要多模态为什么我们须要能够处理多种数据类型的AI模型呢?缘故原由很大略:我们的天下是多模态的。我们互换和感知天下不仅仅通过措辞,还包括视觉、听觉等多种办法。多模态模型能够更全面地理解和仿照人类的互换和感知办法,使得AI能够更自然地与人类互动。
多模态的浸染和特点多模态模型就像是我们的大脑,能够同时处理和理解来自眼睛(视觉信息)、耳朵(听觉信息)和其他感官的数据。浸染紧张表示在以下几个方面:
1.信息整合:能够将不同类型的信息整合在一起,提高理解和剖析的准确性。
2.增强表现力:通过结合多种数据源,模型可以表现出更强的感知和认知能力。
3.提高鲁棒性:多模态模型可以在某种类型数据缺失落或不完全的情形下,依赖其他数据类型来填补,从而提高整体性能。
与单一模态的模型比较,多模态模型具有以下特点:
1.多源数据处理:能够同时处理图像、笔墨、声音等多种数据类型。
2.更强的泛化能力:在不同的运用处景下表现更好,由于它们能够整合更多的信息。
多模态模型的运用案例多模态模型在很多领域有着广泛的运用。以下是几个范例的例子:
1.医疗诊断:通过结合病人的影像数据(如X光片)、笔墨数据(病历)和生理数据(心电图),多模态模型可以供应更准确的诊断结果。
2.自动驾驶:多模态模型可以结合摄像头图像、雷达数据和GPS信息,帮助自动驾驶汽车更好地理解周围环境,提高安全性。
3.智能客服:通过整合语音识别、自然措辞处理和情绪剖析,多模态模型可以供应更自然、更人性化的客服做事。
多模态大模型是人工智能领域的主要进展,它们通过整合多种类型的数据,显著提升了模型的表现力和鲁棒性。这不仅使得人工智能系统能够更好地理解繁芜的现实天下,也为未来的技能发展带来了无限可能。无论是在医疗、交通还是日常生活中,多模态大模型正逐步改变我们的生活办法。
运用实例(大略列举)斯坦福小镇
文生图 图生图 图生视频
LLM OS上古卷轴破解
未来随着AI技能的不断创造和进步,AI与人类的协同关系将不断演进和深化。我们期待着在未来,AI能够成为我们最得力的助手和伙伴,共同欢迎更加智能和高效的未来。我们可以预见以下几个趋势:
•更高的自主性:AI将逐步从赞助工具发展为能够独立完成繁芜任务的智能代理。这将解放人类的生产力,使我们能够专注于更具创造性和计策性的事情。
•更紧密的协同:AI与人类的协同办法将更加多样化和灵巧化。通过改进人机交互界面和协同算法,AI将能够更好地理解人类的意图和需求,实现更高效的互助。
•广泛的运用处景:AI技能将渗透到各行各业,从医疗、教诲到金融、制造业,AI将成为推动行业变革的主要力量。特殊是在Agent模式下,AI将能够在更多领域中自主完成任务,带来前所未有的效率提升和创新机会。
转载请注明:片头模版 » 大年夜模型技能及趋势总结