在国内,人工智能现在发展到什么地步了?

栏目:旅游资讯  时间:2023-08-16
手机版

  人工智能,这个越来越热的话题,但生活中,除了智能手机的更新换代,貌似并没有出现大面积推广应用。就目前国内来说,人工智能现在到底发展到什么地步了?未来对我们生活的影响主要会体现在哪些方面?

  人工智能是个很大的概念,在各行各业都会有应用场景,每个行业也都在做努力。

  所谓人工智能在应用维度上,主要分为交互智能和协作智能

  交互智能

  包括语音、人脸、动作识别等,只要是对人的智能,可以通过智能深入准确的理解人,从而为人提供服务。国内做的好的只有阿里一家,我们之前对接方案,用了科大讯飞和阿里的,科大讯飞跟屎一样,渣的不行(不黑,很客观的讲),科大讯飞真的是废了,养老的地方;阿里的识别率高5-9%个百分点,其他的什么格林深瞳之类的不了解,不评论。

  协作智能

  这块比较多,主要针对产品和服务进行智能改造,提升服务质量和效率,降低成本。例如智能家居、智能汽车、智能医疗。协作智能目前处于第二阶段,过了第一阶段的探索期,进入一个小高潮,大概能持续到2020年,之后将进入第三阶段平稳期,第四阶段才能称之为真正的人工智能。

  题外话:依稀记得毕业的那边,14、15年智能电视火的一塌糊涂,乐视和小米拔得头筹,我当时的公司也在做这个,说实在的,加个Xbox,加个语音输入就完事了,说智能也太搞笑了,受限于技术的更新迭代,没有本质的变化,无非是换了一套安卓系统,加点所谓的人性化交互。

  同理,人工智能大约也处于比当年的智能电视还高一点的阶段,就是技术即将有新的突破,还处于萌芽期,不过相信不会太久了

  不是从业者,不清楚啊。但是在人机接口和能源存储的问题解决前,并不看好AI的发展。

  我们一直以为中国会快速进入人工智能时代,但刚刚看了一条视频华为老总说;人工智能在中国还是起步阶段,不可能发展很快。人工智能的发展是需要大量的计算力的,需要很多数学家。要大量超级的计算机,超级链接能力。和超级的程序器,对这些我们似懂非懂的。但任总这么说了,可想而知我们还真可能还在初级学习阶段。

  

  因为我们看到接触到了,我感觉就像录音机。播放器之类的东西,我更觉得它就是一些商家蹭热点,来以人工智能的名头来‘割韭菜’的,你比如;网上卖的人工智能小人,陪你聊有的还放歌。不太大也不贵,你不觉得那就是玩具吗?只不过现在不是小孩子玩了。比较大点的小孩也开始玩了,

  

  你说它是机器人也没错,还没凳子高的人工智能。知识语音识别功能,放歌的小度那算机器人吗?现在很多年轻人都在用,如果单纯的一款音响商家不会买的那么好。我觉得我的音响虽然不是智能的,但是我还是喜欢我这个实木的音响,如果你们把这么弱的东西都称为人工智能。那人工智能也太弱了吧,与我们看的科幻电影里,真的简直没法比。

  

  最起码这个人工智能机器人,真的能解决你生活中很多东西。我觉得才符合我们想象中的预期,在这里希望能有一个真正能为人民着想的科学家,研究个机器人陪同盲人过马路。陪同逛街的机器人也好啊,而不是研究没人开的车,出去还不保准能不能撞人。虽然商人在商言商,但做个有良心的商人才更受欢迎,我们大部分普通人听一些商家的宣传。我们就特别感到自豪

  

  我们期待的人工智能时代是什么时候到来啊,自媒体的出现有一点小事迅速让全国人都能知道。我觉得商人还是不要经常炒作了,利用你们资本实实在在的搞搞研究的更好。把真正的服务放在人民身上,放在贡献国家上,只有中国更加繁荣富强。商人才更有机会赚更多的钱,期待扶着盲人的是人工智能机器人,而不是警察叔叔。

  人工智能 | 深度学习 | GPT-4

  文心一言 | 机器学习 | ChatGPT

  近日,随着ChatGPT-4和百度的文心一言的出台,人工智能技术得到迅猛发展。人工智能(AI)是一种模拟人类智能的技术,它可以通过学习和自我改进来执行各种任务。ChatGPT是一种基于AI的聊天机器人,它可以与人类进行自然语言交互,回答问题和提供信息。

  人工智能是通过模拟人类大脑的方式来工作的。它使用算法和数据来学习和自我改进,以便更好地执行任务。人工智能可以分为弱人工智能和强人工智能。弱人工智能是指只能执行特定任务的AI,例如语音识别或图像识别。强人工智能是指可以像人类一样思考和决策的AI。

  2023年政府工作报告指出“过去五年极不寻常、极不平凡,我们经受了世界变局加快演变、新冠疫情冲击、国内经济下行等多重考验,经济社会发展取得举世瞩目的重大成就。”聚焦到科技领域,“全社会研发经费投入强度从2.1%提高到2.5%以上,科技进步贡献率提高到60%以上。科技创新成果丰硕,人工智能领域的创新成果也不断涌现。”

  纵览人工智能产业近年发展,虽然一定程度上突破了深度学习等各类算法革新、技术产品化落地、应用场景打磨、市场教育等难点;但如今也仍需致力解决可信、业务持续、盈利、部署的投资回报率等商业化卡点。

  聚焦于2022年,这一历史上极为重要一年中我国AI产业参与者的特征表现、探讨AI产业在我国经济发展中的价值与地位、洞察各技术赛道参与者的发展路径与产业进阶突破点。

  

  一、人工智能参与社会建设的千行百业——价值性、通用性、效率化为产业发展战略方向

  人工智能已成为推动产业发展的主流趋势,其产品形态和应用边界不断拓宽,包括软件服务、云服务、硬件基础设施等形式,应用场景涵盖消费、制造业、互联网、金融、元宇宙和数字孪生等领域。据艾瑞预测,到2022年,我国人工智能产业规模将达到1958亿元,同时,人工智能产学研界在通用大模型、行业大模型等方向上取得了一定突破,促进技术通用性和效率化生产。AI技术的商业价值塑造、通用性提升和效率化应用是其助力产业发展、社会进步和自身造血的关键。

  

  二、企业积极部署AI战略以实现业务增长——对AI应用的比率及数量持续走高; AI提升营收能力进步

  纵观近五年来的AI技术商业落地发展脉络,产品及服务提供商围绕技术深耕、场景创新、商业价值创造、精细化服务不断努力;需求侧企业也在从单点试验、数据积累到战略改革的发展路线上,与AI技术逐渐深度绑定。AI成为企业数字化、智能化改革的重要抓手,也是各行业领军企业打造营收护城河的重要方向。

  麦肯锡2022年对企业应用AI技术的调研表明:相较于2017年的20%,2022年企业至少在一个业务领域采用AI技术的比率增加了一倍多,达到50%;应用的AI产品数量也从2018年的平均1.9个增加到2022年的3.8个。除了应用数量上的提升,AI产生的商业价值也不断增长,企业部署AI的动力显著。

  埃森哲商业研究院针对中国250家领先企业的调研显示,2018-2021年,企业营收中“由AI推动的份额”平均增加了一倍,预计到2024年将进一步增加至36%。落地AI应用对企业业务运营的商业价值与战略意义越来越明确。

  三、城市算脑建设推动区域发展与产业升级——各地加速布局区域智算中心,夯实AI算力基础设施

  基于对支撑AI应用及研发的智能算力需求扩大、以及全国算力枢纽一体化和“东数西算”的工程建设方向。近两年来,各地对人工智能计算/超算中心(智算中心)的关注度和投资增多。智算中心是指基于最新AI理论,采用领先的AI计算架构,提供AI应用所需算力服务、数据服务和算法服务的公共算力新型基础设施。目前,我国有超过30个城市建设或提出建设智算中心,其中已有近10个城市的智算中心投入运营,为当地各行业领域提供算力支撑。智算中心建设对区域经济发展和产业升级有明显推动作用,同时可提高城市治理智能化水平和城市竞争力。从政府投资角度看,智算中心产业发展尚处于初期阶段,建设、运营、应用推广与生态建设、节能环保要求等投入较大,需结合地方财政能力合理评估,根据实际需求适度超前部署机柜。

  

  四、政策引导解决AI重大应用和产业化问题——着力打造人工智能重大场景,形成可复制推广的标杆应用

  尽管我国在数据、算力、算法及模型的基础层资源与研究积累日益丰富,为开展下游人工智能场景创新应用打下了坚实基础,但在应用场景上仍存在“对场景创新认识不到位,重大场景系统设计不足,场景机会开放程度不够,场景创新生态不完善”等问题。为此,2022年,我国陆续出台一系列指导意见及通知,持续加强对人工智能场景创新工作的统筹指导,规范与加强人工智能应用建设,实现AI与实体产业经济的深度融合。其中,政策引导是解决AI重大应用和产业化问题的重要手段之一。着力打造人工智能重大场景,形成可复制推广的标杆应用,是政策引导的重要方向之一。通过政策引导,加强对人工智能场景创新工作的统筹指导,规范与加强人工智能应用建设,将有助于实现AI与实体产业经济的深度融合。

  

  五、科技伦理治理持续引导AI “向善”——全球AI伦理治理迈入法治时代,我国积极倡导框架规范

  随着人工智能与社会产业的融合应用,其带来的安全、法律和伦理方面的风险不容忽视。2022年,科技伦理治理的约束力和影响力持续提升。从全球范围来看,主要发达国家和地区的人工智能伦理治理从政策建议正式进入法律范畴,相关立法逐步完善,国际组织也在凝聚共识的基础上,启动大规模深入研讨。而在中国,在吸取发达国家治理经验和思路的基础上,2022年首次将人工智能伦理治理上升到国家政策层面,提出科技伦理治理的原则和行动方案,具体治理举措将会不断细化和完善。同时,我国也在科技伦理问题上通过国际组织积极表态,增强国际影响力和话语权,防止在科技伦理问题上陷入被动。

  

  六、人工智能产业投资热度仍在——融资向中后期过渡,视觉赛道上市浪潮涌动

  人工智能产业一直是投资市场的热门领域,而最近的数据显示,这一趋势仍在持续。统计数据显示,Pre-A~A+轮人工智能产业创投轮次数量最多,但整体而言,Pre-B~B轮+及以后轮次的人工智能产业创投数量逐渐成长,资本流向稳定发展企业,融资逐渐向中后期过渡。此外,视觉赛道上市浪潮也在涌动,商汤科技、格灵深瞳、云从科技、创新奇智等企业都已实现上市目标。虽然2022年我国人工智能产业资本市场投资金额整体缩水,但投资标的更加丰富,孵化出AIGC、元宇宙、虚拟数字人等新投资赛道,认知与决策智能类企业也吸引更多关注,智能机器人、自动驾驶两类无人系统是融资的热门赛道。

  

  七、区域与独角兽企业融资分布特点——北上广与江浙地带融资密度高;独角兽企业聚集于自动驾驶、医疗、工业、芯片赛道

  从区域分布看,统计时间内融资事件集中分布于北上广、江浙地带。北京的融资事件密度最高,融资事件数量占全国的31.1%。除北上广、江浙地带以外区域融资密度较低且分散,相应融资事件数量占全国不超过10%。这可能是因为北上广、江浙地带人工智能人才密集、具备产业园区进行产学研成果转化、风投机构密布等因素,为孵化创投项目提供了有利条件。

  从独角兽企业融资情况看,统计时间内独角兽企业占比6.7%,但对应的融资金额比例高达32.3%。独角兽融资事件集中分布于自动驾驶、医疗、工业、芯片行业赛道,分别孵化出L3及以上智能驾驶解决方案、AIDD药物研发服务、工业机器人、云端大规模训练或端侧推理芯片等产品或服务。随着市场资金向独角兽企业持续流入,AI产业未来或将逐步出现一批明星上市企业。

  

  八、人工智能产业市场规模——2022年市场平稳向好,市场规模近2000亿元

  根据艾瑞的定义,我国人工智能产业规模涵盖AI应用软件、硬件及服务,主要包括AI芯片、智能机器人(商用)、AI基础数据服务、面向AI的数据治理、计算机视觉、智能语音与人机交互、机器学习、知识图谱和自然语言处理等核心产业。预计到2022年,中国人工智能产业规模将达到1958亿元,年增长率为7.8%,整体平稳向好。2022年的业务增长主要依靠智算中心建设以及大模型训练等应用需求拉动的AI芯片市场、无接触服务需求拉动的智能机器人及对话式AI市场,除此之外的增长动力将在第三章详细阐述。目前,中国大型企业基本都已在持续规划投入实施人工智能项目,未来随着中小型企业的普遍尝试和大型企业的稳健部署,在AI成为数字经济时代核心生产力的背景下,AI芯片、自动驾驶及车联网视觉解决方案、智能机器人、智能制造、决策智能应用等细分领域增长强劲。预计到2027年,人工智能产业整体规模可达6122亿元,2022-2027年的相关CAGR为25.6%。

  

  一、AI芯片

  1、AI芯片针对机器学习算法设计开发,广泛应用于云、边、端各类场景

  AI芯片(AI Chip)是一种专门用于处理人工智能相关的计算任务的芯片。它的架构是专门为人工智能算法和应用进行优化的,能够高效地处理大量结构化和非结构化数据。AI芯片能够高效地支持视觉、语音、自然语言处理等智能处理任务。目前,AI芯片主要分为GPU、FPGA、TPU、IPU、DPU、NPU等类型。AI芯片广泛应用于云端、边缘端、终端等各种场景。云端AI芯片具有高性能特征,终端AI芯片具有低功耗和高能效特性,而边缘端AI芯片的性能介于云端和终端之间。

  

  2、AI芯片性能指标评价评价AI芯片性能需重点关注TOPS/W、时延、功耗等相关指标

  目前,评价AI芯片性能的指标主要包括TOPS、TOPS/W、时延、成本、功耗、可扩展性、精度、适用性、吞吐量和热管理等。其中,TOPS/W是用于度量在1W功耗的情况下,芯片能进行多少万亿次操作的关键指标。近年来,MIT、Nvidia等研发人员开发了专门的芯片软件评价工具,如Accelergy(评估芯片架构级能耗)和Timeloop(评估芯片运算执行情况),对于AI芯片的性能做出了系统、全面评价。此外,MLPerf是由来自学术界、研究实验室和相关行业的AI领导者组成的联盟,旨在“构建公平和有用的基准测试”,可用于衡量深度学习软件框架、AI芯片和云平台性能。

  

  3、AI芯片:云端场景数据中心

  1)GPU具备矩阵和大规模并行计算优势,适合数据中心场景

  CPU是一种通用处理器,它由控制单元(负责指令读取和指令译码)、存储单元(包括CPU片内缓存和寄存器)以及运算单元(ALU约占20%CPU空间)三个主要模块组成。然而,由于成本、功耗、技术难度和算力瓶颈等问题的限制,目前还没有出现适用于AI高算力要求的主流CPU产品。

  相比之下,GPU是一种由大量核心组成的大规模并行计算架构,它具有较多的运算单元(ALU)和较少的缓存(cache),是专门为同时处理多重任务而设计的芯片。GPU拥有良好的矩阵计算能力和并行计算优势,能够满足深度学习等AI算法的处理需求,因此成为主流云端AI芯片。

  

  2)张量计算单元是GPU进行深度学习运算的核心组成部分

  英伟达A100芯片是一种并发多核处理器,由多个SM单元(Streaming Multiprocessors,流式多处理器)构成。不同的SM单元共享L2 Cache存储资源,以便进行数据访问。该芯片采用安培架构,拥有128个SM核,其中SM结构是芯片架构升级的核心。此外,英伟达GPU架构中还设置了Tensor Core,这是专为深度学习矩阵运算设计的张量计算单元,也是英伟达GPU系列深度学习运算加速的核心。Tensor Core主要处理大型矩阵运算,执行一种专门的矩阵数学运算,适用于深度学习和某些类型的高性能计算。其功能是执行融合乘法和加法的运算,其中两个4*4 FP16矩阵相乘,然后将结果添加到4*4 FP32或FP64矩阵中,最终输出新的4*4 FP32或FP64矩阵。

  

  4、边缘端场景—AIoT。边缘端集成AI芯片可以实现本地化数据的实时处理

  AIoT是一种融合了人工智能和物联网技术的新型智能化系统,它可以实现万物智联,涉及到安防、移动互联网等多种场景。在智慧安防方面,由于终端摄像头每天产生大量的视频数据,若全部回传到云数据中心将会对网络带宽和数据中心资源造成极大占用。为了解决这个问题,可以在终端加装AI芯片,实现数据本地化实时处理,即仅将经过结构化处理、关键信息提取后带有关键信息的数据回传云端,从而大大降低网络传输带宽压力。目前,主流解决方案是在前端摄像头设备内集成AI芯片,在边缘端采用智能服务器级产品,后端在边缘服务器中集成智能推理芯片。为了推动这项技术的发展,国内外企业正在加大对边缘端AI视觉处理芯片的研发和投入,相关芯片产品如英伟达Jetson AGX Xavier、地平线旭日3、华为海思Hi3559A V100等。

  

  5、终端场景—智能驾驶。随着智能驾驶等级的提高,技术不断迭代促使车用AI芯片性能逐步增强

  SAE(国际自动机工程师学会)将自动驾驶分为六个级别,从L0(非自动化)到L5(完全自动化)。每一级别需要强大的算力进行实时分析、处理大量数据和执行复杂的逻辑运算,对计算能力有着极高的要求。L1(驾驶员辅助)和L2(部分自动化)需要的计算能力相对较低,而L3(有条件自动化)需要约250TOPS的计算能力,L4(高度自动化)需要超过500TOPS,L5(全场景自动驾驶)需要超过1,000TOPS。随着芯片设计和制造工艺的提高,车用AI芯片正朝着高算力、低功耗的方向发展。

  

  6、终端场景—智能驾驶。预计到2025年,全球车用AI芯片市场规模将突破17亿美元

  随着汽车控制方式逐渐由机械式转向电子式,每辆汽车对车用AI芯片需求提升,带动车用AI芯片长期发展。据市场研究机构Yole预测,到2025年,全球车用AI芯片产量将达到67.19亿颗,市场规模将达到17.76亿美元,年复合增速分别达到99.28%和59.27%。此外,车用AI芯片逐渐往高能效方向发展。例如,英特尔计划于2022年推出EyeQ Ultra自动驾驶汽车芯片,该芯片基于经过验证的Mobileye EyeQ架构而打造,含有8个PMA、16个VMP、24个MPC、2个CNN Accelerator视觉处理单元(VPU),通过优化算力和效能以达到176TOPS,可满足L4自动驾驶场景。该产品将于2023年底供货,预计在2025年全面实现车规级量产。

  

  7、终端场景—消费电子。2026年全球消费电子AI芯片市场规模将突破55亿美元

  AI芯片在图像识别、语音识别和快速建立用户画像等方面具有重要作用。根 据Yole预测,2026年全球消费电子AI芯片市场规模将达到55.8亿美元,其中笔记本电脑、平板电脑和智能手机AI芯片渗透率将分别达到100%、100%和91%, 未来全球消费电子AI芯片市场规模和渗透率呈现逐步增长态势。

  

  二、深度学习开源框架

  深度学习开源框架是一种标准接口、特性库和工具包,用于设计、训练和验证AI算法模型。它们集成了数据调用、算法封装和计算资源的使用,是AI开发的重要工具。目前,国际上广泛使用的深度学习开源框架包括Google TensorFlow、Facebook PyTorch、Amazon MXNet和微软CNTK等。在中国,也有一些深度学习开源框架,如百度PaddlePaddle、华为MindSpore等。这些框架已经初步应用于工业、服务业等场景,服务200余万开发者。

  

  三、数据服务以AI训练与调优为目的,涉及数据采集、标注与质检等环节

  人工智能数据服务是指提供数据库设计、数据采集、数据清洗、数据标注和数据质检等服务,以满足客户的需求。这个服务流程是围绕客户需求展开的,最终产出的产品是数据集和数据资源定制服务,为AI模型训练提供可靠、可用的数据。随着短视频、直播、社交电商等应用的快速兴起,全球数据量也在快速增长。根据IDC的预测,全球数据量将从2015年的9ZB增加到2025年的175ZB,这为人工智能技术的持续迭代提供了重要的底层基础。

  

  四、云计算服务显著降低人工智能算法开发成本,缩短产品开发周期

  由于人工智能的开发和应用对于算力和数据有较大需求,云计算服务可以为开发者提供智能服务器集群等强大算力设施的租用。同时,云计算服务还可以直接提供已经训练好的人工智能功能模块等产品,通过多元化的服务模式,降低开发者的开发成本和产品开发周期,为客户提供AI赋能。

  例如,亚马逊SageMaker可以提供图片/图像分析、语音处理、自然语言理解等相关服务。使用者无需了解参数和算法即可实现功能的应用。随着底层技术的发展,IBM推出深度学习即服务(DLaaS),借助此项服务用户可以使用主流框架来训练神经网络,如TensorFlow、PyTorch及Caffe。用户无需购买和维护成本高昂的硬件,每一个云计算处理单元都遵循简单易用的原则而设置,无需用户对基础设施进行管理。用户可以根据支持的深度学习框架、神经网络模型、训练数据、成本约束等条件进行挑选,然后DLaaS服务会帮助完成其余的事情,提供交互式、可迭代的训练体验。

  

  机器学习作为人工智能技术的核心,近年来实现了明显的突破。它与计算机视觉、自然语言处理、语音处理和知识图谱等关键技术紧密结合,相关机器学习算法主要应用于图像分类、语音识别、文本分类等相关场景中。这些应用场景的不断发展和完善,不仅提升了人工智能技术的整体应用效果,也使得人工智能技术在金融、医疗、交通等各领域实现了广泛的应用。

  

  一、机器学习

  机器学习是实现人工智能的核心方法,专门研究计算机如何模拟/实现生物体的学习行为,获取新的知识技能,利用经验来改善特定算法的性能。根据学习范式的不同,机器学习可划分为有监督学习、无监督学习、强化学习三类。有监督学习是指通过给计算机提供标注数据,让计算机学习如何将输入映射到输出的过程。无监督学习则是指在没有标注数据的情况下,让计算机自行学习数据的特征和结构。强化学习则是通过让计算机在与环境的交互中不断试错,从而学习如何最大化奖励的过程。深度学习是机器学习算法的一种,具有多层神经网络结构,其在图像识别、语音处理等领域取得了划时代的成果。

  

  1、有监督学习:从有标注训练数据中推导出预测函数

  有监督学习是机器学习任务的一种类型,其目的是从给定的训练数据集中学习出一个函数(模型参数),以便在新的数据到来时,能够根据该函数预测结果。训练集中包括输入和输出,也称为特征和目标,其中目标是由人工标注的。有监督学习的过程一般包括确定训练类型、收集训练集、确定特征提取方法、选择算法、训练算法、评估准确性六个环节。通过已有的训练样本去训练得到一个最优模型,再利用该模型将所有的输入映射为相应的输出,从而实现分类目的。

  

  1)逻辑回归

  逻辑回归是一种用于学习某事件发生概率的算法,它可以对某个事件的发生或不发生进行二元分类。逻辑回归使用 Sigmoid 函数来输出结果,其输出结果的范围在 [0,1] 之间。逻辑回归的主要目标是发现特征与特定结果可能性之间的联系。例如,我们可以使用逻辑回归来根据学习时长来预测学生是否通过考试,其中响应变量为“通过”和“未通过”考试。

  

  2)支持向量机:以间隔最大化为基准学习远离数据的决策边界

  支持向量机(Support Vector Machine,SVM)是一种基于间隔最大化的决策边界算法。其主要目的是学习一个尽可能远离数据的决策边界,以确保分类的准确性。在SVM中,支持向量是决策边界的重要数据点,其位置对于分类结果具有重要的影响。

  当训练样本线性可分时,SVM采用硬间隔最大化的方法学习线性可分支持向量机;当训练样本近似线性可分时,SVM采用软间隔最大化的方法学习线性支持向量机。在解决线性不可分问题时,SVM引入核函数,将数据映射到另一个特征空间,然后进行线性回归。通过采用核方法的支持向量机,原本线性不可分的数据在特征空间内变为线性可分,从而实现了分类的准确性。

  

  3)决策树:以树结构形式表达的预测分析模型

  决策树是一种树状结构,用于对数据进行划分。它通过一系列决策(选择)来划分数据,类似于针对一系列问题进行选择。一棵决策树通常包含一个根节点、若干个内部节点和若干个叶节点。每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。

  决策树的生成是一个递归过程。在决策树基本算法中,有三种情况会导致递归返回: 当前节点包含的样本全属于同一类别,无需划分。当前属性集为空或是所有样本在所有属性上取值相同,无法划分。当前节点包含的样本集合为空,不能划分。

  这些情况都是决策树生成过程中的终止条件。

  

  4)随机森林:利用多决策树模型,提高模型预测精度

  随机森林是一种分类器,它利用多棵决策树对样本进行训练和预测。在随机森林算法中,每个决策树的输出被收集起来,通过多数表决的方式得到最终的分类结果。这种方法类似于找人商量事情,不只听一个人的意见,而是在听取多人意见后综合判断。随机森林的每棵树都是通过以下步骤生成的:从训练集中随机且有放回地抽取N个训练样本,作为该树的训练集,重复K次,生成K组训练样本集;从M个特征中随机选取m个特征,其中m<<M;利用m个特征实现每棵树最大程度的生长,并且没有剪枝过程。

  这种方法可以有效地避免过拟合问题,并且在处理大型数据集时表现良好。

  

  5)朴素贝叶斯是常用于自然语言分类问题的算法

  朴素贝叶斯是一种基于概率进行预测的算法,主要用于分类问题。在实践中,它被广泛应用于文本分类和垃圾邮件判定等自然语言处理领域。具体来说,该算法通过计算数据为某个标签的概率,将其分类为概率值最大的标签。例如,假设训练数据类别为电影(包括那部让人感动的电影名作重映、华丽的动作电影首映和复映的名作感动了世界),训练数据类别为宇宙(包括沙尘暴笼罩着火星、火星探测终于重新开始和VR中看到的火星沙尘暴让人感动),而验证数据为“复映的动作电影名作让人感动”。在这种情况下,朴素贝叶斯算法将通过计算“复映的动作电影名作让人感动”属于电影或宇宙的概率,来判断该数据属于哪个类别。以下为朴素贝叶斯算法过程:

  

  

  2、无监督学习:对无标签样本进行学习揭示数据内在规律

  无监督学习是一种机器学习方法,其主要目的是在没有标记的训练数据的情况下生成模型。这种方法通常用于缺乏足够的先验知识难以进行人工标注类别或进行人工类别标注成本高的情况下。无监督学习的目标是通过对无标签样本的学习来揭示数据的内在特性及规律。该方法主要涉及聚类和降维问题。聚类问题包括K-means聚类、概念聚类、模糊聚类等算法,其目标是为数据点分组,使得不同聚类中的数据点不相似,同一聚类中的数据点则是相似的。降维问题主要是主成分分析、线性判别分析、多维尺度分析等算法,其中主成分分析将数据中存在的空间重映射成一个更加紧凑的空间,此种变换后的维度比原来维度更小。无监督学习适用于发现异常数据、用户类别划分、推荐系统等场景。

  

  1)策略梯度:有效处理高维及连续动作空间问题

  策略梯度(Policy Gradient,PG)是一种基于策略优化的强化学习算法。在强化学习中,机器通过判断在特定状态下采取不同动作所得环境回报大小来评价采取该动作的优劣。PG的核心思想是,当一个动作的环境回报较大时,增加其被选择的概率;反之,减少该动作被选择的概率。每个动作选择概率由神经网络决定,以参数化神经网络表示策略(记为 )。通过调整参数 ,使总体回报期望值最大化,从而实现最优策略的学习。最大化问题可转化为求取回报函数关于参数 的梯度,一般使用梯度上升算法,即为策略梯度算法。为提高算法的收敛性和效率,通常采取引入基线(baseline)、修改因果关系(当前策略不影响该时间点之前的回报)和引入回报权重等方式。

  

  2)时序差分学习:结合蒙特卡罗方法与动态规划特点,提升策略优化速度

  时序差分学习(Temporal Difference,TD)是一种无需具体环境模型,可直接从经验中学习的方法。它结合了动态规划和蒙特卡罗方法的优点,能够在每执行一步策略后即进行Q函数更新,而不必等到完成一个采样轨迹后才进行更新。根据算法中采样策略和更新Q值策略是否相同,TD学习可分为同策略算法(on-policy)和异策略算法(off-policy)。同策略代表算法为Sarsa,其行为策略和目标策略均为贪心策略;异策略代表算法为Q-Learning(或称SarsaMax),其行为策略为贪心策略,而目标策略为确定性策略。Sarsa收敛速度较快,但可能无法得到全局最优解;Q-Learning可找到全局最优解,但收敛速度较慢,因此需要根据具体问题选择合适的算法。

  

  3)深度Q网络:神经网络与Q-Learning结合,有效应对复杂状态空间

  深度Q网络(Deep Q-network, DQN)是一种基于深度学习的Q-Learning算法,由Google DeepMind团队于2013年提出,并在2015年进一步完善。传统的强化学习算法(如动态规划、蒙特卡罗方法、时序差分学习等)的状态均为离散、有限的,并使用查找表存储状态价值或Q函数。然而,现实生活中的状态多为连续的,即使离散化后状态空间(系统全部可能状态的集合)仍十分庞大,因而产生内存不足、表格搜索耗时过长等问题。DQN则通过DNN、CNN或RNN等神经网络对价值函数做近似表示,利用经验回放方式替代查找表,令最终结果无限逼近全局最优解,有效解决Q-Learning状态空间有限问题。

  

  4)Actor-Critic算法:综合策略梯度与Q-Learning优势,提高学习效率和准确性

  Actor-Critic算法(AC)是一种强化学习算法,也被称为“演员-评论家”算法。它由两个神经网络组成:策略网络Actor和评价网络Critic。Actor使用基于策略优化的算法,如策略梯度,来决定在当前状态下采取何种动作。Critic使用基于值优化的算法,如Q-Learning,对Actor所选动作进行评分,Actor根据Critic评分改进动作选择概率。AC算法结合了策略梯度和Q-Learning算法的优点,既可以做到单步更新,又可以扩展至连续状态空间,提高策略更新效率同时解决高偏差问题。目前,AC算法已经发展出了Advantage Actor-Critic(A2C)以及Asynchronous advantage Actor-Critic(A3C)等改进型,进一步提高了策略准确性,降低了内存需求。

  

  3、迁移学习:将知识由源域迁移至目标域,提高机器学习效率

  迁移学习(Transfer Learning, TL)是一种机器学习方法,其核心目标是将已训练好的模型参数迁移到新的模型来帮助新模型训练。这种方法可以将知识从源域迁移到目标域,让机器也可以做到“触类旁通”。迁移学习的主要优点是节省模型训练时间,且在目标域训练数据不足时,模型仍能取得较好的性能。迁移学习的训练框架可以概括为:

  1)选择源模型,从可用模型中挑选出预训练模型;

  2)重用模型,在目标域中使用源模型进行训练;

  3)调整模型。模型可以在目标数据集中对输入-输出进行选择性微调,以让其适应目标任务。

  实现迁移学习的方式主要包括样本迁移、特征迁移、模型迁移。目前,迁移学习主要应用在计算机视觉、自然语言处理等领域。

  

  4、联邦学习:以分布式机器学习方式,有效化解信息孤岛问题

  联邦学习(Federated Learning,FL)是由Google公司首次提出的一种学习机制,它允许多个数据持有方协同训练模型,而不需要共享数据,仅在中间阶段交换训练参数。根据数据分布情况,联邦学习可分为横向联邦学习、纵向联邦学习和联邦迁移学习。联邦学习的基本流程包括:

  1)客户端从服务器下载全局模型;

  2)训练本地数据得到本地模型;

  3)上传模型更新信息;

  4)中心服务器加权聚合本地模型,得到更新后的全局模型。

  通过多次迭代,联邦学习可以得到趋近于集中式机器学习结果的模型。联邦学习是一项新兴技术,在物联网、智慧医疗、金融风控、智慧城市等领域都有广阔的应用前景。

  

  二、深度学习

  1、神经网络:具有适应性简单单元组成的广泛并行互联网络

  神经网络是一种由数千甚至数百万个紧密互连的简单处理节点组成的模型。它主要包括输入层、中间层/隐藏层和输出层。输入层接收输入数据,中间层使用非线性函数对输入数据进行计算,输出层使用非线性函数对中间层数据进行计算,最终输出结果。神经网络可以用于回归,但主要应用于分类问题。通过设置中间层的数量和层的深度,神经网络可以学习更复杂的边界特征,从而得出更加准确的结果。

  

  2、卷积神经网络:以图像识别为核心的深度学习算法

  卷积神经网络(Convolutional Neural Network,CNN)是一种由数千甚至数百万个紧密互连的简单处理节点组成的神经网络结构,主要用于处理图片、视频等类型数据。该网络结构主要包括输入层、卷积层、池化层、全连接层和输出层。早在1980年,日本科学家福岛邦彦就提出了一个包含卷积层、池化层的神经网络结构。随后,Yann Lecun将BP算法应用到该神经网络结构的训练上,形成了当代卷积神经网络的雏形。在1998年,Yann LeCun及其合作者构建了更加完备的卷积神经网络LeNet-5,并在手写数字的识别问题中取得了成功。此外,1998年Wei Zhang提出了第一个二维卷积神经网络:平移不变人工神经网络(SIANN),并将其应用于检测医学影像。

  

  卷积层、池化层、全连接层和输出层是卷积神经网络中的四个主要组成部分。在卷积层中,输入的图片会被转化成RGB对应的数字,并通过卷积核进行卷积操作,以提取输入中的主要特征。池化层的作用是压缩特征映射图尺寸,从而降低后续网络处理的负载。全连接层计算激活值,并通过激活函数计算各单元输出值,常用的激活函数包括Sigmoid、tanh、ReLU等。输出层使用似然函数计算各类别似然概率。

  

  3、循环神经网络:用于处理序列数据的神经网络

  循环神经网络(Recurrent Neural Network, RNN)是一种神经网络,其输入为序列数据,例如时间序列数据、信息性字符串或对话等。该网络在序列的演进方向进行递归,并通过链式连接所有节点(循环单元)。RNN在语言建模和文本生成、机器翻译、语音识别、生成图像描述和视频标记等领域得到广泛应用。

  

  4、图神经网络:用于处理图结构数据的神经网络

  图神经网络(Graph Neural Networks,GNN)是一种将图数据和神经网络进行结合的新型机器学习方法。它能够在图数据上进行端对端的计算,具备端对端学习、擅长推理、可解释性强的特点。目前,图神经网络已经发展出多个分支,主要包括

上一篇:食虫草吃虫子的过程描写,食虫草为什么要吃虫子
下一篇:医疗人一生必看的10部经典医生电影!(上