热线电话:010-53343964
您的位置:>首页 > 本会业务 > 本会动态

两条AI智能技术路线对比分析

文章来源:发布者:发布时间:2024-08-24 18:09:13阅读:
前言
2022年11月,美国OpenAI公司正式对外发布ChatGPT大语言模型,从而引发围绕人工智能新的一轮发展竞争,ChatGPT一时成为人工智能的代言词,其所定义的概念和遵循的技术路线也被普遍认同和追捧。
通过与天衍智创新团队25年创新实践进行对比分析,基本可以得出以下结论:发展人工智能客观存在两条技术路线;美版人工智能面向社会认知的定性通用训练路线以及天衍智团队践行的面向产业的定量通用分类路线
前者面对的是多元复杂且不确定的社会认知领域,只能依靠强大的算力支撑庞大的模型系统从信息海洋里寻找相关知识碎片拼凑得到尽可能贴近的结果;而后者对应的是工业革命以来所形成的相对确定可以量化的产业领域,是对前期工业化、数字化/信息化发展成果及资源的继承和发展,采用的是系统分类、分布式精准处理方式,不依靠强大算力,不会直接对社会产生负面影响,而且直接作用于科技和产业的升级发展,对现实发展更加科学也更为有利。
天衍智团队的底气在于其所开辟的方向及所践行的路线已经过充分的实践检验。在长达25年的艰苦探索实践中,陈树铭博士带领天衍智创新团队从研究基本规律入手揭示出人工智能的底层逻辑,创立了全新的理念、架构和体系模型,解决了关键技术,并以三维智能建模(I3D)为场景开发出地理地质、建筑(BIM)以及制造智能建模系统,与国内外同类系统相比具有10—100倍的效能提升空间和发展潜力,客观上具备了产业化推广条件。
随着国际人工智能研究的深入及其相关问题的显露,研究团队发现美版人工智能所暴露的缺陷和问题在天衍智体系中已得到或能够得到诠释和解决,从而进一步证明该体系的科学性、完整性和实用性。这不仅使团队认识到其研究实践已经深入到人工智能的本质,把住了发展的脉络,同时也意识到其所担负的历史责任。
为此天衍智团队希望在国家和政府主导支持下,通过将天衍智能体系介绍给相关行业、企业及社会,使之能够全面认识人工智能,把握正确发展方向,避免片面和误导,帮助相关产业实现智能化转型,为发展新质生产力做出应有的贡献。
以下是参照对比国外系统对天衍智前期研究实践的再认识和系统总结,希望对决策部门和相关领域的研究有所启示和帮助。 
一、智能本体研究
人工智能本质上是计算技术对人的认知能力的模拟和拓展,为此,研究人工智能首先要从研究人的认知系统和能力入手。
佛家将人的认知系统归纳为六识:眼、耳、鼻、舌、身、意,其中前五识属于感知能力,仅就感知力而言人类并不突出,如鹰的视力是人的4—8倍;狗的嗅觉更超出人的200万倍,人类与其他智能生物的本质区别和优势集中于意识,也就是智能(新的研究认为人类的感知能力也有内外之别,除了上述外感能力外还存在与人自身相关的五大内感:肌肉的疼痛感、骨骼的疲惫感、神经的困倦感、身体对摄入物质的饥饱感、心理的爱恨感等,也都与“意”相通
在人类的外五感中视觉和听觉占据特殊地位,并由此导致两种认知思维模式的产生:其中视觉占到人类感知的75%以上,由此产生出形象思维;而听力是语言的基础并导致语义思维及文字的发明,而人类真正开启灵智进入到文明社会,正是从发明语言文字开始。
虽然语言文字中包含着语义,但语言并不等于语义:语言位于表达层,语义则处于更高维度的理解层。虽然上述对人的认知不构成问题和障碍,但与之相关的知识层次和理解力则是因人而异。而对计算机实现语义级别的人工智能而言,则需要在对语义的内在逻辑和规律深入研究分析基础上建立模型,进而开发出系统。从这个意义上,ChatGPT等美版人工智能尚处于对语言逻辑模仿阶段,尚未上升到对语义的理解,更谈不上更高维度的智慧层。
人类之所以发明语言是为了交流,而交流本身是社会属性的。人类社会由个体组成,人是社会的基础细胞,而国家是社会的最高组织形态。反应到认知层面,每个人都有独立的意识(模型),个体认知的特性和差异不仅构成社会的多元,也是社会创造力和活力的源泉。社会意识是建立群体共识基础上的,并构成更高层面文明的基础。从这个意义上,任何试图用共性取代个性,用一个公共“大模型”取代无数个体“小模型”,以至想用技术手段创造一个无所不能的“精神上帝”来统一人的认知,不仅十分荒诞而且极度有害。
虽然人的认知可分为两大类型,但思维模式则是一体互通的,最直接的例证就是汉语和汉字。汉字是由象形文字演化而来,集音、形、意于一体,其优势直接体现在使用汉字人群较高的平均智商。
语言文字的发明不仅赋予人们对事务的抽象表达和相互交流能力,促进了社会意识的形成,而且实现了知识的积累传承。借助文字载体,人们得以超越生命的设限,通过学习前人的知识积累,加以亲身的社会实践,加速认识世界、改造世界的进程,推动人类从原始蛮荒步入文明社会
最初,人的认知是面向定性的,度量衡的发明开启了定量认知及思维,而数字、物理、几何学的发明将定量认知思维从粗略发展到精准,从单项发展到系统,标志着科学技术的兴起。科学侧重于对自然现象和规律的探索、理解和诠释,旨在揭示事物的本质和内在联系;而技术更侧重于如何实现某种特定功能及实际效果的达成。如果按照定性和定量划分,科学具有更多的定性属性,而技术则可归于定量范畴。
至此,我们对人类认知的系统、方式及所展现的特点和规律结合人工智能的发展做一简要总结归纳:
1.迄今任何科学技术包括人工智能都是人类发现、发明和创造并为人类社会服务的。违背这一根本原则,发展科技和人工智能不仅失去了前提、方向和动力,也丧失了价值和意义。
2.从语言文字的发明到现今丰富的精神和物质文明,人类所有的知识创造和财富的积累都充分体现出其社会属性,而其中关键性的创新最终都要走上群体化、社会化的发展道路,人工智能也不例外。
3.视力和听力两大关键感知力导致形象思维和语义思维两大认知模式,而对于人类两种认知思维模式是一体互通、相互支持的。因此,完整意义的人工智能不仅要兼备上述两种认知模式,而且要支持两种模式的互通及融合。
4.人类的原始认知是面向定性的,度量衡的发明使人类的认知从定性拓展到定量,而在现代人的认知体系中则是二者兼备、融会贯通的。其中,社会领域和精神范畴以定性为主,而相对有序的产业领域则更偏重于定量。鉴于二者同根同源,在实践中虽可有所侧重,但不能也不应割裂分割。
5.人工智能离不开数据,其基本工作机理呈现“垃圾入垃圾出”,如果输入了“坏”数据就会得到“坏”结果。数据是人类在实践过程中产生的,如果说AI的源头是数据,那么数据的源头还是人。
上述规律构成发展人工智能的基本原则和衡量正确与否的客观标准。
二、两类人工智能体系
目前世界上已经形成两大人工智能体系:以ChatGPT 为代表的美版人工智能体系以及天衍智创新团队开发的天衍智能体系。两种体系不仅代表着定性和定量两种技术路线,同时还分别践行着语义和形象两种认知思维模式。下面分别加以简要介绍。
ChatGPT系统
ChatGPT 是美版人工智能的代表作,由于占据了先发优势,为知识界和社会所认同并被寄予厚望,加上媒体炒作和资本的刻意追捧遂成为现今的主流。
ChatGPT原理上基于语言逻辑;技术上依托神经网络(受生物神经系统启发构造的模型)用于模拟和处理大规模数据以及复杂的任务;方法上通过训练大量的文本数据来学习语言的语法、词义,分析句子中的词汇、结构和上下文关系,逐渐学会生成具有连贯性和合理性的文本回复;策略上通过采用注意力机制(Attention Mechanism),使模型能够在生成回复时更关注与输入句子相关的部分,从而提高了回复的准确率和流畅性。
此外,为了让 ChatGPT 能够生成多样化且富有创造性的回复,采用了强化学习技术,通过奖励模型生成高质量的回复并惩罚低质量的回复,逐步优化了模型的表现。
数据、模型和算力构成美版人工智能(含ChatGPT)的核心,所涉及的模型虽有大小之分,但基于深度学习算法来实现,其中最常用的是神经网络。小模型与大模型的差异不仅表现为体量小、参数少,处理任务单一,通常用于对计算资源要求较低的任务,如移动应用程序或嵌入式系统中的图像识别、文本分类等,其所需要的训练时间也较少。
大模型通常用于自然语言处理、计算机视觉、语音识别等需要高度抽象和复杂模式识别的任务,并需要更深、更宽的神经网络,例如深度卷积神经网络(如ResNet、Inception、EfficientNet)或大型变换器模型(如BERT、GPT)等。这些模型的参数动则百万、十亿甚至千亿级,以捕获更多的特征及应对更大的复杂性,为此需要更强大的算力支撑。
天衍智能体系
天衍智能体系是由宇宙智能理论模型、五泛理论和算法、I3DNA智能体系(基因架构、微任务功能模块、结构化目录体系),及构造的面向自然环境、人造物体及语义的三大通用构造演绎参数建模智能平台。
宇宙智能是陈树铭博士从人的认知和计算机理解双重视角建立的智能体系理论模型,对智能体从宏观到微观,从局部到整体,从静态到动态进行全生命周期的推演及客观描述,其范围、边界和精确度受人类所能达到的感知能力(包括使用技术手段和工具)限制。智能模型依照相对系原则,采用MN叉树结构表达其分类、分支结构和层级关系,并以物质和事务的特性及关联作为拆解分割的边界及衍生分蘖、组合集成的条件。
人工智能基因体系(Artificial Intelligence Gene System  AIGS)是面向智能化仿照生物体的基因系统(DNA)原理构造的。其采用MN叉树结构设计,用不同尺度、相互关联的微任务单元作为智能体的功能“细胞”和“器官”;在对数据管理重新定义基础上创立了结构化目录体系作为系统的神经网络;并总结出“五泛”理论,发明了“五泛”算法用于智能化实现。其中:
微任务单元相当于完备的功能模型,通过人机交互或条件设定,驱动计算机自主读取关联目录下的输入参数文件,并在执行过程中生成输出系列参数文件成果,并通过组合分蘖原则和任务要求自动完成智能体内从 “细胞” 、“器官”到整体的系统功能组合、重构、集成和优化。
结构化目录体系将二维矢量、二维表格、目录、文件名四大结构化人机互动管理范式加以科学匹配和灵活应用,构建起分布式对象数据管理体系,实现了对数据的完备描述和关联操作,并通过人机互动范式自动构建符合专业体系逻辑的数据存储系统,实现数据的智能分布,增、删、改、加、存,以及查询和调用的自动化协同处理。
五泛理论和算法是实现智能化的技术方法和手段工具。其中,泛权面向从局部到整体、已知到未知的构造与重构;泛换围绕整体或群体特征的提取和识别;泛模解决的是重构边界或群体特征样本时空分布不均衡协同问题;泛序是从基于计算机底层逻辑演绎出发理解宇宙世界底层逻辑问题,而泛衍旨在解决人类语义演绎理解表达领域的底层逻辑问题。
三大通用构造演绎参数建模智能平台既是天衍智能体系面向自然物理、人造物理和语义世界构建的模型系统,也是面向社会应用打造的系统平台,该平台基于MN叉树体系,采用分布式网络化结构,可在生产过程中不断完善、生长,无需通过预设或训练重构体系。
三、对比分析
有比较才有鉴别。下面我们尝试从多重角度对上述两个体系进行分析对比。
1.认知视角
ChatGPT原理上基于语言逻辑,结构上基于对人类大脑神经网络逻辑的仿真,功能上基于对人类语言演绎的表达模仿,方法上用数据训练的文本生成深度学习模型,属生成式人工智能(AI Generated Content AIGC)范畴总体上仍处于表象和局部认知阶段,尚未深入到系统整体层面。
天衍智能则是基于对认知本体、机理、环境和条件全方位的系统研究:首先用相对系理论将认知的范围扩大到整个宇宙空间体系;进而用哲学思维和系统工程方法从主观到客观、物质到精神、宏观到微观局部到整体,分析其结构,研究其生成演化规律;在此基础上从支持语义和形象两种认知思维及二者的融合,以及支持人机识别、交互的要求,按照相对系原则,采用K·MN叉树结构表达其分类、分支结构和层级关系,并参照生物的基因系统设计出人工智能基因体系。其对人工智能的认知已经深入到本质、结构、体系层面,远超ChatGPT的范畴,二者之间已没有可比性。
此外:ChatGPT神经网络主框架实质上也是采用了K·MN叉树结构,其与天衍智能体系的区别在于:ChatGPT神经网络主框架与人脑相似,都是固定不变的,面向应用仿照ChatGPT机理构造的大小模型系统其主框架也都是固定的,只能在末端进行微调,且各自独立互不关联;而天衍智能基于内核的MN叉树框架则支持对其主框架和末端框架的不断地修改、衍生,其下的所有模型系统彼此之间均可高度协同互动。由于所有模型系统都可生成各自的MN叉树主框架,每个模型系统都可以成为私有化、自主化、智能化演进的系统。
2. 技术路线
ChatGPT原理上基于语言逻辑,走的是面向社会领域和精神范畴的定性通用训练路线,借助的是语言的结构和内在逻辑,依托的是“大数据”。由于社会和精神领域不仅涉及宽泛,并呈现多元、复杂和不确定性,以及其研究基础尚未深入到语义(理解层)和智慧层面(智能的最高境界),只能通过无限扩大模型规模,依靠强大的算力“大力出奇迹”,即便如此也只能得到尽可能贴近的结果,并伴生着以下问题和风险:
强大算力需要高端芯片和算力中心的支撑,不仅造成高昂的成本和技术的垄断还需要消耗海量的能源,直接与绿色发展、环境生态保护相矛盾;
面向社会和精神领域会从认知层面影响到每一个社会人,必定会对社会组织、意识形态以及文明体系产生深刻的影响,而对算力和大模型平台的依赖会导致数据信息的高度聚集,不仅会造成安全风险而且为非法操控创造了条件。
天衍智能体系虽然是借助形象思维从有形世界切入,走的是定量通用分类路线,但其理论基础和体系则是按照认知整体设计的。由于面向的是工业革命以来所形成的相对确定可以量化的产业领域,是对前期工业化、数字化/信息化发展成果及资源的继承和发展,采用的是系统分类、分布式结构和精准处理方式并有自创先进算法体系的支撑,不依靠强大算力,不会直接对社会产生负面影响,而且直接作用于科技和产业的升级发展,对现实发展更为有利。
3. 技术体系
ChatGPT系统由大数据、大模型和强计算力三部分构成。其所有模型不论大小都是基于神经网络构建,并通过深度学习算法实现。由于缺少针对性和灵活性,面对自然语言处理、计算机视觉、语音识别等需要高度抽象和复杂模式识别的任务,只能通过加深、加宽的神经网络,扩大模型规模(所需参数动则十亿、千亿级)以及提升加大算力“大力出奇迹”,即便如此,仍频频生出类似9.11比9.9大的笑话。
ChatGPT学习运转需要海量的数据,但并非像人们想象那样直接从网上爬数据进行学习更新,而是依靠Scale AI提供的经过处理的“细糠”。为了加工处理数据,Scale AI旗下的数据标注公司(Remotasks)采用最原始的数据处理方式:以1美元/小时的低价雇佣第三世界国家的200多万人协同工作,有趣的是Scale AI是目前唯一能够靠大模型“赚钱”的公司。
天衍智能体系I3DNA智能体系(含基因架构、微任务功能模块、结构化目录体系)、五泛理论和算法以及三大通用构造演绎参数建模智能平台构成。相比“简单粗暴”的ChatGPT系统,结构要复杂精密得多,完全不属于同一类型和层面:
天衍智能基因体系是仿照生物体DNA设计的人工智能体系架构,而ChatGPT目前还只是对于人类语言逻辑的模仿。
大模型作为ChatGPT的核心,采取的是大集中方式,面对复杂的任务只能通过扩大模型的规模,为此需要强大算力的支撑;相比之下,天衍智能体系是基于微任务单元(模型)及其支持分布式动态组合协同的模型结构建立的构造演绎参数智能建模平台系统,可以通过任务单元的分解、关联、重组与重构支持任意规模和复杂度的事务的处理。由于采用网络化分布式工作方式,极大减少对集中大算力的需要。
人工智能需要海量数据的支持。ChatGPT采取的是通过第三方为其整理数据,通过“深度学习”丰富完善其模型功能,每次学习更新动则需要成百上千万美元的投入2023年Open AI GPT4大模型的训练成本约7800万美元,谷歌的Gemini Ultra更高达1.91亿美元。天衍智能体系则通过自创的结构化目录体系自动将系统使用过程中形成的标准化数据转换成标准精细、人机均可识别、理解的数据资源。伴随着数据资源不断丰富,系统亦将不断丰富完善,从而将应用与更新融为一体,不需要单独的学习训练过程。
算法是实现智能化的技术方法和手段工具。ChatGPT主要借助神经网络技术和相关算法,而天衍智能体系则根据实际需要创立了五泛理论和五泛算法,发明了三维大数据智能建模技术(I3D)有效地解决了实现智能化的堵点和断点。
人的认知是三维的,而现有技术虽然号称三维但本质上是用二维像素图形技术在表达层面上做文章:以视图为基础,用不同的视图表达同一物体的不同面,当需求改变时需要用人工处理和信息叠加的方式生成新的视图。
I3D通过建立整体三维模型对物体进行全息表达,可根据需要通过调整参数自动生成相关具有构造特征的精准视图,从而从原理、结构、算法等基础技术层面打通了传统技术与行业的边界(如二维到三维,地表、地质和人工建筑以及各种工业建模等),综合解决了“一张图n层皮”只能支持二维平面分层叠加静态示意表达,将人工智能对有形世界的认知和处理能力直接从二维提升到三维。
鉴于人的认知是三维的,而且语义和形象两种思维模式又是并存互通的,当将技术能力从二维提升到三维,其不仅适用于有形世界,也为构建新一代通用化(含形象和语义表达和思维)、智能化、一体化数字建模体系打开了通道,奠定了基础。
通过以上对比分析,我们近乎可以得出以下结论:
以ChatGPT为代表的美版人工智能缺少体系化思维和理论支撑,存在以偏概全、与现实脱节、过于迷信技术等倾向,如不调整改变不可能走远;而其选择的技术路线注定是艰难的,短期内难以形成资本所期待的丰厚回报,一旦新体系面世大概率会导致股市泡沫破裂,将产生严重的负面后果。
相比之下,天衍智能体系不仅理论实践基础扎实,所选择的技术路线和发展模式更符合客观发展规律,具有更大的发展空间和潜力。

参考:大模型的发展历程(材料选自网络)
大模型发展经历了萌芽期、探索沉淀期和迅猛发展期三个阶段。其中:
萌芽期(1950-2005)是以 CNN 为代表的传统神经网络模型阶段。
   1956 年,自计算机专家约翰·麦卡锡提出“人工智能”概念开始,AI 发展由最开始基于小规模专家知识逐步发展为基于机器学习。
1980 年,卷积神经网络的雏形 CNN 诞生。 1998 年,现代卷积神经网络的基本结构 LeNet-5 出现,机器学习方法由早期基于浅层机器学习的模型,变为了基于深度学习的模型,为自然语言生成、计算机视觉等领域的深入研究奠定了基础,对后续深度学习框架的迭代及大模型发展具有开创性的意义。
探索沉淀期(2006-2019)是以 Transformer 为代表的全新神经网络模型阶段
 2013 年,自然语言处理模型 Word2Vec 诞生,首次提出将单词转换为向量的“词向量模型”,以便计算机更好地理解和处理文本数据。
 2014 年,被誉为 21 世纪最强大算法模型之一的 GAN(对抗式生成网络)诞生,标志着深度学习进入了生成模型研究的新阶段。
 2017 年,Google 颠覆性地提出了基于自注意力机制的神经网络结构——Transformer 架构,奠定了大模型预训练算法架构的基础。
 2018 年,OpenAI 和 Google 分别发布了 GPT-1 与 BERT 大模型,意味着预训练大模型成为自然语言处理领域的主流。在探索期,以 Transformer 为代表的全新神经网络架构,奠定了大模型的算法架构基础,使大模型技术的性能得到了显著提升。
迅猛发展期(2020-至今):以 GPT 为代表的预训练大模型阶段
2020 年,OpenAI 公司推出了GPT-3,模型参数规模达到了 1750 亿,成为当时最大的语言模型,并且在零样本学习任务上实现了巨大性能提升。随后,更多策略如基于人类反馈的强化学习(RHLF)、代码预训练、指令微调等开始出现, 被用于进一步提高推理能力和任务泛化。
2022 年 11 月,搭载了GPT3.5的 ChatGPT横空出世,凭借逼真的自然语言交互与多场景内容生成能力,迅速引爆互联网。
2023 年 3 月,最新发布的超大规模多模态预训练大模型——GPT-4,具备了多模态理解与多类型内容生成能力。在迅猛发展期,大数据、大算力和大算法完美结合,大幅提升了大模型的预训练和生成能力以及多模态多场景应用能力。如 ChatGPT 的巨大成功,就是在微软Azure强大的算力以及 wiki 等海量数据支持下,在 Transformer 架构基础上,坚持 GPT 模型及人类反馈的强化学习(RLHF)进行精调的策略下取得的。
作者简介:赵建国,资深信息安全专家,长期从事信息化和信息安全研究,为多项国家专利发明人并主笔起草了未来网络安全国际标准(IOS/ IEC 29181-5)。 

相关新闻

    无相关信息

  • 集团信息
  • 宏观政策
  • 研究报告
  • 会员之窗

上海建工集团获得18项“中国安装之...
在近日召开的中国安装协会第七届四次理事(扩大)会议暨第七届四次常务理事会上,表彰了“2021-2022年度中国安装工程优质奖(中国安装之星)”。集团承建的前滩中心25-02地[详细]
国资委召开中央企业加快发展战略性...
5月24日,国资委召开中央企业加快发展战略性新兴产业部署会。国资委党委书记、主任,中央企业加快发展战略性新兴产业专项工作领导小组组长张玉卓出席会议并讲话强调,要认真学习[详细]
我会编撰《中国集团公司30年》一书...
由中国集团公司促进会编撰的《中国集团公司30年》一书,已于国庆70周年之际由中国言实出版社出版发行。该书共十章,38万字。全国人大常委会原副委员长陈昌智和原国家经济体制改革委员会党组书记贺光辉分别作序。[详细]
栏目ID=35的表不存在(操作类型=0)