基于RBF神经网络整定的PID控制器设计及仿真摘要(组图)

基于RBF神经网络整定的PID控制器设计与仿真总结 目前,由于PID控制的控制结构简单,通过比例积分和微分的调节可以得到基本满意的控制性能,而且更容易进行整定实际应用。因此,它被广泛应用于过程控制和运动控制,特别是可以建立精确模型的确定性控制系统。然而,随着现代工业过程的日益复杂和控制要求(如稳定性、准确性、快速性等)的逐渐提高,经典控制理论面临着严峻的挑战。对于工业控制领域的非线性系统,传统的PID控制无法获得满意的控制效果。 RBF神经网络基于梯度下降算法进行优化,融合了神经网络和PID控制技术。它不仅具有常规PID控制器结构简单、物理意义明确的优点,而且具有神经网络自学习和自适应的功能。因此,通过对RBF神经网络的结构和计算方法的研究,设计了一种基于RBF神经网络整定的PID控制器,建立了其模型,然后编写了M语言程序。利用MATLAB软件对设计的RBF神经网络整定的PID控制算法进行了仿真。然后进一步通过仿真实验数据,研究了控制系统的稳定性、鲁棒性和抗干扰能力。关键词:PID; RBF神经网络;基于RBF神经网络的PID控制器参数整定设计与仿真因此广泛应用于过程控制和运动控制,尤其是在精确模型可构建更具确定性的控制系统中的应用。然而,随着现代工业过程的日益复杂,对控制要求(如稳定性、准确性和快速性等)的逐步提高,经典控制理论面临着严峻的挑战。工业控制领域的非线性系统,采用传统的PID控制不能获得满意的控制效果。基于梯度下降算法优化的RBF神经网络,将神经网络与PID控制技术相结合,具有结构简单、物理意义明显的传统PID控制辊的优点,同时具有神经网络自学习、自适应功能因此,本文通过对RBF神经网络结构和计算方法的学习,设计了一套基于RBF神经网络的PID控制器,构建其模型,然后编写M语言程序。利用MATLAB软件设计RBF神经网络设置PID控制算法仿真研究。数据再进一步通过仿真实验,得到控制系统的稳定性、鲁棒性、抗干扰能力等。关键词:PID; RBF神经网络;参数设置 摘要Ⅰ摘要Ⅱ1 引言 11.1 研究背景与意义 11.2 神经网络的发展历程 21.3 本研究课题的主要内容 52 神经网络 62.1神经网络的基本概念和特点 62.2 人工神经网络的基本原理 62.3 神经网络结构 72.3.1 前馈网络72.< @3.2 反馈网络72.4 神经网络学习方法82.4.1 监督学习(与老师一起学习)82.4.2 无监督学习(学习没有老师) 82.4.3 强化学习(reinforcement learning) 92.5 RBF神经网络 92.5.1 RBF神经网络简史 9 2.5.2 RBF的数学模型92.5.3 受控对象雅可比信息的识别算法102.5.4 RBF的学习算法神经网络 112.6 章节总结 123 PID 控制器 133.1 PID 控制器简介133.2 经典 PID 控制原理 133.3 现有 PID 控制器参数整定方法 153.4 PID 控制限制 153.5 章节总结 164 PID 控制器设计基于RBF 神经网络整定 174.1 RBF 神经网络的PID整定原理 174.2 神经网络PID控制器设计 17 4.3 章节总结 185 仿真分析 195.1 系统稳定性分析 195.2 系统抗干扰能力分析 205.3 系统鲁棒性分析 215.4 章节总结 23 结论 24 参考文献 25 致谢 26 附录仿真程序 271 简介 1.@ >1 研究背景和意义 PID 控制器(控制比例、积分和微分的调节器)是最早发展起来的利用经典控制理论的控制策略之一,是工业过程控制中应用最广泛、最古老、最重要的控制方法。在目前的工业生产中,90%以上的控制器都是PID控制器。

PID控制器算法简单、鲁棒性好、可靠性高、控制效果好,因此被广泛应用于工业控制过程,特别是可以建立精确数学模型的确定性控制系统。对于传统的PID控制器,在投入运行之前,为了获得更好的控制效果,必须先设置三个参数:比例系数Kp、积分系数Ki和微分系数Kd。但是如果控制器参数设置不好,即使控制器本身很先进,其控制效果也会很差。随着行业的发展,受控对象的复杂性也在不断加深。许多具有大滞后、时变和非线性的复杂系统,例如温度控制系统,其受控过程的机制复杂,具有高阶非线性和慢时变。此外,实际生产过程中存在许多不确定因素,如噪声、负载振动等环境条件,工艺参数甚至模型结果都会发生变化,如变结构、变参数、非线性、时变等。 ,不仅难以对被控对象建立准确的数学模型,而且PID控制器的控制参数具有固定形式,不易在线调整,难以适应外界变化环境,这使得PID控制器在实际应用中无法达到理想的效果,越来越受到限制和挑战。因此,如何使PID控制器具有参数在线自整定功能,是人们自使用PID控制以来一直关注的重要问题。而且,随着相关领域技术的不断发展,对控制系统各项指标的要求也越来越高。

人们一直在寻找PID控制器参数的自适应技术,以满足复杂系统的控制要求。神经网络理论的发展使这个想法成为可能。人工神经网络是由大量简单的基本神经元相互连接组成的自适应非线性动态系统。神经网络控制可以充分任意逼近任何复杂的非线性关系,具有很强的信息综合能力,可以学习和适应严重不确定系统的动态特性,因此具有很强的鲁棒性和容错性,可以处理那些难以处理的过程用模型和规则来描述;神经网络所具备的大规模并行处理和分布式信息存储;强大的自学习和联想容错能力;良好的自适应性和自组织性;多输入多输出非线性系统基本满足工程要求。由于生物控制论,人工神经网络将触角延伸到几乎所有工程领域,并在这些领域形成新的增长点。径向基神经网络(简称RBF网络)是一种高效的前馈神经网络,具有其他前向网络不具备的最佳逼近性能和全局最优特性,结构简单,训练速度快。同时也是一种神经网络模型,可广泛应用于模式识别、非线性函数逼近等领域。基于RBF神经网络的PID控制器由经典PID控制器和RBF神经网络组成。控制器的参数可以适应被控对象的参数和结构的变化以及输入参考信号的变化,能够抵抗外界干扰的影响,从而达到良好鲁棒性的目的。

神经网络应用不需要考虑过程或现象的内部机制,可以很好地处理一些高度非线性和高度复杂的问题。因此,神经网络在控制领域取得了长足的进步,特别是在模型识别方面。 、控制器设计、优化运行、故障分析诊断等领域得到快速应用。神经网络控制作为21世纪的自动控制技术,已被国内外理论和实践充分证明,在工业复杂过程的控制中发挥着巨大的作用。工业领域需要先进的控制方法,迫切需要工程化、实用化的神经网络控制方法。因此,研究神经网络在控制中的应用对提高我国自动化水平和企业经济效益具有重要意义。神经网络具有很强的非线性逼近能力和自学习能力,因此RBF神经网络算法与PID控制相结合产生的间接自校正控制策略可以自动调节控制器的参数,使系统达到更好的效果。表现。跑。人工神经网络虽然具有上述诸多优点和广泛应用,但也存在一些不足。由于神经网络的缺点阻碍了神经网络的发展,在实际应用中,RBF神经网络是应用最广泛的神经网络模型之一。 1、RBF神经网络是Moody和Darken在1988年提出的一种神经网络结构,从根本上解决了BP网络的局部最优问题,拓扑结构紧凑。结构参数可分离学习,收敛速度快。 . RBF网络和模糊逻辑可以实现很好的互补性,提高神经网络的学习和泛化能力。本课题主要基于RBF神经网络模型的研究。 RBF神经网络的优缺点主要体现在以下几个方面: 优点:①具有唯一最佳逼近的性质,不存在局部极小问题。

②RBF神经网络具有很强的输入输出映射功能,理论证明RBF网络是前向网络中完成映射功能的最优网络。 ③网络连接权重与输出呈线性关系。 ④ 分类能力好。 ⑤ 学习过程收敛快。缺点: ①最严重的问题是无法解释自己的推理过程和推理依据。 ② 用户无法提出必要的问题,当数据不足时,神经网络无法工作。 ③如果把所有问题的特征都变成数字,把所有推理都变成数字计算,结果必然是信息丢失。 ④ 理论和学习算法还有待进一步完善和完善。此外,RBF神经网络用于非线性系统建模要解决的关键问题是样本数据的选取。在实际的工业过程中,系统的信息往往只能从系统运行的运行数据中获取。从系统运行数据中提取系统运行状态信息,减少网络对训练样本的依赖,在实际应用中具有重要价值。隐藏层基函数的中心是从输入样本集中选取的,很多情况下难以反映系统真实的输入输出关系,初始中心点数量过多;此外,优化过程中会出现数据病态等严重问题,阻碍了RBF神经网络的发展,导致其理论发展缓慢。同时,RBF网络的这些缺点限制了其应用领域的拓展和应用的深度,不利于国民经济的健康发展。

因此,RBF神经网络的研究显然具有重要的理论意义和重要的应用价值。 1.2 神经网络发展史 最早对神经网络的研究可以追溯到人类研究自身智能的时期。这一时期于1949年结束。1943年,心理学家W·Mcculloch和数理逻辑学家W·Pitts在分析和总结神经元基本特征的基础上,首先从信息处理的角度提出了一种简单的人工神经元数学模型。在这个模型中,神经元表现出两种状态,“兴奋”和“抑制”。该模型沿用至今,直接影响该领域研究的进展。因此,他们两人堪称人工神经网络研究的先驱。 1945年,以冯·诺依曼为首的设计小组试制成功存储程序电子计算机,标志着电子计算机时代的开始。 1948年,他在研究工作中比较了人脑结构与存储程序计算机的根本区别,提出了由简单神经元组成的再生自动化网络结构。但由于指令存储计算机技术的飞速发展,迫使他放弃了神经网络研究的新途径,继续致力于指令存储计算机技术的研究,并在该领域做出了巨大贡献。冯诺依曼的名字虽然与普通计算机有关,但他也是人工神经网络研究的先驱之一。 1949 年,心理学家 D.O.Hebb 出版了《Tlle origanization ofbehavior》一书,其中提出了许多有价值的观点,特别是他认为在神经网络中,信息分布在突触连接的权重中,而权重可以通过网络学习。

Hebb 还提出了一个网络学习规则,即 Hebbian 规则,它使神经网络变得可靠。 Hebb 的工作对后来的神经网络结构和算法产生了很大的影响,目前的一些神经网络学习规则仍然使用 Hebbian 规则或其改进的规则。第一个研究高潮:1950年代和1960年代,F. Rosenblatt在1958年设计并生产了“感知器”,这是一个多层神经网络。用于模拟生物视觉模型,首次从理论研究进入工程实践阶段。这是第一个真正的神经网络,因为它在 IBM 704 计算机上成功模拟。最初,感知器的学习机制是自组织的,响应的发生与随机初始值有关。后来加入了训练过程,类似于后来的BP算法和Kohone自组织算法。当时,世界各地的许多实验室都模仿感知器,设计了各种电子设备。 1959年,B.Widrow和M.Hoff发表论文《Adaptive Switch Circuits》,提出了一种自适应线性元网络,简称Adaline,Adaline本质上是一个两层的前馈感知模型网络。 1962 年,Rosenblatt 出版了一本名为《神经动力学原理》的书,详细介绍了他的感知器。感知器有输入层、输出层和中间层,可以模仿人的特征,并用它做实验。

1967 年,斯蒂芬·格罗斯伯格通过对生理学的研究开发了神经网络模型,并提出了一种名为 Avalanche(雪崩网络)的网络,可以通过语音连续识别和控制机器人手臂的运动。低潮期:1960年代末到1970年代,1969年Minsky和Paper发表专着《Perceptrons》,指出简单的神经网络只能进行线性分类和解决一阶谓词问题,而不是非-linear 线性分类和解决更复杂的高阶谓词问题,例如 XOR、对称判别和奇偶校验问题。在当时的技术条件下,要解决这样的问题是极其困难的。这本书对学术界产生了正面和负面的影响,其副作用导致人们对神经网络研究的热情在 1960 年代一落千丈,并迅速转向低潮。同时,由于当时还没有强大的数字计算机来支持各种实验,许多研究人员离开了这个研究领域,使得神经网络的研究停滞了十多年。即便如此,在 1970 年代,科学家们仍然在这一领域开展了许多重要的工作。 19721 年,芬兰的 Kohonen 开始研究随机连接变化表。从 1972 年开始,他迅速专注于联想记忆。 1968 年,安德森开始研究 ANS 模型,该模型具有基于神经元突触的激活联想记忆模型。在 1973 年和 1977 年,LAM 被应用于任意视觉模式的识别、重建和关联等问题。

在此期间,斯蒂芬·格罗斯伯格对自组织网络的研究也非常活跃。与此同时,大阪大学教授、东京 NHA 广播科学实验室教授 Fukushima 提出了一种名为 Neocognitron 的神经网络,这是一种符合生物视觉理论的视觉识别机制。第二个研究高潮:从 1980 年代初到现在,正如我们前面提到的,在 1960 年代,由于缺乏新的想法和高性能的计算机进行实验,人们对神经网络研究的兴趣一度动摇。 1980年代,随着个人计算机和工作站计算能力的急剧提高和广泛应用,以及新概念的不断引入,神经网络研究面前的障碍被克服,人们对神经网络研究的热情空前高涨有两个概念对神经网络的复兴具有重要意义。一:使用统计机来解释某些类型的递归网络的操作,这些递归网络用作掀背式内存。这些想法在物理学家 John Hopfiled 的一篇研究论文中得到了解决。第二个是在 1980 年代,几位不同的研究人员开发了用于训练多层感知器的反弦算法。 David Rumelhart 和 James McClelland 提出了最有影响力的反向传播算法之一。该算法有力地回应了 Minsky 和 ​​Papert 在 1960 年代对神经网络的批评。 1982年,生物物理学家J. Hoppield教授提出了Hoppield神经网络模型,并引入了能量函数的概念,使神经网络的研究取得了突破。

1984年,他用这个模型成功地解决了复杂度为NP的旅行商问题(TSP)。 1987 年 6 月,第一届神经网络国际会议在美国加利福尼亚州召开。千余名学者参与,国际神学网络学会成立。后来确定国际联合神经网络会议每年举办两次。 1990年,我国的863?高新技术研究计划批准了人工神经网络三个课题。自然科学基金和国防科技预研基金也将神经网络的研究纳入选题指南,并对入选课题进行研究。上的资金。如今,神经网络的应用已经渗透到模式识别、图像处理、非线性优化、语音处理、自然语言理解、自动目标识别、机器人、专家系统等各个领域,并取得了显著成果。从众多应用研究领域的丰硕成果来看,人工神经网络的发展具有强大的生命力。目前的问题是智能化水平不高,很多应用需求不能很好的满足:网络分析与综合的一些理论问题(如稳定性、收敛性分析、网络结构综合等)没有很好的解决。随着人们对大脑信息处理机制认识的不断深入和人工神经网络智能水平的提高,人工神经网络必将在科技领域发挥更大的作用。今天的自动控制技术是基于反馈的概念。反馈理论的要素包括三个部分:测量、比较和执行。测量感兴趣的变量,并与期望值进行比较,并使用该误差来校正控制系统的响应。

PID(Proportional-Integral-Derivative)控制器作为最早实用的控制器已有50多年的历史,至今仍是应用最广泛的工业控制器。 PID控制器简单易懂,不需要精确的系统模型等先决条件,因此成为应用最广泛的控制器。 PID控制器由比例单元(P)、积分​​单元(I)和微分单元(D)组成。在实际生产过程中,由于参数整定方法的复杂性,常规PID控制的应用受到很大限制和挑战。人们在应用PID的同时,也进行了各种改进,主要有两个方面:一是对常规PID本身结构的改进,即变结构PID控制。如积分分离算法、反积分饱和算法和微分项的改进等。另一方面,结合模糊控制、神经网络控制和专家控制,可以扬长避短,发挥各自的优势,形成所谓的智能PID控制。神经网络是由大量简单的处理单元组成的系统,广泛连接,模拟人脑神经系统的结构和功能。从研发到研发,并不是一帆风顺的。经历了从上升到低潮,再到新的高潮的曲折发展道路。自 1980 年代中期以来,在美国、日本等一些西方工业化国家,出现了一波研发神经网络的竞争浪潮。人工神经网络近十年的发展也表明,这是一门应用前景广阔的新兴学科,其发展将对当前和未来科技水平的提高产生重要影响。

近十年来,神经网络理论与实践取得了长足的进步,再次拓展了计算概念的内涵,使神经计算和进化计算成为新的学科,神经网络的软件模拟得到了广泛的应用。用过的。应用。技术先进国家的大公司对神经网络芯片和生物芯片情有独钟。例如,英特尔公司、IBM公司和HNC公司已获得多项专利,现有产品已进入市场并被国防、企业和科研部门选用。神经网络在国民经济现代化和国防科技建设中具有广阔的应用领域和发展前景。神经网络具有大规模并行、分布式存储和处理、自组织、自适应和自学习能力,特别适用于处理需要同时考虑多种因素和条件的不准确、模糊的信息处理问题时间。其主要应用领域有:语音识别、图像识别、计算机视觉、智能机器人、故障诊断、实时语言翻译、企业管理、市场分析、决策优化、物料调度、自适应控制、专家系统、智能接口、神经心理学、为了在PID控制中达到更好的控制效果,需要调整比例、积分、微分三种控制功能,使控制变量形成相互配合、相互制约的关系。这种关系不一定是简单的线性组合,最好的关系可以从无限变的非线性组合中找到。神经网络的任意非线性表达能力,通过对系统性能的学习,可以实现最优组合的PID控制。

因此,基于神经网络的PID不仅能够适应环境变化,而且具有很强的鲁棒性。 1.3 本研究的主要内容1、神经网络的基本概念和原理,RBF神经网络的基本概念和发展历史,RBF神经网络的学习算法;2、经典PID控制PID控制原理,现有PID控制整定方法,PID控制的局限性; 3、基于RBF神经网络的PID控制器设计; 4、使用MATLAB软件对所设计的控制系统进行稳定性、稳定性、稳定性评价。鲁棒性和抗干扰能力的仿真研究。 2 神经网络2.1 神经网络的基本概念和特点人工神经网络(ANN,Artificial Neural Network)又称并行分布式处理模型或连接机制模型,是基于模仿人类的结构和功能脑。信息处理系统或计算机系统。神经网络系统是指利用工程技术模拟人脑神经网络结构和功能的技术系统。它是一个大规模的并行非线性动态系统。由于是人工手段构建的网络系统,故又称人工神经网络系统。基于人工神经网络的控制简称为神经网络控制。人工神经网络的以下突出优势使其近年来备受关注:(1)可以逼近L2上的任意非线性函数;(2)信息和存储的并行分布式处理;(3)多输入多输出是可能的;(4)很容易用VLSI或光集成电路系统,或者用现有的计算机技术来实现;(5)能体现人工神经网络的特点和优势)主要表现在三个方面:一是具有自学习功能。

例如,在实现图像识别时,只需将许多不同的图像模板和对应的待识别结果输入人工神经网络,网络会通过自学习功能逐步学习识别相似图像。自学习功能对于预测尤为重要。预计未来人工神经网络计算机将为人类提供经济预测、市场预测和效益预测,其应用前景十分广阔。其次,它具有联想存储功能。这种关联可以使用人工神经网络的反馈网络来实现。第三,它具有高速寻找最优解的能力。寻找复杂问题的最佳解决方案通常需要大量的计算。利用针对某一问题设计的反馈人工神经网络,发挥计算机的高速计算能力,可以快速找到最优解。 2.2 人工神经网络的基本原理神经网络是由一个或多个神经元组成的信息处理系统。对于一个有m个输入节点和z个输出节点的神经网络,输入输出关系可以看成是m维欧几里得空间到n维欧几里得空间的映射模型,数学形式表示为f:Y=f(x ) ,其中 x 和 Y 分别是输入和输出向量。网络的实际输出与预期输出之间的误差是衡量所构建网络模型性能的指标。神经元是神经网络的基本处理单元。它通常表示为多输入、单输出的非线性计算设备。网络结构可以用单个神经元的基本结构来表示,主要包括三个基本要素: 1. 一组连接(对应生物神经元的突触),连接强度用每个连接上的权重来表示,权重值对激活为正,对抑制为负; ② 一个求和单元,用于计算每个输入信号的加权和(线性组合); ③ an activation function that acts as a nonlinear mapping and limits the amplitude of the output value of the neuron within a certain range.

There is also an additional input called threshold or bias. Automatic control theory has gone through classical control theory and modern control theory, and has entered a new stage of intelligent control theory. PID control is the most common control method so far, and various DCS, intelligent regulators, etc. use this method or its smaller deformation to control (84% of the process control in the world is still pure PID regulator, if improved Although many advanced control methods have been introduced since 1940, PID control is still widely used in various in industrial process control. In this chapter, a brief overview of the PID control method is given first, and then the traditional conventional PID control systems—analog PID control system and digital PID control system are reviewed. On the basis of analyzing the advantages and disadvantages of traditional conventional PID control, some improved PID controllers are given. 2.3 Structure of Neural Network Artificial neural network is a system that simulates the structure and characteristics of human brain neuron network by means of engineering technology. We can use artificial neurons to form a variety of neural networks with different topological structures, which is a simulation and approximation of biological neural networks. As far as the main connection form of neural network is concerned, there are dozens of different neural network models, among which feedforward network and feedback network are two typical structural models. 2.3.1 Feed forward neural network, also known as feed forward network.

As shown in the figure, the neurons are arranged in layers, including an input layer, a hidden layer (also known as an intermediate layer, there may be several layers) and an input layer. The neurons in each layer only accept the input of the neurons in the previous layer. . From the learning point of view, the feedforward network is a powerful learning system, which is simple in structure and easy to program: From the system point of view, the feedforward network is a static nonlinear mapping. Gain sophisticated nonlinear processing capabilities. But from a computational point of view, rich dynamical behavior is lacking. Most feedforward networks are learning networks, and their classification ability and pattern recognition ability are generally stronger than feedback networks. Typical feedforward networks include perceptrons and BP networks. Feedforward Neural Network Structure2.3.2 Feedback Neural Network (feedback neural network), also known as feedback network, its structure is shown in the figure below. If the total number of nodes (neurons) is N, each node has N inputs and one output, that is, all nodes are the same, and they can be connected to each other. A feedback neural network is a nonlinear dynamic system that needs to work for a period of time to reach stability. Hopfield neural network is the simplest and most widely used model in feedback network. It has the function of associative memory (content addressable memory, CAM). Hopfield neural network can also be used to solve fast optimization problems. In the feedback network, the input signal determines the initial state of the feedback system, and then the system gradually converges to the equilibrium state after a series of state transitions.

Such an equilibrium state is the result of the feedback network’s calculated output. It can be seen that stability is one of the most important issues in a feedback network. If the Lyapunov function of the network can be found, it is guaranteed that the network can converge to a local minimum from any initial state. All nodes in the feedback neural network are computing units, which can also receive input and output to the outside world. Feedback neural network structure2.4 The learning method of neural network is to acquire knowledge by learning from the environment and improve its performance is an important feature of neural network. Adjusting its own parameters (such as weights) gradually achieves over time, according to the amount of information provided by the environment, the neural network has three learning methods: ① supervised learning (learning with a teacher); ② unsupervised learning (learning without a teacher); Incentive learning (reinforcement learning). 2.4.1 Supervised Learning (Learning with a Teacher) In order for a neural network to solve various problems in practical applications, it must be trained. This training process requires teachers to teach and provide data, also known as model data. In the training process, the supervision of teachers is needed, so this kind of learning with teachers is also called supervised learning. The result of learning in this kind of learning is that the output of the network has an evaluation standard, and the network compares the actual output with the evaluation standard, and adjusts the system weights by its error signal. The evaluation standard is provided to the network by the outside world, which is equivalent to having a teacher who knows the correct result teach it to the network, so this kind of learning is also called teacher teaching learning.

In this kind of learning, the connection weights of the network are often adjusted according to the rules. 2.4.2 Unsupervised learning (learning without teachers) Learning without teachers is a kind of self-organizing learning, that is, the learning process of the network is completely a self-learning process, and there is no teaching by external teachers. , and there is no feedback from the external environment to indicate what the network should output or whether it is correct, so it is also called unsupervised learning. The so-called self-organizing learning is that the network repeatedly adjusts the connection weight according to certain rules in response to the excitation of the input mode, until the network finally forms an ordered state. Self-organizing learning relies on the continuous adaptation of neurons themselves to input patterns to extract the rules of input signals (such as statistical rules). Once the network shows the statistical characteristics of the input data, the network realizes the encoding of the input feature, that is, the input feature is “memorized”, and after the memory, when it appears again, it can be recognized. Self-organizing learning can measure the learning process of the network and optimize its free parameters. It can be considered that the evaluation criteria for this learning are implicit in the network. This self-organizing property of neural networks originates from the plasticity of their structures. 2.4.3 Reinforcement learning (reinforcement learning) Reinforcement learning is a learning method between the above two situations. The external environment gives evaluation information (reward or punishment) to the result output by the system instead of giving the correct answer. The learning system improves its own performance by reinforcing those actions that are rewarded. 2.5 RBF Neural Networks2.5.1 A Brief History of RBF Neural Networks Broomhead and Lowe were the first to use RBF in neural network design.

In their paper “Multivariable functional interpolation and adaptive networks” published in 1988, they initially discussed the different characteristics of RBF for neural network design and traditional interpolation, and then proposed a three-layer structure of RBF neural network . Moody and Darken published the article “Fast learning in network of locally-tuned processing units” in 1989, and proposed a neural network with local response characteristics, which is actually consistent with the RBF neural network proposed by Broomhead and Lowe.还提出了RBF神经网络的训练方法。以后的研究者针对以前研究中存在的问题与不足提出了许多改进的方法,比如Chen提出的OLS(Orthogonal Least Squares)算法;S.Lee等人提出的HSOL (Hierarchically Self-Organizing Learning) 算法;Platt提出的RAN(Resource Allocating Network)在线学习算法;Kadirkamanathan和Niranjan提出的RANEKF(RAN via Extended Kalman Filter)算法等。

RBF 神经网络主要用于解决模式分类和函数逼近等问题。在数学上,RBF神经网络结构的合理性可由 Cover 定理得到保证,即对于一个模式问题,在高维数据空间中可能解决在低维空间中不易解决的分类问题。它以径向基函数作为隐节点的激活函数,具有收敛速度快、逼近精度高、网络规模小等特点。 2.5.2 RBF的数学模型RBF 神经网络通常是一种三层前向网络,RBF网络结构如下图所示。第一层是输出层,由信号源节点组成;第二层为隐含层,其节点基函数是一种局部分布的、对中心径向对称衰减的非负非线性函数;第三层为输出层。 RBF神经网络结构图根据 RBF 神经网络结构分析,构成 RBF 神经网络的基本思想是:用 RBF 作为隐层神经元的“基”构成隐含层空间,这样就可将输入矢量直接映射到隐空间。当 RBF的中心确定后这种映射关系也就确定了。而隐含层空间到输出层空间的映射是线性的,即网络的输出是隐层神经元输出的线性加权和,此处的权值为网络的可调参数。从总体上来说,网络由输入到输出的映射是非线性的,而网络对可调参数而言是线性的。这样网络的权值就可由线性方程组解出或用 RLS(递推最小二乘)方法递推计算,从而加快学习速度并避免局部极小问题。

2.5.3 被控对象Jacobian信息的辨识算法在RBF网络结构中,为网络的输入向量。设RBF网络的径向基向量,其中为高斯基函数 网络的第j个结点的中心矢量为,其中,i=1,2,…n设网络的基宽向量为为节点j的基宽度参数,且为大于零的数。网络的权向量为辨识网络的输出为辨识器的性能指标函数为根据梯度下降法,输出权、节点中心及节点基宽参数的迭代算法如下式中,为学习速率,为动量因子。 Jacobian阵(即为对象的输出对控制输入的灵敏度信息)算法为 式中,2.5.4 RBF神经网络的学习算法通过分析 RBF 神经网络结构的特点,可以发现主要有两个因素决定结构:网络隐层神经元个数及其中心、隐层与输出层连接权值。一般的算法都是充分利用的三层结构特点来设计学习算法,第一步确定网络隐层神经元个数与其中心,第二步确定网络的权值。这种两步训练算法的重要特点是在第二步可以直接利用线性优化算法,从而可以加快学习速度和避免局部最优,因此得到了广泛的应用,最近大多数的算法的改进也是围绕着这两个方面展开的。给定了训练样本,RBF 神经网络的学习算法应该解决以下问题:结构设计,即如何确定网络隐节点数;确定各径向基函数的数据中心及扩展常数;输出权值修正。

一般情况下,如果知道了网络的隐节点数、数据中心和扩展常数,RBF 神经网络从输入到输出就成了一个线性方程组,此时权值学习可采用最小二乘法求解。根据数据中心的取值方法,RBF 神经网络的设计方法可分为两大类:①.数据中心从样本输入中选取 这种方法数据中心从样本输入中选取,如正交最小二乘算法、正则化正交最小二乘算、进化优选算法等。这类方法的特点是数据中心一旦获得就不再改变,而隐节点的数目一开始就固定,或者在学习过程中动态调整。 ②.数据中心动态调节方法 这类方法数据中心的位置在学习过程中是动态调节的,如基于各种动态聚类。最常用的是k-means聚类或 Kohonen 提出的自组织映射(Self Organizing Feature Map,SOFM)方法、梯度下降法、资源分配网络等。这些方法各有优缺点:第 1 类算法较容易实现,且能在权值学习的同时确定隐节点的数目,并保证学习误差不大于给定值,但数据中心从样本输入中选取是否合理,值得进一步讨论。另外,算法并不一定能设计出具有最小结构的RBF 神经网络,也无法确定基函数的扩展常数。第2类方法,聚类方法的优点是能根据各聚类中心之间的距离确定各隐节点的扩展常数,缺点是确定数据中心时只用到了样本输入信息,而没有用到样本输出信息;另外聚类方法也无法确定聚类的数目(RBF 神经网络的隐节点数)。

由于 RBF 网的隐节点数对其泛化能力有极大的影响,所以寻找能确定聚类数目的合理方法是聚类方法设计 RBF神经网络时需首先解决的问题。本文采用RBF的梯度下降法,所以下面主要介绍 RBF 学习的梯度下降法。在以下 RBF神经网络学习算法中为样本输入,相应的样本输出为网络中第j个隐节点的激活函数为。该方法是最经典的 RBF 神经网络学习算法,由 Moody 与 Darken 提出,其思路是先用自组织学习算法对样本输入进行聚类,确定 RBF 神经网络中h个隐节点的中心,并根据各数据中心之间的距离确定隐节点的宽度,然后使用有监督学习训练各隐节点的输出权值。虽然可以用批处理来完成上述两个学习阶段,但是使用迭代的方法更理想。 RBF 神经网络的梯度下降训练方法是通过最小化目标函数实现对各隐节点数据中心、宽度和输出权值的学习。建立这种学习过程的第一步是定义代价函数的瞬时值 式中:N是用于学习的训练样本数目,是误差信号,定义为: 目标是要找到使E最小的自由参数,,的值。由于神经网络函数F(x)对数据中心、宽度和输出权值的梯度分别为: 考虑到所有训练样本的影响,、和的调节量为:式中为第i个隐节点对的输入;、、为学习速率。

2.6 本章小结本章介绍了人工神经网络的基本概念和原理。重点分析RBF神经网络的结构和学习算法,为以后引入RBF神经网络PID控制算法提供了理论基础。 3 PID控制器3.1 PID控制器简介PID 控制是迄今为止最通用的控制方法,各种 DCS、智能调节器等均采用该方法或其较小的变形来控制(至今在全世界过程控制中84%仍是纯 PID 调节器,若改进型包含在内则超过 90%),尽管自 1940 年以来,许多先进控制方法不断推出,但 PID 控制以其结构简单,对模型误差具有鲁棒性及易于操作等优点,故仍广泛应用于各种工业过程控制中。数字 PID 控制算法分位置式和增量式两种,工程上常用的增量式 PID 控制算法,其控制算式为: 式中,为比例系数,=为积分系数,为微分系数,T 为采样周期,为积分时间,为微分时间, 为时刻的误差。 3.2 经典PID控制原理PID控制器是一种线性控制器,它根据给定值r(k)与实际输出值y(k)构成控制偏差:E(k)=r(k)-y(k)其原理如下图所示: 由上图可以看出PID控制器是基于比例P,积分I,微分D的控制器,它是一种基于偏差控制的线性控制器,根据实际输出值和给定值相比较,得出一个偏差,通过线性组合将P,I,D,以及偏差组合在一起构成一个控制量U,对被控对象进行控制。

概括起来,PID控制器各校正环节的作用如下:①.比例环节:输出控制量与控制系统偏差信号e(k)成比例关系,一旦有偏差产生,控制器立即产生控制作用,以减小偏差。比例增益(Kp),比例调节依据偏差的大小来动作,其输出与输入偏差的大小成正比。比例调节及时、有力,但有余差。可以用增益Kp来衡量其作用的强弱,Kp愈大,调节作用愈强。所谓增益是指调节器的输出相对变化量与相应输入的相对变化量之比。如控制器的增益为5,意味着控制器输入变化 10%(相对于测量范围而言),将会导致控制器的输出变化 50%(相对于全范围而言)。比例控制加大增益,使系统动作灵敏,速度加快,但增益偏大,振荡次数增加,调节时间加长。过大的增益会引起振荡,过小的增益会使调节过程变的太慢。有时也用比例度(δ )表示比例作用的强弱,比例度等于增益的倒数乘以100%(δ=100% /Kp)。 ②.积分环节:该环节主要用来消除静差,提高系统的无差度。积分时间Ti,积分调节依据偏差是否存在来动作,它的输出与偏差对时间的积分成比例,只有当余差消失时,积分作用才会停止(抗积分饱和时除外)。积分的作用是消除余差,但积分作用使最大动偏差增大(因为纯积分控制器作用的相位滞后为 90℃),延长了调节时间。

积分作用用积分时间TI来表示其作用的强弱。积分时间可以理解为:在阶跃偏差输入作用下,调节器的输出达到比例输出两倍时所经历的时间,即为“重定”时间。积分时间越小表明积分作用越强。积分作用太强时也会引起振荡,积分时间的选择是与控制过程的时间常数密切相关的。一般而言,控制过程的时间常数越短,选择的积分时间越小。积分控制通常与比例控制或微分控制联合作用,构成 PI 或PID 控制。积分控制能消除系统的稳态误差.提高控制系统的控制精度。但积分控制通常使系统的稳定性下降。 TI太小系统将不稳定;TI偏小,振荡次数较多;TI太大,对系统性能的影响减少;当TI合适时,过渡过程特性比较理想。 ③.微分环节:反应偏差信号的变化情况,并能在信号偏差变化太大之前系统中引入一个有效的早期修正信号,从而加快控制器的调节速率,缩短过渡过程时间,减少超调。微分时间TD,微分调节依据偏差变化速度来动作。它的输出与输入偏差变化的速度成比例,其作用是阻止被调参数的一切变化,有超前调节的作用,对滞后大的对象有很好的效果。它可以克服调节对象的惯性滞后(时间常数 T)、容量滞后τc ,但不能克服调节对象的纯滞后τ0 ,因为在τ0时间内,被调参数的变化速度为零。

某些控制过程的时间常数较大,操纵变量的改变要经过较长的时间后才能反映到被控变量上。经过换热器的空气温度的控制就是一个典型的例子。在适当引入微分作用后可以明显改变控制品质。当被控变量偏离设定点时,随着偏离速度的增加,控制器的增益也随之增加,这样可以促使被控变量尽快回到设定点,又不至于引起过大的振荡(相对于单纯的增加控制增益而言)。微分作用使调节过程偏差减小,时间缩短,余差也减少(但不能消除)。它用微分时间TD来表示其作用的强弱,TD越大表明微分作用越强,但DT太大会引起振荡。微分控制通常与比例控制或积分控制联合作用,构成 PD 或 PID 校制。微分控制可以改善动态特性,如超调量δp 减少,调节时间ts 缩短,允许加大比例控制,使稳态误差减少,提高控制精度。对于时间常数较小,而负荷又变化较快的调节对象,不易引入微分作用,因为如果引入微分作用容易引起振荡。 3.3 现有PID控制器参数整定方法在PID控制系统中,PID控制器的参数整定是控制器的核心内容。但是该过程是比较复杂的。 PID控制器参数整定的方法很多,概括起来有两大类:一是理论计算整定法。它主要是根据系统的数学模型,经过一系列理论计算确定控制器的各个参数。

利用这种方法所得到的计算数据未必可以直接用,还必须通过工程实际进行调整和修改。第二种方法是工程整定方法,它主要依赖工程经验,直接在控制系统的试验中进行,且方法简单、易于掌握,在工程实际中被广泛采用。PID控制器参数的工程整定方法,主要有临界比例法、反应曲线法和衰减法。三种方法各有其特点,其共同点都是通过试验,然后按照工程经验公式对控制器参数进行整定。但无论采用哪一种方法所得到的控制器参数,都需要在实际运行中进行最后调整与完善。现在一般采用的是临界比例法。利用该方法进行PID控制器参数的整定步骤如下(l) 首先预选择一个足够短的采样周期让系统工作;(2) 仅加入比例控制环节毕业设计任务书非线性系统的神经网络控制设计及比较,直到系统对输入的阶跃响应出现临界振荡,记下这时的比例放大系数和临界振荡周期;(3) 在一定的控制度下通过公式计算得到PID控制器的参数。同Z-N经验法不同,临界比例法不依赖于对象的数学模型参数,而是总结了前人理论和实践的经验,通过实验由经验公式得到PID控制器的最优整定参数。该方法用来确定被控对象的动态特性的参数有两个:临界增益Kc和临界振荡周期Tc。下边给出参考公式表: 控制器类型P0.5PI0.450.83PID0.60.50.1253.4 PID控制的局限PID 控制器在实际应用中的局限主要有: ①.由于实现控制系统的元器件物理特性的限制,使得 PID 控制器获得的原始信息偏离实际值,而其产生的控制作用偏离理论值。

例如,各种传感器不可避免地存在着测量误差;误差微分信号的提取是由误差信号差分或由超前网络近似实现的,这种方式对信号噪声的放大作用很大,使微分信号失真。 ②.由于常规的 PID 控制器采用偏差的比例、积分和微分的线性组合构成控制量,不能同时很好的满足稳态精度和动态稳定性、平稳性和快速性的要求。为此在系统的设计与整定过程中,只好采取折中的方案来兼顾动态和稳态性能的要求,因此难以大幅度提高控制系统的性能指标。 ③.尽管常规 PID 控制器具有一定的鲁棒性和适应性,但是对于强非线性、快速时变不确定性、强干扰等特性的对象,控制效果较差。例如,在某一时刻、某种条件下整定好的控制器参数,由于被控对象的结构或参数时变,在另一时刻、另一条件下控制效果往往欠佳,甚至可能使控制系统失稳。 3.5 本章小结本章阐述了常规PID控制器的理论基础,研究了几种典型的参数整定方法,还分析了PID控制的局限性毕业设计任务书非线性系统的神经网络控制设计及比较,为进一步研究基于神经网络的智能PID控制器做准备。 4 基于RBF神经网络整定的PID控制器设计4.1 RBF神经网络的PID整定原理采用增量式PID控制器,控制误差为 PID三项输入为控制算法为神经网络整定指标为,,的调整采用梯度下降法式中,为被控对象的jacobian信息,可通过神经网络的辨识而得。

4.2 神经网络PID控制器的设计PID 控制要取得良好的控制效果,就必须对比例、积分和微分三种控制作用进行调整以形成相互配合又相互制约的关系,这种关系不能是简单的“线性组合”,可从变化无穷的非线性组合中找出最佳的关系。神经网络所具有的任意非线性表示能力,可以通过对系统性能的学习来实现具有最佳组合的 PID 控制。基于RBF神经网络 KP, KI,KD,参数自学习 PID 控制器神经网络有很强的非线性拟合能力,可映射任意复杂的非线性关系,而且学习规则简单,便于计算机实现。具有很强的鲁棒性、记忆能力、非线性映射能力以及强大的自学习能力,因此有很大的应用市场。具有局部逼近的优点,RBF神经网络是一种性能优良的前馈型神经网络,RBF网络可以任意精度逼近任意的非线性函数,且具有全局逼近能力,从根本上解决了BP网络的局部最优问题,而且拓扑结构紧凑,结构参数可实现分离学习,收敛速度快。 RBF网络和模糊逻辑能够实现很好的互补,提高神经网络的学习泛化能力。 RBF 神经网络具有任意逼近非线性函数的能力,而且结构和学习算法简单明确,所以在研究的此课题中,本人采用了工程中最为常用的 RBF 网络来构建神经网络 PID控制器。

通过神经网络自身的学习,可以找到某一最优控制下的 P、I、D 参数。基于 RBF 神经网络的 PID 控制系统结构如下图所示: 4-1 基于RBF神经网络整定的PID控制框图控制器由两个部分组成:①经典的 PID 控制器:直接对被控对象进行闭环控制,并且KP, KI,KD三个参数为在线P,I,D整定;②神经网络 NN:根据系统的运行状态,调节 PID 控制器的参数,以期达到某种性能指标的最优化。即神经网络的输出层神经元的输出状态对应于 PID 控制器的三个可调参数KP, KI,KD ,通过神经网络的自学习、调整权系数,从而使其稳定P,I,D状态对应于某种最优控制规律下的 PID 控制器参数。 4.3 本章小结本章给出了RBF神经网络的PID整定原理,并设计了基于RBF神经网络的PID控制器系统结构图。 5 仿真分析5.1 系统的稳定性分析设控制系统被控对象的数学模型为: 输入指令信号为阶跃信号,即rin(t)=1.0,基于 RBF 神经网络的 PID 控制系统结构图为图4-1,网络辨识的三个输入为:u(k),yout(k),yout(k-1)。首先用MATLAB将被控对象数学模型G(s)化为差分方程形式,设仿真步距ts=0.01,则M程序为:Ts=0.01Sys=tf([1],[1,2,25])Deys=c2d(sys,ts, ‘z’)运行后得到:4.98e-005 z + 4.96e-005—————————–z^2 – 1.987 z + 0.9881即 y(n)=1.978y(n-1)-0.9802y(n-2)+0(n-1)+0(n-2)然后运用MATLAB对系统进行仿真,其仿真结果如图5-1 和 5-2 所示: 图5-1 RBF整定PID控制阶跃响应 图5-2 参数自适应整定曲线5.2 系统抗干扰能力分析在系统稳定后,k=3000时加一个扰动,分析系统的抗干扰能力,其反应曲线如图5-3 和 5-4所示: 图5-5 加扰动后的反应曲线 图5-4 参数自适应整定曲线5.3 系统鲁棒性分析已知系统被控对象的数学模型为: 现在将T增大,即将被控对象改为: 首先还是运用MATLAB将被控对象数学模型G(s)化为差分方程形式,设仿真步距ts=0.01,则M程序为:Ts=0.01Sys=tf([1],[1,1.2,9])Deys=c2d(sys,ts, ‘z’)运行后得到:4.98e-005 z + 4.96e-005—————————–z^2 – 1.987 z + 0.9881即 y(n)=1.987y(n-1)-0.9881y(n-2)+0.0000498u(n-1)+0.0000496u(n-2)然后运用MATLAB对系统进行仿真,其仿真结果如图5-5 和 5-6所示: 图5-5 RBF整定PID控制鲁棒性响应曲线 图5-6 参数自适应整定曲线5.4 本章小结本章运用MATLAB软件对所掌握的RBF神经网络整定的PID控制算法进行了仿真研究,并通过仿真实验,研究了基于RBF神经网络整定的PID控制系统的稳定性、鲁棒性和抗干扰能力。

结 论在科学技术和生产力水平高速发展的今天,人们对大规模、复杂和不确定性系统实行自动控制的要求不断提高,传统的基于精确数学模型的控制理论的局限性日益明显,主要表现在以下几个方面:不适应不确定性系统的控制;不适应非线形系统的控制;不适应时变系统的控制;不适应多变量系统的控制。由于这些局限性,传统控制方法和传统的神经元网络均不能单独胜任复杂系统的控制任务,因此需要研究新的更有效的控制方法。近年来,随着神经元网络的研究和应用,人们开始采用神经元网络和PID控制相结合,以便改进传统PID控制的性能。人工神经网络理论(Artificial Neural Network—ANN)是近十几年迅速发展起来的一门新兴学科。由于其独特的特性,已应用于控制、信号分析、音处理等多个领域中。在控制领域中,神经网络由于其具有较强的非线性映射自学习适应能力、联想记忆能力、并行信息处理方式及其优良的容错性能,不同程度和层次上模仿人脑神经系统的信息处理、存储和检索功能。这些特性使得神经网络非常适合于复杂系统的建模与控制。特别是当系统存在不确定性因素时,更能体现神经网络方法的优越性。这些都很适合于控制系统中的非线性系统的控制。

本文针对在控制领域中应用最广泛的一类控制,PID控制在现代控制越来越高的情况下,由于常规PID控制自身的缺陷,在许多场合已经不能再很好地满足控制性能要求的情况下,本课题提出了基于RBF算法的神经网络PID控制器。RBF神经网络具有逼近任意非线性函数的能力,而且结构和学习算法简单明确,通过RBF神经网络自身的学习可以找到某一最优控制律下的P,I,D参数。本文设计了一个基于RBF神经网络整定的PID控制器,并运用MATLAB软件对该控制系统进了仿真研究(主要针对数学模型传递函数为2阶的被控对象进行了研究),通过仿真实验我们可以看出,本控制系统有着不错的稳定性、鲁棒性和抗干扰能力。通过对本课题的研究,本人觉得神经网络PID控制仍然还是一个比较新的研究领域,基于RBF神经网络整定的PID控制理论还涉及到很多其他学科的知识和关键技术,由于时间仓促加上笔者刚刚涉及这一领域,许多重要的研究内容尚未涉及或者研究深度不够。因此,还存在局限性,需要进一步的研究和完善。而且,笔者认为基于RBF神经网络整定的PID控制将是一个很具有应用前景的课题,值得进一步深入研究。参 考 文 献[1] 薛定宇. 控制系统仿真与计算机辅助设计. 北京: 机械工业出版社,2005[2] 黄忠霖. 控制系统MATLAB计算及仿真. 北京: 国防工业出版社,2001[3] 董长虹. 神经网络与应用. 北京: 国防工业出版社,2005 [4] 张化光,孟祥萍. 智能控制基础理论及应用. 北京:机械工业出版社,2005 [5] 徐丽娜,神经网络控制. 哈尔滨:哈尔滨工业大学出版社,1999[6] 陶永华,尹怡欣,葛芦生. 新型PID控制及其应用. 北京: 机械工业出版社,1998 [7] 何玉彬,李新忠. 神经网络控制技术及其应用. 北京:科学出版社,2000[8] 董长虹. MATLAB神经网络与应用. 北京:国防工业出版社,2005[9] 舒怀林. PID神经元网络及其控制系统. 北京: 国防工业出版社,2006[10] 魏海坤. 神经网络结构设计的理论方法. 北京: 国防工业出版社,2005[11] 杨平等编著. 自动控制原理. 北京: 中国电力出版社,2006 [12] 刘金琨. 先进PID控制及其MATLAB仿真. 北京: 电子工业出版社,2003[13] 魏巍. MATLAB控制工程工具箱技术手册. 北京:国防工业出版社,2004[14] 郭晶,杨章玉. MATLAB6.5辅助神经网络分析与设计. 北京:电子工业出版社,200[15] 王树青.先进控制技术及应用. 北京:化学工业出版社,2001[16] 张德江等编著. 计算机控制系统. 北京:机械工业出版社,2008[17] 龙晓林,徐金方.基于优化BP神经网络的PID控制器研究明.计算机测量与控制,2003[18] 王江江. 神经网络PID控制器在空调房间温度控制中的仿真研究. [学位论文]. 河北:华北电力大学,2003[19] 赵建华,沈永良.一种自适应PID控制算法.自动化学报,2001,27(2):417~420[20] 朱海峰,李伟,张林.基于BP神经网络整定的PID控制.动力学与控制学报,2005,3(4):93~96[21] 张新军,李虹飞.西门子PLC对四相步进电机控制的实现[J].济源职业技术学院学报,2009,8(3):42-44.致 谢经过几个月时间的努力,我终于完成了论文《基于RBF神经网络的PID控制器设计及仿真》,在论文完成之际,本人谨向平玉环老师表示诚挚的敬意和衷心的感谢。

本文是在平老师的悉心指导下完成的。她渊博精深的知识、高屋建领的见解及敏锐的洞察力使我终生受益。在论文工作期间,平老师在论文的选题、设计、相应的研究工作以及论文的撰写方面都给予了极大的关心和悉心的指导。没有她的鼓励和帮助,本篇论文也是很难完成的。另外,在生活方面,平老师也处处关心学生,给予了我很大的帮助。在此,我由衷地对于老师说一声:“谢谢!”。最后再一次向所有曾给予本人帮助、支持和鼓励的良师益友和同学们表示最衷心的感谢! 感谢各位老师百忙之中对本文的审阅和提出的宝贵意见!附录 仿真程序 %Adaptive PID control based on RBF Identificationclear all;close all; xite=0.25;alfa=0.05;belte=0.01;x=[0,0,0]’; ci=30*ones(3,6);bi=40*ones(6,1);w=10*ones(6,1); h=[0,0,0,0,0,0]’;ci_1=ci;ci_3=ci_1;ci_2=ci_1;bi_1=bi;bi_2=bi_1;bi_3=bi_2;w_1=w;w_2=w_1;w_3=w_1; u_1=0;y_1=0;u_2=0;y_2=0;xc=[0,0,0]’;error_1=0;error_2=0;error=0; %kp=rand(1);%ki=rand(1);%kd=rand(1);kp0=30;ki0=0.03;kd0=0.07; kp_1=kp0;kd_1=kd0;ki_1=ki0;xitekp=0.20;xitekd=0.20;xiteki=0.20; ts=0.01;for k=1:1:5000 time(k)=k*ts; rin(k)=1.0;% yout(k)=1.978*y_1-0.9802*y_2+0u_1+0u_2; %Nonlinear plant (系统稳定性的被控对象数学模型) yout(k)=1.987*y_1-0.9881*y_2+0.0000498*u_1+0.0000496*u_2; %(系统鲁棒性的被控对象数学模型) for j=1:1:6h(j)=exp(-norm(x-ci(:,j))^2/(2*bi(j)*bi(j))); end ymout(k)=w’*h;d_w=0*w; for j=1:1:6d_w(j)=xite*(yout(k)-ymout(k))*h(j); end w=w_1+d_w+alfa*(w_1-w_2)+belte*(w_2-w_3);d_bi=0*bi; for j=1:1:6d_bi(j)=xite*(yout(k)-ymout(k))*w(j)*h(j)*(bi(j)^-3)*norm(x-ci(:,j))^2; end bi=bi_1+ d_bi+alfa*(bi_1-bi_2)+belte*(bi_2-bi_3); for j=1:1:6for i=1:1:3d_ci(i,j)=xite*(yout(k)-ymout(k))*w(j)*h(j)*(x(i)-ci(i,j))*(bi(j)^-2);end end ci=ci_1+d_ci+alfa*(ci_1-ci_2)+belte*(ci_2-ci_3); %%%%%%%%%%%%%%%%%%%%%%Jacobian%%%%%%%%%%%%%%%%%%%%%%% yu=0; for j=1:1:6yu=yu+w(j)*h(j)*(-x(1)+ci(1,j))/bi(j)^2; end dyout(k)=yu;%%%%%%%%%%%%%%%%%%%%%%Start of Control system%%%%%%%%%%%%%%%%%% error(k)=rin(k)-yout(k); kp(k)=kp_1+xitekp*error(k)*dyout(k)*xc(1); kd(k)=kd_1+xitekd*error(k)*dyout(k)*xc(2); ki(k)=ki_1+xiteki*error(k)*dyout(k)*xc(3);if kp(k)

© 版权声明
THE END
喜欢就支持一下吧
点赞0
分享
评论 抢沙发

请登录后发表评论