您好, 访客   登录/注册

基于改进遗传算法的计算机数学模型构建研究

来源:用户上传      作者:何庆 钟维坚 田风 林锋 唐苏东

  【摘要】 面向网络计算机中海量的数据信息,采取传统匹配搜索遗传算法进行匹配点、非匹配点的遍历,通常遍历到无效度更高的非匹配点较多,很难在短时间内找到与样本相近的最佳匹配点。基于此,针对基本遗传算法的无效遍历、数据冗余弊端,结合最小二乘法、Bagging集成聚类算法对原有遗传算法作出改进,建立起相似度匹配的计算机数学模型,确定高精度因子匹配的参数估算范围和辨识度,改进遗传算法关联矩阵编码、解码、交叉等集成学习与迭代环节,以扩展样本匹配的搜索空间与深度。
  【关键词】 改进遗传算法 计算机 数学模型 构建
  引言:
  在企业工业化生产、计算机视觉处理数据匹配中,通常需要根据视觉数据因子、工作站的数量,设置n个样本数据为初始聚类中心,对多个相似对象进行最小误差求解,将不同对象分配至距离其最近的聚类中心,来完成算法最优解的搜索与匹配。因而面对传统遗传算法具有的无效遍历更多、搜索深度不足等特征,本文提出基于Bagging集成聚类的改进遗传算法,建立起企业装配线的计算机平衡优化数学模型,将双目装配线中的生产作业要素因子,合理分配到相应的工作站之中,进行种群聚类分析的编码、适应度计算,得到每个个体的搜索与聚类结果。
  一、传统遗传算法的编码、数据搜索与交叉操作执行流程
  魍骋糯算法为美国密歇根大学J. H.Holland教授,根据达尔文“自然选择理论”提出的自适应数据信息搜索/优化技术,其初始群体编码是由二进制“0”和“1”字符组成的一连串字符串,将具有类似特征的字符串组合为特定子集,并利用随机搜索技术对多个字符串组成集合,进行交叉、变异等的迭代遗传操作,来确定全局最优解。
  因而该遗传算法主要是对编码后的控制参数,作出编码串模式阶次的群体矢量搜索。在完成某一空间数据参量的编码后,先对群体P(t)展开选择、交叉、变异等遗传算法运算,再根据所求问题的目标函数(适应度函数),进行编码字符串集群中个体的适应度评估,得到下一代群体P(t+1)。传统遗传算法的编码、数据搜索与交叉操作的简单执行流程如下所示。
  开始程序;
  t←0;
  初始化种群P(t) 编码;
  评价种群P(t)编码;
  如果不符合终止条件,则开始循环;
  T←t+1;
  从上一代种群P(t-1)中选择个体,形成新的群体P(t);
  种群P(T)通过交叉和变异进化;
  种群P(T)的适应度计算;
  评价组P(T);
  周期结束;
  程序执行结束。
  二、基于Bagging集成聚类的改进遗传算法
  传统遗传算法在多个编码数据集群的搜索、交叉操作过程中,常常表现出无效遍历、数据冗余、搜索深度不足等问题,因而提出Bagging集成聚类算法,利用多个基学习器进行编码样本的综合学习,使聚类所有样本到聚类中心距离的平方和最小,由此得出每个集群个体的所属类别。
  (一)Bagging并行式集成学习算法
  Bagging是在统计学习采样技术的基础上,对多种不确定性样本进行统计、推断与学习的技术,具有多次抽样、并行集成的样本采集特征。如先给定样本容量为n的编码数据集群,从该集群中随机取出某一样本,放入Bagging采样数据集,再将该样本放回初始数据集,经过这样多次的随机抽样,重复抽样的过程为T次,得到涵盖v个样本的采样数据集,可记为Bagging样本Di=(x1,x2,…,xv),i=1,2,…,T。
  针对以上T个采样出的训练样本集,选取多个基学习器对每个采样集的v个样本进行训练,再将以上多个基学习器的训练结果作出整合,输出为最终的Bagging并行式集成学习结果,完成Bagging算法的基本执行流程,具体集成学习结构如图1所示:
  (二)Bagging与K均值聚类结合的遗传算法
  集成聚类的遗传学习算法,是将Bagging集成学习算法、K均值聚类算法进行结合,生成K均值集成聚类算法,选定多个基学习器进行样本的训练学习,该机器训练学习流程属于无监督学习。也就是通常使用无标签的数据集、聚类准则函数,构建起用于聚类分析的准则函数:
  (1)
  具体集成聚类遗传算法的执行流程如图2所示。
  第一步,给出n个混合样本,选取K个初始聚合中心Zj(I),j=1,2,...,K,其中I表示迭代次数。
  第二步,利用Bagging集成学习算法采样数据训练集,将原始数据集的随机抽样放回原处,重复抽样过程T-1次,并获得涵盖v个样本的总共T-1抽样数据集,表示为Di=(x1,x2,…,xv),i=1,2,…,T-1。
  第三步,在完成多个样本归类时,取出未抽样的w个样本,形成另一个取样集,记录为DT=(x1,x2,…,xv),则可以将以上的样本采样数据集总和为:
  (2)
  第四步,使用多个K均值基学习器,在T样本集上执行单独的聚类训练。将初始聚类类别数设置为K,将初始训练集中的样本数设置为z,建立K・z相关矩阵,并由基础学习者对样本进行聚类。记录基学习器的不同样本聚类类别投票的数据信息,如第i行和第j列的s数值,则表明存在有s个均值基学习器,对第i样本归类为第j类。
  第五步,根据以上的K・z维关联矩阵,依照投票法则进行每个样本聚类类别的表示,其中投票数最多的聚类类别为样本类别,若投票数相同则随机选择某一类别,作为样本最终的聚类类别。
  第六步,计算不同样本到聚合中心的距离D (xk,Zj(I))min={D(xk,Zj(I)),其中k=1 ,2,…,n,j=1,2,...,K,且xk∈wi。之后将得到的k个新的聚合中心,用

nlc202205111811



转载注明来源:https://www.xzbu.com/1/view-15431050.htm

相关文章