论文部分内容阅读
分布估计算法(EDAs)是基于概率模型的一类新的演化算法。EDAs兴起的原因是研究人员希望寻找一个遗传算法的替代方法。EDAs使用机器学习方法通过种群中选择的个体来获取搜索空间的相关特征,而不是通过遗传算子在个体之间交换信息。用概率模型取代交叉和变异算子可以带来一些益处。例如,EDAs减少了相关的参数的数目,因此,算法在一些具体应用的情况下,可以变得更简单。然而,最主要的益处是概率模型的结构组成可以提供一些有关变量间相互作用的明确信息,这些信息可用于对问题的解进行编码。作为当前演化算法领域的一个研究热点问题,EDAs得到了极大的发展,但是仍然还有很多问题亟待解决。特别是该算法性能的理论分析方面还需要深入的研究。因此,本文通过使用一些新的研究方法,对EDAs的性能进行了分析,所做的主要工作如下:(1)对一些不同类型的函数进行一个系统的实验。通过比较使用精确学习方法和近似技术的EBNA,对得到的贝叶斯网络结构进行了一个详细的分析。实验结果表明,由于因为存在过度拟合现象,在每代中都学习最优贝叶斯网络,对于改善EDA的性能来说是没有必要的。但是,当通过选择的个体给精确学习提供了足够了信息,算法就能够学习得到与问题结构十分接近的概率模型。(2)在问题变量之间的相互作用增大时,对不同EDA的实现(区别仅在使用的概率模型)所面临的性能局限进行了研究分析。通过实验,得出三个结论:1、学习方法的局限,要么是因为结构是需要预先给定的先验知识,或是因为受到学习近似结构复杂性约束的影响;2、即使采用一个精确的学习算法,当相互作用的数目增加的时候,需要解决的问题的结构复杂度会呈指数级增长,也存在着效率的局限;3、种群的局限可能是因为缺乏解决问题的信息,或者是因为这个参数需要呈数级增长才能提供一个鲁棒性的学习。(3)提出一个基于对概率模型定量分析的方法。这个定量分析是基于在搜索中记录的某些突出解(函数的最优解,分布中的最大可能解,每代中的最好解)的概率,从而对产生的概率分布进行分析。通过实验,可以得出结论,在求解一个未知问题的时候,通过监测最好个体的概率,可以得出算法的收敛速度,从而判断是否发生早熟收敛。搜索过程中,一些特别解的概率值是EDAs得到结果的原始信息。研究这类概率可以提供更多的有用信息,从而加深对这类算法性能的理解。(4)对EDAs与优化问题空间的关系进行了一个理论研究。首先,给出了在EDA中,函数等价的定义。根据这个定义,可以得出如果概率模型不施加约束给要逼近的选择的个体分布,那么所有的问题实际上都是属于同一个等价类的结论。第二,在单变量EDA的情形下,对问题的分类进行研究,并过过一个定义的集合Gσ来表示概率模型与函数之间的关系。基于上面的集合给出了一个判断两个函数等价的充分必要条件。通过否定和交换运算符,可以对一个类中的所有函数进行描述并计算成员的个数。最后,还证明了同一个类中的函数有着同等数目的局部最优解和同样的等级位置。