
代理辅助进化算法(saea)由于减少了EA在计算昂贵的优化问题上所需的计算时间而引起了人们的广泛关注。在这些算法中,代理模型以较低的计算成本估计解的评估,并用于获得有希望的解,然后应用计算成本较高的准确评估。本研究提出了一种新的两两排序代理模型,称为基于极限学习机的DirectRanker (ELDR)。ELDR集成了极端学习机(extreme learning machine, ELM)和DirectRanker (DirectRanker, DR)两种机器学习模型。ELM是一种能够快速学习的单层神经网络,而DR使用主要用于信息检索的神经网络进行配对学习排序。为了研究所提出的代理模型的有效性,本研究首先检验了ELDR的估计精度。随后,将ELDR纳入最先进的SAEA中,并与已有的SAEA在知名实值优化基准问题上进行比较。实验结果表明,即使在少量训练数据的高维问题上,ELDR也有很高的估计精度。此外,与现有的SAEA相比,使用ELDR的SAEA具有更高的搜索性能,特别是在高维问题上。
进化算法(EAs)是一种基于群体的优化方法,应用于许多现实问题。然而,由于仿真或复杂的数值计算,在实际应用中经常需要昂贵的适应度评估,因此ea的计算成本通常很高。为了降低EA的计算成本,已经研究了代理辅助EA (SAEA)[1,2],并将其应用于实际应用,如航空航天工程[3,4]、车辆设计[5]和制造过程优化[6]。SAEA利用代理模型来估计适应度,而不是计算代价高昂的适应度函数,并为实际的适应度评估找到有希望的解决方案。由于代理估计在计算上比实际适应度评估便宜,因此与传统ea相比,SAEA的执行时间缩短了。
saea中使用了三种代理模型[7]:(1)直接估计适应度评价的回归模型,(2)估计相对于参考值而不是适应度评价的相对可接受度的分类模型,或(3)估计解决方案相对于其他解决方案的相对优越性的排序模型。本研究提出了一种新的基于排名的代理模型,该模型利用了一般ea可以根据解决方案的优越性进行亲本选择和生存选择的事实。具体来说,本文提出了基于极限学习机的DirectRanker (ELDR),它将极限学习机(ELM)[8,9](一种具有快速学习能力的单层神经网络)与DirectRanker (DR)[10](一种基于主要用于信息检索的神经网络的成对排序方法)相结合。
为了研究ELDR的有效性,首先将其与以往研究中使用的其他代理模型进行比较,分析其预测精度。然后,为了确认其在SAEA上的能力,将其纳入最先进的SAEA -特别是代理辅助混合优化(SAHO)[11],并将随后的ELDR-SAHO与最近的SAEA方法(包括SAHO)进行比较。
本文的其余部分组织如下:“相关工作”讨论了saea的相关工作。“建议的方法”详细描述了提出的新的两两排序代理模型ELDR。“ELDR在SAEA中的应用实例:ELDR代理辅助混合优化”介绍了ELDR辅助SAEA的细节。特别地,本研究采用了saho -最先进的SAEA。初步实验:ELDR的准确性分析了ELDR的参数敏感性,并将其估计精度与现有saea中使用的其他常规替代模型进行了比较。“数值实验”部分概述了为研究eldr辅助SAHO的有效性而进行的数值实验,并分析了所获得的结果。最后,“结论和今后的工作”提出了结束语并概述了今后可能开展的工作。
本节回顾了以前研究中saea中使用的替代模型。本研究主要关注单目标实值优化问题,同时也涉及到多目标优化和离散优化的一些研究,包括遗传规划。
在以往的研究中,主流的方法是使用回归模型的saea。特别是,大多数先前的工作[12,13,14,15]使用径向基函数(RBF)[16]作为代理模型。其他saea也被提出使用Kriging模型[17,18]、高斯过程回归[19]和最近邻方法[20]。Pavelski等人提出了ELMOEA/D[21],这是一种使用ELM作为回归代理模型的代理辅助多目标进化算法。
最近的研究提出了基于分类的saea。Pan等人[22]提出了一种基于分类的SAEA (CSEA),它使用人工神经网络(ANN)学习候选解和参考解之间的优势关系[23]。Sonoda等[24]使用支持向量机(SVM)[25]对基于分解的MOEA (MOEA/D)进行优化,对每个聚合函数的子代解是否优于父代解进行分类。Wei等人[26]提出了一种分类器辅助的基于水平的学习群优化器(CA-LLSO),该算法使用多类梯度增强分类器(GBC)[27]将群(种群)划分为不同的水平,以应用LLSO[28]。
与回归模型和分类模型相比,很少有研究报道基于排序的saea。排名模型通常用于预选[7],如Runarsson[30]和Loshchilov等[31]的作品中估计CMA-ES[29]中的人口排名。Lu等人[32]提出了基于代理辅助自适应(DESSA)的差分进化(DE)[33],该方法使用排序支持向量机(RankSVM)[34]来选择最有希望的试验向量。近年来,Hao等人[35]提出了一种使用向量串联两个解作为输入的排序模型,并证明该排序模型在训练样本较少的情况下比回归模型和分类模型具有更高的估计精度。Hao等人[36]的另一项工作提出了一个类似的基于神经网络的排序模型,该模型估计了解决多目标优化问题的优势关系。然而,与使用回归模型和分类模型的saea相比,使用秩模型的高性能saea研究有限。
由于排序模型可以估计解之间的优势关系,而不是目标函数值,因此它可以应用于更广泛的问题域,而回归和分类模型是不适用的。一个例子是在不估计所有约束值的情况下定义亲代或生存选择方法(例如可行性规则[37]或-约束方法[38])的约束优化问题。另一个例子是交互式ea中的受试者评估[39],它通常使用相对评估而不是定量评估。因此,开发一个有用的排序代理模型比回归和分类模型更有效地将SAEA应用于不同的问题领域。
本节首先介绍ELM[8,9]和DR[10],它们是ELDR的组成部分。然后,介绍了结合这两种技术的ELDR的工作原理。
图1

ELM的拓扑结构
ELM是一个单层神经网络。ELM拓扑结构如图1所示。ELM由一个全连通神经网络构成。给定一个d维输入,L个隐藏神经元的ELM计算输出y为
(1)
其中h表示激活函数,和表示从输入到第i个隐藏神经元()的权重向量和偏置值。的值表示从第i个隐藏神经元到输出的权重。
ELM最显著的特征是它随机分配隐藏层权重W和偏差,并且不学习它们,而输出权重是唯一学习的参数。对于N对输入输出的训练数据,(1)可以表示为
在哪里
为此,使用正则化项为伪逆矩阵运算,通过下式计算ELM输出权值[40]:
当训练样本数量不大时。反之,对于训练样本数量较大的情况(),则采用以下替代公式:
(2)
利用伪逆矩阵运算可以快速计算出ELM的输出权值,无需迭代。用户参数只有激活函数h、正则化系数C和隐藏神经元数L,使得参数调整变得容易。此外,激活函数是不可微的,这提供了灵活性。在ELM中,通常使用以下激活函数:
乙状结肠(SIG)::
高斯分布(高斯)::
Multiquadric (MQ)::
ELM相对于传统机器学习模型(如神经网络和支持向量机)的优势已经在之前的一些研究中得到了报道[41,42],具体如下:
由于ELM不需要反向传播的迭代过程,训练成本较低。
ELM往往具有更好的泛化性能,因为它不仅最小化均方误差,而且寻找更简单的模型。
由于ELM不使用基于梯度的学习,因此可以使用不可微的激活函数。
由于这些特征可以作为saea的替代模型,因此本研究的重点是ELM。
DR是一种基于神经网络的成对排序方法,它在未来空间F中实现了一个准排序,使得排序是唯一的。特别地,拟序满足以下三个条件:
1.
自反性:
2.
反对称性:
3.
传递性:
这个准顺序可以用排序函数定义为:
DR中的排序函数由两个子网nn和输出层构成。子网nn具有相同的结构和共享的权重。另一方面,输出层根据两个子网的输出差、输出权值和激活函数计算输出,如下所示:
(3)
其中激活函数满足以下条件:;原文[10]采用双曲正切()。式(3)中表示的函数满足拟序必须满足的三个条件:详见原文[10]。
假设将DR作为基于排序的代理模型应用于SAEA,由于DR是通过反向传播的迭代过程来优化神经网络的权值,因此可能会出现训练DR的计算成本高的问题。针对这一问题,本研究提出了一种新的两两排序方法——基于ELM的DR (ELDR),该方法利用ELM构建DR的子网络,通过伪逆矩阵运算实现快速训练,无需反向传播的迭代过程。
图2

ELDR的拓扑结构
图2展示了ELDR的拓扑结构。ELDR采用两个d维输入,x和y,并通过两个隐藏层的相减计算输出r。ELDR采用(1)中的随机加权单层网络作为DR子网,并定义排序函数如下:
其中W和是随机分配给同一ELM的权重参数,是唯一需要训练的参数。由于ELDR使用了与DR相同的结构、权值和激活函数的两个子网,因此排序函数也满足准顺序的三个条件。

算法1给出了ELDR的训练过程。首先,使用数据集D中的最小值和最大值在范围内对所有特征向量进行归一化,然后将数据集D中两个解的所有组合构造成对数据集
其中表示根据输入值的符号返回的符号函数。在这里,我们假设和的最小化是,如果比好,如果比差,如果等于0。对于构建的训练数据集,ELDR公式为
(4)
式中,从第i个输入对的第k个特征向量()计算得出:
在本研究中,权重W和偏置分别在和[0,1]范围内均匀随机抽样[43]。由式(4)可计算出输出权值如下:
(5)
用伪逆矩阵计算,如式(2)。
当预测给出两个解和时,ELDR的输出计算为
通过使用训练阶段分配的权重W和偏差以及Eq.(5)得到的输出权重。如果,ELDR预测的结果优于;否则,它预测会更好。
本小节讨论训练ELDR的计算复杂性。设数据集D的大小为N,配对数据集的大小为。隐藏神经元个数为l,则隐藏层的矩阵H的大小为,表示训练标签的矩阵T的大小为。
首先,对于任意激活函数,隐层计算的时间复杂度为0 (NLd)。接下来,对于输出权值的计算,假设一般情况下,计算式(2),时间复杂度可以计算为:的时间复杂度为,的时间复杂度为,而的时间复杂度为。因此,计算的时间复杂度变得。计算开销最大的部分是和,但由于,ELDR的时间复杂度最终变得。因此,ELDR的时间复杂度随着数据集大小N的平方与隐藏神经元数量L的平方的乘积而增加。
摘要。
介绍
相关工作
该方法
ELDR在SAEA中的应用实例:ELDR代理辅助混合优化
初步实验:ELDR的准确性
数值实验
有限公司
结论及未来工作
笔记
参考文献。
作者信息
道德声明
# # # # #
为了研究ELDR对SAEA的适用性,本研究将ELDR纳入最先进的SAEA方法SAHO[11],生成ELDR-SAHO。原始的SAHO采用RBF作为代理模型,同时使用差分进化(Differential Evolution, DE)[33]和基于教学的优化(Teaching-learning-based Optimization, TLBO)[44,45]找到了一个有希望的解决方案。ELDR- saho使用ELDR来估计解之间的优势关系,而不是使用RBF来预测适应度。本节简要介绍了SAHO中使用的搜索算法DE和TLBO,并详细介绍了ELDR-SAHO中使用的算法。
SAHO采用DE/1/best策略,具有较高的收敛能力。DE/1/best策略生成解的突变向量如下:
(6)
其中,表示当前总体中最适合的个体,r1和r2()表示随机指标,F为缩放参数。使用突变向量,解的试向量计算为
(7)
式中产生[0,1]范围内的均匀随机值,Cr为交叉率,表示[1,D]中的随机指数。如果试验向量的适应度值优于当前解的适应度值,则更新其位置。
TLBO是一种基于群体的搜索算法,它模拟了教育中的教师指导和相互学习,分为教师阶段和学习者阶段。
在教师阶段,选择当前总体中的最佳解作为教师个体,使用总体均值更新其他解(学生)的位置,如下所示:
(8)
式中为[0,1]中的均匀随机值,为计算变量(将输入值舍入);也就是说,取1或2的概率相等。如果更新位置的适应度值优于原始位置,则更新其位置。
相比之下,学习阶段通过与随机解交互来更新群体中的每个解。对于一个解,选择一个随机解(),下式产生一个新的位置:
(9)
式中为[0,1]中的均匀随机值。与教学阶段类似,如果更新位置的适应度值更好,则更新解的位置。TLBO交替地重复教师和学习者阶段,直到终止条件得到满足。

ELDR-SAHO算法将ELDR纳入到SAHO中,其过程如算法2所示。ELDR-SAHO首先使用拉丁超立方体采样(LHS)产生ps个分布良好的初始样本[46],并使用实际的(计算上昂贵的)适应度评估对它们进行评估。所有评估的初始样本都存储在数据集DB中。对于每次迭代,从数据集DB中的前ps个解决方案生成初始种群,并使用DE或TLBO进化K代。ELDR代理模型使用从DB中提取的子集D进行训练,该子集D由DB中当前种群中的每个解决方案的n个最近邻组成。注意,在提取的数据集d中的最小和最大变量中,设计变量被归一化。变量RunDE决定了每次搜索使用的算法。如果执行DE,而如果执行TLBO;
经过k代搜索后,根据算法3选择出适合实际适应度评估的有希望的解。在算法3中,将K代种群中的最佳解与前r个子种群()的均值进行比较,并选择ELDR代理预测较好的解作为有希望的解。所选择的有希望的解决方案实际上是使用计算昂贵的适应度函数来评估的。如果有希望的解决方案比迄今为止的最佳解决方案更好,则继续使用当前的搜索算法(DE或TLBO)。否则,切换搜索算法。
基本过程与使用RBF代理模型的原始SAHO相同,但在算法2的步骤7、10、13和15以及算法3的步骤1和5中有所不同。在这些步骤中,使用ELDR代理模型来预测优势关系。

表1基准问题
本节分析提出的ELDR代理模型的估计精度。第一个实验探讨了ELDR对激活函数h、隐藏神经元数L、正则化系数c的参数敏感性。然后,“与其他代理模型的比较”将ELDR的估计精度与其他代理模型、RBF和RankSVM进行了比较,这些模型是以往SAEA研究中常用的。最后,在“计算时间”中比较了这些代理模型的计算时间。
本研究使用了表1所示的八个单目标连续优化基准。这种选择是合理的,因为这些函数在最近的研究中被广泛用于研究saea的性能,并且具有不同的适应度景观特征。设计变量的维度设置为和100,以比较代理模型在小问题和大问题上的性能。已知RBF对于20-30维的问题具有较高的估计精度,而在SAEA领域中,100维的问题被认为是大规模问题。由(d为维数)个随机采样数据单元组成的训练数据集用于训练ELDR、RBF和RandSVM。训练后的模型在独立于训练数据集生成的10d个随机测试样本上进行测试。选择训练数据的大小是为了在搜索的早期数据有限和后期获得一定数量的数据样本时验证SAEA估计的准确性。
对20对独立的训练和测试数据采用Kendall等级相关系数评估预测精度,并比较平均等级相关系数。如果预测的和实际的秩完全相同,则返回Kendall的秩相关系数(以下简称Kendall的秩相关系数),而如果它们完全不同,则返回Kendall的秩相关系数。等级相关性越高,表明等级预测越好。对于排序方法(ELDR和RankSVM),将测试数据按照预测结果进行排序,并与实际数据进行排序比较。对于RBF模型,根据预测的适应度值对测试数据进行排序,并将其秩与实际秩进行比较(而不是实际适应度值的比较)。实验在Intel至强W-2295 3.00 GHz CPU和64 GB RAM的计算机上使用MATLAB R2019a进行。
本节报告了评估ELDR不同超参数的实验:激活函数h、隐藏神经元数L、正则化系数c。对于激活函数h,实验使用了Sigmoid (SIG)、Gaussian (GAU)、Multiquadric (MQ)三个函数,见“极限学习机”。根据设计变量的维数d设置隐藏神经元的个数为。正则化系数。
由于每个问题的估计难度不同,估计精度的尺度(即Kendall’s)也不同。为了考虑这些差异并调查所有问题的整体性能,本研究使用与文献[7,48]相同的指标。具体来说,本研究探讨了正则化系数C和隐藏神经元数L对每个激活函数的影响。对于使用每个激活函数的ELDR,问题实例记为,参数设置(C和L的组合)记为,参数设置的ELDR记为。每个参数设置的性能计算公式如下:
(10)
式中表示优于的比率,计算方法如下:
式中表示对某一问题实例的估计精度优于的比值。用下式计算:
式中表示问题实例的第t个数据集的Kendall’s。和分别表示和(在本实验中)在一个问题实例中测试数据的个数。该函数是指示函数,如果x为真则返回1,否则返回0。
图3

使用Eq.(10)计算每个激活函数的性能指标
图3显示了使用Eq.(10)计算每个激活函数的性能指标。横轴表示正则化系数,纵轴表示隐藏神经元的数量。每个单元格中的值表示对应参数设置的值。
图3a的结果表明,在使用Sigmoid函数时,隐藏神经元的数量显著影响其估计精度,隐藏神经元数量越多,性能越好。相反,正则化系数的影响较小。结果表明,在使用Sigmoid函数时,和的组合达到了最高的估计精度。然而,在不同的参数设置中,性能指标的差异很小。这一特性表明,最优参数设置随目标问题的特性而变化。
表2 ELDR、RBF、RankSVM的Kendall’s比较
接下来,从图3b可以看出,当使用高斯函数时,隐藏神经元的数量和正则化系数都会显著影响ELDR的估计精度。具体来说,隐藏神经元数量越多,估计精度越高,而正则化系数越大,神经元数量越多时,估计精度越高。因此,和的组合在使用高斯函数时达到最高的估计精度。当使用高斯函数时,不同参数设置之间的性能度量较大。这表明,最优参数设置在很大程度上与问题无关,并且在使用高斯激活函数时,和的最佳参数设置可以获得稳定的性能。
最后,关注Multiquadric函数,图3c表明,无论隐藏神经元的数量如何,较小的归一化系数都倾向于提供稳定的性能。的归一化系数提供了最高的估计精度。虽然不同L之间的性能差异不大,但在使用Multiquadric函数时,和的组合达到了最高的估计精度。可以看到参数设置之间性能指标的巨大差异。特别是,选择可以是最优的。这表明,无论Multiquadric函数是否存在问题,都可以推荐和的最佳参数设置。
本小节将ELDR与RBF和RankSVM进行比较。ELDR使用从上一小节的结果中选择的超参数。特别地,这个比较使用了ELDR与:
Sigmoid激活,
高斯激活,
多重激活,
RBF使用三次基函数(),这在以前使用RBF代理的工作中主要使用。RankSVM的参数选自文献[7]。
表2显示了ELDR、RBF和RankSVM的估计精度。最下面一行总结了所有问题实例和所有维度的平均排名。
图4

三个代理模型的计算时间
首先,可以看出,在前五个基准测试中,使用Sigmoid函数的ELDR的估计精度明显低于其他方法,并且精度较低。然而,它的精度在CEC 2005基准上有所提高,并且在一些问题上比高斯激活函数更高,例如,和的100维情况。平均排名是五个代理模型中最低的。这表明Sigmoid函数的估计精度和实用性较低,即使在参数配置最佳时也是如此,但它可以作为复杂组合函数的一种选择。
其次,具有高斯函数和多重函数的eldr优于传统saea中使用的RBF和RankSVM,在大多数问题上达到最佳或次优性能。其中,具有Multiquadric函数的ELDR在5个代理模型中具有较高的估计精度和最高的平均排名。此外,即使在训练数据集较小的情况下,具有高斯函数和Multiquadric函数的eldr也比RBF和RankSVM具有更稳定的估计精度()。这个特性有利于saea,因为用于训练代理模型的训练数据量通常是有限的。
为了评估所提出的ELDR的计算时间,比较了三种方法的训练时间。需要注意的是,由于ELDR正则化系数和激活函数的差异对计算时间的影响极小,所以本文只比较了采用高斯函数作为激活函数和正则化系数的结果。对其他激活函数和正则化系数也可以得到类似的结果。此外,由于训练时间不依赖于问题的特征,本文处理的是所有问题的平均值。
图4显示了ELDR、RBF和RankSVM的平均训练时间。蓝色、橙色和绿色的线分别表示ELDR、RBF和RankSVM的结果。在每个图中,横轴表示ELDR中隐藏神经元的数量,纵轴表示训练时间[s]。
从图中可以看出,随着隐藏神经元数量L的增加,ELDR的训练时间呈近似线性的增长趋势。这一趋势小于“计算复杂性”中讨论的ELDR计算复杂性的L平方的增加。这是因为本文使用MATLAB实现ELDR,计算所需的计算复杂度比简单矩阵乘积所需的计算量要小,这是计算成本最高的。这表明ELDR的计算复杂度小于理论复杂度,并且在实践中随着L的增大,计算时间呈线性增加。
然后比较了RBF和RankSVM的计算次数。首先,当维数和训练数据数较少时,ELDR的训练时间最短()。当维数和训练数据数较大时,对于小L (), ELDR的计算时间与RBF和RankSVM相似或略长。另一方面,随着隐藏神经元数量L的增加,ELDR的训练时间比其他替代模型的训练时间更长。特别是,在维数和训练数据最多的情况下,ELDR的计算时间大约要长60倍。
这些结果表明,对于低维、小样本训练,ELDR可以与现有的替代模型(如RBF和RankSVM)使用相同的训练时间进行训练。另一方面,对于高维、多样本的训练,ELDR所需的训练时间明显长于现有模型,特别是当隐藏神经元数量L增加时。然而,与昂贵的解决方案评估相比,ELDR的培训时间是可以接受的,后者有时需要几个小时或几天,以saea为目标。
利用著名的基准问题进行了数值实验,验证了该方法的有效性。实验使用了表1中列出的八个单目标连续优化基准。这些问题的规模是确定的。
在实验中,采用ELDR-SAHO -在“ELDR在SAEA中的应用实例:ELDR代理辅助混合优化”中解释的ELDR-SAHO -作为ELDR辅助EA,并与传统的最先进的SAEA方法GORS-SSLPSO[13]、FSAPSO[15]、SLPSO[49]、CA-LLSO[26]和SAHO[11]进行比较。GORS-SSLPSO、FSAPSO、SLPSO和SAHO使用基于RBF的回归模型,而CA-LLSO使用基于梯度增强分类器(gradient boosting classifier, GBC)的分类模型[50]。使用了Internet上可用的GORS-SSLPSO、Footnote 1 FSAPSO、Footnote 2 SLPSO、Footnote 3和CA-LLSOFootnote 4的实现。SAHO的实现由Pan等人[11]提供,ELDR-SAHO在此基础上实现。
表3性能对比实验结果
实验设置基于Pan等[11]。人口规模被设定为何时和何时。算法2步骤6训练ELDR时,邻居大小n设置为。DE的参数值为和。代理模型上DE或TLBO所需的代数K设置为。最大适应度评价为时、时。其他算法均采用各自研究中推荐的参数值。

从“初步实验:ELDR的准确性”的初步实验结果来看,使用高斯函数或多重二次函数的ELDR作为替代模型具有很高的潜力。然而,最佳激活函数因问题而异。在此基础上,将验证后的模型选择引入到ELDR-SAHO中。算法4给出了ELDR-SAHO的模型选择过程。模型选择比较高斯函数与,多重二次函数与作为候选。随后,在这两个模型之间的验证集中使用肯德尔值最高的模型作为搜索中的代理。模型选择的验证集包括从训练数据集中随机选择的20%的数据。这个过程在算法2的第7行使用。
表3给出了20次独立运行的最大适应度评价后的最佳适应度均值和标准差。对于每个基准测试,最佳(最小)值以黑体字突出显示,而次优值以下划线突出显示。采用显著性水平为5%的Mann-Whitney U检验,并采用Bonferroni校正对结果进行调整[51],以证实本文方法与其他方法存在统计学差异。当提出的方法比其他方法获得明显更好的结果时,用“”标记,“-”标记表示明显差,“”表示没有发现显著差异。最后,在表格底部总结了结果。
实验结果表明,ELDR-SAHO算法在40个样本中有21个样本的平均适应度最佳,2个样本的平均适应度次好。此外,在许多基准测试中,该方法明显优于其他算法。然而,在这些问题上,所提出的方法不如使用RBF作为代理的SAHO方法。此外,对于Griewank, Rastrigin, and的低维问题(),ELDR-SAHO与其他方法相比并没有取得很好的效果。另一方面,ELDR-SAHO在除Rosenbrock()、和基准测试之外的高维基准测试中表现明显优于其他算法。
图5

当维度数(纵轴为对数标度)时,目标函数中位数值与四分位数间距[第三四分位数(Q3)与第一四分位数(Q1)之间的间距]的过渡
图5显示了中位目标函数值的过渡和四分位数范围[第三四分位数(Q3)和第一四分位数(Q1)之间的范围]。横轴表示实际适应度评估的次数,纵轴表示对数尺度上的目标函数值。注意,对于CEC 2005基准,绘制了最优值与获得值之间的差值。
首先,关注和问题,其中ELDR-SAHO在100维问题上明显劣于其他方法,可以看到直到搜索中期(约400次适应度评估),结果与其他方法相当。另一方面,在后续的搜索中,所提方法会停滞不前,而其他方法的目标函数值会降低。这表明所建议的方法被困在局部解决方案中,无法从这些基准中逃脱。
相比之下,从图中可以看出,ELDR-SAHO在优化初期的目标函数值有了快速的提升,并且在椭球体、Rosenbrock、Ackley、Griewank、Rastrigin和问题上没有停滞地继续搜索。这可以归因于与RBF和GBC相比,ELDR能够用更少的训练数据更准确地估计优势关系。特别是,尽管ELDR-SAHO在100维Rosenbrock函数上的最终目标函数值比SAHO差(图5b),但与其他算法相比,ELDR-SAHO在更少的评估次数下收敛于最终结果。
这些结果表明,对于许多问题(特别是高维问题),ELDR-SAHO比使用回归和分类代理模型的传统SAEA具有更好的搜索性能。然而,结果表明,ELDR-SAHO在某些问题上可能会陷入局部最优。需要注意的是,虽然本研究将ELDR应用于SAHO,但ELDR的应用并不一定适用于SAHO,因为SAHO是使用RBF设计的SAEA。特别地,对于这些问题,可以通过提出带有防止(或逃避)陷入局部最优机制的SAEA来提高ELDR的性能。此外,由于ELDR只能通过所有问题的解决方案的优越性来搜索,因此它可能适用于将每个功能都假设为人类评估模型的交互式ea。因此,ELDR作为SAEA的替代模型具有很高的潜力。
ccDownload: /内容/ pdf / 10.1007 / s40747 - 023 - 01113 - 4. - pdf