经典进化规划 (CEP)

class pypop7.optimizers.ep.cep.CEP(problem, options)[源代码]

采用自适应变异的经典进化规划 (Classical Evolutionary Programming, CEP)。

注意

为了在大规模黑盒优化问题上获得令人满意的性能,后代数量 (n_individuals) 以及初始全局步长 (sigma) 可能需要被**仔细**调整(例如,通过手动试错或自动超参数优化)。

参数:
  • problem (dict) –

    问题参数,包含以下通用设置 ()
    • 'fitness_function' - 需要被最小化的目标函数 (func),

    • 'ndim_problem' - 维度数量 (int),

    • 'upper_boundary' - 搜索范围的上边界 (array_like),

    • 'lower_boundary' - 搜索范围的下边界 (array_like).

  • options (dict) –

    优化器选项,包含以下通用设置 ()
    • 'max_function_evaluations' - 函数评估的最大次数 (int, 默认: np.inf),

    • 'max_runtime' - 允许的最大运行时间 (float, 默认: np.inf),

    • 'seed_rng' - 随机数生成器的种子,需要明确设置 (int);

    以及以下特定设置 ()
    • ‘sigma’ - 初始全局步长,也称为变异强度 (float),

    • ’n_individuals’ - 后代数量,也称为后代种群大小 (int,默认值:100),

    • 'q' - 用于成对比较的对手数量(int,默认值:10),

    • 'tau' - 个体步长自适应的学习率(float,默认值:1.0/np.sqrt(2.0*np.sqrt(problem['ndim_problem']))),

    • 'tau_apostrophe' - 个体步长自适应的学习率(float,默认值:1.0/np.sqrt(2.0*problem['ndim_problem'])

示例

使用优化器最小化著名的测试函数 Rosenbrock

 1>>> import numpy  # engine for numerical computing
 2>>> from pypop7.benchmarks.base_functions import rosenbrock  # function to be minimized
 3>>> from pypop7.optimizers.ep.cep import CEP
 4>>> problem = {'fitness_function': rosenbrock,  # define problem arguments
 5...            'ndim_problem': 2,
 6...            'lower_boundary': -5*numpy.ones((2,)),
 7...            'upper_boundary': 5*numpy.ones((2,))}
 8>>> options = {'max_function_evaluations': 5000,  # set optimizer options
 9...            'seed_rng': 2022,
10...            'sigma': 0.1}
11>>> cep = CEP(problem, options)  # initialize the optimizer class
12>>> results = cep.optimize()  # run the optimization process
13>>> # return the number of function evaluations and best-so-far fitness
14>>> print(f"CEP: {results['n_function_evaluations']}, {results['best_so_far_y']}")
15CEP: 5000, 0.3544823323771589

关于其正确性检查,请参阅这份基于代码的可复现性报告以获取更多详情。

n_individuals

子代数量,也称为子代种群大小。

类型:

int

q

用于成对比较的对手数量。

类型:

int

sigma

初始全局步长,也称为变异强度。

类型:

float

tau

个体步长自适应的学习率。

类型:

float

tau_apostrophe

个体步长自适应的学习率。

类型:

float

参考文献

Yao, X., Liu, Y. and Lin, G., 1999. Evolutionary programming made faster. IEEE Transactions on Evolutionary Computation, 3(2), pp.82-102. https://ieeexplore.ieee.org/abstract/document/771163

Bäck, T. and Schwefel, H.P., 1993. An overview of evolutionary algorithms for parameter optimization. Evolutionary Computation, 1(1), pp.1-23. https://direct.mit.edu/evco/article-abstract/1/1/1/1092/An-Overview-of-Evolutionary-Algorithms-for