可分离自然进化策略 (SNES)
- class pypop7.optimizers.nes.snes.SNES(problem, options)[源代码]
可分离自然进化策略 (Separable Natural Evolution Strategies, SNES)。
- 参数:
problem (dict) –
- 问题参数,包含以下通用设置 (键)
'fitness_function' - 需要被最小化的目标函数 (func),
'ndim_problem' - 维度数量 (int),
'upper_boundary' - 搜索范围的上边界 (array_like),
'lower_boundary' - 搜索范围的下边界 (array_like).
options (dict) –
- 优化器选项,包含以下通用设置 (键)
'max_function_evaluations' - 函数评估的最大次数 (int, 默认: np.inf),
'max_runtime' - 允许的最大运行时间 (float, 默认: np.inf),
'seed_rng' - 随机数生成器的种子,需要明确设置 (int);
- 以及以下特定设置 (键)
'n_individuals' - 后代/子代的数量,也称为后代种群大小 (int),
'n_parents' - 亲代/祖先的数量,也称为亲代种群大小 (int),
'mean' - 初始(起始)点 (array_like),
如果未给出,它将从一个均匀分布中随机抽样,该分布的搜索范围由 problem[‘lower_boundary’] 和 problem[‘upper_boundary’] 界定。
'sigma' - 初始全局步长,也称为变异强度 (float)。
示例
使用优化器 SNES 来最小化著名的测试函数 Rosenbrock
1>>> import numpy # engine for numerical computing 2>>> from pypop7.benchmarks.base_functions import rosenbrock # function to be minimized 3>>> from pypop7.optimizers.nes.snes import SNES 4>>> problem = {'fitness_function': rosenbrock, # define problem arguments 5... 'ndim_problem': 2, 6... 'lower_boundary': -5*numpy.ones((2,)), 7... 'upper_boundary': 5*numpy.ones((2,))} 8>>> options = {'max_function_evaluations': 5000, # set optimizer options 9... 'seed_rng': 2022, 10... 'mean': 3*numpy.ones((2,)), 11... 'sigma': 0.1} # the global step-size may need to be tuned for better performance 12>>> snes = SNES(problem, options) # initialize the optimizer class 13>>> results = snes.optimize() # run the optimization process 14>>> # return the number of function evaluations and best-so-far fitness 15>>> print(f"SNES: {results['n_function_evaluations']}, {results['best_so_far_y']}") 16SNES: 5000, 0.49730042657448875
- lr_cv
协方差矩阵自适应的学习率。
- 类型:
float
- mean
初始(起始)点,也称为高斯搜索/采样/变异分布的均值。
- 类型:
array_like
- n_individuals
后代/子代的数量,也称为后代种群大小。
- 类型:
int
- n_parents
亲代/祖先的数量,也称为亲代种群大小。
- 类型:
int
- sigma
全局步长,也称为变异强度(即高斯搜索分布的总体标准差)。
- 类型:
float
参考文献
Wierstra, D., Schaul, T., Glasmachers, T., Sun, Y., Peters, J. and Schmidhuber, J., 2014. Natural evolution strategies. Journal of Machine Learning Research, 15(1), pp.949-980.
Schaul, T., 2011. Studies in continuous black-box optimization. Doctoral Dissertation, Technische Universität München.
Schaul, T., Glasmachers, T. and Schmidhuber, J., 2011, July. High dimensions and heavy tails for natural evolution strategies. In Proceedings of Annual Conference on Genetic and Evolutionary Computation (pp. 845-852). ACM.
请参考 PyBrain(现已不活跃维护)的官方 Python 源代码:https://github.com/pybrain/pybrain/blob/master/pybrain/optimization/distributionbased/snes.py