标准粒子群优化器(全局拓扑,SPSO)
- class pypop7.optimizers.pso.spso.SPSO(problem, options)[源代码]
标准粒子群优化器(全局拓扑,SPSO)。
注意
“对于多维函数,必须找到最合适的方法来计算方向和更新速度,以便粒子能够收敛到函数的最优值。” —[Floreano & Mattiussi, 2008]
- 参数:
problem (dict) –
- 问题参数,包含以下通用设置 (键)
'fitness_function' - 需要被最小化的目标函数 (func),
'ndim_problem' - 维度数量 (int),
'upper_boundary' - 搜索范围的上边界 (array_like),
'lower_boundary' - 搜索范围的下边界 (array_like).
options (dict) –
- 优化器选项,包含以下通用设置 (键)
'max_function_evaluations' - 函数评估的最大次数 (int, 默认: np.inf),
'max_runtime' - 允许的最大运行时间 (float, 默认: np.inf),
'seed_rng' - 随机数生成器的种子,需要明确设置 (int);
- 以及以下特定设置 (键)
'n_individuals' - 粒子群(种群)大小,即粒子数量 (int, 默认: 20),
'cognition' - 认知学习率 (float, 默认: 2.0),
'society' - 社会学习率 (float, 默认: 2.0),
'max_ratio_v' - 相对于搜索范围的最大速度比率 (float, 默认: 0.2).
示例
使用 SPSO 优化器来最小化著名的测试函数 Rosenbrock
1>>> import numpy 2>>> from pypop7.benchmarks.base_functions import rosenbrock # function to be minimized 3>>> from pypop7.optimizers.pso.spso import SPSO 4>>> problem = {'fitness_function': rosenbrock, # define problem arguments 5... 'ndim_problem': 2, 6... 'lower_boundary': -5.0*numpy.ones((2,)), 7... 'upper_boundary': 5.0*numpy.ones((2,))} 8>>> options = {'max_function_evaluations': 5000, # set optimizer options 9... 'seed_rng': 2022} 10>>> spso = SPSO(problem, options) # initialize the optimizer class 11>>> results = spso.optimize() # run the optimization process 12>>> # return the number of function evaluations and best-so-far fitness 13>>> print(f"SPSO: {results['n_function_evaluations']}, {results['best_so_far_y']}") 14SPSO: 5000, 3.456e-09
关于其编码的正确性检查,请参阅这份基于代码的可重复性报告以获取更多详情。
- cognition
认知学习率,也称为加速系数。
- 类型:
float
- max_ratio_v
相对于搜索范围的最大速度比率。
- 类型:
float
- n_individuals
粒子群(种群)大小,即粒子数量。
- 类型:
int
- society
社会学习率,也称为加速系数。
- 类型:
float
参考文献
Floreano, D. and Mattiussi, C., 2008. Bio-inspired artificial intelligence: Theories, methods, and technologies. MIT Press. https://mitpress.mit.edu/9780262062718/bio-inspired-artificial-intelligence/ (详见 [Chapter 7.2 Particle Swarm Optimization]。)
Venter, G. and Sobieszczanski-Sobieski, J., 2003. Particle swarm optimization. AIAA Journal, 41(8), pp.1583-1589. https://arc.aiaa.org/doi/abs/10.2514/2.2111
Eberhart, R.C., Shi, Y. and Kennedy, J., 2001. Swarm intelligence. Elsevier. https://www.elsevier.com/books/swarm-intelligence/eberhart/978-1-55860-595-4
Shi, Y. and Eberhart, R., 1998, May. A modified particle swarm optimizer. In IEEE World Congress on Computational Intelligence (pp. 69-73). IEEE. https://ieeexplore.ieee.org/abstract/document/699146
Kennedy, J. and Eberhart, R., 1995, November. Particle swarm optimization. In Proceedings of International Conference on Neural Networks (pp. 1942-1948). IEEE. https://ieeexplore.ieee.org/document/488968