evox.algorithms.mo.moead

模块内容

MOEAD

原始 MOEA/D 算法的实现。

函数

pbi

API

evox.algorithms.mo.moead.pbi(f: torch.Tensor, w: torch.Tensor, z: torch.Tensor)[源代码]
class evox.algorithms.mo.moead.MOEAD(pop_size: int, n_objs: int, lb: torch.Tensor, ub: torch.Tensor, selection_op: Optional[Callable] = None, mutation_op: Optional[Callable] = None, crossover_op: Optional[Callable] = None, device: torch.device | None = None)[源代码]

基础: evox.core.Algorithm

原始 MOEA/D 算法的实现。

参考文献:

[1] Q. Zhang and H. Li, "MOEA/D: A Multiobjective Evolutionary Algorithm Based on Decomposition," IEEE Transactions on Evolutionary Computation, vol. 11, no. 6, pp. 712-731, 2007. Available: https://ieeexplore.ieee.org/document/4358754

备注

此实现严格遵循原始论文和参考代码。它未针对张量化计算进行优化,因此在GPU上的效率可能较低。

初始化

初始化 MOEA/D 算法。

参数:
  • pop_size -- 种群大小。

  • n_objs -- 优化问题中的目标函数数量。

  • lb -- 决策变量的下界(1D 张量)。

  • ub -- 决策变量的上界(1D 张量)。

  • selection_op -- 进化策略的选择操作(可选)。

  • mutation_op -- 基因突变操作,该选项的缺省值是 polynomial_mutation,如果未提供,则使用默认值 (可选)。

  • crossover_op -- 交叉操作,如果未提供,则默认为 simulated_binary_half(可选)。

  • device -- 计算应该运行的设备(可选)。默认为 PyTorch 的默认设备。

init_step()[源代码]

执行工作流的初始化步骤。

调用算法的 init_step 如果被重写;否则,将调用其 step 方法。

step()[源代码]

执行工作流程的单个优化步骤。