WO2018161468A1 - 一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法 - Google Patents

一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法 Download PDF

Info

Publication number
WO2018161468A1
WO2018161468A1 PCT/CN2017/089285 CN2017089285W WO2018161468A1 WO 2018161468 A1 WO2018161468 A1 WO 2018161468A1 CN 2017089285 W CN2017089285 W CN 2017089285W WO 2018161468 A1 WO2018161468 A1 WO 2018161468A1
Authority
WO
WIPO (PCT)
Prior art keywords
genetic
lamarck
optimization
machine learning
search
Prior art date
Application number
PCT/CN2017/089285
Other languages
English (en)
French (fr)
Inventor
李耘
李琳
Original Assignee
东莞理工学院
李耘
李琳
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 东莞理工学院, 李耘, 李琳 filed Critical 东莞理工学院
Priority to JP2018538208A priority Critical patent/JP6697566B2/ja
Priority to EP17899753.2A priority patent/EP3422261A4/en
Publication of WO2018161468A1 publication Critical patent/WO2018161468A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/17Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B40/00ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B40/00ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
    • G16B40/20Supervised data analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B50/00ICT programming tools or database systems specially adapted for bioinformatics

Definitions

  • the invention relates to the technical field of computer programs, including artificial intelligence, in particular to a global optimization, search and machine learning method based on genetic algorithms.
  • the common genetic algorithm uses Darwin's "survival of the fittest" natural evolution rule, and repeatedly applies three operators: selection operator, crossover operator and mutation operator.
  • the search speed of the algorithm is slow and the search accuracy is relatively low.
  • the local search ability of the genetic algorithm is poor, which leads to low efficiency of the algorithm in the late evolutionary stage.
  • the genetic algorithm is prone to the problem of premature convergence.
  • the selection method not only preserves the good individuals but also maintains the diversity of the group has always been a technical problem that is difficult to solve in genetic algorithms, which limits its greater technical effects in global optimization, search and machine learning.
  • the present invention combines the Lamarck acquired genetic principle and the modern “characteristics genetics” with the Darwinian evolutionary theory of "the survival of the fittest”. , constructing the "acquired genetic optimization” technical solution and the "acquired genetic algorithm”.
  • an adaptive "genetic operator” and its “rewrite operation” method were invented to directly replace the two operators of the common genetic algorithm (ie “select operator” and “ Crossover operator") simplifies the structure of genetic algorithm, overcomes many technical defects of current genetic algorithm, and enhances the global optimality of genetic algorithm and the sustainability of later evolution.
  • the invention of a "use of the retreat operator” can be used to replace the innate mutation operator in the common genetic algorithm, so as to carry out the directional mutation operation in the same generation, so that The mutation operation produces new technical effects, improves the performance of the genetic algorithm, and solves the problems of global optimization, search and machine learning more and better.
  • a global optimization, search and machine learning method based on Lamarck's acquired genetic principle including the following steps:
  • Step 1 Construct the objective function f(x) according to the problem object of optimization, search and machine learning;
  • Step 2 According to the optimization requirement of the problem object, the problem object is encoded into the chromosome of the genetic algorithm, and then the operation parameters of the genetic algorithm are automatically calculated or manually input, and the algorithm is initialized; the genetic algorithm here is a common genetic algorithm;
  • Step 3 According to the optimization requirement of the problem object, the k-th generation candidate solution population is G k , and among them Represents the i-th chromosome in the candidate solution population G k , and S is the population size. Then using the iterative optimization method to obtain the k+1 generation population G k+1 , ie among them Represents the i-th chromosome in the population G k+1 , and S is the population size.
  • the optimization process is as follows:
  • n t L ⁇ p t ;
  • L is the length of the gene string, and p t is the genetic percentage of the gene; (if the calculated n t is not an integer, it is rounded up)
  • the mutation operator is the mutation operator in the common genetic algorithm
  • Step 4 Output the final optimized solution set of the problem object.
  • step 2 the initialization method is:
  • the operating parameters are determined: the size of the candidate solution population S, the dimension dimension d, the variable value range, the cross genetic probability p c , and the internal parameters in the mutation operator;
  • the problem object is encoded to form individual gene strings, chromosomes and candidates. Solve the population and determine the length L of the gene string.
  • step 2 (2) the problem object is encoded in such a manner that if d is less than or equal to 2, a binary or decimal encoding method is selected; if d is greater than 2, the real encoding method is selected.
  • the objective function value is a fitness function value for the maximization problem or a cost function value for the minimization problem.
  • step 3(1) the individual evaluation uses multiple processors or multiple computers.
  • step 3 (2) the n t genes selected for rewriting in the Lamarck genetic operator rewriting operation are randomly selected.
  • step 3 (3) the mutation operation adopts the non-directional mutation method in the common genetic algorithm, including the uniform variation method with the mutation probability p m , that is, the “use and waste retreat operator” is not used.
  • step 3 (3) the mutation operation can also adopt the "use and retreat operator” based on Lamarck's "use and retreat” natural law, that is, implement the directional variation method.
  • step 3 (3) the "use waste retreat operator" can use the gradient optimization method if gradient information is available.
  • gradient information a method of determining the direction and step size of the variation based on the sign and size of the gradient.
  • step 3 (3) the "use of the retreat operator" can adopt the non-gradient optimization method.
  • Non-gradient optimization methods include hill climbing algorithm, annealing algorithm, simplex method, pattern search or Powell's method.
  • step 3 (2) and step 3 (3) the elite chromosome coding in each generation is not changed by the Lamarckian genetic operator and the mutation operator, that is, the elite is retained, and the rewriting and mutation groups appear to participate in evolution so far.
  • the best individual also known as elite individual, elite chromosome coding
  • the method of determining the elite is the method of ordinary genetic algorithm.
  • step 3 (5) it is evaluated whether the optimal solution satisfies the requirements of the optimization calculation, and if the requirement is met, the operation ends; otherwise, the cross genetic probability p c or the mutation operator in the operating parameter in the operating parameter may be modified.
  • step 3 (5) it is evaluated whether the optimal solution satisfies the requirements of the optimization calculation. If the requirement is met, the operation ends; otherwise, the population size and/or the number of iterations in the operation parameter may be increased, and step 3 is repeated. Get the last optimal solution set of the problem object.
  • the cross genetic probability p c in the operational parameters determined in step 2, and the internal parameters in the mutation operator, can be automatically adjusted according to the evolution state during the process of step 3.
  • the gene coding in the chromosome may represent a numerical parameter of the structure or structure of the problem object.
  • the composition of a problem object includes the structure of the problem object, the numerical parameters of each structure, and the combination of structures (some of which are represented by arithmetic operators or logical operators).
  • gene coding on a chromosome is generally not an operator; in "genetic programming," a gene encoding on a chromosome can be an operator.
  • the genetic coding of the problem object may be an operator, thereby extending the adaptive genetic algorithm of the present invention to "acquired genetic programming" to achieve free optimization that enables qualitative changes in the structure of the problem object.
  • the "genetic operator" in acquired genetic programming is similar to the cross-operation of common genetic programming, as shown in Figure 4, but the tree-like "pruning grafting" of chromosomes is done by rewriting operations in the adaptive genetic algorithm. Realized. Similarly, mutation operations and "use and retreat” can replace a small branch with a new branch. Thus, the genetic operators of the present invention and the implementation of the use of the retreat operator in acquired genetic programming have not changed, but have increased the speed and precision of genetic programming. In this way, acquired acquired inheritance can improve free structure optimization, automatic programming attempts, and machine learning functions.
  • the invention combines the acquired genetic principle of Lamarck and the modern representational genetics with the natural law of the survival of the Darwinian evolution theory, constructs the technical scheme of acquired genetic optimization, the acquired genetic algorithm and the acquired genetic programming method;
  • the genetic operator of the acquired genetic natural law directly replaces the selection operator and the crossover operator of the common genetic algorithm; it also invents the operation of Lamarck to replace the innate in the common genetic algorithm with the use of the retreat of the natural law.
  • the mutation operator thus, the acquired directional variation in the same generation is used to make the mutation operation produce new technical effects, so that more problems such as global optimization, search and machine learning are better solved.
  • the optimization process has a simple structure, requires less control parameters, has low computational complexity, and is easy to operate;
  • Evolutionary computing technology has adaptive, self-learning, self-organizing intelligent behavior, can adapt to environmental changes, reduce fluctuations, ensure high control accuracy, and ensure real-time and rapid control;
  • FIG. 3 Schematic diagram of a rewrite operation
  • FIG. 4 Schematic diagram of "graft breeding" of acquired genetic programming
  • Figure 5 is a comparison of the algorithmic fitness of the present invention and the general genetic algorithm in the global minimum value (f 1 ) optimization and maximum value optimization (f 2 )
  • FIG. 7 Schematic diagram of neural network machine learning
  • Figure 8 Schematic diagram of the realization of two variables XOR problem in the neural network
  • Figure 10 shows the relationship between output and input
  • Figure 11 is a schematic diagram showing the comparison of the mean square root error mean value of the method of the present invention and other particle filtering algorithms when the number of particles is 10.
  • the cross genetic probability in the present invention is also taken as 0.5
  • the mutation probability is taken as 0.2. Run 30 times independently for each test function. The number of function evaluations is 3 ⁇ 10 5 .
  • Figures 5 and 6 respectively show the average fitness and average search accuracy of the present invention and the general genetic algorithm as a function of the number of function evaluations.
  • the algorithm of the present invention optimizes the test functions f 1 and f 2 , the obtained optimal solution is closer to the theoretical optimal solution, and the search speed of the algorithm of the present invention is also much faster than that of the ordinary genetic algorithm.
  • ANNs Artificial Neural Networks
  • Ns Neural Networks
  • Figure 7 shows a simple neural network with circles representing neurons and input point "-1" called the offset node.
  • the leftmost layer of the neural network is the input layer, and the rightmost layer is the output layer. All nodes in the middle form a hidden layer, and we cannot directly observe their values in the training sample set. At the same time, you can see that the god
  • there are two input units excluding the offset unit
  • two hidden units and one output unit.
  • a neural network with a simple network is used to implement the XOR problem of two variables to illustrate the machine learning situation using the adaptive genetic algorithm. It is an important demonstration for finding practical and effective learning algorithms. significance.
  • the input training neurons are x 1 and x 2 , and the output is y.
  • the four training models of the XOR problem are shown in Table 4.
  • connection weights from the input layer neurons to the output layer neurons which are denoted as w n , n ⁇ 1, 2, ..., 9.
  • the present invention using a global optimization, and machine learning search solutions XOR problem neural network, training of the network weights values w n, the specific process embodiment shown in FIGS. 1 and 2:
  • W is the weight vector
  • m is the training model number
  • y m represents the output of the training model m
  • f is a function of W, the value of which represents the fitness of the understanding, the larger it is, the smaller the training or learning error. Therefore, the goal of this example is to maximize f.
  • Step 2 According to the optimization requirements of the problem object, automatically calculate or manually input the running parameters of the common genetic algorithm, encode the W into a chromosome, and initialize it:
  • the structure of the problem object and its parameters are coded in decimal, forming individual gene strings, chromosomes and candidate solution populations, and determining the length L of the gene string; here, a two-digit decimal number is used to describe the weight coding scheme.
  • variable value range of the problem object is initialized, and a set of initial candidate solutions are randomly generated.
  • Step 3 According to the optimization needs, assume that the kth generation is Representing an individual (chromosome) in a population, an iterative method is used to obtain a k+1 generation population by rewriting and mutation operations.
  • the optimization process is as follows:
  • Step 4 Output the last optimal solution set W 0 of the problem object. As shown in Figure 8, an optimal solution set of weights is also shown.
  • 9 and 10 respectively show the 100 optimal and average objective function values and the obtained input-output relationship when the optimization neural network of the present invention implements the problem of 2-variable XOR machine learning.
  • the algorithm of the present invention can obtain an output that is close to the desired output when optimizing the weight of the neural network XOR problem.
  • the acquired genetic algorithm of the present invention can optimize neural networks, search for optimal weights, and solve machine learning problems.
  • network structure as shown in FIG. 7 can also be encoded into a gene string to be optimized simultaneously with weights.
  • the network structure of the problem object needs is more complex and adaptive genetic programming can be implemented, the network structure can be more directly and freely optimized.
  • Particle filter algorithm is an important technique in nonlinear signal processing. It is not affected by system model characteristics and noise distribution. Limitations and thus wider applicability than other filtering techniques. However, the performance of particle filter algorithms is limited by the problem of self-particle depletion.
  • the algorithm of the invention solves the particle shortage problem in the resampling process of the particle filter algorithm, optimizes the particle distribution, and makes the particle sample closer to the real posterior probability density sample, thereby improving the filtering performance.
  • the state estimation of a nonlinear dynamic system is realized by particle filtering to illustrate the optimal particle filter processing signal using the adaptive genetic algorithm, which is of great significance for finding a nonlinear filtering algorithm with superior performance.
  • the state space model of the system is as follows:
  • the process noise is v k to Gamma (3, 2)
  • the observed noise is n k to N (0, 0.00001).
  • Set the observation time to 70, the number of runs to 200, and the number of particles N to 10.
  • the particle optimization algorithm particle optimization algorithm is solved by the global optimization, search and machine learning technical scheme of the invention, and the particle distribution is optimized.
  • the specific implementation manner is as follows:
  • Step 1 Construct the objective function f(x) according to the state estimation problem of the nonlinear dynamic system, where the weight function of the particle is selected;
  • Step 2 Automatically calculate or manually input the running parameters of the common genetic algorithm according to the optimization requirements of the problem object, and initialize it:
  • each chromosome represents a particle floating point number format
  • the first digit of the floating point value represents the sign bit
  • "1" represents a positive number
  • "0” represents a negative number
  • the string length is the fixed effective number of bits, that is, L ⁇ d ⁇ l x ⁇ 1 ⁇ 7.
  • variable value range of the problem object is initialized, and a set of initial candidate solutions are randomly generated. Here, it is randomly generated according to the particle self-initialization step.
  • Step 3 Based on the optimization requirements, assume that the current (kth generation) population is Representing an individual (chromosome) in a population, an iterative method is used to obtain a k+1 generation population by rewriting and mutation operations.
  • the optimization process is as follows:
  • the state values of the two new particles obtained by the two mutations are the same as the original
  • the best result is the formation of directional variation. Therefore, the variability is always carried out in a direction that is not worse, and that “use and retreat” is achieved.
  • Step 4 Output the last optimal solution set of the problem object, ie the particle set.
  • the particle filter algorithm (RPF) performs the comparison of the root mean square error (RMSE) mean and the RMSE variance.
  • Figure 11 is a graph showing the RMSE mean as a function of time for the present invention and other particle filtering algorithms.
  • the adaptive genetic algorithm of the present invention can well optimize particle filtering, search for optimal particle sets, and solve nonlinear filtering problems.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Bioethics (AREA)
  • Biotechnology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Genetics & Genomics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,包括步骤1:根据问题对象构造目标函数f(x);步骤2:将问题对象编码成遗传算法的染色体,自动计算或输入运行参数,并初始化;步骤3:根据对目标函数f(x)的评价,通过本发明的拉马克"获得性遗传算子"和"用进废退算子"对当前(第k代)种群 Gk={P1 k, P2 k,...Ps k}进行迭代优化;步骤4:输出问题对象的最优解集。以上方法将拉马克进化论的"获得性遗传"和"用进废退"自然法则与现代"表征遗传学"和达尔文进化论的"适者生存"自然法则内在结合,简化遗传算法结构,克服现有算法的多项技术缺陷,提高其效率、全局最优性和后期进化的可持续性,使更多的全局优化、搜索和机器学习问题得到更好的解决。

Description

一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法 技术领域
本发明涉及计算机程序技术领域,包括人工智能,尤其涉及一种基于遗传算法的全局优化、搜索和机器学习方法。
背景技术
为了解决全局优化、搜索和机器学习等技术问题,普通的遗传算法利用达尔文的“适者生存”自然进化法则,多次重复应用了三个算子:选择算子、交叉算子和变异算子,算法的搜索速度比较慢,搜索精度比较低;并且,遗传算法的局部搜索能力较差,导致算法在进化后期搜索效率低;在实际应用中,遗传算法容易产生早熟收敛的问题,采用何种选择方法既要使优良个体得以保留,又要维持群体的多样性,一直是遗传算法中较难解决的技术问题,限制了它在全局优化、搜索和机器学习中产生更大的技术效果。
发明内容
为了克服基于达尔文“适者生存”自然进化法则的普通遗传算法的上述技术问题,本发明将拉马克获得性遗传原理和现代“表征遗传学”与达尔文进化论的“适者生存”自然法则相结合,构造“获得性遗传优化”技术方案和“获得性遗传算法”。首先,依据拉马克获得性遗传自然法则,发明一个获得性“遗传算子”及其“重写操作”方法,用来直接取代普通遗传算法的两个算子(即“选择算子”和“交叉算子”),简化遗传算法的结构,克服目前遗传算法的多项技术缺陷,增强遗传算法的全局最优性和后期进化的可持续性。其次,依据拉马克用进废退自然法则,发明一个“用进废退算子”,可以用来取代普通遗传算法中的先天变异算子,从而在同一代内进行后天的定向变异操作,使变异操作产生新的技术效果,提升遗传算法的性能,使其解决全局优化、搜索和机器学习等问题更多、更好。
一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,包括如下步骤:
步骤1:根据优化、搜索和机器学习的问题对象构造目标函数f(x);
步骤2:根据问题对象的优化需求,将问题对象编码成遗传算法的染色体,然后自动计算或手动输入遗传算法的运行参数,并进行算法初始化;此处的遗传算法为普通遗传算法;
步骤3:根据问题对象的优化需求,设第k代候选解种群为Gk,且
Figure PCTCN2017089285-appb-000001
其中
Figure PCTCN2017089285-appb-000002
代表候选解种群Gk中第i个染色体编码,S是种群大小。则 利用迭代优化方法得到k+1代种群Gk+1,即
Figure PCTCN2017089285-appb-000003
其中
Figure PCTCN2017089285-appb-000004
代表种群Gk+1中第i个染色体编码,S是种群大小,优化过程如下:
(1)个体评价:计算候选解种群Gk中每一个染色体编码
Figure PCTCN2017089285-appb-000005
解码后对应的目标函数值的大小;
(2)执行拉马克获得性遗传算子重写操作,产生临时种群G′k+1,包括如下步骤:
(2a)根据交叉遗传概率pc来从候选解种群Gk中随机选择两个,然后比较两个染色体编码的目标函数值fm m和fn的大小,并计算基因遗传百分比pt
pt=fm/(fm+fn),fm>fn
(2b)计算遗传给下一代的基因数目nt为:
nt=L·pt
L为基因串的长度,pt为基因遗传百分比;(如果计算出的nt不为整数,则向上取整)
(2c)运行遗传算子,即执行重写操作:保留目标函数值大的染色体编码,将目标函数值大的染色体上的nt个基因对应重写到目标函数值小的染色体编码的相应位置上,形成新的染色体编码。对应重写即将目标函数值大的染色体编码上的选择位基因重写到目标函数值小的染色体编码的相应位置上,以此类推。
(2d)重复以上(2a)-(2c)过程pc S次,产生重写操作之后的临时种群G′k+1。S为种群大小,pc为交叉遗传概率。
(3)使用拉马克用进废退算子对临时种群G′k+1执行定向变异操作,获得新候选解种群Gk+1;变异算子即普通遗传算法中的变异算子;
(4)重复迭代第(1)步到第(3)步,直到满足预先设定的终止条件;
(5)评价解码后该最优解是否满足此次优化计算的要求,若满足要求,获取最终优化解集;否则,修改运行参数,重新计算直到获取最终优化解集。
步骤4:输出问题对象的最终优化解集。
步骤2中,初始化的方法为:
(1)首先,根据遗传算法的运行模式,确定运行参数:候选解种群的大小S、变量维数d、变量取值范围、交叉遗传概率pc、变异算子中的内部参数;
(2)然后,根据优化需要,对问题对象进行编码,形成个体基因串、染色体和候选 解种群,确定基因串的长度L。
(3)最后,根据问题对象的变量取值范围进行初始化,随机产生一组初始候选解,当k=0,每个染色体
Figure PCTCN2017089285-appb-000006
基因组为
Figure PCTCN2017089285-appb-000007
Figure PCTCN2017089285-appb-000008
初始种群作为
Figure PCTCN2017089285-appb-000009
S为种群大小,d为变量维度。
在步骤2(2)中,对问题对象进行编码的方式为:如果d小于等于2,则选择二进制或十进制编码方法;如果d大于2,则选择实数编码方法。
目标函数值为针对最大化问题的适应度函数值或针对最小化问题的成本函数值。
在步骤3(1)中,个体评价使用多个处理器或多台计算机。
在步骤3(2)中,拉马克遗传算子重写操作时选取重写的nt个基因为随机选取。
在步骤3(3)中,变异操作采用普通遗传算法中的非定向变异方法,包括变异概率为pm的均匀变异方法,即不使用“用进废退算子”。
在步骤3(3)中,变异操作也可采用基于拉马克“用进废退”自然法则的“用进废退算子”,即实施定向变异方法。
在步骤3(3)中,“用进废退算子”可以采用梯度优化方法,如果梯度信息可以获得的话。在可获得梯度信息的情况下,根据梯度的符号和大小确定变异的方向和步长的方法。
在步骤3(3)中,“用进废退算子”可以采用非梯度优化方法。非梯度优化方法包括爬山算法、退火算法、单纯形方法(Simplex Method)、模式搜索(pattern search)或鲍尔共轭定向法(Powell's method)等。
在步骤3(2)和步骤3(3)中,每一代中的精英染色体编码不受拉马克遗传算子和变异算子改变,即保留精英,不重写与变异群体迄今为止参与进化而出现的最好个体(也称为精英个体,精英染色体编码),而是在下一代中直接将其复制。确定精英的方法为普通遗传算法的方法。
在步骤3(5)中,评价最优解是否满足此次优化计算的要求,若满足要求,运算结束;否则,可以修改运行参数中的运行参数中的交叉遗传概率pc或变异算子中的内部参数,重复步骤3,获取问题对象的末代最优解集。
在步骤3(5)中,评价最优解是否满足此次优化计算的要求,若满足要求,运算结束;否则,还可以增大运行参数中的种群大小和/或迭代次数,重复步骤3,获取问题对象的末代最优解集。
在步骤2中确定的运行参数中的交叉遗传概率pc、变异算子中的内部参数,在步骤3 的过程中,可以根据进化状态自动调整。
在步骤2中,染色体中的基因编码可以代表问题对象的结构或结构的数值参量。
通常,问题对象的构成包括问题对象的结构、每个结构的数值参量和结构之间的组合方式(其中有的用算数运算符或逻辑运算符表示)。在普通遗传算法中,染色体上的基因编码一般不是运算符;在“遗传编程”中,染色体上的基因编码可以是运算符。在本发明的步骤2中,问题对象的基因编码可以是运算符,从而使本发明的获得性遗传算法扩展到“获得性遗传编程”,实现能使问题对象的结构发生质变的自由优化。获得性遗传编程中的“遗传算子”类似于普通遗传编程的交叉操作,如图4所示,但是染色体的树状“剪枝嫁接”是通过用获得性遗传算法中的重写操作来来实现的。类似的,变异操作和“用进废退”可以将某一小分支由一个新的分支取代。因而,本发明的遗传算子和用进废退算子在获得性遗传编程中的实现方式并没有改变,但提高了遗传编程的速度和精度。这样,后天获得性遗传可以提高自由结构优化、自动编程尝试和机器学习功能。
本发明将拉马克获得性遗传原理和现代表征遗传学与达尔文进化论的适者生存自然法则相结合,构造获得性遗传优化的技术方案、获得性遗传算法及获得性遗传编程方法;发明操作拉马克获得性遗传自然法则的遗传算子来直接取代普通遗传算法的选择算子和交叉算子;还发明操作拉马克用进废退自然法则的用进废退算子来取代普通遗传算法中的先天变异算子;从而在同一代内进行用进废退的后天定向变异,使变异操作产生新的技术效果,使更多的全局优化、搜索和机器学习等问题得到更好的解决。具体呈现以下优点:
(1)优化过程结构简单,所需控制参数少,计算复杂度低,操作方便;
(2)增强了遗传算法和遗传编程的全局最优性和后期进化的可持续性;
(3)使全局优化、搜索和机器学习等问题的最优解集收敛更快,精度更高;
(4)具有更广泛的应用前景和领域:
1)复杂问题的优化,不要求有明确的数学表达式,因此它是解决这类问题的有力工具;
2)复杂系统分析,应用进化计算从事聚类分析、模式识别、图像处理、调度组织等工作,可将表面杂乱无章的复杂事物条理化;
3)自动控制。进化计算技术具有自适应、自学习、自组织的智能行为,能够适应环境变化,减少波动,保证高的控制精度,保证控制的实时性和快速性;
4)硬件自动设计,它能对复杂电路设计和自适应硬件领域提供一套全新的方法;
5)自动程序设计。基于遗传程序设计而开展的自动程序设计方法,正在发展成进化 软件的研究,即不必精确地告诉计算机具体怎样去做,而由计算机自动完成。
6)综合应用。和其他技术相结合,各自发挥特长,综合解决问题。例如,将遗传算法和人工神经网络相结合,解决了机器学习等问题。
附图说明
图1获得性遗传算法流程图
图2“遗传算子”重写操作流程图
图3一次重写操作示意图
图4获得性遗传编程的“嫁接繁殖”示意图
图5本发明和普通遗传算法在全局极小值(f1)优化和极大值优化(f2)中具体实施举例的算法适应度比较
图6本发明和普通遗传算法在全局极小值(f1)优化和极大值优化(f2)中具体实施举例的算法精度比较
图7神经网络机器学习示意图
图8神经网络实现2个变量异或问题示意图
图9最优和平均函数值
图10获得输出与输入关系
图11本发明的方法与其他粒子滤波算法在粒子数为10时的均方根误差均值对比曲线示意图
具体实施方式
实施测试
本实施测试通过选择全局优化、搜索和机器学习问题的标准函数对本发明和普通遗传算法进行性能测试和比较。标准函数以及相应参数设置如表1所示:
表1全局优化、搜索和机器学习问题的标准测试函数
Figure PCTCN2017089285-appb-000010
1Xin Yao.Evolutionary Programming Made Faster.IEEE Trans Evolutionary Computation,1999,3(2):82-101.
2Michalewicz,Z..Genetic Algorithms+Data Structure=Evolutionary Programs,Springer-Verlag,Berlin,1992.
通常,种群大小可以设置成变量数即维数的10倍,因此本实施的种群大小设为S=300,普通遗传算法中交叉概率通常为pc=0.5,变异概率通常为pm=0.2。为了保持验证一致,本发明中的交叉遗传概率也取0.5,变异概率取0.2。对每个测试函数分别独立运行30次。函数评价次数都为3×105
对于两个测试函数,本发明提出的算法与普通遗传算法搜索解的均值、标准差、最优性以及精度结果分别如表2、表3所示:
表2全局优化、搜索和机器学习问题的标准测试函数f1下搜索结果比较
Figure PCTCN2017089285-appb-000011
表3全局优化、搜索和机器学习问题的标准测试函数f2下搜索结果比较
Figure PCTCN2017089285-appb-000012
由表2和表3的统计数据可以看出,本发明算法优化的均值、标准差、最优性和精度都要优于普通遗传算法,且在解的精度上要超出很多,与理论最优值接近程度高。
图5和图6分别显示了本发明和普通遗传算法随着函数评价次数变化的平均适应度及平均搜索精度关系。从图中可以看出,本发明算法在优化测试函数f1和f2时,得到的优化解更接近于理论最优解,同时本发明算法的搜索速度比普通遗传算法也快很多。
综上可以得出,本发明具有较高的优化精度和较快的收敛速度。
为了便于公众理解及使用本发明的技术方案,下面以两个全局优化、搜索和机器学习问题的应用实例来进行进一步说明。
应用实例1–基于简单神经网络的异或机器学习问题
人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理和机器学习的算法模型。这种网络依靠互联的非线性神经元节点,通过调整节点之间相互连接的关系和权重,达到处理信息和学习、记忆的目的。图7显示了一个简单的神经网络,圆圈表示神经元,输入点“-1”被称为偏置节点。神经网络最左边的一层是输入层,最右的一层是输出层。中间所有节点组成隐藏层,我们不能在训练样本集中直接观测到它们的值。同时可以看到,该神 经网络机器学习的实施例子中,有2个输入单元(偏置单元不计在内),2个隐藏单元及一个输出单元。
如图8所示,这里用一个具有简单网络的神经网络实现2个变量的异或问题,来说明使用获得性遗传算法的机器学习情况,对寻找出实际而又有效的学习算法具有重要的示范意义。其中输入神经元为x1、x2,输出为y,则异或问题的4种训练模型如表4所示。
表4异或问题的训练模型
Figure PCTCN2017089285-appb-000013
输入层神经元到输出层神经元的连接权值共有9个,记作wn,n≡1,2,…,9。
利用本发明的全局优化、搜索和机器学习技术方案解决神经网络实现异或问题,训练网络的权值wn,具体实施流程如图1和图2所示:
步骤1:根据异或问题构造目标函数f(W),W为权向量,即W={wn,n=1,2,…,9}。不失一般性,这里采用
Figure PCTCN2017089285-appb-000014
其中m是训练模型编号,ym表示训练模型m的输出,由图8知f是W的函数,其值代表了解的适应度,它越大,训练或学习误差越小。所以,此实例的目标是使f最大化。
步骤2:根据问题对象的优化需求,自动计算或手动输入普通遗传算法的运行参数,将W编码成染色体,并进行初始化:
(1)首先,根据普通遗传算法的运行模式,S=90(一般可以取参数变量维数的10倍)、变量维数d=9、W取值范围从-5到4.9、遗传概率采用pc=0.6、变异概率采用pm=0.05;
(2)然后,对问题对象需要优化的结构及其参数进行十进制编码,形成个体基因串、染色体和候选解种群,确定基因串的长度L;这里采用两位十进制数描述权值的编码方案,具体如表5所示,这样基因串的长度L=2×d=2×9=18。比如,W={W1,W2,W3,W4,W5,W6,W7,W8,W9}={-5,-4.9,-4.8,-4.7,0,0,4.6,4.7,4.8,4.9},则它的编码格式为We={000102035096979899}。
表5权值的两位十进制编码
Figure PCTCN2017089285-appb-000015
(3)最后,根据问题对象的变量取值范围进行初始化,随机产生一组初始候选解。当k=0,每个染色体
Figure PCTCN2017089285-appb-000016
为权值向量的编码格式
Figure PCTCN2017089285-appb-000017
Figure PCTCN2017089285-appb-000018
为编码的每一位,初始种群作为
Figure PCTCN2017089285-appb-000019
步骤3:根据优化需求,假设第k代种群为
Figure PCTCN2017089285-appb-000020
代表种群中的一个个体(染色体),则利用迭代方法,通过重写、变异操作就能得到k+1代种群
Figure PCTCN2017089285-appb-000021
优化过程如下:
(1)个体评价:根据表4,训练输入矩阵
Figure PCTCN2017089285-appb-000022
期望输出矩阵Y=[0 1 0 1 ],计算种群Gk中每一个个体
Figure PCTCN2017089285-appb-000023
解码后的适应度,即目标函数值,这里属于最大值问题。比如,
Figure PCTCN2017089285-appb-000024
Figure PCTCN2017089285-appb-000025
Figure PCTCN2017089285-appb-000026
优越。
(2)执行拉马克“遗传算子”重写操作产生新候选解种群G′k+1,如图2所示,包括如下步骤:
(2a)根据交叉遗传概率pc,随机选择两个父代染色体(即父代候选解的基因串),即随机产生一个(0,1]之间的随机数r,如果r<pc,则选取两个父代染色体,否则不选取,继续产生随机数r。例如
Figure PCTCN2017089285-appb-000027
Figure PCTCN2017089285-appb-000028
(2b)比较两个染色体适应度函数值
Figure PCTCN2017089285-appb-000029
Figure PCTCN2017089285-appb-000030
假如,
Figure PCTCN2017089285-appb-000031
Figure PCTCN2017089285-appb-000032
将给子代遗传相对更多的基因。计算基因遗传百分比pt:
Figure PCTCN2017089285-appb-000033
那么根据下式计算遗传给下一代的基因数目nt
Figure PCTCN2017089285-appb-000034
(2c)运行遗传算子,执行重写操作:保留适应度强的染色体,将适应度强的染色体上的nt个基因对应重写到适应度弱的染色体的相应位置上,形成新的染色体。对应重写即将适 应度强的染色体上的选择位基因重写到适应度弱的染色体的对应位置上,以此类推,基本流程图如图2所示,一次重写操作的示例如图3所示(图中未标出所有编码位)。根据上个步骤,那么
Figure PCTCN2017089285-appb-000035
中有18×2/3=12个编码位被
Figure PCTCN2017089285-appb-000036
中的编码位重写后为一次重写。
(2d)重复以上(2a)-(2c)过程pc S次,产生重写操作之后新候选解的临时种群G′k+1
当重写次数大于或等于Np=pcS(0.6×90=54;如果积不是整数,则向上取整)时,重写操作结束,当重写次数小于54,继续重复(2a)-(2c)。
(3)使用一个适当的“变异算子”,对临时种群G′k+1执行变异操作,获得新候选解种群Gk+1;这里的机器学习问题比较简单,因而此实例中没有采用“用进废退”操作,而只需采用比较常用的普通遗传算法中的先天均匀变异方法。因为变异概率pm=0.05,一次迭代后的新种群Gk+1中将有90×18×0.05=81(如果积不是整数,则向上取整)个编码位获得一个介于并包括0到9之间的新值。
(4)重复迭代第(1)步到第(3)步,直到满足预先设定的终止条件。此处终止条件简单地设为进化100代。
(5)评价解码后该最优解是否满足此次优化计算的要求,若满足要求,运算结束;否则,修改算法的运行参数,比如手动修改交叉遗传概率pc变异概率pm,或者增大种群大小和进化迭代次数,重新计算,获取最终优化结果。此处优化计算的要求为f>0.95,图9显示已满足要求。
步骤4:输出问题对象的末代最优解集W0。如图8所示,也显示了一个权值的最优解集。
图9和图10分别显示了本发明优化神经网络来实现2变量异或机器学习的问题时,迭代100次最优和平均目标函数值以及获得的输入输出关系。从图中可以看出,本发明算法在优化神经网络异或问题权值时,得到的输出能较好地接近于期望输出。
综上可以得出,本发明的获得性遗传算法能很好地优化神经网络、搜寻最优权值和解决机器学习问题。
进一步地,如图7所示的网络结构也可以编码入基因串,从而与权值同时优化。
如果问题对象需求的网络结构更加复杂,可以实施获得性遗传编程,则网络结构还能得到更直接、更自由的优化。
应用实例2-信号处理问题
粒子滤波算法是非线性信号处理中的一个重要技术,它不受系统模型特性和噪声分布 限制,从而比其它的滤波技术具有更广泛的适用性。然而,粒子滤波算法的性能受自身粒子贫化问题的限制。利用本发明的算法解决粒子滤波算法重采样过程的粒子匮乏问题,优化粒子分布,使得粒子样本更接近于真实后验概率密度样本,提高滤波性能。
这里通过粒子滤波实现一个非线性动态系统的状态估计,来说明使用获得性遗传算法的优化粒子滤波处理信号情况,对寻找出性能优越的非线性滤波算法具有重要的意义。其中系统的状态空间模型如下:
xk+1=1+sin(0.04πk)+0.5xk+vk
Figure PCTCN2017089285-appb-000037
其中,过程噪声vk~Gamma(3,2),观测噪声nk~N(0,0.00001)。设定观测时间为70,运行次数为200,粒子数N为10。
利用本发明的全局优化、搜索和机器学习技术方案解决粒子滤波算法粒子贫化问题,优化粒子分布,具体实施方式如下:
步骤1:根据非线性动态系统的状态估计问题构造目标函数f(x),这里选用粒子的权值函数;
步骤2:根据问题对象的优化需求,自动计算或手动输入普通遗传算法的运行参数,并进行初始化:
(1)首先,根据普通遗传算法的运行模式,确定种群大小S=N=10,N为粒子数目、变量维数d=1、交叉遗传概率pc=0.9、变异概率pm=0.05;
(2)然后,对问题对象需要优化的结构及其参数进行编码,形成个体基因串、染色体和候选种群,确定基因串的长度L;这里采用固定有效位数lx=7的浮点数编码每个重要性采样粒子值,即系统的状态值x,每个染色体表示一个粒子浮点数格式,浮点数值的第一位代表符号位,“1”代表正数,“0”代表负数,其中基因串长度即为固定有效位数,即L≡d×lx≡1×7。比如,k时刻第i个粒子状态值x≡10.4711那么它的浮点数编码格式为xc=(1104711)。
(3)最后,根据问题对象的变量取值范围进行初始化,随机产生一组初始候选解。这里就根据粒子自身初始化步骤随机产生。当k=0,每个染色体
Figure PCTCN2017089285-appb-000038
为粒子状态值的编码格式
Figure PCTCN2017089285-appb-000039
Figure PCTCN2017089285-appb-000040
为编码的每一位,初始种群作为
Figure PCTCN2017089285-appb-000041
步骤3:根据优化需求,假设当前(第k代)种群为
Figure PCTCN2017089285-appb-000042
Figure PCTCN2017089285-appb-000043
代表种群中的一个个体(染色体),则利用迭代方法,通过重写、变异操作就能得到k+1代种群
Figure PCTCN2017089285-appb-000044
优化过程如下:
(1)个体评价:根据粒子权值公式,计算种群Gk中每一个个体
Figure PCTCN2017089285-appb-000045
解码成x后的适应度,这里属于最大值问题。比如
Figure PCTCN2017089285-appb-000046
(2a)根据遗传概率pc,随机选择两个父代染色体(即父代候选解的基因串),例如
Figure PCTCN2017089285-appb-000047
Figure PCTCN2017089285-appb-000048
(2b)比较两个染色体适应度函数值
Figure PCTCN2017089285-appb-000049
Figure PCTCN2017089285-appb-000050
假如,
Figure PCTCN2017089285-appb-000051
Figure PCTCN2017089285-appb-000052
将给子代遗传相对更多的基因。计算基因遗传百分比pt:
Figure PCTCN2017089285-appb-000053
那么根据下式计算遗传给下一代的基因数目nt
nt=L·pt=7×3/5≈5(这里实施了向上取整)
(2c)运行遗传算子,执行重写操作:保留适应度强的染色体,将适应度强的染色体上的nt个基因对应重写到适应度弱的染色体的相应位置上,形成新的染色体。对应重写即将适应度强的染色体上的选择位基因重写到适应度弱的染色体的对应位置上,以此类推,基本流程图如图2所示。根据上个步骤,那么
Figure PCTCN2017089285-appb-000054
中将有7×3/5≈5个编码位被
Figure PCTCN2017089285-appb-000055
中的编码位重写。
(2d)重复以上(2a)-(2c)过程pcS次,产生重写操作之后新候选解的临时种群G′k+1
(3)使用一个适当的“变异算子”,对临时种群G′k+1执行变异操作,获得新候选解种群Gk+1;由于这里机器学习非线性滤波的问题相对复杂,因而此实例中考虑“变异算子”采用“用进废退”操作。
(3a)一般地,可以采用普通遗传算法中比较常用的非定向的均匀变异方法。因为变异概率pm=0.05,一次迭代后的新种群Gk+1中将共有10×7×0.05≈4(这里实施了向上取整)个编码位进行变异,其中如果随机选择的变异位是编码的符号位,则按照普通遗传 算法的二进制变异,即其可能由1变0,或由0变1。除去符号位的变异位获得一个介于0到9之间的新值。
(3b)为了提高滤波算法的速度和精度,在此举例说明普通遗传算法中的非定向的“变异算子”怎样采用获得性遗传算法中的定向的“用进废退”算子来实现。在这个应用实例中,用非梯度优化的爬山算法来实现“用进废退”操作。对新种群Gk+1中的个体
Figure PCTCN2017089285-appb-000056
与均匀变异方法相似,变异概率同样选为pm=0.05,但与非定向变异不同的是,这里是对新种群Gk+1中个体
Figure PCTCN2017089285-appb-000057
解码成对应的粒子状态值
Figure PCTCN2017089285-appb-000058
进行操作,即一次迭代后将有10×0.05≈1(这里实施了向上取整)个粒子状态进行变异,变异的粒子状态获得一个原粒子状态值附近的随机新值。且定向变异是对所要变异的粒子状态值
Figure PCTCN2017089285-appb-000059
进行Nm次变异而取最佳结果。这里Nm=S×20%=10×20%=2,通过2次变异后得到的2个新粒子状态值与原来的
Figure PCTCN2017089285-appb-000060
对比,取最佳结果,即形成定向变异。因此,变异总是向着不更差的方向进行,实现“用进废退”。
(4)重复迭代以上步骤3中的第(1)步到第(3)步,直到满足预先设定的终止条件。
(5)评价该最优解是否满足此次优化计算的要求,若满足要求,运算结束;否则,修改算法的运行参数,增大种群大小和迭代次数,重新计算,获取最终优化结果。
步骤4:输出问题对象的末代最优解集,即粒子集。
表6显示了粒子数目N=10的情况下进行200次蒙特卡罗实验,统计本发明和其它几种粒子滤波算法,即基本粒子滤波算法(PF),辅助粒子滤波算法(APF)和正则化粒子滤波算法(RPF),进行均方根误差(RMSE)均值、RMSE方差的比较结果。
表6:N为10的粒子滤波试验结果
Figure PCTCN2017089285-appb-000061
图11显示了本发明与其它粒子滤波算法所产生的RMSE均值随时间变化图。从表6和图11都可以看出,本发明的获得性遗传算法能很好地优化粒子滤波、搜寻最优粒子集和解决非线性滤波问题。

Claims (16)

  1. 一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,包括如下步骤:
    步骤1:根据优化、搜索和机器学习的问题对象构造目标函数f(x);
    步骤2:根据问题对象的优化需求,将问题对象编码成遗传算法的染色体,然后自动计算或手动输入遗传算法的运行参数,并进行算法初始化;
    步骤3:根据问题对象的优化需求,设第k代候选解种群为Gk,且
    Figure PCTCN2017089285-appb-100001
    其中
    Figure PCTCN2017089285-appb-100002
    代表候选解种群Gk中第i个染色体编码,S是种群大小,利用迭代优化方法得到k+1代种群Gk+1,即
    Figure PCTCN2017089285-appb-100003
    其中
    Figure PCTCN2017089285-appb-100004
    代表种群Gk+1中第i个染色体编码,S是种群大小,优化过程如下:
    (1)个体评价:计算候选解种群Gk中每一个染色体编码
    Figure PCTCN2017089285-appb-100005
    解码后对应的目标函数值的大小;
    (2)执行拉马克获得性遗传算子重写操作,产生临时种群G′k+1,包括如下步骤:
    (2a)根据交叉遗传概率pc来从候选解种群Gk中随机选择两个染色体编码,比较两个染色体编码的目标函数值fm和fn的大小,并计算基因遗传百分比pt
    pt=fm/(fm+fn),fm>fn
    (2b)计算遗传给下一代的基因数目nt为:
    nt=L·pt
    L为基因串的长度,pt为基因遗传百分比;
    (2c)保留目标函数值大的染色体编码,将目标函数值大的染色体编码上的nt个基因对应重写到目标函数值小的染色体编码的相应位置上,形成新的染色体编码;
    (2d)重复以上(2a)-(2c)过程pcS次,产生重写操作之后的临时种群G′k+1
    (3)使用拉马克用进废退算子对临时种群G′k+1执行定向变异操作,获得新候选解种群Gk+1
    (4)重复迭代第(1)步到第(3)步,直到满足预先设定的终止条件;
    (5)评价解码后该最优解是否满足此次优化计算的要求,若满足要求,获取最终优化解集;否则,修改运行参数,重新计算直到获取最终优化解集;
    步骤4:输出问题对象的最终优化解集。
  2. 根据权利要求1所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤2中,初始化的方法为:
    (1)首先,根据遗传算法的运行模式,确定运行参数:候选解种群的大小S、变量维数d、变量取值范围、交叉遗传概率pc、变异算子中的内部参数;
    (2)然后,对问题对象进行编码,形成个体基因串、染色体和候选解种群,确定基因串的长度L;
    (3)最后,根据问题对象的变量取值范围进行初始化,随机产生一组初始候选解,当k=0,每个染色体
    Figure PCTCN2017089285-appb-100006
    基因组为
    Figure PCTCN2017089285-appb-100007
    Figure PCTCN2017089285-appb-100008
    初始种群作为
    Figure PCTCN2017089285-appb-100009
    S为种群大小,d为变量维度。
  3. 根据权利要求1所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤3(1)中:个体评价使用多个处理器或多台计算机。
  4. 根据权利要求1所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤3(2):拉马克遗传算子重写操作时选取重写的nt个基因为随机选取。
  5. 根据权利要求1所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤3(3)中:变异操作采用普通遗传算法中的非定向变异方法,包括变异概率为pm的均匀变异方法。
  6. 根据权利要求1所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤3(3)中:变异操作采用基于拉马克“用进废退”自然法则的“用进废退算子”,即实施定向变异方法,包括梯度优化方法和非梯度优化方法。
  7. 根据权利要求6所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,定向变异的梯度优化方法包括在可获得梯度信息的情况下,根据梯度的符号和大小确定变异的方向和步长的方法。
  8. 根据权利要求6所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,定向变异的非梯度优化方法包括爬山算法、退火算法、单纯形方法、模式搜索或鲍尔共轭定向法。
  9. 根据权利要求1所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤3(2)和步骤3(3)中:每一代中的精英染色体编码不受遗传算 子和变异算子改变。
  10. 根据权利要求1所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤3(5)中:最优解不满足此次优化计算的要求时,修改运行参数中的交叉遗传概率pc或变异算子中的内部参数。
  11. 根据权利要求1所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤3(5)中:最优解不满足此次优化计算的要求时,增大运行参数中的种群大小和/或迭代次数。
  12. 根据权利要求1所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤2中确定的交叉遗传概率pc、变异算子中的内部参数,在步骤3的过程中,根据进化状态自动调整。
  13. 根据权利要求1或2所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤2中,在问题对象编码获得的染色体上,其基因编码代表问题对象的结构或结构的数值参量。
  14. 根据权利要求13所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤2中,对问题对象进行编码的方式为:如果d小于等于2,则选择二进制或十进制编码方法;如果d大于2,则选择实数编码方法。
  15. 根据权利要求13所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,在步骤2中,问题对象的基因编码也可以是算数运算符号或逻辑运算符号。
  16. 根据权利要求15所述的基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法,其特征在于,基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法应用于结构自由化的“获得性遗传编程”。
PCT/CN2017/089285 2017-03-10 2017-06-21 一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法 WO2018161468A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018538208A JP6697566B2 (ja) 2017-03-10 2017-06-21 遺伝的アルゴリズムに基づく大域的最適化、検索並びに機械学習法
EP17899753.2A EP3422261A4 (en) 2017-03-10 2017-06-21 GLOBAL OPTIMIZATION, SEARCH AND MACHINE LEARNING BASED ON THE LEARNED GENETIC PRINCIPLE OF LAMARCK

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201710140258.5 2017-03-10
CN201710140258 2017-03-10
CN201710437829.1A CN107229972A (zh) 2017-03-10 2017-06-12 一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法
CN201710437829.1 2017-06-12

Publications (1)

Publication Number Publication Date
WO2018161468A1 true WO2018161468A1 (zh) 2018-09-13

Family

ID=59934834

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/089285 WO2018161468A1 (zh) 2017-03-10 2017-06-21 一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法

Country Status (5)

Country Link
US (1) US20180260714A1 (zh)
EP (1) EP3422261A4 (zh)
JP (1) JP6697566B2 (zh)
CN (1) CN107229972A (zh)
WO (1) WO2018161468A1 (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109408883A (zh) * 2018-09-19 2019-03-01 合肥工业大学 一种基于环境性能需求的产品进化设计决策方法
CN109472114A (zh) * 2018-12-13 2019-03-15 河南工业大学 一种磁性纳米粒子仿真测试平台的优化设计方法及装置
CN109766562A (zh) * 2018-09-27 2019-05-17 中原工学院 基于遗传算法和粒子群组合算法的摆线轮齿廓修形方法
CN109934344A (zh) * 2018-12-20 2019-06-25 西安理工大学 一种改进的基于规则模型的多目标分布估计算法
CN109993310A (zh) * 2019-04-16 2019-07-09 西安电子科技大学 基于fpga的并行量子进化实现方法
CN110059825A (zh) * 2019-02-19 2019-07-26 西安理工大学 一种基于改进遗传算法的快速最短枝切搜索方法
CN110619454A (zh) * 2019-08-09 2019-12-27 东北大学 一种基于改进遗传算法和prim算法的配电网规划方法
CN111080517A (zh) * 2019-11-26 2020-04-28 河北工业大学 基于改进蝴蝶优化算法的三维点云拼接方法
CN111581583A (zh) * 2020-05-09 2020-08-25 陕西宝成航空仪表有限责任公司 基于改进投影寻踪的地磁图适配性综合评价方法
CN111639822A (zh) * 2020-06-09 2020-09-08 安庆师范大学 一种基于0-1背包问题分析的快递分配方法
CN111724064A (zh) * 2020-06-20 2020-09-29 国网福建省电力有限公司 一种基于改进免疫算法的含储能配电网规划方法
CN111736133A (zh) * 2020-06-15 2020-10-02 西安电子科技大学 基于改进ga-sqp的mimo雷达正交波形设计方法
CN112327327A (zh) * 2020-11-05 2021-02-05 哈尔滨工业大学 一种基于遗传算法的激光雷达成像质量探测方法及系统
CN112466393A (zh) * 2020-11-12 2021-03-09 苏州大学 基于自适应免疫遗传算法的代谢标志物组群识别方法
CN112711800A (zh) * 2020-12-29 2021-04-27 中国航空工业集团公司西安飞机设计研究所 一种金属机翼强度与刚度参数优化设计方法
CN112822043A (zh) * 2020-12-31 2021-05-18 扆亮海 预防局部极优的高质量网络服务组合方法
CN112836300A (zh) * 2021-02-09 2021-05-25 北京卫星环境工程研究所 航天器外热流模拟装置加热回路自动集束算法
CN112836426A (zh) * 2021-01-14 2021-05-25 西北工业大学 基于改进遗传算法的航空发动机最大推力控制优化方法
CN113326917A (zh) * 2021-04-29 2021-08-31 开放智能机器(上海)有限公司 一种基于遗传算法的自动优化算子的方法和系统
CN113761730A (zh) * 2021-08-27 2021-12-07 浙江理工大学 基于改进差分的茶园四杆中耕机构多目标点轨迹综合方法
CN113836797A (zh) * 2021-09-01 2021-12-24 西安石油大学 基于ga-bp神经网络的湿气管道持液率预测方法
CN113867358A (zh) * 2021-10-13 2021-12-31 中国人民解放军陆军工程大学 多无人车协同遍历任务的智能路径规划方法
CN114584337A (zh) * 2021-12-16 2022-06-03 南京理工大学 一种基于遗传算法的语音攻击伪造方法
CN114997360A (zh) * 2022-05-18 2022-09-02 四川大学 神经架构搜索算法的演化参数优化方法、系统及存储介质
CN115659771A (zh) * 2022-11-14 2023-01-31 山东科技大学 一种基于激光雷达的气溶胶粒径反演方法

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3673419A1 (en) 2017-11-22 2020-07-01 Deepmind Technologies Limited Population based training of neural networks
CN108268359A (zh) * 2017-12-30 2018-07-10 浙江中睿低碳科技有限公司 基于深度学习的空压站的优化方法
CN109118023B (zh) * 2018-09-21 2022-03-01 北京交通大学 一种公共交通线网优化方法
CN109359773A (zh) * 2018-10-23 2019-02-19 天津工业大学 一种基于自适应遗传算法的无线供电路径配置方法
CN109623814B (zh) * 2018-12-14 2023-09-08 中南大学 一种机械臂控制方法
CN109636051A (zh) * 2018-12-19 2019-04-16 中建八局第三建设有限公司 基于ga的一次泵变流量系统运行参数优化方法
WO2021025217A1 (ko) * 2019-08-08 2021-02-11 엘지전자 주식회사 인공지능 서버
US11907821B2 (en) 2019-09-27 2024-02-20 Deepmind Technologies Limited Population-based training of machine learning models
CN110879778B (zh) * 2019-10-14 2023-09-26 杭州电子科技大学 一种新的动态反馈和改进型补丁评价的软件自动修复方法
CN110826775B (zh) * 2019-10-23 2023-04-18 武汉理工大学 一种用于减速器的并行拆卸序列规划方法及系统
CN110826714B (zh) * 2019-10-29 2024-02-27 大连海事大学 一种岩质基坑爆破参数动态调控方法
CN110826819B (zh) * 2019-11-27 2023-04-07 上海海事大学 一种自动化集装箱码头车辆的路径规划方法
CN111291465B (zh) * 2020-01-10 2023-10-03 上海海事大学 基于遗传算法与神经网络的船舶空调热舒适温度预测方法
CN111242382B (zh) * 2020-01-18 2022-03-01 国网山东省电力公司菏泽供电公司 基于量子遗传算法的传声器阵列布置优化方法
CN111461402B (zh) * 2020-03-06 2024-03-26 上海汽车集团股份有限公司 物流排程优化方法及装置、计算机可读存储介质、终端
CN111325284A (zh) * 2020-03-09 2020-06-23 武汉大学 一种基于多目标动态分布自适应学习方法及装置
CN113469352A (zh) * 2020-03-31 2021-10-01 上海商汤智能科技有限公司 神经网络模型的优化方法、数据处理方法及装置
CN111399558B (zh) * 2020-04-27 2023-09-22 北京工业大学 一种基于知识选择的污水处理过程多目标优化控制方法
CN111832165A (zh) * 2020-07-02 2020-10-27 中国人民解放军战略支援部队信息工程大学 一种测控设备布站优化方法及装置
CN112036566A (zh) * 2020-08-03 2020-12-04 上海明略人工智能(集团)有限公司 使用遗传算法选取特征的方法和装置
CN112116672B (zh) * 2020-08-13 2024-02-02 河南大学 基于遗传算法的彩色图像保存缩略图加密算法
CN112016663B (zh) * 2020-08-24 2022-11-11 郑州大学 一种基于群体智能优化算法的高聚物浆液参数识别方法
CN112069731A (zh) * 2020-09-02 2020-12-11 中国航空无线电电子研究所 一种基于遗传算法的飞行仿真机动控制优化方法
CN112102366B (zh) * 2020-09-24 2024-04-02 湘潭大学 基于动态目标的无人机跟踪改进算法
CN112395804B (zh) * 2020-10-21 2022-02-18 青岛民航凯亚系统集成有限公司 飞机二次能源系统冷量分配方法
CN112270398B (zh) * 2020-10-28 2024-05-28 西北工业大学 一种基于基因编程的集群行为学习方法
CN112415924A (zh) * 2020-10-30 2021-02-26 南京华盾电力信息安全测评有限公司 一种空调系统节能优化方法及系统
CN112308229B (zh) * 2020-11-26 2023-11-24 西安邮电大学 基于自组织映射的动态多目标演化优化方法
CN112836337A (zh) * 2020-12-21 2021-05-25 南京航空航天大学 一种基于免疫优化算法的iGPS发射器布局优化方法
CN112733238B (zh) * 2021-01-11 2021-09-28 中交第四航务工程勘察设计院有限公司 一种高桩墩台桩位优化方法
CN112749776B (zh) * 2021-01-12 2023-08-15 南京信息工程大学 一种基于改进混合遗传算法的作业车间调度方法
CN113159376A (zh) * 2021-03-12 2021-07-23 国网河北省电力有限公司检修分公司 一种基于遗传-分布估计算法的电力检修工序优化方法
CN112949859A (zh) * 2021-04-16 2021-06-11 辽宁工程技术大学 一种改进的遗传聚类算法
CN113255913A (zh) * 2021-06-08 2021-08-13 上海对外经贸大学 一种融合区块链技术的演化方法
CN113326665B (zh) * 2021-06-30 2022-06-14 西南石油大学 一种基于遗传规划的酸性天然气水合物生成温度预测方法
CN113343589B (zh) * 2021-06-30 2022-07-26 西南石油大学 一种基于遗传-随机常数的基因表达式编程的酸性天然气水合物生成条件预测方法
CN113705081B (zh) * 2021-07-22 2024-03-29 杭州电子科技大学 一种基于集束搜索进化算法的产品族设计优化方法
CN113625375B (zh) * 2021-08-02 2022-07-12 福州大学 一种基于遗传算法优化的准周期超透镜
CN114117907B (zh) * 2021-11-24 2024-04-16 大连大学 一种基于tqa算法的减速器设计方法
CN114118845B (zh) * 2021-12-03 2023-06-30 国网江苏省电力有限公司泰州供电分公司 一种无人机任务匹配方法、装置及智能柜
CN114401211B (zh) * 2022-01-17 2023-05-12 重庆邮电大学 一种工业无线网络设备接入IPv6网络的测试系统及测试方法
CN114792070B (zh) * 2022-05-12 2023-02-03 北京化工大学 一种基于混合智能算法的地铁安全防撞时刻表优化方法
CN116301904B (zh) * 2023-05-18 2023-08-22 之江实验室 一种用于深度学习编译器的算子优化加速方法及装置
CN116684135B (zh) * 2023-06-02 2023-12-29 中国兵器工业信息中心 一种基于改进sga的武器装备网络攻击面评估方法
CN116801288B (zh) * 2023-06-25 2024-01-26 中电佰联通信科技南京有限公司 基于粒子群与遗传算法的自组织网络拓扑优化方法和系统
CN117196019B (zh) * 2023-07-27 2024-03-08 南京中禹智慧水利研究院有限公司 基于改进自适应遗传算法的新安江模型参数率定方法
CN117422114B (zh) * 2023-12-19 2024-04-09 电子科技大学(深圳)高等研究院 Ai加速器的优化方法及ai加速器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040044633A1 (en) * 2002-08-29 2004-03-04 Chen Thomas W. System and method for solving an optimization problem using a neural-network-based genetic algorithm technique
CN101630380A (zh) * 2009-07-08 2010-01-20 西安电子科技大学 基于多种群进化机制的作业车间调度方法
CN103279796A (zh) * 2013-06-08 2013-09-04 苏州大学 一种优化遗传算法进化质量的方法
CN106326988A (zh) * 2016-09-06 2017-01-11 景德镇陶瓷大学 一种基于快速匹配机制面向复杂计算的改进遗传方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10307870A (ja) * 1997-05-08 1998-11-17 Kajima Corp 遺伝的アルゴリズムを用いた職場配置システムおよび記録媒体
JP2004355220A (ja) * 2003-05-28 2004-12-16 Nec Soft Ltd 探索時間短縮化システム、探索時間短縮化方法及びそのプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040044633A1 (en) * 2002-08-29 2004-03-04 Chen Thomas W. System and method for solving an optimization problem using a neural-network-based genetic algorithm technique
CN101630380A (zh) * 2009-07-08 2010-01-20 西安电子科技大学 基于多种群进化机制的作业车间调度方法
CN103279796A (zh) * 2013-06-08 2013-09-04 苏州大学 一种优化遗传算法进化质量的方法
CN106326988A (zh) * 2016-09-06 2017-01-11 景德镇陶瓷大学 一种基于快速匹配机制面向复杂计算的改进遗传方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3422261A4 *

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109408883A (zh) * 2018-09-19 2019-03-01 合肥工业大学 一种基于环境性能需求的产品进化设计决策方法
CN109408883B (zh) * 2018-09-19 2022-11-08 合肥工业大学 一种基于环境性能需求的产品进化设计决策方法
CN109766562A (zh) * 2018-09-27 2019-05-17 中原工学院 基于遗传算法和粒子群组合算法的摆线轮齿廓修形方法
CN109766562B (zh) * 2018-09-27 2023-04-07 中原工学院 基于遗传算法和粒子群组合算法的摆线轮齿廓修形方法
CN109472114A (zh) * 2018-12-13 2019-03-15 河南工业大学 一种磁性纳米粒子仿真测试平台的优化设计方法及装置
CN109472114B (zh) * 2018-12-13 2022-10-11 河南工业大学 一种磁性纳米粒子仿真测试平台的优化设计方法及装置
CN109934344A (zh) * 2018-12-20 2019-06-25 西安理工大学 一种改进的基于规则模型的多目标分布估计算法
CN109934344B (zh) * 2018-12-20 2022-10-04 西安理工大学 一种改进的基于规则模型的多目标分布估计方法
CN110059825B (zh) * 2019-02-19 2023-04-07 西安理工大学 一种基于改进遗传算法的快速最短枝切搜索方法
CN110059825A (zh) * 2019-02-19 2019-07-26 西安理工大学 一种基于改进遗传算法的快速最短枝切搜索方法
CN109993310B (zh) * 2019-04-16 2023-03-24 西安电子科技大学 基于fpga的并行量子进化实现方法
CN109993310A (zh) * 2019-04-16 2019-07-09 西安电子科技大学 基于fpga的并行量子进化实现方法
CN110619454A (zh) * 2019-08-09 2019-12-27 东北大学 一种基于改进遗传算法和prim算法的配电网规划方法
CN110619454B (zh) * 2019-08-09 2022-11-29 东北大学 一种基于改进遗传算法和prim算法的配电网规划方法
CN111080517B (zh) * 2019-11-26 2023-04-28 河北工业大学 基于改进蝴蝶优化算法的三维点云拼接方法
CN111080517A (zh) * 2019-11-26 2020-04-28 河北工业大学 基于改进蝴蝶优化算法的三维点云拼接方法
CN111581583B (zh) * 2020-05-09 2024-02-06 陕西宝成航空仪表有限责任公司 基于改进投影寻踪的地磁图适配性综合评价方法
CN111581583A (zh) * 2020-05-09 2020-08-25 陕西宝成航空仪表有限责任公司 基于改进投影寻踪的地磁图适配性综合评价方法
CN111639822A (zh) * 2020-06-09 2020-09-08 安庆师范大学 一种基于0-1背包问题分析的快递分配方法
CN111639822B (zh) * 2020-06-09 2023-08-04 安庆师范大学 一种基于0-1背包问题分析的快递分配方法
CN111736133A (zh) * 2020-06-15 2020-10-02 西安电子科技大学 基于改进ga-sqp的mimo雷达正交波形设计方法
CN111736133B (zh) * 2020-06-15 2023-06-30 西安电子科技大学 基于改进ga-sqp的mimo雷达正交波形设计方法
CN111724064A (zh) * 2020-06-20 2020-09-29 国网福建省电力有限公司 一种基于改进免疫算法的含储能配电网规划方法
CN111724064B (zh) * 2020-06-20 2023-01-10 国网福建省电力有限公司 一种基于改进免疫算法的含储能配电网规划方法
CN112327327B (zh) * 2020-11-05 2022-08-05 哈尔滨工业大学 一种基于遗传算法的激光雷达成像质量探测方法及系统
CN112327327A (zh) * 2020-11-05 2021-02-05 哈尔滨工业大学 一种基于遗传算法的激光雷达成像质量探测方法及系统
CN112466393B (zh) * 2020-11-12 2024-02-20 苏州大学 基于自适应免疫遗传算法的代谢标志物组群识别方法
CN112466393A (zh) * 2020-11-12 2021-03-09 苏州大学 基于自适应免疫遗传算法的代谢标志物组群识别方法
CN112711800A (zh) * 2020-12-29 2021-04-27 中国航空工业集团公司西安飞机设计研究所 一种金属机翼强度与刚度参数优化设计方法
CN112822043A (zh) * 2020-12-31 2021-05-18 扆亮海 预防局部极优的高质量网络服务组合方法
CN112836426A (zh) * 2021-01-14 2021-05-25 西北工业大学 基于改进遗传算法的航空发动机最大推力控制优化方法
CN112836300A (zh) * 2021-02-09 2021-05-25 北京卫星环境工程研究所 航天器外热流模拟装置加热回路自动集束算法
CN112836300B (zh) * 2021-02-09 2024-02-13 北京卫星环境工程研究所 航天器外热流模拟装置加热回路自动集束算法
CN113326917A (zh) * 2021-04-29 2021-08-31 开放智能机器(上海)有限公司 一种基于遗传算法的自动优化算子的方法和系统
CN113761730A (zh) * 2021-08-27 2021-12-07 浙江理工大学 基于改进差分的茶园四杆中耕机构多目标点轨迹综合方法
CN113761730B (zh) * 2021-08-27 2023-09-29 浙江理工大学 基于改进差分的茶园四杆中耕机构多目标点轨迹综合方法
CN113836797A (zh) * 2021-09-01 2021-12-24 西安石油大学 基于ga-bp神经网络的湿气管道持液率预测方法
CN113867358A (zh) * 2021-10-13 2021-12-31 中国人民解放军陆军工程大学 多无人车协同遍历任务的智能路径规划方法
CN113867358B (zh) * 2021-10-13 2023-08-29 中国人民解放军陆军工程大学 多无人车协同遍历任务的智能路径规划方法
CN114584337A (zh) * 2021-12-16 2022-06-03 南京理工大学 一种基于遗传算法的语音攻击伪造方法
CN114997360B (zh) * 2022-05-18 2024-01-19 四川大学 神经架构搜索算法的演化参数优化方法、系统及存储介质
CN114997360A (zh) * 2022-05-18 2022-09-02 四川大学 神经架构搜索算法的演化参数优化方法、系统及存储介质
CN115659771A (zh) * 2022-11-14 2023-01-31 山东科技大学 一种基于激光雷达的气溶胶粒径反演方法
CN115659771B (zh) * 2022-11-14 2023-04-28 山东科技大学 一种基于激光雷达的气溶胶粒径反演方法

Also Published As

Publication number Publication date
EP3422261A1 (en) 2019-01-02
JP2019516148A (ja) 2019-06-13
US20180260714A1 (en) 2018-09-13
EP3422261A4 (en) 2019-06-19
CN107229972A (zh) 2017-10-03
JP6697566B2 (ja) 2020-05-20

Similar Documents

Publication Publication Date Title
WO2018161468A1 (zh) 一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法
CN108334949B (zh) 一种基于优化深度卷积神经网络结构快速进化的图像分类器构建方法
Agrawal et al. Abcd-strategy: Budgeted experimental design for targeted causal structure discovery
Baymurzina et al. A review of neural architecture search
Zhong et al. Gene expression programming: A survey
US20200167659A1 (en) Device and method for training neural network
CN104866904A (zh) 一种基于spark的遗传算法优化的BP神经网络并行化方法
CN107330902B (zh) 基于Arnold变换的混沌遗传BP神经网络图像分割方法
WO2018157699A1 (zh) 一种全局最优粒子滤波方法及全局最优粒子滤波器
WO2022126448A1 (zh) 一种基于演化学习的神经网络结构搜索方法和系统
CN116523079A (zh) 一种基于强化学习联邦学习优化方法及系统
Liu et al. Bandit-based random mutation hill-climbing
Wang et al. A research on the optimal design of BP neural network based on improved GEP
Kommadath et al. Parallel computing strategies for sanitized teaching learning based optimization
Xie et al. Automated design of CNN architecture based on efficient evolutionary search
CN114241267A (zh) 基于结构熵采样的多目标架构搜索骨质疏松图像识别方法
CN116976405A (zh) 基于免疫优化算法的变分阴影量子神经网络
Parsa et al. Multi-objective hyperparameter optimization for spiking neural network neuroevolution
El-Dahshan et al. Genetic programing modeling for nucleus–nucleus collisions
CN115544307A (zh) 基于关联矩阵的有向图数据特征提取与表达方法和系统
Zha et al. A study of the design and parameters optimization of BP neural network using improved GEP
CN114358317A (zh) 基于机器学习框架的数据分类方法及相关设备
Garcia-Garcia et al. Continuous Cartesian Genetic Programming based representation for multi-objective neural architecture search
Hu et al. A classification surrogate model based evolutionary algorithm for neural network structure learning
Hu et al. Apenas: An asynchronous parallel evolution based multi-objective neural architecture search

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018538208

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2017899753

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017899753

Country of ref document: EP

Effective date: 20180927

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17899753

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE