JP2021131835A - Image processing system and image processing program - Google Patents

Image processing system and image processing program Download PDF

Info

Publication number
JP2021131835A
JP2021131835A JP2020067275A JP2020067275A JP2021131835A JP 2021131835 A JP2021131835 A JP 2021131835A JP 2020067275 A JP2020067275 A JP 2020067275A JP 2020067275 A JP2020067275 A JP 2020067275A JP 2021131835 A JP2021131835 A JP 2021131835A
Authority
JP
Japan
Prior art keywords
image
learning
image processing
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020067275A
Other languages
Japanese (ja)
Other versions
JP7468088B2 (en
Inventor
賢 柏原
Ken Kashiwabara
賢 柏原
直己 高橋
Naoki Takahashi
直己 高橋
圭亨 中村
Yoshiaki Nakamura
圭亨 中村
萌子 原
Moeko Hara
萌子 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Seikan Group Holdings Ltd
Original Assignee
Toyo Seikan Group Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Seikan Group Holdings Ltd filed Critical Toyo Seikan Group Holdings Ltd
Publication of JP2021131835A publication Critical patent/JP2021131835A/en
Application granted granted Critical
Publication of JP7468088B2 publication Critical patent/JP7468088B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To enable reduction of a learning time while maintaining performance of image processing algorithm in automatic generation of the image processing algorithm using evolutionary calculation.SOLUTION: An image processing system includes: an individual group storage unit that stores a plurality of pieces of individual information defining execution order of a plurality of function units; an image storage unit that stores a plurality of learning images; an image processing unit that processes the learning image on the basis of the individual information to generate corresponding output information; a teacher information storage unit that stores teacher information for evaluating the output information; an evaluation value calculation unit that compares the output information with the teacher information to calculate an evaluation value for each individual information and each learning image to rank the individual information; a gene operation unit that selects or changes the individual information on the basis of ranking information of the individual information to update the individual group storage unit; and a learning image reduction unit that reduces the learning image on the basis of the evaluation value for each learning image.SELECTED DRAWING: Figure 3

Description

本発明は、画像から検出対象を見つけ出すなどの画像処理技術に関し、特に画像処理を最適化する画像処理システムに関する。 The present invention relates to an image processing technique such as finding a detection target from an image, and particularly to an image processing system for optimizing image processing.

従来、画像から検出対象を見つけ出すなどの画像処理アルゴリズムの自動生成において、複数の機能単位の実行順序を定義する個体情報を用いて学習用画像に対して画像処理を行い、得られた出力画像を教師画像と比較して評価値を計算し、その結果を個体情報に反映させることにより学習を行って、画像処理を最適化することが行われている。
このような画像処理アルゴリズムの自動生成において、検出対象の種類によっては、学習で使用する画像枚数が多くなり、学習時間が長くなってしまうという問題があった。
Conventionally, in the automatic generation of an image processing algorithm such as finding a detection target from an image, image processing is performed on a learning image using individual information that defines an execution order of a plurality of functional units, and the obtained output image is used. The evaluation value is calculated by comparing with the teacher image, and the result is reflected in the individual information for learning to optimize the image processing.
In the automatic generation of such an image processing algorithm, there is a problem that the number of images used for learning increases and the learning time becomes long depending on the type of detection target.

具体的には、例えば検出対象がキズなど様々なバリエーションのあるものの場合、これらを網羅する学習用画像が必要になる。このため、このような様々なバリエーションのある検出対象を見つけ出す画像処理アルゴリズムの自動生成にあたっては、数多くの画像を用いて学習が行われ、その最適化に長時間を要するという問題があった。
一方で、バリエーションの網羅が必要となる検出対象の学習用画像を単に減らした場合には、生成する画像処理アルゴリズムの性能が低下するという問題が生じる。このため、画像処理アルゴリズムの性能を維持したままで学習用画像を削減することは、容易ではなかった。
Specifically, when the detection target has various variations such as scratches, a learning image covering these variations is required. For this reason, in the automatic generation of an image processing algorithm for finding a detection target having such various variations, learning is performed using a large number of images, and there is a problem that it takes a long time to optimize the image processing algorithm.
On the other hand, if the number of learning images to be detected, which requires coverage of variations, is simply reduced, there arises a problem that the performance of the generated image processing algorithm deteriorates. Therefore, it has not been easy to reduce the number of learning images while maintaining the performance of the image processing algorithm.

特許第6102947号公報Japanese Patent No. 6102947

ここで、学習用画像の削減に関連する画像処理技術として、特許文献1に記載の画像処理装置を挙げることができる。
この装置では、初期学習時に画像の特徴量にもとづいてクラスタリングを行い、各クラスタから代表的な画像を選択することによって、画像を削減することが記載されている。
Here, as an image processing technique related to the reduction of learning images, the image processing apparatus described in Patent Document 1 can be mentioned.
It is described that in this apparatus, clustering is performed based on the feature amount of an image at the time of initial learning, and a representative image is selected from each cluster to reduce the number of images.

しかしながら、この技術では初期学習時にクラスタリングを行うため、選択される画像が固定されるものであった。また、画像の選択を目的として事前に画像の特徴量を計算する必要があるため煩雑であった。さらに、この方法でクラスタリングを正確に行い得る特徴量が分かる場合、画像処理の検出対象が機械学習を実施する必要性の低い簡単なものである。
このため、バリエーションの網羅が必要となる検出対象を見つけ出す画像処理アルゴリズムの自動生成にあたり、画像処理アルゴリズムの性能を維持したままで、学習用画像をより効果的に削減することが可能な画像処理システムが求められていた。
However, in this technique, since clustering is performed at the time of initial learning, the selected image is fixed. In addition, it is complicated because it is necessary to calculate the feature amount of the image in advance for the purpose of selecting the image. Further, when the feature amount capable of accurately performing clustering is known by this method, the detection target of the image processing is a simple one with less need to perform machine learning.
For this reason, an image processing system that can more effectively reduce learning images while maintaining the performance of the image processing algorithm when automatically generating an image processing algorithm that finds a detection target that requires coverage of variations. Was required.

そこで、本発明者らは鋭意研究して、進化的計算を用いた画像処理アルゴリズムの自動生成において、学習用画像に画像処理を行って得られた出力画像を教師画像と比較して計算された評価値にもとづき学習で使用する画像を選択可能にし、生成される画像処理アルゴリズムの性能を維持した状態で学習時間を短縮することに成功して、本発明を完成させた。 Therefore, the present inventors have conducted diligent research, and in the automatic generation of an image processing algorithm using evolutionary calculation, the output image obtained by performing image processing on the training image was calculated by comparing it with the teacher image. The present invention has been completed by making it possible to select an image to be used in learning based on the evaluation value and succeeding in shortening the learning time while maintaining the performance of the generated image processing algorithm.

すなわち、本発明によれば、学習時に計算される評価値を用いるため、初期に特徴量を設定する必要がない。また、学習が進むにつれて画像に対する評価値が変化するため、学習に使用される画像が固定されない。さらに、評価値は進化的計算により生成された画像処理アルゴリズムの特徴を表すことから、生成される画像処理アルゴリズムの性能向上を期待することも可能となる。 That is, according to the present invention, since the evaluation value calculated at the time of learning is used, it is not necessary to set the feature amount at the initial stage. Further, since the evaluation value for the image changes as the learning progresses, the image used for the learning is not fixed. Furthermore, since the evaluation value represents the characteristics of the image processing algorithm generated by evolutionary computation, it is possible to expect an improvement in the performance of the generated image processing algorithm.

本発明は、上記事情に鑑みてなされたものであり、進化的計算を用いた画像処理アルゴリズムの自動生成において、画像処理アルゴリズムの性能を維持した状態で学習時間を短縮することが可能な画像処理システム、及び画像処理プログラムの提供を目的とする。 The present invention has been made in view of the above circumstances, and in automatic generation of an image processing algorithm using evolutionary calculation, image processing capable of shortening the learning time while maintaining the performance of the image processing algorithm. The purpose is to provide a system and an image processing program.

上記目的を達成するため、本発明の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像処理を最適化する画像処理システムであって、直線構造、木構造、又はネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部と、複数の学習用画像を記憶する画像記憶部と、前記個体情報にもとづいて前記学習用画像を処理し、前記学習用画像に対応する出力情報を生成する画像処理部と、前記出力情報を評価するための前記学習用画像に対応する教師情報を記憶する教師情報記憶部と、前記出力情報と前記教師情報を比較して、前記個体情報ごと及び前記学習用画像ごとに評価値を計算し、前記個体情報ごとの評価値にもとづき前記個体情報を順位付けする評価値計算部と、前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部と、前記学習用画像ごとの評価値にもとづいて、前記画像処理部により処理される学習用画像を削減する学習用画像削減部とを備えた構成としてある。 In order to achieve the above object, the image processing system of the present invention is an image processing system that optimizes image processing by using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms, and is a linear image processing system. Based on the individual information, a population storage unit that stores a plurality of individual information that defines an execution order of a plurality of functional units in a structure, a tree structure, or a network, an image storage unit that stores a plurality of learning images, and the individual information. An image processing unit that processes the learning image and generates output information corresponding to the learning image, and a teacher information storage unit that stores teacher information corresponding to the learning image for evaluating the output information. , The output information and the teacher information are compared, an evaluation value is calculated for each individual information and each learning image, and the evaluation value calculation for ranking the individual information based on the evaluation value for each individual information. The image, the gene manipulation unit that updates the population storage unit by selecting or changing the individual information based on the ranking information of the individual information, and the evaluation value for each learning image. It is configured to include a learning image reduction unit that reduces the learning image processed by the processing unit.

また、本発明の画像処理システムを、前記遺伝子操作部が、前記個体群記憶部を更新することにより、新たな世代の複数の個体情報を作成し、前記画像処理部が、前記遺伝子操作部により新たな世代の個体情報が作成されると、当該新たな世代の個体情報を前記個体情報として使用し、学習用画像削減部が、設定された世代後、又は設定された世代ごとに、前記学習用画像ごとの評価値にもとづいて、前記画像記憶部に記憶されている前記学習用画像から一部の画像を選択し、前記画像処理部が、選択された前記一部の画像を前記学習用画像として使用する構成とすることが好ましい。 Further, in the image processing system of the present invention, the gene manipulation unit updates the population storage unit to create a plurality of individual information of a new generation, and the image processing unit uses the gene manipulation unit. When the individual information of a new generation is created, the individual information of the new generation is used as the individual information, and the learning image reduction unit performs the learning after the set generation or for each set generation. Based on the evaluation value for each image, a part of the images is selected from the learning images stored in the image storage unit, and the image processing unit uses the selected part of the images for learning. It is preferable that the configuration is used as an image.

また、本発明の画像処理システムを、前記学習用画像削減部が、設定された世代後、又は設定された世代ごとに、前記学習用画像の評価値にもとづいて、前記学習用画像をクラスタリングし、各クラスから一部の学習用画像を選択すること構成とすることも好ましい。 Further, in the image processing system of the present invention, the learning image reduction unit clusters the learning images after the set generation or for each set generation based on the evaluation value of the learning image. , It is also preferable to select a part of the learning images from each class.

また、本発明の画像処理システムを、前記学習用画像削減部が、判別分析法、階層的クラスタ分析、又は非階層クラスタ分析を用いて、前記学習用画像をクラスタリングする構成とすることも好ましい。 It is also preferable that the image processing system of the present invention has a configuration in which the learning image reduction unit clusters the learning images by using a discriminant analysis method, a hierarchical cluster analysis, or a non-hierarchical cluster analysis.

また、本発明の画像処理システムを、前記学習用画像削減部が、設定された世代後、又は設定された世代ごとに、前記学習用画像の評価値の順位又は相関係数にもとづいて、一部の学習用画像を選択する構成とすることも好ましい。 Further, in the image processing system of the present invention, the learning image reduction unit uses the learning image reduction unit after the set generation or for each set generation based on the rank or correlation coefficient of the evaluation value of the learning image. It is also preferable that the learning image of the part is selected.

また、本発明の画像処理プログラムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像処理を最適化する画像処理システムであって、コンピュータを、直線構造、木構造、又はネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部、複数の学習用画像を記憶する画像記憶部、前記個体情報にもとづいて前記学習用画像を処理し、前記学習用画像に対応する出力情報を生成する画像処理部、前記出力情報を評価するための前記学習用画像に対応する教師情報を記憶する教師情報記憶部、前記出力情報と前記教師情報を比較して、前記個体情報ごと及び前記学習用画像ごとに評価値を計算し、前記個体情報ごとの評価値にもとづき前記個体情報を順位付けする評価値計算部、前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部、及び、前記学習用画像ごとの評価値にもとづいて、前記画像処理部により処理される学習用画像を削減する学習用画像削減部として機能させる構成としてある。 Further, the image processing program of the present invention is an image processing system that optimizes image processing by using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms. A population storage unit that stores a plurality of individual information that defines an execution order of a plurality of functional units in a tree structure or a network, an image storage unit that stores a plurality of learning images, and the learning unit based on the individual information. An image processing unit that processes an image and generates output information corresponding to the learning image, a teacher information storage unit that stores teacher information corresponding to the learning image for evaluating the output information, and the output information. An evaluation value calculation unit that compares the teacher information, calculates an evaluation value for each individual information and each learning image, and ranks the individual information based on the evaluation value for each individual information. It is processed by the gene manipulation unit that updates the population storage unit by selecting or changing the individual information based on the ranking information, and the image processing unit based on the evaluation value for each learning image. It is configured to function as a learning image reduction unit that reduces learning images.

本発明によれば、進化的計算を用いた画像処理アルゴリズムの自動生成において、画像処理アルゴリズムの性能を維持した状態で学習時間を短縮することが可能な画像処理システム、及び画像処理プログラムの提供が可能となる。 According to the present invention, in the automatic generation of an image processing algorithm using evolutionary calculation, it is possible to provide an image processing system and an image processing program capable of shortening the learning time while maintaining the performance of the image processing algorithm. It will be possible.

本発明の第一実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置における学習用画像削減部による定数を用いた選択の説明図である。It is explanatory drawing of selection using the constant by the image reduction part for learning in the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置における学習用画像削減部による一次関数を用いた選択の説明図である。It is explanatory drawing of selection using the linear function by the image reduction part for learning in the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置における学習用画像削減部によるシグモイド関数を用いた選択の説明図である。It is explanatory drawing of selection using the sigmoid function by the image reduction part for learning in the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置における学習用画像削減部によるルールを用いた選択の説明図である。It is explanatory drawing of selection using the rule by the image reduction part for learning in the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置による処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure by the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置における評価結果記憶部における評価値データの説明図である。It is explanatory drawing of the evaluation value data in the evaluation result storage part in the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置における評価結果記憶部における順位付けデータの説明図である。It is explanatory drawing of the ranking data in the evaluation result storage part in the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置による処理手順における遺伝子操作の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of a gene manipulation in the processing procedure by the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置における評価結果記憶部における複数世代の評価値データの説明図である。It is explanatory drawing of the evaluation value data of a plurality of generations in the evaluation result storage part in the image processing apparatus of the 1st Embodiment of this invention. 本発明の第二実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of the 2nd Embodiment of this invention. 本発明の第二実施形態の画像処理装置による処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure by the image processing apparatus of the 2nd Embodiment of this invention. 実施例及び参考例で使用した学習用画像及び検証用画像における背景画像を示す図である。It is a figure which shows the background image in the learning image and the verification image used in an Example and a reference example. 実施例及び参考例で使用した学習用画像及び検証用画像における背景画像の任意の位置のコピー画像を示す図である。It is a figure which shows the copy image of arbitrary position of the background image in the learning image and the verification image used in an Example and a reference example. 実施例及び参考例で使用した学習用画像及び検証用画像におけるサンプル画像1(検出対象と非検出対象が共に描画されていない画像)を示す図である。It is a figure which shows the sample image 1 (the image which both the detection target and the non-detection target are not drawn) in the learning image and the verification image used in an Example and a reference example. 実施例及び参考例で使用した学習用画像及び検証用画像におけるサンプル画像2(検出対象が描画された画像)を示す図である。It is a figure which shows the sample image 2 (the image which the detection target was drawn) in the learning image and the verification image used in an Example and a reference example. 実施例及び参考例で使用した学習用画像及び検証用画像におけるサンプル画像3(非検出対象が描画された画像)を示す図である。It is a figure which shows the sample image 3 (the image which the non-detection target was drawn) in the learning image and the verification image used in an Example and a reference example. 実施例及び参考例で使用した各種パラメータを示す図である。It is a figure which shows various parameters used in an Example and a reference example. 実施例及び参考例で使用したノードの機能(画像処理:ノイズ除去)を示す説明図である。It is explanatory drawing which shows the function (image processing: noise removal) of the node used in an Example and a reference example. 実施例及び参考例で使用したノードの機能(画像処理:輝度補正)を示す説明図である。It is explanatory drawing which shows the function (image processing: luminance correction) of a node used in an Example and a reference example. 実施例及び参考例で使用したノードの機能(画像処理:2値化)を示す説明図である。It is explanatory drawing which shows the function (image processing: binarization) of the node used in an Example and a reference example. 実施例及び参考例で使用したノードの機能(画像処理:エッジ検出)を示す説明図である。It is explanatory drawing which shows the function (image processing: edge detection) of the node used in an Example and a reference example. 実施例及び参考例で使用したノードの機能(画像処理:周波数フィルタ)を示す説明図である。It is explanatory drawing which shows the function (image processing: frequency filter) of the node used in an Example and a reference example. 実施例及び参考例で使用したノードの機能(画像処理:演算)を示す説明図である。It is explanatory drawing which shows the function (image processing: calculation) of the node used in an Example and a reference example. 実施例及び参考例で使用したノードの機能(画像処理:モフォロジ)を示す説明図である。It is explanatory drawing which shows the function (image processing: morphology) of the node used in an Example and a reference example. 実施例及び参考例で使用したノードの機能(画像処理:検出対象判定)を示す説明図である。It is explanatory drawing which shows the function (image processing: detection target determination) of the node used in an Example and a reference example. 実施例及び参考例で使用したノードの機能(画像処理:分岐)を示す説明図である。It is explanatory drawing which shows the function (image processing: branch) of a node used in an Example and a reference example. 実施例(削減率20%、60%、80%、90%、95%)及び参考例2(削減率0%)による学習時間、学習結果(評価値)、及び検証結果(評価値)を表すグラフを示す図である。Represents the learning time, learning result (evaluation value), and verification result (evaluation value) according to Examples (reduction rate 20%, 60%, 80%, 90%, 95%) and Reference Example 2 (reduction rate 0%). It is a figure which shows the graph. 参考例1(削減率20%、60%、80%、90%、95%)及び参考例2(削減率0%)による学習時間、学習結果(評価値)、及び検証結果(評価値)を表すグラフを示す図である。The learning time, learning result (evaluation value), and verification result (evaluation value) according to Reference Example 1 (reduction rate 20%, 60%, 80%, 90%, 95%) and Reference Example 2 (reduction rate 0%) It is a figure which shows the graph which represents. 実施例と参考例による学習結果(評価値)と検証結果(評価値)を比較したグラフを示す図である。It is a figure which shows the graph which compared the learning result (evaluation value) and the verification result (evaluation value) by an Example and a reference example.

以下、本発明の画像処理システム、及び画像処理プログラムの実施形態について詳細に説明する。ただし、本発明は、以下の実施形態、及び後述する実施例の具体的な内容に限定されるものではない。 Hereinafter, an image processing system of the present invention and an embodiment of an image processing program will be described in detail. However, the present invention is not limited to the specific contents of the following embodiments and examples described later.

[第一実施形態]
まず、本発明の第一実施形態に係る画像処理システム、及び画像処理プログラムについて、図1及び図2A〜Dを参照して説明する。図1は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図である。図2A〜Dは、それぞれ当該画像処理装置における学習用画像削減部による定数を用いた選択、一次関数を用いた選択、シグモイド関数を用いた選択、及びルールを用いた選択の説明図である。
[First Embodiment]
First, the image processing system and the image processing program according to the first embodiment of the present invention will be described with reference to FIGS. 1 and 2A to 2D. FIG. 1 is a block diagram showing a configuration of an image processing device corresponding to the image processing system of the present embodiment. 2A to 2D are explanatory views of selection using a constant, selection using a linear function, selection using a sigmoid function, and selection using a rule by the learning image reduction unit in the image processing apparatus, respectively.

本実施形態の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像処理を最適化するものである。この画像処理としては、画像から検出対象を検出する画像処理アルゴリズムや、画像のノイズ除去アルゴリズム、画像の高解像度化アルゴリズム、画像の合成のアルゴリズム等を挙げることができる。 The image processing system of the present embodiment optimizes image processing by using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms. Examples of this image processing include an image processing algorithm for detecting a detection target from an image, an image noise removal algorithm, an image high resolution algorithm, an image composition algorithm, and the like.

具体的には、本実施形態の画像処理装置1は、図1に示すように、機能単位記憶部10、個体生成部11、個体群記憶部12、画像入力部13、画像記憶部14、教師情報入力部15、教師情報記憶部16、画像処理部17、出力情報記憶部18、評価値計算部19、評価結果記憶部20、遺伝子操作部21、及び学習用画像削減部22を備えている。
本実施形態の画像処理装置1におけるこれらの各構成は、図1に示すように一個の情報処理装置に全て備えることができる。また、これらの各構成は、複数の情報処理装置からなる画像処理システムの各装置に分散して備えてもよい。これは、後述する第二実施形態についても同様である。
Specifically, as shown in FIG. 1, the image processing device 1 of the present embodiment has a functional unit storage unit 10, an individual generation unit 11, a population storage unit 12, an image input unit 13, an image storage unit 14, and a teacher. It includes an information input unit 15, a teacher information storage unit 16, an image processing unit 17, an output information storage unit 18, an evaluation value calculation unit 19, an evaluation result storage unit 20, a gene manipulation unit 21, and an image reduction unit 22 for learning. ..
As shown in FIG. 1, all of these configurations in the image processing device 1 of the present embodiment can be provided in one information processing device. Further, each of these configurations may be distributed and provided in each device of the image processing system including a plurality of information processing devices. This also applies to the second embodiment described later.

機能単位記憶部10は、ある処理を実行する機能単位であるノード(遺伝子に相当する)をノード番号ごとに記憶する。本実施形態において、このノードとして、画像処理を行うための様々なものを用いることができ、後述する実施例では、図13A〜Iに示すものを用いている。
また、これらのノードは、それぞれの処理の実行に用いるパラメータが存在する場合には、そのパラメータと共に機能単位記憶部10に記憶される。
The functional unit storage unit 10 stores nodes (corresponding to genes), which are functional units that execute a certain process, for each node number. In this embodiment, various nodes for performing image processing can be used as this node, and in the examples described later, those shown in FIGS. 13A to 13I are used.
Further, when a parameter used for executing each process exists, these nodes are stored in the functional unit storage unit 10 together with the parameter.

さらに、ノードとして、何ら処理を実行しないものを用いてもよく、複数の処理を実行する機能単位をまとめたものを1個のノード(ノードセット)として用いてもよい。ノードとして何ら処理を実行しないものを含めて用いることにより、例えば個体情報を生成するための初期ノード数の設定値が多すぎた場合などに、実質的なノード数を減らすことができる。 Further, as the node, a node that does not execute any processing may be used, or a node (node set) that is a collection of functional units that execute a plurality of processes may be used. By using the nodes including those that do not perform any processing, the actual number of nodes can be reduced, for example, when the set value of the initial number of nodes for generating individual information is too large.

本明細書において、「画像処理」には、ノイズ除去のための各種フィルタ処理や、輝度補正などの補正処理、2値化処理、エッジ検出処理、周波数フィルタ処理、四則演算などの演算処理、モフォロジ処理、検出対象判定処理、分岐処理等が含まれる。 In the present specification, "image processing" includes various filter processing for noise removal, correction processing such as luminance correction, binarization processing, edge detection processing, frequency filter processing, arithmetic processing such as four-rule calculation, and morphology. Processing, detection target determination processing, branching processing, etc. are included.

個体生成部11は、機能単位記憶部10に記憶されているノードを用いて、複数のノードの配列からなる個体情報を生成する。このとき、個体生成部11は、複数のノードにもとづいて、複数の個体情報をランダムに生成することができる。この個体情報が、画像処理アルゴリズムを構成する。
またこのとき、個体生成部11は、個体情報において、直線構造、木構造、又はネットワーク状に複数のノードの実行順序を定義することができる。ネットワークは、向きが付いたリンクにより構成される有向ネットワークであり、フィードバックを含むものとすることができる。
The individual generation unit 11 generates individual information composed of an array of a plurality of nodes by using the nodes stored in the functional unit storage unit 10. At this time, the individual generation unit 11 can randomly generate a plurality of individual information based on the plurality of nodes. This individual information constitutes an image processing algorithm.
At this time, the individual generation unit 11 can define the execution order of a plurality of nodes in a linear structure, a tree structure, or a network in the individual information. The network is a directed network composed of oriented links and can include feedback.

なお、ネットワーク状の個体情報を用いれば、直線構造や木構造のみからなる個体情報を用いる場合に比較して、より柔軟な表現力を持つネットワーク構造を含めて学習を行うことができるため、最適解(実用上の最適解,実用解)を導き出す上で優位性がある。すなわち、問題に対してどの構造体が最適解になるかは人が事前に把握することができないため、機械学習の前に構造体の条件を決定することは難しい。このため、個体情報として、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義するものを使用して、幅広い条件で最適解を探索することは、真の最適解を導き出せる可能性を高める上で有効と考えられる。 It should be noted that if network-like individual information is used, learning can be performed including a network structure having more flexible expressive power as compared with the case of using individual information consisting only of a linear structure or a tree structure, which is optimal. It has an advantage in deriving solutions (optimal practical solutions, practical solutions). That is, it is difficult for a person to know in advance which structure is the optimum solution for a problem, so it is difficult to determine the conditions of the structure before machine learning. Therefore, searching for the optimal solution under a wide range of conditions using the individual information that defines the execution order of multiple nodes in a network that can include a cycle may lead to the true optimal solution. It is considered to be effective in enhancing.

個体群記憶部12は、個体生成部11によって生成された複数の個体情報からなる個体群を記憶する。この個体群として、1つの世代又は複数の世代を個体群記憶部12に記憶させることができ、世代番号ごとに個体情報を個体群記憶部12に記憶させることができる。
なお、後述する評価値計算部19は、世代ごと又は設定された世代ごとに個体情報を順位付けして、順位付け情報を評価結果記憶部20に記憶させることができる。
The population storage unit 12 stores a population composed of a plurality of individual information generated by the individual generation unit 11. As this population, one generation or a plurality of generations can be stored in the population storage unit 12, and individual information can be stored in the population storage unit 12 for each generation number.
The evaluation value calculation unit 19, which will be described later, can rank individual information for each generation or for each set generation, and can store the ranking information in the evaluation result storage unit 20.

画像入力部13は、複数の学習用画像及び複数の検証用画像を画像処理装置1に入力して、画像の識別情報ごとに画像記憶部14に記憶させる。
学習用画像は、全ての個体情報(画像処理アルゴリズム)により処理して出力情報を得るため、またその出力情報と教師情報を比較して評価値を計算するため、及び評価値を用いて個体の順位付けを実施するために用いることができる。
検証用画像は、所定の個体情報の中で一番良い個体情報により処理して出力情報を得るため、またその出力情報と教師情報を比較して評価値を計算するため、及びその評価値を用いて解析モデルの妥当性や過学習が発していなかなどを検証するために用いることができる。
The image input unit 13 inputs a plurality of learning images and a plurality of verification images to the image processing device 1, and stores the identification information of the images in the image storage unit 14.
The image for learning is processed by all individual information (image processing algorithm) to obtain output information, and the evaluation value is calculated by comparing the output information with the teacher information, and the evaluation value is used for the individual. It can be used to carry out ranking.
The verification image is processed by the best individual information among the predetermined individual information to obtain the output information, and the evaluation value is calculated by comparing the output information with the teacher information, and the evaluation value is used. It can be used to verify the validity of the analysis model and whether over-learning has occurred.

なお、検証用画像は、人が結果を分析するために使用されるため、基本的に進化的計算に影響は及ぼさないが、終了判定に検証用画像の評価値を用いる場合、例えば検証用画像の評価値が閾値に達した場合に終了する場合や学習用画像と検証用画像の評価値に大きな差が発生した場合に早期終了する場合には、進化的計算に自動的に影響を及ぼすことになる。 Since the verification image is used by a person to analyze the result, it basically does not affect the evolutionary computation, but when the evaluation value of the verification image is used for the end judgment, for example, the verification image. Automatically affects evolutionary computation if it ends when the evaluation value of is reached the threshold, or if it ends early when there is a large difference between the evaluation values of the learning image and the verification image. become.

教師情報入力部15は、出力情報を評価するための教師情報を入力し、対応する画像の識別情報ごとに教師情報記憶部16に記憶させる。
この教師情報としては、複数の学習用画像に対応する教師画像、及び複数の検証用画像に対応する教師画像などを用いることができる。
なお、本実施形態の画像処理システムにおいて、教師情報は、画像に限定されず、画像における検出対象の個数や位置、あるいは検出対象が存在する範囲などを教師情報として用いることもできる。
The teacher information input unit 15 inputs teacher information for evaluating the output information, and stores the identification information of the corresponding image in the teacher information storage unit 16.
As the teacher information, a teacher image corresponding to a plurality of learning images, a teacher image corresponding to a plurality of verification images, and the like can be used.
In the image processing system of the present embodiment, the teacher information is not limited to the image, and the number and position of the detection targets in the image, the range in which the detection target exists, and the like can be used as the teacher information.

画像処理部17は、画像記憶部14から画像を入力すると共に、個体群記憶部12から個体情報を入力して、その個体情報にもとづき当該個体情報に含まれる複数のノードを順次実行する。なお、画像処理部17は、画像の入力処理、及び出力画像の保存処理を行うために、それぞれを実行するためのノードも実行する。 The image processing unit 17 inputs an image from the image storage unit 14, and also inputs individual information from the population storage unit 12, and sequentially executes a plurality of nodes included in the individual information based on the individual information. The image processing unit 17 also executes a node for executing each of the image input processing and the output image storage processing.

このとき、各ノードは、画像から得られる情報を用いて、それぞれの機能に対応する処理を実行する。また、各ノードは、その処理結果にもとづいて、処理結果に対応する次のノードを選択的に実行し得る。したがって、個体情報に含まれるノードであっても、画像処理において、必ずしも全てのノードが実行される訳ではない。勿論、個体情報における全てのノードが実行される場合はある。また、フィードバックが行われることによって、一つの個体情報において1つのみ定義されているノードが、複数回実行されることもあり得る。 At this time, each node executes the process corresponding to each function by using the information obtained from the image. Further, each node can selectively execute the next node corresponding to the processing result based on the processing result. Therefore, not all nodes are necessarily executed in image processing even if the nodes are included in the individual information. Of course, all the nodes in the individual information may be executed. Further, by giving feedback, a node defined as only one in one individual information may be executed a plurality of times.

また、ノードの機能としては、上述したように、ノイズ除去のための各種フィルタ処理や、輝度補正などの補正処理、2値化処理、エッジ検出処理、周波数フィルタ処理、四則演算などの演算処理、モフォロジ処理、分岐処理等の狭義の画像処理がある。 In addition, as described above, the node functions include various filter processing for noise removal, correction processing such as luminance correction, binarization processing, edge detection processing, frequency filter processing, and arithmetic processing such as four-rule calculation. There is image processing in a narrow sense such as morphology processing and branch processing.

また、ノードの機能としての検出対象判定処理は、画像処理部17によって、画像における一定範囲の検出対象候補をラベリングしてその特徴量を計算し、閾値などにもとづいて、その特徴量を備えた検出対象候補が、正しい検出対象であるか否かを判定する処理として行われる。
なお、検出対象判定処理において、非検出対象候補をラベリングしてその特徴量を計算し、閾値などにもとづきその特徴量を備えていないことにより、検出対象でないことを判定する処理を行うこともできる。
Further, in the detection target determination process as a function of the node, the image processing unit 17 labels the detection target candidates in a certain range in the image, calculates the feature amount, and provides the feature amount based on the threshold value or the like. It is performed as a process of determining whether or not the detection target candidate is a correct detection target.
In the detection target determination process, it is also possible to perform a process of labeling a non-detection target candidate, calculating the feature amount thereof, and determining that the non-detection target candidate is not a detection target because the feature amount is not provided based on a threshold value or the like. ..

さらに、画像処理部17は、学習用画像と検証用画像ごとに出力情報としての画像などを作成して、個体情報(の識別情報)ごと且つ画像(の識別情報)ごとに出力情報記憶部18に記憶させることができる。なお、教師情報が、画像における検出対象の個数、位置、又は検出対象が存在する範囲である場合は、出力情報として、それぞれ検出対象の個数、位置、又は検出対象が存在する範囲が出力情報として作成され、出力情報記憶部18に記憶される。 Further, the image processing unit 17 creates an image as output information for each of the learning image and the verification image, and outputs information storage unit 18 for each individual information (identification information) and for each image (identification information). Can be memorized in. When the teacher information is the number, position, or range in which the detection target exists in the image, the output information includes the number, position, or range in which the detection target exists, respectively. It is created and stored in the output information storage unit 18.

画像から検出対象を見つけ出すことを目的とし、画像処理部17が出力情報としての画像を作成する場合、学習用画像と検証用画像のそれぞれについて、検出対象が検出された場合は、検出対象が存在する領域を示す情報が付加された画像を作成し、検出対象が検出されなかった場合は、当該情報が付加されていない画像を作成する。
そして、この出力情報を個体情報ごと且つ画像ごとに出力情報記憶部18に記憶させることができる。
When the image processing unit 17 creates an image as output information for the purpose of finding a detection target from the image, if a detection target is detected for each of the learning image and the verification image, the detection target exists. An image to which information indicating the area to be detected is added is created, and if the detection target is not detected, an image to which the information is not added is created.
Then, this output information can be stored in the output information storage unit 18 for each individual information and each image.

なお、学習用画像と検証用画像において検出対象が存在する場合に、その領域を示す情報を付加した画像などを生成する機能を評価値計算部19に行わせることもできる。すなわち、画像処理部17により画像処理を行った後、評価値計算部19が検出対象の領域を示す情報を付加した画像を生成して出力情報記憶部18に記憶させ、これを用いて評価値を計算する構成とすることも可能である。 When a detection target exists in the learning image and the verification image, the evaluation value calculation unit 19 can be made to perform a function of generating an image or the like to which information indicating the region is added. That is, after image processing is performed by the image processing unit 17, the evaluation value calculation unit 19 generates an image to which information indicating the area to be detected is added, stores the image in the output information storage unit 18, and uses this to store the evaluation value. It is also possible to have a configuration that calculates.

評価値計算部19は、出力情報記憶部18から出力情報を入力すると共に、教師情報記憶部16からその出力情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を個体情報ごと且つ画像ごとに評価結果記憶部20に記憶させることができる。
The evaluation value calculation unit 19 inputs output information from the output information storage unit 18, and also inputs teacher information corresponding to the output information from the teacher information storage unit 16.
Then, the evaluation value is calculated by comparing the output information and the teacher information, and the obtained evaluation value can be stored in the evaluation result storage unit 20 for each individual information and each image.

評価値計算部19による評価値の計算は、例えば平均二乗誤差を用いて、以下の式により行うことができる。

Figure 2021131835
The evaluation value calculation unit 19 can calculate the evaluation value by the following formula, for example, using the mean square error.
Figure 2021131835

また、評価値計算部19は、個体群記憶部12に記憶されている全ての個体情報(又は1世代分の個体情報)につき評価値を計算し終えて評価結果記憶部20に記憶させたタイミングなどで、それらの評価値にもとづき個体情報を順位付け(ランキング)して、得られた順位付け情報を評価結果記憶部20に記憶させることができる。
また、評価値計算部19は、評価値にもとづき個体情報ごとに学習用画像を順位付け(ランキング)して、得られた順位付け情報を評価結果記憶部20に記憶させることもできる。
Further, the evaluation value calculation unit 19 finishes calculating the evaluation value for all the individual information (or the individual information for one generation) stored in the population storage unit 12, and stores the evaluation value in the evaluation result storage unit 20. For example, individual information can be ranked (ranked) based on those evaluation values, and the obtained ranking information can be stored in the evaluation result storage unit 20.
Further, the evaluation value calculation unit 19 can rank (rank) the learning images for each individual information based on the evaluation value, and store the obtained ranking information in the evaluation result storage unit 20.

さらに、評価値計算部19は、画像処理部17による画像処理を終了するか否かを判定するための終了判定を行うことができる。終了判定は、終了条件を満たすか否かにもとづき行うことができ、終了条件を満たす場合、画像処理部17による画像の処理を終了させて、画像処理装置1による処理を終了させることができる。そして、評価結果記憶部20に記憶された最も評価値の高い個体情報が、画像処理を行うための最適化された個体情報として得られる。 Further, the evaluation value calculation unit 19 can perform an end determination for determining whether or not to end the image processing by the image processing unit 17. The end determination can be performed based on whether or not the end condition is satisfied, and if the end condition is satisfied, the image processing by the image processing unit 17 can be terminated and the processing by the image processing device 1 can be terminated. Then, the individual information having the highest evaluation value stored in the evaluation result storage unit 20 is obtained as the optimized individual information for performing image processing.

終了条件としては、予め設定した全ての世代の個体群について画像処理を完了した場合や、一定の世代数以上で進化が発生していない場合などを挙げることができる。
進化が発生していない場合とは、評価値が、比較対象の時点よりも改善されていない場合である。
なお、評価値計算部19からこの終了判定の機能を分離して、本実施形態の画像処理装置1において終了判定を行うための終了判定部を備えてもよい。
Examples of the termination condition include the case where image processing is completed for a preset population of all generations, and the case where evolution has not occurred in a certain number of generations or more.
The case where evolution has not occurred is the case where the evaluation value is not improved from the time of comparison.
The end determination function may be separated from the evaluation value calculation unit 19, and the image processing device 1 of the present embodiment may include an end determination unit for performing the end determination.

遺伝子操作部21は、評価結果記憶部20における個体情報の順位付け情報にもとづいて、個体情報の選択又は変更を行って、個体群記憶部12を更新する。
これによって、個体群記憶部12に新たな世代の個体群の個体情報を順次追加することができる。
The gene manipulation unit 21 updates the population storage unit 12 by selecting or changing the individual information based on the ranking information of the individual information in the evaluation result storage unit 20.
As a result, individual information of a new generation population can be sequentially added to the population storage unit 12.

具体的には、遺伝子操作部21は、評価値が高い個体情報を次世代に残すエリート個体保存部と、評価値にもとづいて、一定の確率で個体情報を次世代に残す個体選択部と、2つの個体情報の一部を相互に交換する交叉部と、選択された1つの個体情報の一部又は全部やノードのパラメータをランダムに書き換える突然変異部とを有するものとすることができる。 Specifically, the gene manipulation unit 21 includes an elite individual storage unit that leaves individual information with a high evaluation value to the next generation, and an individual selection unit that leaves individual information to the next generation with a certain probability based on the evaluation value. It can have a crossing part that exchanges a part of two individual information with each other, and a mutation part that randomly rewrites a part or all of one selected individual information or a node parameter.

エリート個体保存部は、各世代の個体群において、一番評価値の良い個体情報などを、無条件で次世代に残す処理を行うことができる。
個体選択部は、各世代の個体群において、評価値の順位の高い個体情報を高い確率で選択して、次世代に残す処理等を行うことができる。
The elite individual preservation unit can unconditionally leave the individual information with the best evaluation value in the population of each generation to the next generation.
The individual selection unit can select individual information having a high evaluation value in the population of each generation with a high probability and perform processing such as leaving it to the next generation.

交叉部は、交叉処理として、複数の個体情報の各ノードの配列における同一(ノード番号)の並びについて、ある確率で入れ替える1様交叉を行うことができる。また、交叉部は、交叉処理として、各ノードの配列における同一の並びの1点を境として、一方の配列を相互に入れ替える1点交叉や、同一の並びの複数点を境として配列を相互に入れ替える複数点交叉を行うこともできる。交叉部は、このような交叉処理を、個体選択部により選択された個体情報に対して行うことができる。 As a crossover process, the crossover portion can perform one-way crossover in which the same (node number) arrangement in the array of each node of a plurality of individual information is replaced with a certain probability. In addition, as a crossover process, the crossover part is a one-point crossover in which one point in the same sequence is used as a boundary in the array of each node and one of the sequences is exchanged with each other, or an array is mutually used as a boundary in a plurality of points in the same sequence. It is also possible to perform multi-point crossover to be replaced. The crossing section can perform such crossing processing on the individual information selected by the individual selection section.

突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、個体情報ごとに一定の確率でその個体情報の一部を書き換えたり、その個体情報の全てを書き換えることができる。突然変異部は、このような突然変異処理を、個体選択部により選択された個体情報に対して行うことができる。また、突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、新しい個体情報を生成することもできる。さらに、突然変異部に、突然変異処理として、選択された親個体情報のノードのパラメータの一部又は全部をランダムに書き換えることなどによって、パラメータ変異を行わせることもできる。 As a mutation process, the mutation unit rewrites a part of the individual information or rewrites all of the individual information with a certain probability for each individual information using the node stored in the functional unit storage unit 10. be able to. The mutation unit can perform such mutation processing on the individual information selected by the individual selection unit. In addition, the mutation unit can also generate new individual information by using the node stored in the functional unit storage unit 10 as the mutation process. Further, it is also possible to cause the mutation portion to perform parameter mutation as a mutation process by randomly rewriting a part or all of the parameters of the node of the selected parent individual information.

なお、同じ個体情報にもとづいて生成された同系列個体が増えると、多様性が失われて進化が袋小路(数学的に局所解に陥った状態)に入ってしまう。一方、同系列以外の個体を増やしすぎると、ランダム探索に近づき、効率的な進化が行われない。
そこで、学習初期では多様性を持たせるために、同系列以外の個体を増やすように突然変異部による処理を行い、学習中期では効率的な進化を実施するために、個体選択部により同系列を増やすことが好ましい。また、進化が止まった場合には、再度多様性を持たせるために突然変異部により同系列以外を増やすことなどを好適に行うことができる。
If the number of homologous individuals generated based on the same individual information increases, diversity will be lost and evolution will enter a dead end (a state in which a mathematically local solution has fallen). On the other hand, if the number of individuals other than the same series is increased too much, it approaches random search and efficient evolution is not performed.
Therefore, in order to have diversity in the early stage of learning, processing by the mutation part is performed so as to increase the number of individuals other than the same series, and in the middle stage of learning, the same series is processed by the individual selection part in order to carry out efficient evolution. It is preferable to increase it. In addition, when evolution is stopped, it is possible to preferably increase the number of mutations other than the same series by the mutation site in order to give diversity again.

そして、遺伝子操作部21は、新たな世代の個体群を生成して、個体群記憶部12に記憶させる。このとき、遺伝子操作部21は、前の世代の個体群を上書きすることにより、個体群記憶部12を更新することができる。また、複数世代の個体群を世代ごとに記憶させることにより、個体群記憶部12を更新することもできる。 Then, the gene manipulation unit 21 generates a new generation population and stores it in the population storage unit 12. At this time, the genetic manipulation unit 21 can update the population storage unit 12 by overwriting the population of the previous generation. In addition, the population storage unit 12 can be updated by storing a population of a plurality of generations for each generation.

学習用画像削減部22は、学習用画像の削減処理を実行するか否かを判定する。この判断基準は、適宜設定することができ、所定の設定値を設定し、その設定値以降の全ての世代(設定された世代後)について、学習用画像の削減処理を実行することができる。また、一定の設定された世代数ごとに、削減処理を実行することもできる。 The learning image reduction unit 22 determines whether or not to execute the learning image reduction process. This determination criterion can be set as appropriate, a predetermined set value can be set, and the learning image reduction process can be executed for all generations (after the set generation) after the set value. In addition, the reduction process can be executed for each set number of generations.

また、学習用画像削減部22は、削減処理を実行すると判定すると、評価結果記憶部20に記憶されている各学習用画像の評価値にもとづいて、画像処理部17により画像処画される学習用画像を削減する。
学習用画像削減部22は、学習用画像の削減処理において、各学習用画像の評価値にもとづいて、各種方法により学習用画像を選択することができる。
具体的には、学習用画像の削減方法として、「1.評価値の順位による削減」、「2.評価値の相関係数を用いた削減」、「3.クラスタリングによる削減」を挙げることができる。
Further, when the learning image reduction unit 22 determines that the reduction process is to be executed, the learning is image-processed by the image processing unit 17 based on the evaluation value of each learning image stored in the evaluation result storage unit 20. Reduce images for use.
The learning image reduction unit 22 can select a learning image by various methods based on the evaluation value of each learning image in the learning image reduction process.
Specifically, as a method for reducing learning images, "1. Reduction by ranking of evaluation values", "2. Reduction using correlation coefficient of evaluation values", and "3. Reduction by clustering" can be mentioned. can.

1.評価値の順位による削減
(1)定数による削減
次式及び図2Aに示す定数により表現された選択確率を用いて、評価値の順位に対して選択する。この場合、順位に対して均等に削減することができる。

Figure 2021131835
1. 1. Reduction by ranking of evaluation values (1) Reduction by constant Selection is made with respect to the ranking of evaluation values using the selection probability expressed by the following equation and the constant shown in FIG. 2A. In this case, it can be reduced evenly with respect to the ranking.
Figure 2021131835

(2)1次関数による削減
次式及び図2Bに示すように、評価値の順位に対して重みを付けて選択する。この場合、直線の傾きが+の場合は悪い画像が多く削減され、−の場合には評価値の良い画像が多く削減される。また、定数bにより選択しない順位を設定することもできる。

Figure 2021131835
(2) Reduction by linear function As shown in the following equation and FIG. 2B, the evaluation value rank is weighted and selected. In this case, when the slope of the straight line is +, many bad images are reduced, and when-, many images with good evaluation values are reduced. It is also possible to set the order not to be selected by the constant b.
Figure 2021131835

(3)シグモイド関数を用いた削減
次式及び図2Cに示すように、評価値の順位に対してシグモイド関数による重みを用いて削減する。1次関数による選択と同様に、評価値の良い画像、又は評価値の悪い画像を有意に選択することができる。

Figure 2021131835
(3) Reduction using the sigmoid function As shown in the following equation and FIG. 2C, the evaluation value rank is reduced by using the weight by the sigmoid function. Similar to the selection by the linear function, an image having a good evaluation value or an image having a bad evaluation value can be significantly selected.
Figure 2021131835

(3)その他
その他にも指数関数、対数関数などを使用することもできる。また、図2Dに示すように、所定のルールを用いて、ある順位以上又は以下、その間などを任意に選択可能にすることもできる。
(3) Others In addition, exponential functions, logarithmic functions, etc. can also be used. Further, as shown in FIG. 2D, it is also possible to arbitrarily select a certain rank or higher or lower, and between them by using a predetermined rule.

2.評価値の相関係数を用いた削減
画像の評価値に対して相関係数を計算し、相関係数が高い画像の一方を削減することによって、学習に使用する画像枚数を削減する。
画像の評価値に対して相関係数を計算するためには、各画像に複数の評価値が必要となるが、各世代又は複数世代の全個体若しくは上位個体による画像の評価値を用いることによって、相関係数を計算することができる。例えば、所定の世代及び個体を設定することにより相関行列を計算して、各相関係数が閾値以上の画像を選択し、他方を選択しないようにすることができる。
2. Reduction using the correlation coefficient of the evaluation value The number of images used for learning is reduced by calculating the correlation coefficient with respect to the evaluation value of the image and reducing one of the images having a high correlation coefficient.
In order to calculate the correlation coefficient for the evaluation value of an image, a plurality of evaluation values are required for each image, but by using the evaluation value of the image by all individuals or superior individuals of each generation or multiple generations. , The correlation coefficient can be calculated. For example, the correlation matrix can be calculated by setting a predetermined generation and individual, and an image in which each correlation coefficient is equal to or more than a threshold value can be selected, and the other can not be selected.

3.クラスタリングによる削減
評価値をクラスタリングして、各クラスより設定した枚数だけ画像を選択する。クラスに属する画像枚数に偏りが発生した場合は、少ない枚数に合わせることなどもできる。
クラスタリングの手法としては、判別分析法や、ウォード法,群平均法,最短距離法などの階層的クラスタ分析、又はk-means法などの非階層クラスタ分析などを用いることができる。
3. 3. Reduction by clustering The evaluation values are clustered and the number of images set from each class is selected. If the number of images belonging to the class is biased, it is possible to adjust to a smaller number.
As a clustering method, a discriminant analysis method, a hierarchical cluster analysis such as Ward's method, group average method, or shortest distance method, or a non-hierarchical cluster analysis such as k-means method can be used.

2分類する判別分析法は、以下の手順で実施することができる。なお、後述する実施例では、この判別分析法に従って、学習用画像の削減を行った。
(1)評価値のヒストグラムを計算する
(2)ヒストグラムから最小値、最大値、平均値を計算する
(3)最小値〜最大値の範囲で、ある閾値Tを選択する
(4)閾値Tにてヒストストグラムを2つのクラスに分ける
(5)クラス1の分散、平均値、画素数を計算する
(6)クラス2の分散、平均値、画素数を計算する
(7)クラス内の分散、クラス間の分散を計算する

Figure 2021131835
Figure 2021131835
(8)分離度Sを計算する
Figure 2021131835
(9)上記(3)〜(8)を繰り返して、最小値〜最大値の範囲内の全ての閾値Tに対して分離度Sを計算する
(10)分離度Sが最大となる閾値Tを最終的に用いる閾値とする
(11)各クラスから設定した削減率になるように学習に用いる画像の選択を行う The discriminant analysis method for classifying into two can be carried out by the following procedure. In the examples described later, the number of learning images was reduced according to this discriminant analysis method.
(1) Calculate the histogram of the evaluation value (2) Calculate the minimum value, maximum value, and average value from the histogram (3) Select a certain threshold value T in the range from the minimum value to the maximum value (4) Set the threshold value T (5) Calculate the variance, average value, and number of pixels of class 1 (6) Calculate the variance, average value, and number of pixels of class 2 (7) Dispersion within the class, class Calculate the variance between
Figure 2021131835
Figure 2021131835
(8) Calculate the degree of separation S
Figure 2021131835
(9) Repeat the above steps (3) to (8) to calculate the degree of separation S for all threshold values T within the range of the minimum value to the maximum value. (10) Set the threshold value T at which the degree of separation S is maximum. Set as the final threshold value (11) Select the image to be used for learning so that the reduction rate set from each class is obtained.

学習用画像の削減処理において、削減する画像の割合は、適宜設定することができる。例えば、画像記憶部14に記憶されている学習用画像の削減率20%、60%、80%、90%、95%などを設定することができる。 In the learning image reduction process, the ratio of the images to be reduced can be appropriately set. For example, the reduction rates of the learning images stored in the image storage unit 14 can be set to 20%, 60%, 80%, 90%, 95%, and the like.

また、学習用画像削減部22は、画像記憶部14に記憶されている学習用画像から削減する画像を識別するフラグなどを画像記憶部14に設定する。そして、画像処理部17と評価値計算部19が、当該フラグにもとつき画像記憶部14における選択された学習用画像のみに対して、それぞれ画像処理と評価値の計算を実行することができる。 Further, the learning image reduction unit 22 sets a flag or the like for identifying the image to be reduced from the learning image stored in the image storage unit 14 in the image storage unit 14. Then, the image processing unit 17 and the evaluation value calculation unit 19 can execute image processing and evaluation value calculation for only the learning image selected in the image storage unit 14 based on the flag. ..

次に、本実施形態の画像処理装置による処理手順について、図3〜図7を参照して説明する。図3は、本実施形態の画像処理装置による処理手順を示すフローチャートである。図4は、本実施形態の画像処理装置における評価結果記憶部における評価値データの説明図であり、図5は、同評価結果記憶部における順位付けデータの説明図である。図6は、本画像処理装置による処理手順における遺伝子操作の処理手順を示すフローチャートである。図7は、同評価結果記憶部における複数世代の評価値データの説明図である。 Next, the processing procedure by the image processing apparatus of this embodiment will be described with reference to FIGS. 3 to 7. FIG. 3 is a flowchart showing a processing procedure by the image processing apparatus of the present embodiment. FIG. 4 is an explanatory diagram of evaluation value data in the evaluation result storage unit in the image processing apparatus of the present embodiment, and FIG. 5 is an explanatory diagram of ranking data in the evaluation result storage unit. FIG. 6 is a flowchart showing a processing procedure of gene manipulation in the processing procedure by the image processing apparatus. FIG. 7 is an explanatory diagram of evaluation value data of a plurality of generations in the evaluation result storage unit.

まず、画像処理装置1における画像入力部13が、画像を入力して、画像記憶部14に記憶させる(ステップ10)。また、教師情報入力部15が、教師情報としての教師画像を入力して、教師情報記憶部16に記憶させる(ステップ11)。
具体例として、150枚の学習用画像と150枚の検証用画像が画像記憶部14に記憶され、これらに対応する教師画像がそれぞれ150枚ずつ教師情報記憶部16に記憶されたとする。
First, the image input unit 13 in the image processing device 1 inputs an image and stores it in the image storage unit 14 (step 10). Further, the teacher information input unit 15 inputs a teacher image as teacher information and stores it in the teacher information storage unit 16 (step 11).
As a specific example, it is assumed that 150 learning images and 150 verification images are stored in the image storage unit 14, and 150 teacher images corresponding to these are stored in the teacher information storage unit 16.

次に、個体生成部11が、初期個体群を生成する(ステップ12)。
具体的には、個体生成部11は、機能単位記憶部10からノードをランダムに選択して配列することにより個体情報を生成し、識別情報ごとに個体群記憶部12に記憶させることができる。
具体例として、初期個体群として個体情報を100個生成したとする。
なお、ステップ10〜12の各ステップの実行順序は、入れ替えてもよい。
Next, the individual generation unit 11 generates an initial population (step 12).
Specifically, the individual generation unit 11 can generate individual information by randomly selecting and arranging nodes from the functional unit storage unit 10, and can store each identification information in the population storage unit 12.
As a specific example, it is assumed that 100 individual information is generated as an initial population.
The execution order of each step of steps 10 to 12 may be changed.

このとき、個体生成部11は、複数の個体情報からなる個体群を一つの世代として、世代番号ごとに個体群を個体群記憶部12に記憶させることができる。
なお、新たな世代の個体群は、個体群記憶部12に記憶されている個体情報に対して、遺伝子操作部21が遺伝子操作を行うことによって作成することができる。すなわち、新たな世代の個体群は、遺伝子操作部21により個体情報の選択又は変更が行われ、個体群記憶部12が更新されることによって作成することができる。
このように、個体群記憶部12における世代は、ステップ13に示す世代ループの実行に従って順次追加されるようにすることができる。
At this time, the individual generation unit 11 can store a population composed of a plurality of individual information as one generation, and store the population in the population storage unit 12 for each generation number.
A new generation population can be created by genetically manipulating the individual information stored in the population storage unit 12 by the gene manipulation unit 21. That is, a new generation population can be created by selecting or changing individual information by the genetic manipulation unit 21 and updating the population storage unit 12.
In this way, the generations in the population storage unit 12 can be sequentially added according to the execution of the generation loop shown in step 13.

世代ループは、予め設定された世代数分について実行される。なお、後述する終了判定で終了条件が満たされる場合、設定された世代数分の実行前に世代ループが終了することがある。
具体例として、世代ループの世代数を5000世代に設定したとする。
The generation loop is executed for a preset number of generations. If the end condition is satisfied by the end determination described later, the generation loop may end before the execution for the set number of generations.
As a specific example, it is assumed that the number of generations of the generation loop is set to 5000 generations.

世代ループにおいて、学習用画像削減部22は、学習用画像の削減処理を実行するか否かを判定する(ステップ14)。
この判断基準は、適宜設定することができる。例えば、所定の設定値を設定し、その設定値以降の全ての世代について、学習用画像の削減処理を実行することができる。また、一定の世代数ごとに、削減処理を実行することもできる。
In the generation loop, the learning image reduction unit 22 determines whether or not to execute the learning image reduction process (step 14).
This criterion can be set as appropriate. For example, a predetermined set value can be set, and the learning image reduction process can be executed for all generations after the set value. It is also possible to execute reduction processing for each fixed number of generations.

具体例として、設定値を10とし、1〜10世代のループが終了した後、11世代目以降の各世代について、学習用画像の削減処理を実行することとする。
この場合、1世代目の第1回目のループにおいて、学習用画像削減部22により、学習用画像の削減処理を実行しないと判定される(ステップ14のNO)。
As a specific example, the set value is set to 10, and after the loop of the 1st to 10th generations is completed, the learning image reduction processing is executed for each generation after the 11th generation.
In this case, in the first loop of the first generation, the learning image reduction unit 22 determines that the learning image reduction process is not executed (NO in step 14).

次に、個体群ループが、個体群記憶部12における当該世代の個体群の全ての個体情報について実行される(ステップ16)。
具体例では、第1回目の個体群ループにおいて、100個の個体情報のそれぞれについて、ステップ17とステップ18が繰り返して実行される。
Next, a population loop is executed for all individual information of the population of the generation in the population storage unit 12 (step 16).
In a specific example, in the first population loop, steps 17 and 18 are repeatedly executed for each of the 100 individual pieces of information.

すなわち、画像処理部17は、個体群記憶部12における当該世代の個体群の各個体情報について、それぞれ画像処理を実行する(ステップ17)。
具体例では、画像処理部17は、150枚の学習用画像の各々に対して、個体情報を構成する複数の機能単位をそれぞれ順次実行し、各学習用画像に対応する出力情報としての画像等を作成して、出力情報記憶部18に記憶させることができる。
That is, the image processing unit 17 executes image processing for each individual information of the population of the generation in the population storage unit 12 (step 17).
In a specific example, the image processing unit 17 sequentially executes a plurality of functional units constituting individual information for each of the 150 learning images, and an image or the like as output information corresponding to each learning image. Can be created and stored in the output information storage unit 18.

次に、評価値計算部19は、出力情報記憶部18における当該世代の個体群の個体情報ごと及び学習用画像ごとに、出力情報と教師情報とを比較して、評価値を計算する(ステップ18)。
このとき、評価値計算部19は、出力情報と教師情報とを用いて、例えば最小二乗法により、平均二乗誤差を評価値として算出することができる。
そして、評価値計算部19は、得られた評価値を評価結果記憶部20に個体情報ごと及び学習用画像ごとに記憶させることができる。
Next, the evaluation value calculation unit 19 calculates the evaluation value by comparing the output information with the teacher information for each individual information and the learning image of the population of the generation in the output information storage unit 18 (step). 18).
At this time, the evaluation value calculation unit 19 can calculate the mean square error as the evaluation value by using the output information and the teacher information, for example, by the least squares method.
Then, the evaluation value calculation unit 19 can store the obtained evaluation value in the evaluation result storage unit 20 for each individual information and each learning image.

図4に、評価結果記憶部20に記憶された評価値データの例を示す。同図に示すように、評価値計算部19により算出された評価値は、当該世代について、個体情報ごと及び学習用画像ごとに記憶させることができる。
なお、評価値計算部19により、個体情報ごとに評価値の統計値を計算して記憶させることもできる。評価値の統計値としては、例えば平均値や標準偏差などを用いることができる。
FIG. 4 shows an example of evaluation value data stored in the evaluation result storage unit 20. As shown in the figure, the evaluation value calculated by the evaluation value calculation unit 19 can be stored for each individual information and each learning image for the generation.
The evaluation value calculation unit 19 can also calculate and store the statistical value of the evaluation value for each individual information. As the statistical value of the evaluation value, for example, an average value or a standard deviation can be used.

次に、評価値計算部19は、評価結果記憶部20に記憶されている評価値にもとづいて、個体情報の順位付けを行い、その結果を評価結果記憶部20に記憶する(ステップ19)。
図5に、評価結果記憶部20に記憶された順位付けデータの例を示す。同図に示すように、個体情報の順位付けは、評価値の統計値などにもとづいて行うことができる。
Next, the evaluation value calculation unit 19 ranks individual information based on the evaluation value stored in the evaluation result storage unit 20, and stores the result in the evaluation result storage unit 20 (step 19).
FIG. 5 shows an example of ranking data stored in the evaluation result storage unit 20. As shown in the figure, the ranking of individual information can be performed based on the statistical value of the evaluation value or the like.

また、評価値計算部19は、終了条件が満たされているか否かの判定処理を行う(ステップ20)。終了条件が満たされている場合は、画像処理装置1による処理を終了する。
終了条件が満たされていない場合、遺伝子操作部21は、遺伝子操作処理を実行する(ステップ21)。
これにより、遺伝子操作部21は、個体群記憶部12に新たな世代の個体群を追加更新することができる。
In addition, the evaluation value calculation unit 19 performs a determination process of whether or not the end condition is satisfied (step 20). If the end condition is satisfied, the process by the image processing device 1 is terminated.
If the termination condition is not satisfied, the gene manipulation unit 21 executes the gene manipulation process (step 21).
As a result, the genetic engineering unit 21 can additionally update the population of a new generation to the population storage unit 12.

具体的には、図6に示すように、遺伝子操作部21におけるエリート個体保存部は、最も評価値の高い個体情報を次世代の個体群の個体情報として選択する(ステップ30)。
また、遺伝子操作部21における個体選択部は、評価値の順位の高い個体情報ほど高い確率で次世代の個体群の個体情報として選択する(ステップ31)。
Specifically, as shown in FIG. 6, the elite individual preservation unit in the gene manipulation unit 21 selects the individual information having the highest evaluation value as the individual information of the next-generation population (step 30).
Further, the individual selection unit in the gene manipulation unit 21 selects as individual information of the next-generation population with a higher probability as the individual information having a higher evaluation value ranks (step 31).

さらに、遺伝子操作部21における交叉部は、個体選択部により選択された個体情報に対して、交叉処理を実行して、新たな個体情報を生成する(ステップ32)。
また、遺伝子操作部21における突然変異部は、個体選択部により選択された個体情報にもとづいて、またはこれらの個体情報を用いることなく、突然変異処理等を行い、新たな個体情報を生成する(ステップ33)。
なお、エリート個体保存部、個体選択部、交叉部、突然変異部による各処理の順序を、各処理を実行可能な順序の範囲で入れ替えて実行してもよい。
Further, the crossover portion in the gene manipulation unit 21 executes a crossover process on the individual information selected by the individual selection unit to generate new individual information (step 32).
In addition, the mutation unit in the gene manipulation unit 21 performs mutation processing or the like based on the individual information selected by the individual selection unit or without using these individual information to generate new individual information ( Step 33).
The order of each process by the elite individual preservation unit, the individual selection unit, the crossover unit, and the mutation unit may be exchanged within a range in which each process can be executed.

この遺伝子操作処理によって、個体群記憶部12に第2世代の個体群の個体情報を追加することができる。
このように、世代ループを繰り返すことで、個体群記憶部12において、新たな世代の個体群の個体情報を順次追加することができる。
そして、第10世代目の世代ループが終了すると、図7に示すように、評価結果記憶部20において、個体情報ごと及び学習用画像ごとに、評価値データが10世代分記憶されている。
By this genetic manipulation process, individual information of the second generation population can be added to the population storage unit 12.
By repeating the generation loop in this way, the individual information of the new generation population can be sequentially added to the population storage unit 12.
Then, when the 10th generation generation loop ends, as shown in FIG. 7, the evaluation result storage unit 20 stores evaluation value data for 10 generations for each individual information and for each learning image.

次に、第11世代目の世代ループが実行される。
具体例では、設定値を10としているため、学習用画像削減部22は、学習用画像の削減処理を実行すると判定し(ステップ14のYES)、学習用画像の削減処理を実行する(ステップ15)。
すなわち、学習用画像削減部22は、評価結果記憶部20に記憶されている各学習用画像の評価値にもとづいて、画像処理部17により画像処画される学習用画像を削減する。
具体的には、学習用画像削減部22は、上述した「1.評価値の順位による削減」、「2.評価値の相関係数を用いた削減」、又は「3.クラスタリングによる削減」にしたがって、学習用画像を削減することができる。
Next, the 11th generation generation loop is executed.
In the specific example, since the set value is 10, the learning image reduction unit 22 determines that the learning image reduction process is executed (YES in step 14), and executes the learning image reduction process (step 15). ).
That is, the learning image reduction unit 22 reduces the learning images image-processed by the image processing unit 17 based on the evaluation value of each learning image stored in the evaluation result storage unit 20.
Specifically, the learning image reduction unit 22 applies to the above-mentioned "1. Reduction by ranking of evaluation values", "2. Reduction using correlation coefficient of evaluation values", or "3. Reduction by clustering". Therefore, the number of learning images can be reduced.

この際、学習用画像削減部22は、「各学習用画像の評価値」として、当該世代の一番良い個体情報の評価値を用いることができる。また、当該世代の全個体の評価値に対する統計値にもとづく順位付け情報を用いたり、所定の上位の評価値の統計値などを用いることもできる。さらに、複数世代の評価値の統計値(例えば、10世代分の一番良い個体情報の評価値の平均値)を用いることなども可能である。
なお、世代間の評価値を用いる場合は、評価値の範囲(最小値〜最大値)が異なるため、最小値0、最大値1などとして、評価値を正規化してから順位を計算することもできる。
At this time, the learning image reduction unit 22 can use the evaluation value of the best individual information of the generation as the “evaluation value of each learning image”. In addition, ranking information based on statistical values for the evaluation values of all individuals of the generation can be used, or statistical values of predetermined higher evaluation values can be used. Further, it is also possible to use statistical values of evaluation values of a plurality of generations (for example, the average value of evaluation values of the best individual information for 10 generations).
When using evaluation values between generations, the range of evaluation values (minimum value to maximum value) is different, so it is possible to calculate the ranking after normalizing the evaluation values with minimum value 0, maximum value 1, etc. can.

学習用画像の削減処理において、削減する画像の割合は、適宜設定することができる。例えば、画像記憶部14に記憶されている学習用画像の削減率20%、60%、80%、90%、95%などを設定することができる。
具体例として、削減率を80%とする場合、150枚の学習用画像から30枚が選択されて、当該世代ループにおいて、30枚の学習用画像が個体群ループで使用され、これら選択された学習用画像に対してのみ画像処理と評価値の計算が繰り返して実行される。
In the learning image reduction process, the ratio of the images to be reduced can be appropriately set. For example, the reduction rates of the learning images stored in the image storage unit 14 can be set to 20%, 60%, 80%, 90%, 95%, and the like.
As a specific example, when the reduction rate is 80%, 30 images are selected from 150 learning images, and 30 learning images are used in the population loop in the generation loop, and these are selected. Image processing and evaluation value calculation are repeated only for the learning image.

このとき、学習用画像削減部22は、画像記憶部14に記憶されている学習用画像から削減する画像を識別するフラグを画像記憶部14に設定する。そして、画像処理部17と評価値計算部19が、当該フラグにもとつき画像記憶部14における選択された学習用画像のみに対して、それぞれ画像処理と評価値の計算を実行することができる。 At this time, the learning image reduction unit 22 sets a flag in the image storage unit 14 for identifying the image to be reduced from the learning image stored in the image storage unit 14. Then, the image processing unit 17 and the evaluation value calculation unit 19 can execute image processing and evaluation value calculation for only the learning image selected in the image storage unit 14 based on the flag. ..

学習用画像削減部22は、評価結果記憶部20に記憶されている各学習用画像の評価値にもとづいて、画像処理と評価値の計算が実行される学習用画像を選択するが、この評価値は、個体群ループにおいて変化する。
すなわち、本実施形態の画像処理システムでは、学習が進むにつれて学習用画像の評価値が変化し、その評価値にもとづいて学習用画像削減部22により学習用画像が削減されるため、学習に使用される学習用画像が固定されず、世代ループにより進化する画像処理アルゴリズム(個体情報)に応じて変化するという特徴がある。
The learning image reduction unit 22 selects a learning image in which image processing and calculation of the evaluation value are executed based on the evaluation value of each learning image stored in the evaluation result storage unit 20, and this evaluation. Values vary in the population loop.
That is, in the image processing system of the present embodiment, the evaluation value of the learning image changes as the learning progresses, and the learning image reduction unit 22 reduces the learning image based on the evaluation value, and thus is used for learning. The learning image to be used is not fixed, but changes according to the image processing algorithm (individual information) that evolves due to the generation loop.

また、具体例に示した画像記憶部14に記憶された150枚の検証用画像については、画像処理部17が、所定のタイミングで、特定の個体情報にもとづき画像処理を実行し、各検証用画像に対応する出力情報を生成する。そして、評価値計算部19が、各検証用画像に対応する出力情報と教師情報を比較して、当該特定の個体情報ごと及び検証用画像ごとに評価値を計算し、評価結果記憶部20に記憶させる。 Further, with respect to the 150 verification images stored in the image storage unit 14 shown in the specific example, the image processing unit 17 executes image processing based on specific individual information at a predetermined timing, and for each verification. Generate output information corresponding to the image. Then, the evaluation value calculation unit 19 compares the output information corresponding to each verification image with the teacher information, calculates the evaluation value for each specific individual information and for each verification image, and causes the evaluation result storage unit 20 to calculate the evaluation value. Remember.

上記の所定のタイミングとしては、例えば1世代ごととすることができる。具体的には、ステップ19の個体情報の順位付け後、各世代における一番良い個体情報を用いて、各検証用画像に対する画像処理を実行し、それぞれに対応する出力情報を生成することができる。
また、上記の所定のタイミングとして、設定世代ごと(例えば10世代ごと)とすることもでき、ステップ19の個体情報の順位付け後、一番良い個体情報を用いて、同様に行うこともできる。
The predetermined timing may be, for example, for each generation. Specifically, after ranking the individual information in step 19, image processing for each verification image can be executed using the best individual information in each generation, and output information corresponding to each can be generated. ..
Further, the predetermined timing may be set for each set generation (for example, every 10 generations), and after ranking the individual information in step 19, the best individual information can be used in the same manner.

さらに、上記の所定のタイミングを、一番良い個体情報の評価値が向上したタイミング(学習用画像を用いた評価値が改善されたタイミング)や、最終世代(世代ループ完了後(進化的計算終了後))として最終的に得られた個体情報を用いて、同様に行うこともできる。このように、検証用画像を処理するタイミングは任意に設定することが可能である。
なお、第二実施形態においても、検証用画像についての処理を、同様のタイミングで行うことができる。
Furthermore, the above-mentioned predetermined timing is set to the timing when the evaluation value of the best individual information is improved (the timing when the evaluation value using the learning image is improved) and the final generation (after the generation loop is completed (evolutionary computation is completed). The same can be done using the individual information finally obtained as (later)). In this way, the timing for processing the verification image can be arbitrarily set.
Also in the second embodiment, the processing for the verification image can be performed at the same timing.

このような本実施形態の画像処理システムによれば、学習用画像に画像処理を行って得られた出力画像を教師画像と比較して計算された評価値を用いて、学習で使用する画像を削減でき、生成される画像処理アルゴリズムの性能を維持した状態で学習時間を短縮することが可能である。 According to the image processing system of the present embodiment as described above, the image used in the training is obtained by using the evaluation value calculated by comparing the output image obtained by performing the image processing on the training image with the teacher image. It can be reduced and the learning time can be shortened while maintaining the performance of the generated image processing algorithm.

また、学習用画像の削減において、学習時に計算される評価値を用いるため、初期に学習用画像の削減のために特徴量を設定する必要がない。さらに、学習が進むにつれて画像に対する評価値が変化するため、学習に使用される画像が固定されない。さらにまた、評価値は進化的計算により生成された画像処理アルゴリズムの特徴を表すため、生成される画像処理アルゴリズムの性能向上を期待することも可能となる。 Further, since the evaluation value calculated at the time of learning is used in the reduction of the learning image, it is not necessary to set the feature amount for the reduction of the learning image at the initial stage. Further, since the evaluation value for the image changes as the learning progresses, the image used for the learning is not fixed. Furthermore, since the evaluation value represents the characteristics of the image processing algorithm generated by evolutionary computation, it is possible to expect an improvement in the performance of the generated image processing algorithm.

[第二実施形態]
次に、本発明の第二実施形態に係る画像処理システム、及び画像処理プログラムについて、図8を参照して説明する。図8は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図である。
[Second Embodiment]
Next, the image processing system and the image processing program according to the second embodiment of the present invention will be described with reference to FIG. FIG. 8 is a block diagram showing a configuration of an image processing device corresponding to the image processing system of the present embodiment.

本実施形態の画像処理装置1aは、図8に示すように、機能単位記憶部10a、個体生成部11a、個体群記憶部12a、画像入力部13a、画像記憶部14a、教師情報入力部15a、教師情報記憶部16a、画像処理部17a、出力情報記憶部18a、評価値計算部19a、評価結果記憶部20a、遺伝子操作部21a、及び学習用画像削減部22aを備えている。また、個体群記憶部12aは、親個体群記憶部121aと子個体群記憶部122aを備えている。 As shown in FIG. 8, the image processing apparatus 1a of the present embodiment includes a functional unit storage unit 10a, an individual generation unit 11a, a population storage unit 12a, an image input unit 13a, an image storage unit 14a, and a teacher information input unit 15a. It includes a teacher information storage unit 16a, an image processing unit 17a, an output information storage unit 18a, an evaluation value calculation unit 19a, an evaluation result storage unit 20a, a gene manipulation unit 21a, and a learning image reduction unit 22a. Further, the population storage unit 12a includes a parent population storage unit 121a and a child population storage unit 122a.

本実施形態の画像処理装置1aにおける機能単位記憶部10a、画像入力部13a、画像記憶部14a、教師情報入力部15a、教師情報記憶部16a、出力情報記憶部18a、及び評価結果記憶部20aは、第一実施形態と同様のものとすることができる。また、本実施形態の画像処理装置1aにおけるその他の構成についても、以下に説明する点を除いて、第一実施形態と同様のものとすることができる。 The functional unit storage unit 10a, the image input unit 13a, the image storage unit 14a, the teacher information input unit 15a, the teacher information storage unit 16a, the output information storage unit 18a, and the evaluation result storage unit 20a in the image processing device 1a of the present embodiment are , The same as in the first embodiment. Further, other configurations in the image processing apparatus 1a of the present embodiment can be the same as those of the first embodiment except for the points described below.

個体生成部11aは、機能単位記憶部10aに記憶されているノードを用いて、複数のノードの配列からなる個体情報を生成する。このとき、個体生成部11aは、第一実施形態と同様に、個体情報において、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義することができる。 The individual generation unit 11a generates individual information composed of an array of a plurality of nodes by using the nodes stored in the functional unit storage unit 10a. At this time, the individual generation unit 11a can define the execution order of a plurality of nodes in a network shape that can include a closed cycle in the individual information, as in the first embodiment.

個体生成部11aは、個体情報として複数の親個体情報をランダムに生成し、これら親個体情報からなる初期の親個体群を親個体群記憶部121aに記憶させる。なお、親個体群は、世代番号ごとに親個体群記憶部121aに記憶させることができる。 The individual generation unit 11a randomly generates a plurality of parent individual information as individual information, and stores an initial parent population composed of these parent individual information in the parent population storage unit 121a. The parent population can be stored in the parent population storage unit 121a for each generation number.

個体群記憶部12aは、親個体群記憶部121aと子個体群記憶部122aを備えている。
親個体群記憶部121aは、個体生成部11aによって生成された複数の個体情報からなる親個体群を記憶する。また、1つの世代又は複数の世代の親個体群を記憶させることができ、世代番号ごとに各個体情報を記憶させることができる。
子個体群記憶部122aは、遺伝子操作部21aによって生成された複数の個体情報からなる子個体群を記憶する。また、親個体群に対応する1つの世代又は複数の世代の子個体群を記憶させることができ、世代番号ごとに各個体情報を記憶させることができる。
The population storage unit 12a includes a parent population storage unit 121a and a child population storage unit 122a.
The parent population storage unit 121a stores a parent population consisting of a plurality of individual information generated by the individual generation unit 11a. In addition, the parent population of one generation or a plurality of generations can be stored, and each individual information can be stored for each generation number.
The child population storage unit 122a stores a child population composed of a plurality of individual information generated by the gene manipulation unit 21a. In addition, child populations of one generation or a plurality of generations corresponding to the parent population can be stored, and each individual information can be stored for each generation number.

本実施形態では、親個体群と子個体群のセットが1つの世代に含められ、これらのセットが複数の世代分生成されて、それぞれ親個体群記憶部121aと子個体群記憶部122aに記憶される。
なお、後述する評価値計算部19aは、世代ごと又は設定された世代ごとに子個体情報を順位付けして、順位付け情報を評価結果記憶部20aに記憶させることができる。
In the present embodiment, a set of a parent population and a child population is included in one generation, and these sets are generated for a plurality of generations and stored in the parent population storage unit 121a and the child population storage unit 122a, respectively. Will be done.
The evaluation value calculation unit 19a, which will be described later, can rank the child individual information for each generation or for each set generation, and store the ranking information in the evaluation result storage unit 20a.

画像処理部17aは、画像記憶部14aから画像を入力すると共に、子個体群記憶部122aから子個体情報を入力して、その子個体情報にもとづき当該子個体情報に含まれる複数のノードを順次実行する。そして、画像処理部17aは、学習用画像と検証用画像ごとに出力情報としての画像などを作成し、この出力情報を子個体情報ごと且つ画像ごとに出力情報記憶部18aに記憶させることができる。 The image processing unit 17a inputs an image from the image storage unit 14a, inputs child individual information from the child population storage unit 122a, and sequentially executes a plurality of nodes included in the child individual information based on the child individual information. do. Then, the image processing unit 17a can create an image as output information for each of the learning image and the verification image, and store this output information in the output information storage unit 18a for each child individual information and each image. ..

評価値計算部19aは、出力情報記憶部18aから出力情報を入力すると共に、教師情報記憶部16aからその出力情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を子個体情報ごと且つ画像ごとに評価結果記憶部20aに記憶させることができる。
The evaluation value calculation unit 19a inputs output information from the output information storage unit 18a, and also inputs teacher information corresponding to the output information from the teacher information storage unit 16a.
Then, the evaluation value is calculated by comparing the output information and the teacher information, and the obtained evaluation value can be stored in the evaluation result storage unit 20a for each child individual information and each image.

また、評価値計算部19aは、個体群記憶部12aにおける子個体群記憶部122aに記憶されている全ての子個体情報(又は1世代分の子個体情報)につき評価値を計算し終えて評価結果記憶部20aに記憶させたタイミングなどで、それらの評価値にもとづき子個体情報を順位付けして、得られた順位付け情報を評価結果記憶部20aに記憶させることができる。
さらに、評価値計算部19aは、画像処理部17aによる画像処理を終了するか否かを判定するための終了判定を行うことができる。
Further, the evaluation value calculation unit 19a completes the calculation of the evaluation value for all the child individual information (or the child individual information for one generation) stored in the child population storage unit 122a in the population storage unit 12a and evaluates. The child individual information can be ranked based on the evaluation values at the timing stored in the result storage unit 20a, and the obtained ranking information can be stored in the evaluation result storage unit 20a.
Further, the evaluation value calculation unit 19a can perform an end determination for determining whether or not to end the image processing by the image processing unit 17a.

遺伝子操作部21aは、親個体群記憶部121aにおける親個体情報に対して遺伝子操作を実行し、親個体群に対応する複数の個体情報からなる子個体群を生成して、子個体群記憶部122aに記憶させることができる。
具体的には、遺伝子操作部21aは、まず、親個体群記憶部121aにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。次に、選択した親個体情報と同一の子個体情報からなる子個体群を子個体群記憶部122aに記憶させる。また、選択された親個体情報に対して交叉処理を実行して複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122aに記憶させる。
The gene manipulation unit 21a executes a gene manipulation on the parent individual information in the parent population storage unit 121a, generates a child population consisting of a plurality of individual information corresponding to the parent population, and generates a child population storage unit. It can be stored in 122a.
Specifically, the gene manipulation unit 21a first randomly selects parent individual information for generating child individual information from the parent population in the parent population storage unit 121a. Next, a child population consisting of the same child individual information as the selected parent individual information is stored in the child population storage unit 122a. Further, a crossing process is executed on the selected parent individual information to generate a plurality of child individual information, and the child population composed of the child individual information is stored in the child population storage unit 122a.

また、遺伝子操作部21aは、機能単位記憶部10aに記憶されているノードを用いて、選択された親個体情報に対して突然変異処理を実行し、一定の確率で親個体情報の一部又は全部を書き換えることによって得られた子個体情報からなる子個体群を子個体群記憶部122aに記憶させることもできる。さらに、突然変異処理として、機能単位記憶部10aに記憶されているノードを用いて、新しい個体情報を生成することもでき、選択された親個体情報のノードのパラメータの一部又は全部をランダムに書き換えることなどによりパラメータ変異を行わせることもできる。 In addition, the gene manipulation unit 21a executes mutation processing on the selected parent individual information using the node stored in the functional unit storage unit 10a, and has a certain probability that a part of the parent individual information or a part of the parent individual information or It is also possible to store the child population consisting of the child individual information obtained by rewriting all of them in the child population storage unit 122a. Furthermore, as a mutation process, new individual information can be generated using the node stored in the functional unit storage unit 10a, and some or all of the parameters of the node of the selected parent individual information can be randomly selected. It is also possible to mutate the parameters by rewriting.

このように、遺伝子操作部21aは、親個体群記憶部121aにおける親個体情報に対して遺伝子操作を実行することにより、複数の個体情報からなる子個体群を生成して、これらを子個体群記憶部122aに記憶させる。 In this way, the gene manipulation unit 21a generates a child population consisting of a plurality of individual information by executing the gene manipulation on the parent individual information in the parent population storage unit 121a, and these are used as the child population. It is stored in the storage unit 122a.

また、遺伝子操作部21aは、評価結果記憶部20aにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群からランダムに選択された上記の親個体情報と入れ替えることなどによって、親個体群記憶部121aにおける親個体情報を更新することができる。
これにより、遺伝子操作部21aは、個体群記憶部12aにおける親個体群記憶部121aに新たな親個体群の個体情報を追加することができる。
そして、後述する世代ループを繰り返すことで、個体群記憶部12aにおいて、新たな世代の親個体群の個体情報を順次追加することができる。
Further, the gene manipulation unit 21a randomly selects the child individual information having the best evaluation value and the child individual information selected with the probability based on the ranking information of the child individual information in the evaluation result storage unit 20a from the parent population. The parent individual information in the parent population storage unit 121a can be updated by replacing the parent individual information selected in.
As a result, the gene manipulation unit 21a can add new individual information of the parent population to the parent population storage unit 121a in the population storage unit 12a.
Then, by repeating the generation loop described later, the individual information of the parent population of a new generation can be sequentially added in the population storage unit 12a.

学習用画像削減部22aは、学習用画像の削減処理を実行するか否かを判定する。
また、学習用画像削減部22aは、削減処理を実行すると判定すると、評価結果記憶部20aに記憶されている各学習用画像の評価値にもとづいて、画像処理部17aにより画像処画される学習用画像を削減する。
学習用画像削減部22aは、学習用画像の削減処理において、各学習用画像の評価値にもとづいて、第一実施形態と同様の各種方法により学習用画像を減率することができる。
The learning image reduction unit 22a determines whether or not to execute the learning image reduction process.
Further, when the learning image reduction unit 22a determines that the reduction process is to be executed, the learning is image-processed by the image processing unit 17a based on the evaluation value of each learning image stored in the evaluation result storage unit 20a. Reduce images for use.
In the learning image reduction process, the learning image reduction unit 22a can reduce the learning image by various methods similar to those in the first embodiment based on the evaluation value of each learning image.

学習用画像の削減処理において、削減する画像の割合は、適宜設定することができる。例えば、画像記憶部14aに記憶されている学習用画像の削減率20%、60%、80%、90%、95%などを設定することができる。 In the learning image reduction process, the ratio of the images to be reduced can be appropriately set. For example, the reduction rates of the learning image stored in the image storage unit 14a can be set to 20%, 60%, 80%, 90%, 95%, and the like.

また、学習用画像削減部22aは、画像記憶部14aに記憶されている学習用画像から削減する画像を識別するフラグなどを画像記憶部14aに設定する。そして、画像処理部17aと評価値計算部19aが、当該フラグにもとつき画像記憶部14aにおける選択された学習用画像のみに対して、それぞれ画像処理と評価値の計算を実行することができる。 Further, the learning image reduction unit 22a sets a flag or the like for identifying the image to be reduced from the learning image stored in the image storage unit 14a in the image storage unit 14a. Then, the image processing unit 17a and the evaluation value calculation unit 19a can execute image processing and evaluation value calculation for only the selected learning image in the image storage unit 14a based on the flag. ..

次に、本実施形態の画像処理システムに対応する画像処理装置の処理手順について、図9を参照して説明する。図9は、本実施形態の画像処理システムに対応する画像処理装置による処理手順を示すフローチャートである。 Next, the processing procedure of the image processing apparatus corresponding to the image processing system of the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing a processing procedure by the image processing apparatus corresponding to the image processing system of the present embodiment.

まず、画像処理装置1aにおける画像入力部13aが、画像を入力して、画像記憶部14aに記憶させる(ステップ40)。また、教師情報入力部15aが、教師情報としての教師画像を入力して、教師情報記憶部16aに記憶させる(ステップ41)。
次に、個体生成部11aが、初期の親個体群を生成する(ステップ42)。
なお、ステップ40〜42の各ステップの実行順序は、入れ替えてもよい。
First, the image input unit 13a in the image processing device 1a inputs an image and stores it in the image storage unit 14a (step 40). Further, the teacher information input unit 15a inputs a teacher image as teacher information and stores it in the teacher information storage unit 16a (step 41).
Next, the individual generation unit 11a generates an initial parent population (step 42).
The execution order of each step of steps 40 to 42 may be changed.

このとき、個体生成部11aは、機能単位記憶部10aからノードをランダムに選択して配列することにより親個体情報を生成して、識別情報ごとに個体群記憶部12aにおける親個体群記憶部121aに記憶させることができる。
この親個体群記憶部121aにおける親個体群は、後述する親個体群の更新処理によって更新され、世代ループにおいて、設定された世代について以下の処理が繰り返し行われる(ステップ43)。
At this time, the individual generation unit 11a generates parent individual information by randomly selecting and arranging nodes from the functional unit storage unit 10a, and the parent individual group storage unit 121a in the population storage unit 12a for each identification information. Can be memorized in.
The parent population in the parent population storage unit 121a is updated by the update processing of the parent population described later, and the following processing is repeatedly performed for the set generation in the generation loop (step 43).

世代ループにおいて、学習用画像削減部22aは、学習用画像の削減処理を実行するか否かを判定する(ステップ44)。
この判断基準は、適宜設定することができる。例えば、所定の設定値を設定し、その設定値以降の全ての世代について、学習用画像の削減処理を実行することができる。また、一定の世代数ごとに、削減処理を実行することもできる。
In the generation loop, the learning image reduction unit 22a determines whether or not to execute the learning image reduction process (step 44).
This criterion can be set as appropriate. For example, a predetermined set value can be set, and the learning image reduction process can be executed for all generations after the set value. It is also possible to execute reduction processing for each fixed number of generations.

学習用画像削減部22aは、学習用画像の削減処理を実行すると判定すると(ステップ44のYES)、学習用画像の削減処理を実行する(ステップ45)。
すなわち、学習用画像削減部22aは、評価結果記憶部20aに記憶されている各学習用画像の評価値にもとづいて、画像処理部17aにより画像処画される学習用画像を削減する。
When the learning image reduction unit 22a determines that the learning image reduction process is to be executed (YES in step 44), the learning image reduction unit 22a executes the learning image reduction process (step 45).
That is, the learning image reduction unit 22a reduces the learning images image-processed by the image processing unit 17a based on the evaluation value of each learning image stored in the evaluation result storage unit 20a.

具体的には、学習用画像削減部22aは、上述した「1.評価値の順位による削減」、「2.評価値の相関係数を用いた削減」、又は「3.クラスタリングによる削減」にしたがって、学習用画像を削減することができる。
また、学習用画像削減部22aは、学習用画像の削減処理を実行しないと判定すると(ステップ44のNO)、学習用画像の削減処理を実行せずに、ステップ46を実行する。
Specifically, the learning image reduction unit 22a is set to the above-mentioned "1. Reduction by ranking of evaluation values", "2. Reduction using correlation coefficient of evaluation values", or "3. Reduction by clustering". Therefore, the number of learning images can be reduced.
Further, when the learning image reduction unit 22a determines that the learning image reduction process is not executed (NO in step 44), the learning image reduction unit 22a executes step 46 without executing the learning image reduction process.

次に、遺伝子操作部21aは、親個体群記憶部121aにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。(ステップ46)。そして、選択された親個体情報に対して遺伝子操作を実行する(ステップ47)。なお、ステップ46の親個体情報の選択を、ステップ47の遺伝子操作の一部として、実行してもよい。
そして、遺伝子操作部21aは、ランダムに選択された親個体情報に対して交叉処理や突然変異処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122aに記憶させる。
Next, the genetic manipulation unit 21a randomly selects parent individual information for generating child individual information from the parent population in the parent population storage unit 121a. (Step 46). Then, genetic manipulation is executed on the selected parent individual information (step 47). The selection of parent individual information in step 46 may be performed as part of the genetic manipulation in step 47.
Then, the gene manipulation unit 21a executes crossover processing or mutation processing on the randomly selected parent individual information to generate a plurality of child individual information, and the child population consisting of these child individual information is generated as a child. It is stored in the population storage unit 122a.

次に、子個体群ループにおいて(ステップ48)、画像処理部17aは、子個体群記憶部122aにおける当該世代の全ての子個体情報について画像処理を実行する(ステップ49)。
このとき、画像処理部17aは、出力情報としての画像などを作成して、子個体情報ごと且つ画像ごとに出力情報記憶部18aに記憶させることができる。またこのとき、画像処理部17aは、学習用画像と検証用画像において検出対象が存在する場合、検出対象が存在する領域を示す情報を付加した画像を作成して、出力情報記憶部18aに記憶させることができる。
Next, in the child population loop (step 48), the image processing unit 17a executes image processing on all the child individual information of the generation in the child population storage unit 122a (step 49).
At this time, the image processing unit 17a can create an image or the like as output information and store it in the output information storage unit 18a for each child individual information and each image. At this time, when the detection target exists in the learning image and the verification image, the image processing unit 17a creates an image to which the information indicating the region where the detection target exists is added and stores it in the output information storage unit 18a. Can be made to.

次に、評価値計算部19aは、出力情報と教師情報を比較して評価値を計算し(ステップ50)、得られた評価値を評価結果記憶部20aに子個体情報ごと且つ画像ごとに記憶させる。
そして、子個体群記憶部122aにおける全ての子個体情報について、画像処理から評価値の計算及び記憶までの処理を繰り返し実行する。
Next, the evaluation value calculation unit 19a calculates the evaluation value by comparing the output information and the teacher information (step 50), and stores the obtained evaluation value in the evaluation result storage unit 20a for each child individual information and for each image. Let me.
Then, for all the child individual information in the child population storage unit 122a, the processing from the image processing to the calculation and storage of the evaluation value is repeatedly executed.

次に、評価値計算部19aは、評価結果記憶部20aに記憶されている評価値にもとづいて、子個体情報の順位付けを行い、その結果を評価結果記憶部20aに記憶する(ステップ51)。個体情報の順位付けは、評価値の統計値などにもとづいて行うことができる。 Next, the evaluation value calculation unit 19a ranks the child individual information based on the evaluation value stored in the evaluation result storage unit 20a, and stores the result in the evaluation result storage unit 20a (step 51). .. The ranking of individual information can be performed based on the statistical value of the evaluation value or the like.

そして、遺伝子操作部21aは、評価結果記憶部20aにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、ステップ46において親個体群からランダムに選択された上記の親個体情報と入れ替えることなどによって、個体群記憶部12aにおける親個体群記憶部121aの親個体情報を更新することができる(ステップ52)。 Then, the gene manipulation unit 21a selects the child individual information having the best evaluation value and the child individual information selected with the probability based on the ranking information of the child individual information in the evaluation result storage unit 20a, and the parent individual in step 46. The parent individual information of the parent population storage unit 121a in the population storage unit 12a can be updated by replacing the parent individual information randomly selected from the group with the above parent individual information (step 52).

遺伝子操作部21aのこのような処理によって、個体群記憶部12aにおける親個体群記憶部121aに新たな世代としての親個体群の個体情報を追加することができる。
そして、世代ループを繰り返すことで、個体群記憶部12aにおいて、新たな世代の親個体群の個体情報を順次追加することができる。
By such processing of the gene manipulation unit 21a, individual information of the parent population as a new generation can be added to the parent population storage unit 121a in the population storage unit 12a.
Then, by repeating the generation loop, the individual information of the parent population of a new generation can be sequentially added in the population storage unit 12a.

また、評価値計算部19aは、終了条件が満たされているか否かの判定処理を行い(ステップ53)、終了条件が満たされている場合、画像処理装置1aによる処理を終了する。 Further, the evaluation value calculation unit 19a performs a determination process of whether or not the end condition is satisfied (step 53), and if the end condition is satisfied, the process by the image processing device 1a ends.

画像処理装置1aによる処理を終了させる場合、評価値計算部19aは、最終世代における全ての個体情報につき評価値を計算し、評価値にもとづき個体情報を順位付けして、得られた順位付け情報を評価結果記憶部20aに記憶させることができる。 When the processing by the image processing device 1a is terminated, the evaluation value calculation unit 19a calculates the evaluation value for all the individual information in the final generation, ranks the individual information based on the evaluation value, and obtains the ranking information. Can be stored in the evaluation result storage unit 20a.

このような本実施形態の画像処理装置によれば、親個体群から親を選択して子個体情報を生成する時に遺伝子操作が実行されると共に、特定の子個体情報を親個体群における親個体情報と入れ替えることにより親個体群を更新して、新たな世代の個体情報を追加することができる。これにより、第一実施形態に比較して、進化の多様性をより保った状態で、最適な個体情報を探すことが可能となっている。
また、このような進化の多様性をより保った状態において、生成される画像処理アルゴリズムの性能を維持し、学習時間を短縮することが可能となっている。
According to such an image processing apparatus of the present embodiment, gene manipulation is executed when a parent is selected from a parent population to generate child individual information, and specific child individual information is transmitted to the parent individual in the parent population. By replacing the information, the parent population can be updated and individual information of a new generation can be added. This makes it possible to search for optimal individual information while maintaining more evolutionary diversity than in the first embodiment.
In addition, it is possible to maintain the performance of the generated image processing algorithm and shorten the learning time in a state where such evolutionary diversity is further maintained.

上記実施形態の画像処理装置は、本発明の画像処理プログラムに制御されたコンピュータを用いて実現することができる。コンピュータのCPUは、画像処理プログラムにもとづいてコンピュータの各構成要素に指令を送り、画像処理装置の動作に必要となる所定の処理、例えば、個体生成処理、学習用画像削減処理、画像処理、評価値計算処理、遺伝子操作処理等を行わせる。このように、本発明の画像処理装置における各処理、動作は、プログラムとコンピュータとが協働した具体的手段により実現できるものである。 The image processing apparatus of the above embodiment can be realized by using a computer controlled by the image processing program of the present invention. The CPU of the computer sends a command to each component of the computer based on the image processing program, and predetermined processing required for the operation of the image processing apparatus, for example, individual generation processing, image reduction processing for learning, image processing, and evaluation. Have them perform value calculation processing, gene manipulation processing, etc. As described above, each process and operation in the image processing apparatus of the present invention can be realized by specific means in which the program and the computer cooperate.

プログラムは予めROM,RAM等の記録媒体に格納され、コンピュータに実装された記録媒体から当該コンピュータにプログラムを読み込ませて実行されるが、例えば通信回線を介してコンピュータに読み込ませることもできる。
また、プログラムを格納する記録媒体は、例えば半導体メモリ、磁気ディスク、光ディスク、その他任意のコンピュータで読取り可能な任意の記録手段により構成できる。
The program is stored in a recording medium such as ROM or RAM in advance, and the program is read by the computer from the recording medium mounted on the computer and executed. However, the program can also be read by the computer via a communication line, for example.
Further, the recording medium for storing the program can be configured by, for example, a semiconductor memory, a magnetic disk, an optical disk, or any other recording means that can be read by any computer.

以上説明したように、本発明の実施形態に係る画像処理システム、及び画像処理プログラムによれば、学習用画像に画像処理を行って得られた出力画像を教師画像と比較して計算された評価値を用いて学習で使用する画像を選択可能にすることで、生成される画像処理アルゴリズムの性能を維持した状態で学習時間を短縮することが可能である。
また、学習が進むにつれて画像に対する評価値が変化するため、学習に使用される画像が固定されず、評価値は進化的計算により生成された画像処理アルゴリズムの特徴を表すことから、生成される画像処理アルゴリズムの性能向上を期待することも可能である。
As described above, according to the image processing system and the image processing program according to the embodiment of the present invention, the evaluation calculated by comparing the output image obtained by performing image processing on the learning image with the teacher image. By making it possible to select an image to be used in training using a value, it is possible to shorten the training time while maintaining the performance of the generated image processing algorithm.
In addition, since the evaluation value for the image changes as the learning progresses, the image used for training is not fixed, and the evaluation value represents the characteristics of the image processing algorithm generated by evolutionary computation. It is also possible to expect an improvement in the performance of the processing algorithm.

以下、本発明の実施形態に係る画像処理システムを用いて、画像から検出対象を検出する画像処理を最適化した試験について、図10A,B〜図15を用いて説明する。
実施例として、本発明の第二実施形態に係る画像処理システムに対応する画像処理装置を使用した。
また、参考例として、実施例の画像処理装置の一部を変更したものを使用した。具体的には、参考例1では学習用画像削減部により、世代ループに先立って、学習用画像を一定の割合でランダムに選択するように変更し、参考例2では学習用画像削減部による処理を実行せず、学習用画像の削減率0%とした。
Hereinafter, a test in which image processing for detecting a detection target from an image is optimized using the image processing system according to the embodiment of the present invention will be described with reference to FIGS. 10A, B to 15.
As an example, an image processing apparatus corresponding to the image processing system according to the second embodiment of the present invention was used.
Further, as a reference example, a modified image processing apparatus of the embodiment was used. Specifically, in Reference Example 1, the learning image reduction unit changes the learning image to be randomly selected at a fixed ratio prior to the generation loop, and in Reference Example 2, the learning image reduction unit processes the image. Was not executed, and the reduction rate of the learning image was set to 0%.

まず、以下の手順と設定値にもとづいて、本試験で使用する画像をプログラムにより作成した。サンプル画像として、サンプル画像1(検出対象と非検出対象が共に描かれていない)、サンプル画像2(検出対象が描かれている)、サンプル画像3(非検出対象が描かれている)の3種類をそれぞれ200枚作成した。そして、各200枚のうち、50枚を学習用画像(合計150枚)、150枚を検証用画像(合計450枚)として使用した。なお、どれを学習用画像と検証用画像として使用するかの区分はランダムで行った。 First, the images used in this test were created programmatically based on the following procedure and set values. As sample images, sample image 1 (both detection target and non-detection target are not drawn), sample image 2 (detection target is drawn), and sample image 3 (non-detection target is drawn). 200 types were created for each. Then, out of each of the 200 images, 50 images were used as learning images (150 images in total) and 150 images were used as verification images (450 images in total). It should be noted that the classification of which to use as the learning image and the verification image was randomly performed.

(手順1)背景画像の作成
256pixel×256pixel,8bit,輝度0の画像(真っ黒の画像)を準備し、この画像に対して直径22〜24,幅3〜5,輝度71〜149の円を10個描画した。そして、得られた画像の各ピクセルに輝度0〜20をランダムに決定して足し合わせ、背景画像とした。
(Procedure 1) Creating a background image
An image of 256 pixels x 256 pixels, 8 bits, and 0 brightness (black image) was prepared, and 10 circles with a diameter of 22 to 24, a width of 3 to 5, and a brightness of 71 to 149 were drawn on this image. Then, brightness 0 to 20 was randomly determined and added to each pixel of the obtained image to obtain a background image.

(手順2)600枚の背景画像のコピー画像の作成
背景画像の任意の位置を、64pixel×64pixel,8bitの画像にコピーして、600枚の背景画像のコピー画像を作成した。
実施例及び参考例で使用した学習用画像及び検証用画像における背景画像を図10Aに、及びその背景画像の任意の位置のコピー画像を図10Bに示す。
(Procedure 2) Creation of a copy image of 600 background images An arbitrary position of the background image was copied to an 8-bit image of 64 pixels × 64 pixels to create a copy image of 600 background images.
The background images in the learning image and the verification image used in the examples and the reference examples are shown in FIG. 10A, and the copy image at an arbitrary position of the background image is shown in FIG. 10B.

(手順3)サンプル画像1の作成(背景画像と同様,検出対象と非検出対象が共に描画されていない)
手順2で作成した画像No.1〜200のコピー画像をサンプル画像1とした。また、各画像に対応する教師画像を作成した。サンプル画像1には検出対象が描かれていないため、各教師画像は真っ黒となる。
実施例及び参考例で使用した学習用画像又は検証用画像としてのサンプル画像1を図11Aに示す。
(Procedure 3) Creation of sample image 1 (similar to the background image, both the detection target and the non-detection target are not drawn)
The copy images of images Nos. 1 to 200 created in step 2 were designated as sample images 1. In addition, teacher images corresponding to each image were created. Since the detection target is not drawn in the sample image 1, each teacher image is black.
FIG. 11A shows a sample image 1 as a learning image or a verification image used in Examples and Reference Examples.

(手順4)サンプル画像2の作成(検出対象が描画された画像)
手順2で作成した画像No.201〜400のコピー画像に検出対象を描画して、サンプル画像2とした。このとき、各画像の任意の位置に、太さ:2〜4pixel,枠線:0〜2pixel,輝度:125〜275,長さ32〜64pixelの直線を1本描き、これを検出対象とした。また、各画像に対応する教師画像を、検出対象に対応する箇所を白く塗り潰すことにより作成した。
実施例及び参考例で使用した学習用画像又は検証用画像としてのサンプル画像2を図11Bに示す。
(Procedure 4) Creation of sample image 2 (image in which the detection target is drawn)
The detection target was drawn on the copy images of images Nos. 201 to 400 created in step 2 to obtain sample images 2. At this time, one straight line having a thickness of 2 to 4 pixels, a border of 0 to 2 pixels, a brightness of 125 to 275, and a length of 32 to 64 pixels was drawn at an arbitrary position of each image, and this was set as a detection target. In addition, the teacher image corresponding to each image was created by painting the part corresponding to the detection target in white.
FIG. 11B shows a sample image 2 as a learning image or a verification image used in Examples and Reference Examples.

(手順5)サンプル画像3の作成(非検出対象が描画された画像)
手順2で作成した画像No.401〜600のコピー画像に非検出対象を描画して、サンプル画像3とした。このとき、各画像の任意の位置に、直径:8〜16,輝度:155〜205の円を描画して、これを非検出対象とした。サンプル画像3には検出対象が描かれていない(非検出対象物を描画した)ため、各教師画像は真っ黒となる。
実施例及び参考例で使用した学習用画像又は検証用画像としてのサンプル画像3を図11Cに示す。
(Procedure 5) Creation of sample image 3 (image in which a non-detection target is drawn)
The non-detection target was drawn on the copy images of images Nos. 401 to 600 created in step 2 to obtain sample image 3. At this time, a circle with a diameter of 8 to 16 and a brightness of 155 to 205 was drawn at an arbitrary position of each image, and this was set as a non-detection target. Since the detection target is not drawn in the sample image 3 (the non-detection target is drawn), each teacher image is black.
FIG. 11C shows a sample image 3 as a learning image or a verification image used in Examples and Reference Examples.

実施例及び参考例における進化的計算は、図12に示す各種パラメータを用いて、第二実施形態であるMGG(Minimal Generation Gap)により行った。画像は、上記のとおり、それぞれ64pixel×64pixelの学習用画像150枚と検証用画像450枚を使用した。ネットワークは、入力ノードを1ノード、出力ノードを1ノード、処理ノードを7ノードとした。進化的計算は、世代数を5000世代、親個体数を100個、子個体数を62個体(エリート2個体、一様交叉20個体、突然変異30個体、パラメータ変異10個体)、変化率を一様交叉20%、突然変異20%、パラメータ変異20%とした。 Evolutionary computation in Examples and Reference Examples was performed by MGG (Minimal Generation Gap), which is the second embodiment, using various parameters shown in FIG. As the images, as described above, 150 learning images and 450 verification images of 64 pixels × 64 pixels were used, respectively. The network has 1 input node, 1 output node, and 7 processing nodes. Evolutionary computation shows that the number of generations is 5000, the number of parent individuals is 100, the number of offspring is 62 (2 elites, 20 uniform crossovers, 30 mutations, 10 parameter mutations), and the rate of change is 1. The crossover was 20%, the mutation was 20%, and the parameter variation was 20%.

親個体群からの親選択では、個体生成部により生成した初期の親個体群における100個の親個体情報から2個の親個体情報をランダムに選択して、親個体群から削除した。
そして、これらの親個体情報に対して遺伝子操作を実行し、62個の子個体情報を生成した(親と同一:2個、一様交叉:20個、突然変異個体:30個体情報、パラメータ変異10個)。
In the parent selection from the parent population, two parent individual information was randomly selected from the 100 parent individual information in the initial parent population generated by the individual generation unit and deleted from the parent population.
Then, genetic manipulation was performed on these parent individual information to generate 62 child individual information (same as parent: 2, uniform crossover: 20, mutant individual: 30 individual information, parameter variation). 10).

また、画像処理の実行後、子個体情報の評価結果にもとづいて評価値が一番よい子個体情報を選択すると共に、確率で選択した子個体情報の合計2個の子個体情報を親個体情報として親個体群に戻して、親個体群の更新を行った。 In addition, after the image processing is executed, the child individual information having the best evaluation value is selected based on the evaluation result of the child individual information, and the total of two child individual information selected with probability is the parent individual information. The parent population was renewed by returning to the parent population.

画像処理の実行は、図13A〜図13Iに示すノードを使用した。図13Aに示すノードは、画像処理(ノイズ除去)を行うものであり、図13Bに示すノードは、画像処理(輝度補正)を行うものであり、図13Cに示すノードは、画像処理(2値化)を行うものであり、図13Dに示すノードは、画像処理(エッジ検出)を行うものであり、図13Eに示すノードは、画像処理(周波数フィルタ)を行うものであり、図13Fに示すノードは、画像処理(演算)を行うものであり、図13Gに示すノードは、画像処理(モフォロジ)を行うものであり、図13Hに示すノードは、画像処理(検出対象判定)を行うものであり、図13Iに示すノードは、画像処理(分岐)を行うものである。 The nodes shown in FIGS. 13A to 13I were used to execute the image processing. The node shown in FIG. 13A performs image processing (noise removal), the node shown in FIG. 13B performs image processing (brightness correction), and the node shown in FIG. 13C performs image processing (binary value). The node shown in FIG. 13D performs image processing (edge detection), and the node shown in FIG. 13E performs image processing (frequency filter), which is shown in FIG. 13F. The node performs image processing (calculation), the node shown in FIG. 13G performs image processing (morphology), and the node shown in FIG. 13H performs image processing (detection target determination). Yes, the node shown in FIG. 13I performs image processing (branching).

評価値の計算は、実施例と参考例共に、平均二乗誤差を用いて、以下の式により行った。なお、この評価値では、数値が低いほど良い評価となる。

Figure 2021131835
The evaluation value was calculated by the following formula using the mean square error in both the examples and the reference examples. In this evaluation value, the lower the value, the better the evaluation.
Figure 2021131835

ここで、学習画像の削減は、実施例では5種類の削減率(20%、60%、80%、90%、95%)を設定して、それぞれにつき試験を行った。
また、参考例1でも5種類の削減率(20%、60%、80%、90%、95%)を設定して、世代ループの実行に先立ってランダムに学習用画像の削減を行い、学習画像の削減以外については実施例と同様にして、それぞれにつき試験を行った。
また、参考例2は、削減率を0%として、学習用画像の削減を行うことなく、学習画像の削減以外については実施例と同様にして試験を行った。
Here, for the reduction of the learning image, five types of reduction rates (20%, 60%, 80%, 90%, 95%) were set in the examples, and tests were performed for each of them.
Also, in Reference Example 1, five types of reduction rates (20%, 60%, 80%, 90%, 95%) are set, and the images for learning are randomly reduced prior to the execution of the generation loop for learning. Tests were conducted for each of them in the same manner as in Examples except for the reduction of images.
Further, in Reference Example 2, the reduction rate was set to 0%, and the test was conducted in the same manner as in Example except for the reduction of the learning image without reducing the learning image.

学習画像の削減では、最初の100世代では削減処理を実施せず、100世代以降において100世代ごとに評価値が最も高い個体情報にもとづき算出された各学習用画像の評価値を用いて、判別分析法により使用する学習用画像を選択した。
このとき、判別分析法により評価値にもとづき学習用画像を2クラスに分け、学習用画像が設定した削減率になり、かつ各クラスから選択される学習用画像が同数になるように選択した。
一方のクラスに画像がない場合には、評価値の順位に対して均等に選択を行い、一方のクラスの画像が少なく同数を選択すると設定した削減率を満たさない場合は、特に操作せずにそのまま学習を行った。
なお、検証用画像を用いた画像処理の実行、評価値の計算は、学習用画像を用いた学習が終了したタイミングで、評価値が一番良い個体情報を用いて行った。
In the reduction of learning images, the reduction process is not performed in the first 100 generations, and the evaluation value of each learning image calculated based on the individual information having the highest evaluation value for each 100 generations after the 100th generation is used for discriminant analysis. The learning image to be used was selected by the analysis method.
At this time, the learning images were divided into two classes based on the evaluation value by the discriminant analysis method, and the learning images were selected so as to have the set reduction rate and the same number of learning images selected from each class.
If there are no images in one class, select evenly for the rank of the evaluation value, and if there are few images in one class and the set reduction rate is not satisfied, do not perform any operation. I learned as it was.
The execution of image processing using the verification image and the calculation of the evaluation value were performed using the individual information having the best evaluation value at the timing when the learning using the learning image was completed.

そして、実施例と参考例について、以上の処理を5000世代分繰り返して実行して、処理を終了した。さらに、これらを3回繰り返して、5000世代の学習にかかった時間と評価値が最も高かった個体情報の評価値の平均値を算出した。
その結果を、図14A、図14B、及び図15に示す。図14Aは、実施例(削減率20%、60%、80%、90%、95%)と参考例2(削減率0%)による学習時間、学習結果(評価値)、及び検証結果(評価値)を表すグラフを示す図であり、図14Bは、参考例1(削減率20%、60%、80%、90%、95%)及び参考例2(削減率0%)による学習時間、学習結果(評価値)、及び検証結果(評価値)を表すグラフを示す図である。また、図15は、実施例と参考例による学習結果(評価値)と検証結果(評価値)を比較したグラフを示す図である。
Then, with respect to the examples and the reference examples, the above processing was repeatedly executed for 5000 generations, and the processing was completed. Further, these were repeated three times, and the average value of the evaluation value of the individual information having the highest evaluation value and the time required for learning of 5000 generations was calculated.
The results are shown in FIGS. 14A, 14B, and 15. FIG. 14A shows the learning time, the learning result (evaluation value), and the verification result (evaluation) according to the examples (reduction rate 20%, 60%, 80%, 90%, 95%) and the reference example 2 (reduction rate 0%). FIG. 14B is a diagram showing a graph showing the value), and FIG. 14B shows the learning time according to Reference Example 1 (reduction rate 20%, 60%, 80%, 90%, 95%) and Reference Example 2 (reduction rate 0%). It is a figure which shows the graph which shows the learning result (evaluation value), and the verification result (evaluation value). Further, FIG. 15 is a diagram showing a graph comparing the learning results (evaluation values) and the verification results (evaluation values) according to the examples and the reference examples.

これらの図において、左縦軸は、5000世代の学習にかかった時間[min(分)]である。右縦軸は、学習用画像と検証用画像についてそれぞれ得られた、学習終了後の最良の個体情報を用いて算出された評価値である。なお、横軸の0%における各プロットは、全ての学習画像を選択した場合(削減率0%)であり、参考例2の結果を示すものである。 In these figures, the left vertical axis is the time [min (minutes)] required for learning of the 5000 generations. The right vertical axis is an evaluation value calculated using the best individual information after learning, which was obtained for each of the learning image and the verification image. In addition, each plot at 0% on the horizontal axis is a case where all the training images are selected (reduction rate 0%), and shows the result of Reference Example 2.

図14Aと図14Bの結果から、学習用画像の一部を削減した実施例と参考例1は、削減しなかった参考例2と比較して、学習時間を大幅に短縮できている。
また、実施例と参考例1を比較すると、学習用画像の選択率が同一のものについては、概ね同程度の学習時間となっている。
From the results of FIGS. 14A and 14B, the learning time can be significantly shortened in the example and the reference example 1 in which a part of the learning image is reduced as compared with the reference example 2 in which the learning image is not reduced.
Further, when the Examples and the Reference Example 1 are compared, those having the same selection rate of the learning images have substantially the same learning time.

次に、生成された画像処理アルゴリズムの性能に関し、実施例では、学習結果と検証結果共に削減率80%の場合に、参考例2と同等の性能が得られている。また、削減率60%場合に、一番良い性能が得られており、参考例2よりも良い結果となっている。
これに対して、参考例1では、学習結果において削減率60%で参考例2と同等の性能が得られているが、検証結果では削減率が20%になっても、参考例2と同等の性能が得られていない。
このことから、削減する学習用画像を実施例のように評価値を用いて選択するのではなく、参考例1のようにランダムに選択すると、画像処理アルゴリズムの性能を維持して時間を短縮することが、難しいことが示唆された。
Next, regarding the performance of the generated image processing algorithm, in the example, when the reduction rate is 80% for both the learning result and the verification result, the same performance as that of the reference example 2 is obtained. Further, when the reduction rate is 60%, the best performance is obtained, which is better than that of Reference Example 2.
On the other hand, in Reference Example 1, the learning result shows the same performance as in Reference Example 2 with a reduction rate of 60%, but in the verification result, even if the reduction rate is 20%, it is equivalent to Reference Example 2. Performance has not been obtained.
For this reason, if the learning image to be reduced is randomly selected as in Reference Example 1 instead of using the evaluation value as in the example, the performance of the image processing algorithm is maintained and the time is shortened. It was suggested that it was difficult.

また、実施例では、参考例1と比較して、学習結果と検証結果の両方において、より良い性能を示している。特に、削減率60%と80%の検証結果において、その差が顕著である。その理由は、学習用画像を評価値を用いて削減することで、効率的に学習できる画像が選択されたことが、原因であると推測される。 Further, in the examples, better performance is shown in both the learning result and the verification result as compared with the reference example 1. In particular, the difference is remarkable in the verification results of the reduction rates of 60% and 80%. It is presumed that the reason is that an image that can be learned efficiently is selected by reducing the image for learning by using the evaluation value.

さらに、実施例では、学習用画像を削減しなかった参考例2と比較して、一部の選択率(削減率60%の学習結果と検証結果)でさらに性能が良かった。その原因は、実施例では、画像を選択して学習することによって選ばれた画像に特化した画像処理アルゴリズムが生成され、さらに選ばれる画像が変化するため、様々な特徴を持った画像処理アルゴリズムが生成され、それらが交叉することによって性能が向上したと推測される。 Further, in the examples, the performance was further improved at a part of the selection rate (learning result and verification result with a reduction rate of 60%) as compared with Reference Example 2 in which the learning image was not reduced. The cause is that, in the embodiment, an image processing algorithm specialized for the selected image is generated by selecting and learning the image, and the selected image changes, so that the image processing algorithm has various characteristics. Is generated, and it is presumed that the performance was improved by crossing them.

以上のとおり、本実施形態の画像処理システム及び画像検査プログラムを用いることによって、性能の維持された画像処理アルゴリズムを、約77%短縮された学習時間で得ることができた。
さらに、性能のより良い画像処理アルゴリズムを、約63%短縮された学習時間で得ることができた。
このように、学習用画像の評価値にもとづいて、各世代の画像処理において使用する学習用画像を選択することによって、画像処理アルゴリズムの性能を維持又は改善した状態で、学習時間を大幅に低減できることが分かった。
As described above, by using the image processing system and the image inspection program of the present embodiment, it was possible to obtain an image processing algorithm with maintained performance in a learning time shortened by about 77%.
In addition, a better performing image processing algorithm could be obtained with a learning time reduced by about 63%.
In this way, by selecting the learning image to be used in the image processing of each generation based on the evaluation value of the learning image, the learning time is significantly reduced while maintaining or improving the performance of the image processing algorithm. I found that I could do it.

本発明は、以上の実施形態に限定されるものではなく、本発明の範囲内において、種々の変更実施が可能であることは言うまでもない。
例えば、画像処理装置における各構成を複数の情報処理装置に分散して持たせたり、ノードとして実施例で用いたもの以外のものを含めて使用したりすることができる。
また、評価値を用いて削減する画像を選択する方法として、均等に削減する方法や、シグモイド関数を用いて削減する確率を変化させる方法など適宜変更することが可能である。
It goes without saying that the present invention is not limited to the above embodiments, and various modifications can be made within the scope of the present invention.
For example, each configuration in the image processing device can be distributed to a plurality of information processing devices, or can be used as a node including a node other than that used in the embodiment.
Further, as a method of selecting an image to be reduced by using the evaluation value, it is possible to appropriately change a method of reducing evenly, a method of changing the probability of reduction by using a sigmoid function, and the like.

さらに、上記の画像処理装置を画像検査用に用い、画像処理装置を、画像入力部が検査用の画像を入力し、最も評価値の高い個体情報にもとづき画像処理部によって検査用の画像を処理して得られた処理結果情報を記憶する処理結果記憶部を備えた構成とすることなども可能である。 Further, the above image processing device is used for image inspection, the image input unit inputs an image for inspection, and the image processing unit processes the image for inspection based on the individual information having the highest evaluation value. It is also possible to have a configuration including a processing result storage unit that stores the processing result information obtained as a result.

本発明は、設備や製品などの画像データにもとづき検査などを行う場合であって、画像処理が最適化された画像検査用の情報処理装置を得るために、好適に利用することが可能である。 INDUSTRIAL APPLICABILITY The present invention is a case where inspection or the like is performed based on image data of equipment or a product, and can be suitably used for obtaining an information processing apparatus for image inspection with optimized image processing. ..

1,1a 画像処理装置
10,10a 機能単位記憶部
11,11a 個体生成部
12,12a 個体群記憶部
121a 親個体群記憶部
122a 子個体群記憶部
13,13a 画像入力部
14,14a 画像記憶部
15,15a 教師情報入力部
16,16a 教師情報記憶部
17,17a 画像判定部
18,18a 出力情報記憶部
19,19a 評価値計算部
20,20a 評価結果記憶部
21,21a 遺伝子操作部
22,22a 学習用画像削減部
1,1a Image processing device 10,10a Functional unit storage unit 11,11a Individual generation unit 12, 12a Individual group storage unit 121a Parent population storage unit 122a Child population storage unit 13, 13a Image input unit 14, 14a Image storage unit 15,15a Teacher information input unit 16,16a Teacher information storage unit 17,17a Image judgment unit 18,18a Output information storage unit 19, 19a Evaluation value calculation unit 20, 20a Evaluation result storage unit 21,21a Gene manipulation unit 22, 22a Image reduction department for learning

Claims (10)

生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像処理を最適化する画像処理システムであって、
直線構造、木構造、又はネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部と、
複数の学習用画像を記憶する画像記憶部と、
前記個体情報にもとづいて前記学習用画像を処理し、前記学習用画像に対応する出力情報を生成する画像処理部と、
前記出力情報を評価するための前記学習用画像に対応する教師情報を記憶する教師情報記憶部と、
前記出力情報と前記教師情報を比較して、前記個体情報ごと及び前記学習用画像ごとに評価値を計算し、前記個体情報ごとの評価値にもとづき前記個体情報を順位付けする評価値計算部と、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部と、
前記学習用画像ごとの評価値にもとづいて、前記画像処理部により処理される学習用画像を削減する学習用画像削減部と、を備えた
ことを特徴とする画像処理システム。
An image processing system that optimizes image processing using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms.
A population storage unit that stores multiple individual information that defines the execution order of multiple functional units in a linear structure, tree structure, or network.
An image storage unit that stores multiple learning images,
An image processing unit that processes the learning image based on the individual information and generates output information corresponding to the learning image.
A teacher information storage unit that stores teacher information corresponding to the learning image for evaluating the output information, and a teacher information storage unit.
An evaluation value calculation unit that compares the output information with the teacher information, calculates an evaluation value for each individual information and each learning image, and ranks the individual information based on the evaluation value for each individual information. ,
A genetic manipulation unit that updates the population storage unit by selecting or changing the individual information based on the ranking information of the individual information.
An image processing system including a learning image reduction unit that reduces learning images processed by the image processing unit based on an evaluation value for each learning image.
前記遺伝子操作部が、前記個体群記憶部を更新することにより、新たな世代の複数の個体情報を作成し、
前記画像処理部が、前記遺伝子操作部により新たな世代の個体情報が作成されると、当該新たな世代の個体情報を前記個体情報として使用し、
学習用画像削減部が、設定された世代後、又は設定された世代ごとに、前記学習用画像ごとの評価値にもとづいて、前記画像記憶部に記憶されている前記学習用画像から一部の画像を選択し、
前記画像処理部が、選択された前記一部の画像を前記学習用画像として使用する
ことを特徴とする請求項1記載の画像処理システム。
The genetic engineering unit updates the population memory unit to create information on a plurality of individuals of a new generation.
When the image processing unit creates new generation individual information by the genetic manipulation unit, the new generation individual information is used as the individual information.
After the set generation or for each set generation, the learning image reduction unit is a part of the learning image stored in the image storage unit based on the evaluation value for each learning image. Select an image and
The image processing system according to claim 1, wherein the image processing unit uses the selected partial image as the learning image.
前記学習用画像削減部が、設定された世代後、又は設定された世代ごとに、前記学習用画像の評価値にもとづいて、前記学習用画像をクラスタリングし、各クラスから一部の学習用画像を選択することを特徴とする請求項1又は2記載の画像処理システム。 The learning image reduction unit clusters the learning images based on the evaluation value of the learning images after the set generation or for each set generation, and a part of the learning images from each class. The image processing system according to claim 1 or 2, wherein the image processing system is selected. 前記学習用画像削減部が、判別分析法、階層的クラスタ分析、又は非階層クラスタ分析を用いて、前記学習用画像を分類することを特徴とする請求項3記載の画像処理システム。 The image processing system according to claim 3, wherein the image reduction unit for learning classifies the images for learning by using a discriminant analysis method, a hierarchical cluster analysis, or a non-hierarchical cluster analysis. 前記学習用画像削減部が、設定された世代後、又は設定された世代ごとに、前記学習用画像の評価値の順位又は相関係数にもとづいて、一部の学習用画像を選択することを特徴とする請求項1又は2記載の画像処理システム。 The learning image reduction unit selects a part of the learning images after the set generation or for each set generation based on the rank or the correlation coefficient of the evaluation value of the learning image. The image processing system according to claim 1 or 2, wherein the image processing system is characterized. 前記画像記憶部が、前記学習用画像と共に、複数の検証用画像を記憶し、
教師情報記憶部が、前記出力情報を評価するための前記検証用画像に対応する教師情報を記憶し、
前記画像処理部が、所定のタイミングで、特定の個体情報にもとづいて前記検証用画像を処理し、前記検証用画像に対応する出力情報を生成し、
前記評価値計算部が、前記検証用画像に対応する前記出力情報と前記教師情報を比較して、前記特定の個体情報ごと及び前記検証用画像ごとに評価値を計算する
ことを特徴とする請求項1〜5のいずれかに記載の画像処理システム。
The image storage unit stores a plurality of verification images together with the learning image.
The teacher information storage unit stores the teacher information corresponding to the verification image for evaluating the output information, and stores the teacher information.
The image processing unit processes the verification image based on specific individual information at a predetermined timing, and generates output information corresponding to the verification image.
A claim characterized in that the evaluation value calculation unit compares the output information corresponding to the verification image with the teacher information and calculates an evaluation value for each specific individual information and for each verification image. Item 4. The image processing system according to any one of Items 1 to 5.
検査用の画像を記憶する検査用画像記憶部と、
最も評価値の高い個体情報にもとづき前記画像処理部によって前記検査用の画像を処理して得られた処理結果情報を記憶する処理結果記憶部と、をさらに備えた
ことを特徴とする請求項1〜6のいずれかに記載の画像処理システム。
An inspection image storage unit that stores inspection images,
Claim 1 is further provided with a processing result storage unit that stores the processing result information obtained by processing the image for inspection by the image processing unit based on the individual information having the highest evaluation value. The image processing system according to any one of 6 to 6.
生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像処理を最適化する画像処理システムであって、
コンピュータを、
直線構造、木構造、又はネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部、
複数の学習用画像を記憶する画像記憶部、
前記個体情報にもとづいて前記学習用画像を処理し、前記学習用画像に対応する出力情報を生成する画像処理部、
前記出力情報を評価するための前記学習用画像に対応する教師情報を記憶する教師情報記憶部、
前記出力情報と前記教師情報を比較して、前記個体情報ごと及び前記学習用画像ごとに評価値を計算し、前記個体情報ごとの評価値にもとづき前記個体情報を順位付けする評価値計算部、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部、及び、
前記学習用画像ごとの評価値にもとづいて、前記画像処理部により処理される学習用画像を削減する学習用画像削減部として機能させる
ことを特徴とする画像処理プログラム。
An image processing system that optimizes image processing using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms.
Computer,
A population storage unit that stores multiple individual information that defines the execution order of multiple functional units in a linear structure, tree structure, or network.
Image storage unit that stores multiple learning images,
An image processing unit that processes the learning image based on the individual information and generates output information corresponding to the learning image.
A teacher information storage unit that stores teacher information corresponding to the learning image for evaluating the output information,
An evaluation value calculation unit that compares the output information with the teacher information, calculates an evaluation value for each individual information and each learning image, and ranks the individual information based on the evaluation value for each individual information.
A genetic manipulation unit that updates the population storage unit by selecting or changing the individual information based on the ranking information of the individual information, and
An image processing program characterized by functioning as a learning image reduction unit that reduces learning images processed by the image processing unit based on an evaluation value for each learning image.
前記遺伝子操作部に、前記個体群記憶部を更新することにより、新たな世代の複数の個体情報を作成させ、
前記画像処理部に、前記遺伝子操作部により新たな世代の個体情報が作成されると、当該新たな世代の個体情報を前記個体情報として使用させ、
学習用画像削減部に、設定された世代後、又は設定された世代ごとに、前記学習用画像ごとの評価値にもとづいて、前記画像記憶部に記憶されている前記学習用画像から一部の画像を選択させ、
前記画像処理部に、選択された前記一部の画像を前記学習用画像として使用させる
ことを特徴とする請求項8記載の画像処理プログラム。
By having the gene manipulation unit update the population memory unit, a plurality of individual information of a new generation is created.
When the image processing unit creates new generation individual information by the genetic manipulation unit, the new generation individual information is used as the individual information.
A part of the learning image stored in the image storage unit based on the evaluation value for each learning image after the generation set in the learning image reduction unit or for each generation set. Let me select an image
The image processing program according to claim 8, wherein the image processing unit is made to use the selected partial image as the learning image.
前記学習用画像削減部に、設定された世代後、又は設定された世代ごとに、前記学習用画像の評価値にもとづいて、前記学習用画像をクラスタリングさせ、各クラスから一部の学習用画像を選択させる
ことを特徴とする請求項8又は9記載の画像処理プログラム。
The learning image reduction unit clusters the learning image based on the evaluation value of the learning image after the set generation or for each set generation, and a part of the learning image from each class. The image processing program according to claim 8 or 9, wherein the image processing program is selected.
JP2020067275A 2020-02-18 2020-04-03 Image processing system and image processing program Active JP7468088B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020024952 2020-02-18
JP2020024952 2020-02-18

Publications (2)

Publication Number Publication Date
JP2021131835A true JP2021131835A (en) 2021-09-09
JP7468088B2 JP7468088B2 (en) 2024-04-16

Family

ID=77551189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020067275A Active JP7468088B2 (en) 2020-02-18 2020-04-03 Image processing system and image processing program

Country Status (1)

Country Link
JP (1) JP7468088B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166773A1 (en) * 2022-03-04 2023-09-07 株式会社日立製作所 Image analysis system, image analysis method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337152A (en) 2005-06-01 2006-12-14 Sharp Corp Method and apparatus for forming teaching image, method and apparatus for forming image processing algorithm, image inspecting method, image inspecting device, program and recording medium
JP6102947B2 (en) 2012-12-28 2017-03-29 富士通株式会社 Image processing apparatus and feature detection method
JP7095467B2 (en) 2018-08-01 2022-07-05 株式会社デンソー Training data evaluation device, training data evaluation method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023166773A1 (en) * 2022-03-04 2023-09-07 株式会社日立製作所 Image analysis system, image analysis method, and program

Also Published As

Publication number Publication date
JP7468088B2 (en) 2024-04-16

Similar Documents

Publication Publication Date Title
WO2022121289A1 (en) Methods and systems for mining minority-class data samples for training neural network
CN111429415B (en) Method for constructing efficient detection model of product surface defects based on network collaborative pruning
EP1843323B1 (en) Information processing device, information processing method, and program
Abd-Alsabour A review on evolutionary feature selection
JP6641195B2 (en) Optimization method, optimization device, program, and image processing device
Brajevic et al. Multilevel image thresholding selection based on the cuckoo search algorithm
KR20210127069A (en) Method of controlling performance of fusion model neural network
CN114463540A (en) Segmenting images using neural networks
Rodríguez et al. Multi-objective learning of multi-dimensional Bayesian classifiers
Tian et al. Genetic algorithm based deep learning model selection for visual data classification
CN115481727A (en) Intention recognition neural network generation and optimization method based on evolutionary computation
Cho et al. Genetic evolution processing of data structures for image classification
JP2021131835A (en) Image processing system and image processing program
Ouarda et al. A comparison of evolutionary algorithms: PSO, DE and GA for fuzzy c-partition
KR20220014744A (en) Data preprocessing system based on a reinforcement learning and method thereof
CN116993548A (en) Incremental learning-based education training institution credit assessment method and system for LightGBM-SVM
CN109977030B (en) Method and device for testing deep random forest program
Toghraee et al. The impact of feature selection on meta-heuristic algorithms to data mining methods
JP2022089430A (en) Image processing system, and image processing program
CN114782761A (en) Intelligent storage material identification method and system based on deep learning
Al-Sahaf et al. Binary image classification using genetic programming based on local binary patterns
JP2020107008A (en) Image processing system, and image processing program
Siebel et al. Learning defect classifiers for visual inspection images by neuro-evolution using weakly labelled training data
Merzougui et al. Image segmentation using isodata clustering with parameters estimated by evolutionary approach: application to quality control
JP7314711B2 (en) Image processing system and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7468088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150