JP2021051617A - Image processing system and image processing program - Google Patents
Image processing system and image processing program Download PDFInfo
- Publication number
- JP2021051617A JP2021051617A JP2019174850A JP2019174850A JP2021051617A JP 2021051617 A JP2021051617 A JP 2021051617A JP 2019174850 A JP2019174850 A JP 2019174850A JP 2019174850 A JP2019174850 A JP 2019174850A JP 2021051617 A JP2021051617 A JP 2021051617A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- evaluation value
- image processing
- individual information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 211
- 238000011156 evaluation Methods 0.000 claims abstract description 198
- 238000001514 detection method Methods 0.000 claims abstract description 186
- 238000000034 method Methods 0.000 claims abstract description 79
- 238000012795 verification Methods 0.000 claims abstract description 61
- 238000004364 calculation method Methods 0.000 claims abstract description 59
- 230000008569 process Effects 0.000 claims abstract description 39
- 108090000623 proteins and genes Proteins 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims abstract description 19
- 238000010353 genetic engineering Methods 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 12
- 238000007689 inspection Methods 0.000 claims description 12
- 238000005457 optimization Methods 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 6
- 238000003708 edge detection Methods 0.000 claims description 4
- 238000005192 partition Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000035772 mutation Effects 0.000 description 25
- 230000035945 sensitivity Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000004321 preservation Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000002068 genetic effect Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像から検出対象を見つけ出す画像処理技術に関し、特に画像処理を最適化する画像処理システムに関する。 The present invention relates to an image processing technique for finding a detection target from an image, and more particularly to an image processing system for optimizing image processing.
従来、画像から検出対象を見つけ出す画像処理技術において、入力画像に画像処理を行って得られた出力画像を教師画像と比較して評価値を計算することにより、画像処理を最適化することが行われている。
この最適化手法では、画像における検出領域と非検出領域の比率にもとづいて評価値が悪化する場合があること、教師画像を作成するために手間がかかること、及びコンピュータによる最適化のために人の過度な干渉が必要になることが問題となっていた。
Conventionally, in image processing technology for finding a detection target from an image, the image processing can be optimized by comparing the output image obtained by performing image processing on the input image with the teacher image and calculating the evaluation value. It has been.
In this optimization method, the evaluation value may deteriorate based on the ratio of the detected region to the undetected region in the image, it takes time to create a teacher image, and a person due to computer optimization. The problem was that excessive interference was required.
ここで、画像から検出対象を見つけ出す画像処理技術として、特許文献1に記載の方法を挙げることができる。
この方法では、遺伝的プログラミング(GP)による並列型画像フィルタ自動生成システムにサイズ依存型交叉を導入している。これにより、複数の実舗装画像からクラックが存在する画像をフィルタ構築の訓練データに選定採用することで、様々なタイプの画像からクラックの抽出用画像フィルタを自動的に構築し、これを用いて損傷レベルの評価が行われている。
Here, as an image processing technique for finding a detection target from an image, the method described in
In this method, size-dependent crossover is introduced into a parallel image filter automatic generation system by genetic programming (GP). As a result, by selecting and adopting an image with cracks from multiple actual pavement images as training data for filter construction, an image filter for extracting cracks is automatically constructed from various types of images, and this is used. Damage levels are being assessed.
また、このようないわゆる進化的計算を用いる技術として、特許文献2〜4に記載の進化的計算システムを挙げることができる。これらの進化的計算システムによれば、それぞれのシステムにおける処理のアルゴリズムの最適化を図ることが可能になっている。
Further, as a technique using such so-called evolutionary computation, the evolutionary computation system described in
しかしながら、これらの技術を用いても、入力画像に画像処理を行って得られた出力画像を教師画像と比較することによって画像処理を最適化する場合には、上述のように、検出対象領域の割合により評価値が悪化すること、教師画像の生成に手間がかかること、及び人の過度な干渉が必要になるという課題があった。
例えば、出力画像を教師画像と比較するために最小二乗法などを用いて各ピクセルに対して輝度の差で評価を行うと、検出対象物のサイズにもとづいて、同じ非検出の場合でも評価値に大きな相違が発生していた。
However, even if these techniques are used, when the image processing is optimized by comparing the output image obtained by performing image processing on the input image with the teacher image, as described above, the detection target region There are problems that the evaluation value deteriorates depending on the ratio, that it takes time and effort to generate a teacher image, and that excessive human interference is required.
For example, if the output image is evaluated by the difference in brightness for each pixel using the least squares method in order to compare it with the teacher image, the evaluation value is based on the size of the detection target even if the same non-detection is performed. There was a big difference in.
本発明者らは、このような検出対象物のサイズの評価値への影響が、画像処理の最適化の障害になっていると考え、検出領域(検出対象が存在している領域)の範囲を示す情報を教師情報として作成し、入力画像に画像処理を行って得られた出力情報とこの教師情報とを比較することによって、上記の課題を解消できることに想到した。
また、検出領域と非検出領域(検出対象が存在していない領域)の評価方法としてそれぞれに適する異なる方法を用いることで、検出性能を向上させることを可能とした。
さらに、進化的計算において、遺伝的ネットワークプログラミング(GNP)の手法を採用することにより、最適化の自由度を向上させることを可能にして、本発明を完成させた。
The present inventors consider that such an influence on the evaluation value of the size of the detection target is an obstacle to the optimization of image processing, and consider that the range of the detection region (the region where the detection target exists). It was conceived that the above problem can be solved by creating the information indicating the above as teacher information and comparing the output information obtained by performing image processing on the input image with this teacher information.
In addition, it is possible to improve the detection performance by using different methods suitable for each of the detection area and the non-detection area (the area where the detection target does not exist).
Furthermore, the present invention has been completed by making it possible to improve the degree of freedom of optimization by adopting the method of genetic network programming (GNP) in evolutionary computation.
すなわち、本発明は、画像から検出対象を見つけ出す画像処理技術において、画像処理をより最適化することが可能な画像処理システム、及び画像処理プログラムの提供を目的とする。 That is, an object of the present invention is to provide an image processing system and an image processing program capable of further optimizing image processing in an image processing technique for finding a detection target from an image.
上記目的を達成するため、本発明の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する画像処理システムであって、有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部と、複数の学習用画像と複数の検証用画像を記憶する画像記憶部と、前記学習用画像と前記検証用画像にそれぞれ対応付けられ、出力情報を評価するための、検出領域と非検出領域を区分する教師情報を記憶する教師情報記憶部と、前記個体情報にもとづいて前記学習用画像と前記検証用画像を処理し、前記出力情報を生成する画像処理部と、前記出力情報と前記教師情報を比較して前記個体情報の評価値を計算し、前記学習用画像を用いて計算した前記評価値にもとづき前記個体情報を順位付けする評価値計算部と、前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部とを備え、前記評価値計算部が、前記教師情報の前記検出領域と前記非検出領域につき異なる計算方法により、前記学習用画像と前記検証用画像の前記検出領域の評価値と前記非検出領域の評価値を計算し、これらの評価値にもとづき前記個体情報の評価値を計算する構成としてある。 In order to achieve the above object, the image processing system of the present invention optimizes image processing for detecting a detection target from an image by using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms. A processing system that stores a population storage unit that stores multiple individual information that defines the execution order of multiple functional units in a network that can include closed paths, and stores multiple learning images and multiple verification images. An image storage unit to be used, a teacher information storage unit that stores teacher information that separates a detection area and a non-detection area for evaluating output information, which is associated with the learning image and the verification image, respectively, and the above-mentioned. An image processing unit that processes the learning image and the verification image based on the individual information and generates the output information, compares the output information with the teacher information, and calculates an evaluation value of the individual information. The evaluation value calculation unit that ranks the individual information based on the evaluation value calculated using the learning image, and the individual group is selected or changed based on the ranking information of the individual information. The evaluation value calculation unit includes a genetic manipulation unit that updates the storage unit, and the evaluation value calculation unit uses different calculation methods for the detection region and the non-detection region of the teacher information to obtain the detection region of the learning image and the verification image. The evaluation value of the above and the evaluation value of the non-detection region are calculated, and the evaluation value of the individual information is calculated based on these evaluation values.
また、本発明の画像処理システムを、前記検出領域の評価値が点分布分析により計算される構成とすることが好ましい。
また、本発明の画像処理システムを、前記非検出領域の評価値が前記教師情報との輝度差により計算される構成とすることが好ましい。
Further, it is preferable that the image processing system of the present invention has a configuration in which the evaluation value of the detection region is calculated by point distribution analysis.
Further, it is preferable that the image processing system of the present invention has a configuration in which the evaluation value of the non-detection region is calculated based on the difference in brightness from the teacher information.
また、本発明の画像処理プログラムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する画像処理プログラムであって、コンピュータを、有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部、学習用画像と検証用画像を記憶する画像記憶部、前記学習用画像と前記検証用画像にそれぞれ対応付けられ、出力情報を評価するための、検出領域と非検出領域を区分する教師情報を記憶する教師情報記憶部、前記個体情報にもとづいて前記画像を処理し、前記出力情報を生成する画像処理部、前記出力情報と前記教師情報を比較して評価値を計算し、前記学習用画像を用いて計算した前記評価値にもとづき前記個体情報を順位付けする評価値計算部、及び、前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部として機能させ、前記評価値計算部に、前記教師情報の前記検出領域と前記非検出領域につき異なる計算方法により、前記学習用画像と前記検証用画像の前記検出領域の評価値と前記非検出領域の評価値を計算させ、これらの評価値にもとづき前記個体情報の評価値を計算させる構成としてある。 Further, the image processing program of the present invention is an image processing program that optimizes image processing for detecting a detection target from an image by using a genetic operation which is an optimization method that mathematically simulates the evolution of an organism. , A computer, a population storage unit that stores a plurality of individual information that defines an execution order of a plurality of functional units in a network that may include a closed path, an image storage unit that stores a learning image and a verification image, the learning A teacher information storage unit that stores teacher information that separates a detection area and a non-detection area for evaluating output information, which is associated with the image for verification and the image for verification, and processes the image based on the individual information. Then, the image processing unit that generates the output information calculates the evaluation value by comparing the output information with the teacher information, and ranks the individual information based on the evaluation value calculated using the learning image. The evaluation value calculation unit and the evaluation value calculation unit are used to select or change the individual information based on the ranking information of the individual information to function as a gene manipulation unit for updating the population storage unit. The evaluation value of the detection area and the evaluation value of the non-detection area of the learning image and the verification image are calculated by different calculation methods for the detection area and the non-detection area of the teacher information, and these evaluation values are used. Originally, the structure is such that the evaluation value of the individual information is calculated.
本発明によれば、画像から検出対象を見つけ出す画像処理技術において、画像処理をより最適化することが可能な画像処理システム、及び画像処理プログラムの提供が可能となる。 According to the present invention, it is possible to provide an image processing system and an image processing program capable of further optimizing image processing in an image processing technique for finding a detection target from an image.
以下、本発明の画像処理システム、及び画像処理プログラムの実施形態について詳細に説明する。ただし、本発明は、以下の実施形態、及び後述する実施例の具体的な内容に限定されるものではない。 Hereinafter, an image processing system of the present invention and an embodiment of an image processing program will be described in detail. However, the present invention is not limited to the specific contents of the following embodiments and examples described later.
[第一実施形態]
まず、本発明の第一実施形態に係る画像処理システム、及び画像処理プログラムの第一実施形態について、図1〜図3を参照して説明する。図1は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図であり、図2は、同画像処理装置による処理手順を示すフローチャートである。また、図3は、同画像処理装置による処理手順における遺伝子操作の処理手順を示すフローチャートである。
[First Embodiment]
First, the image processing system according to the first embodiment of the present invention and the first embodiment of the image processing program will be described with reference to FIGS. 1 to 3. FIG. 1 is a block diagram showing a configuration of an image processing device corresponding to the image processing system of the present embodiment, and FIG. 2 is a flowchart showing a processing procedure by the image processing device. Further, FIG. 3 is a flowchart showing a processing procedure of gene manipulation in the processing procedure by the image processing apparatus.
本実施形態の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する。
具体的には、本実施形態の画像処理装置1は、図1に示すように、機能単位記憶部10、個体生成部11、個体群記憶部12、画像入力部13、画像記憶部14、教師情報入力部15、教師情報記憶部16、画像処理部17、出力情報記憶部18、評価値計算部19、評価結果記憶部20、及び遺伝子操作部21を備えている。
本実施形態の画像処理装置1におけるこれらの各構成は、図1に示すように一個の情報処理装置に全て備えることができる。また、これらの各構成は、複数の情報処理装置からなる画像処理システムの各装置に分散して備えてもよい。これは、後述する第二実施形態についても同様である。
The image processing system of the present embodiment optimizes image processing for detecting a detection target from an image by using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms.
Specifically, as shown in FIG. 1, the
As shown in FIG. 1, all of these configurations in the
機能単位記憶部10は、ある処理を実行する機能単位であるノード(遺伝子に相当する)をノード番号ごとに記憶する。本実施形態において、このノードとして、画像処理を行うための様々なものを用いることができ、後述する実施例では、図6〜図14に示すものを用いている。
また、これらのノードは、それぞれの処理の実行に用いるパラメータが存在する場合には、そのパラメータと共に機能単位記憶部10に記憶される。
The functional
Further, when a parameter used for executing each process exists, these nodes are stored in the functional
さらに、ノードとして、何ら処理を実行しないものを用いてもよく、複数の処理を実行する機能単位をまとめたものを1個のノード(ノードセット)として用いてもよい。ノードとして何ら処理を実行しないものを含めて用いることにより、例えば個体情報を生成するための初期ノード数の設定値が多すぎた場合などに、実質的なノード数を減らすことができる。 Further, as the node, a node that does not execute any processing may be used, or a node (node set) that is a collection of functional units that execute a plurality of processes may be used. By using the nodes including those that do not perform any processing, the actual number of nodes can be reduced, for example, when the set value of the initial number of nodes for generating individual information is too large.
本明細書において、「画像処理」には、ノイズ除去のための各種フィルタ処理や、輝度補正などの補正処理、2値化処理、エッジ検出処理、周波数フィルタ処理、四則演算などの演算処理、モフォロジ処理、検出対象判定処理、分岐処理等が含まれる。 In the present specification, "image processing" includes various filter processing for noise removal, correction processing such as luminance correction, binarization processing, edge detection processing, frequency filter processing, arithmetic processing such as four-rule calculation, and morphology. Processing, detection target determination processing, branching processing, etc. are included.
個体生成部11は、機能単位記憶部10に記憶されているノードを用いて、複数のノードの配列からなる個体情報を生成する。このとき、個体生成部11は、複数のノードにもとづいて、複数の個体情報をランダムに生成することができる。
またこのとき、個体生成部11は、個体情報において、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義することができる。このネットワークは、向きが付いたリンクにより構成される有向ネットワークであり、フィードバックが含まれることがある。また、このネットワークには、直線構造と木構造も含まれ得る。
The
At this time, the
このような個体情報を用いれば、直線構造や木構造のみからなる個体情報を用いる場合に比較して、より柔軟な表現力を持つネットワーク構造を含めて学習を行うことができるため、最適解(実用上の最適解,実用解)を導き出す上で優位性がある。すなわち、問題に対してどの構造体が最適解になるかは人が事前に把握することができないため、機械学習の前に構造体の条件を決定することは難しい。このため、個体情報として、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義するものを使用して、幅広い条件で最適解を探索することは、真の最適解を導き出せる可能性を高める上で有効と考えられる。 By using such individual information, it is possible to perform learning including a network structure having more flexible expressive power as compared with the case of using individual information consisting only of a linear structure or a tree structure. It has an advantage in deriving the optimum solution for practical use and the practical solution for practical use). That is, it is difficult for a person to know in advance which structure is the optimum solution for a problem, so it is difficult to determine the conditions of the structure before machine learning. Therefore, searching for the optimal solution under a wide range of conditions using the individual information that defines the execution order of multiple nodes in a network that can include a cycle may lead to the true optimal solution. It is considered to be effective in enhancing.
個体群記憶部12は、個体生成部11によって生成された複数の個体情報からなる個体群を記憶する。この個体群として、1つの世代又は複数の世代を個体群記憶部12に記憶させることができ、世代番号ごとに個体情報を個体群記憶部12に記憶させることができる。
後述する評価値計算部19は、世代ごとに個体情報を順位付けして、順位付け情報を評価結果記憶部20に記憶させることができる。
The
The evaluation
画像入力部13は、複数の学習用画像及び複数の検証用画像を画像処理装置1に入力して、画像識別情報ごとに画像記憶部14に記憶させる。
教師情報入力部15は、出力情報を評価するための教師情報を入力し、対応する画像識別情報ごとに教師情報記憶部16に記憶させる。
The
The teacher
本実施形態において、教師情報は、学習用画像と検証用画像にそれぞれ対応付けられ、出力情報を評価するための、検出領域と非検出領域を区分する情報であり、教師範囲と称する場合がある。
この教師情報としては、例えば、学習用画像と検証用画像において、検出対象が存在する部分を特定の色(後述の実施例では白)で取り囲み、検出対象が存在していない部分を他の色(後述の実施例では黒)で示すことにより、検出領域と非検出領域を区分する画像とすることができる。
検出対象が存在する部分を取り囲む検出領域の形状は、教師情報を容易に作成可能なものであることが好ましく、例えば矩形や円形、楕円形等とすることが好ましい。
In the present embodiment, the teacher information is associated with the learning image and the verification image, respectively, and is information for dividing the detection area and the non-detection area for evaluating the output information, and may be referred to as a teacher range. ..
As this teacher information, for example, in the learning image and the verification image, the part where the detection target exists is surrounded by a specific color (white in the examples described later), and the part where the detection target does not exist is another color. By showing (black in the examples described later), it is possible to obtain an image that separates the detection area and the non-detection area.
The shape of the detection region surrounding the portion where the detection target exists is preferably one in which teacher information can be easily created, and is preferably a rectangle, a circle, an ellipse, or the like.
ここで、本実施形態では、検出対象として、特に何らかの集合体である欠陥を想定している。このような欠陥としては、例えばフィルムのシワや、インクの飛びはね、紙やすりで擦ったような傷などが考えられる。
このような集合体の場合、教師情報として教師画像を作成するためには、非常に時間がかかるという問題があった。また、本発明者らは教師情報として教師個数や教師位置を用いる手法を既に開発しているが、検出対象が集合体の場合、その個数や位置を特定し難いという問題があった。
そこで、本発明者らは教師情報として教師範囲を用いることで、教師画像を作成する手間をさらに大きく低減することを可能とした。
Here, in the present embodiment, a defect that is some kind of aggregate is assumed as a detection target. Such defects include, for example, wrinkles in the film, splashes of ink, and scratches such as those rubbed with sandpaper.
In the case of such an aggregate, there is a problem that it takes a very long time to create a teacher image as teacher information. Further, the present inventors have already developed a method of using the number of teachers and the teacher position as teacher information, but there is a problem that it is difficult to specify the number and position when the detection target is an aggregate.
Therefore, the present inventors have made it possible to further reduce the time and effort required to create a teacher image by using the teacher range as the teacher information.
また、本実施形態では、学習用画像と検証用画像の教師情報(教師範囲)の作成において、検出されないことが良い対象については、検出領域を設定しないで教師情報(教師範囲)を作成することが好ましい。
検出されないことが良い対象は、概して以下の3種類が存在する。
(1)デザインとして存在する凹凸、模様、金型の空気抜きするための穴など、機能上必要な凹凸等
(2)欠陥でもあっても、仕様内に収まる傷(小さい、薄い傷など)、検査の後工程で除外可能なゴミ等
(3)フィルムなどが寄れる結果、それ自体に問題がないが、画像にハレーションが映り込んだもの
Further, in the present embodiment, in the creation of the teacher information (teacher range) of the learning image and the verification image, the teacher information (teacher range) is created without setting the detection area for the target that should not be detected. Is preferable.
There are generally the following three types of objects that should not be detected.
(1) Unevenness, pattern, holes for bleeding air from the mold, etc. that exist as a design, etc. (2) Even if it is a defect, scratches (small, thin scratches, etc.) that fit within the specifications, inspection Dust that can be excluded in the subsequent process (3) As a result of the film etc. coming close, there is no problem in itself, but halation is reflected in the image
なお、教師情報を画像にする場合、最小二乗法による評価では、検出対象物の大きさに評価値が影響を強く受けるため、小さい検出対象がない場合よりも、大きい検出対象の形状が異なる方が、評価値が悪化し易くなる。
例えば、ある画像において三角形を検出対象とした場合に、サイズが10ピクセルの三角形が検出されなかったとする。
このとき、同じ画像におけるより大きい三角形の出力が教師画像のものよりも一回り小さくなったとすると、その差が10ピクセル以上であれば、10ピクセルの三角形が無いことより評価値が悪化することになる。このため、機械学習では小さい三角より大きい三角を教師画像に近づけた方が評価値が良くなる傾向になり、小さい三角形より大きい三角形を一致させるように進化が進み、局所解に陥り易い状態になる。
これに対して、本実施形態では検出対象の大きさが異なる画像につき、未検出の場合の誤差が同一になるため、局所解に陥り難くなっている。
When the teacher information is used as an image, the evaluation value is strongly affected by the size of the detection target in the evaluation by the least squares method, so the shape of the large detection target is different from that when there is no small detection target. However, the evaluation value tends to deteriorate.
For example, suppose that when a triangle is detected in a certain image, a triangle having a size of 10 pixels is not detected.
At this time, if the output of the larger triangle in the same image is one size smaller than that of the teacher image, if the difference is 10 pixels or more, the evaluation value will be worse than the absence of the 10 pixel triangle. Become. For this reason, in machine learning, the evaluation value tends to be better when a triangle larger than a small triangle is brought closer to the teacher image, evolution progresses so as to match a triangle larger than a small triangle, and it becomes easy to fall into a local solution. ..
On the other hand, in the present embodiment, for images having different sizes of detection targets, the error in the case of no detection is the same, so that it is difficult to fall into a local solution.
画像処理部17は、画像記憶部14から画像を入力すると共に、個体群記憶部12から個体情報を入力して、その個体情報にもとづき当該個体情報に含まれる複数のノードを順次実行する。なお、画像処理部17は、画像の入力処理、及び出力画像の保存処理を行うために、それぞれを実行するためのノードも実行する。
The
このとき、各ノードは、画像から得られる情報を用いて、それぞれの機能に対応する処理を実行する。また、各ノードは、その処理結果にもとづいて、処理結果に対応する次のノードを選択的に実行し得る。したがって、個体情報に含まれるノードであっても、画像処理において、必ずしも全てのノードが実行される訳ではない。勿論、個体情報における全てのノードが実行される場合はある。また、フィードバックが行われることによって、一つの個体情報において1つのみ定義されているノードが、複数回実行されることもあり得る。 At this time, each node executes the process corresponding to each function by using the information obtained from the image. Further, each node can selectively execute the next node corresponding to the processing result based on the processing result. Therefore, even if the nodes are included in the individual information, not all the nodes are necessarily executed in the image processing. Of course, all the nodes in the individual information may be executed. Further, by giving feedback, a node defined as only one in one individual information may be executed a plurality of times.
また、ノードの機能としては、上述したように、ノイズ除去のための各種フィルタ処理や、輝度補正などの補正処理、2値化処理、エッジ検出処理、周波数フィルタ処理、四則演算などの演算処理、モフォロジ処理、分岐処理等の狭義の画像処理がある。これらは、画像処理部17によって、主として、検出対象候補を見つけるための処理として行われる。
In addition, as described above, the node functions include various filter processing for noise removal, correction processing such as luminance correction, binarization processing, edge detection processing, frequency filter processing, and arithmetic processing such as four-rule calculation. There are image processing in a narrow sense such as morphology processing and branch processing. These are mainly performed by the
また、ノードの機能としての検出対象判定処理は、画像処理部17によって、画像における一定範囲の検出対象候補をラベリングしてその特徴量を計算し、閾値などにもとづいて、その特徴量を備えた検出対象候補が、正しい検出対象であるか否かを判定する処理として行われる。
なお、検出対象判定処理において、非検出対象候補をラベリングしてその特徴量を計算し、閾値などにもとづきその特徴量を備えていないことにより、検出対象でないことを判定する処理を行うこともできる。
Further, in the detection target determination process as a function of the node, the
In the detection target determination process, it is also possible to perform a process of labeling a non-detection target candidate, calculating its feature amount, and determining that it is not a detection target because the feature amount is not provided based on a threshold value or the like. ..
さらに、画像処理部17は、学習用画像と検証用画像ごとに出力情報としての画像などを作成して、出力情報記憶部18に記憶させることができる。
このとき、学習用画像と検証用画像について、検出対象が検出された場合は、検出対象が存在する領域を示す情報が付加された画像が作成され、検出対象が検出されない場合は、当該情報が付加されない画像が作成される。
そして、この出力情報を当該画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに出力情報記憶部18に記憶させることができる。
Further, the
At this time, for the learning image and the verification image, if the detection target is detected, an image with information indicating the area where the detection target exists is added, and if the detection target is not detected, the information is added. An image that is not added is created.
Then, this output information can be stored in the output
なお、学習用画像と検証用画像において検出対象が存在する場合に、その範囲を示す情報を付加した画像などを生成する機能を評価値計算部19に行わせることもできる。すなわち、画像処理部17により画像処理を行った後、評価値計算部19が検出対象の範囲を示す情報を付加した画像を生成して出力情報記憶部18に記憶させ、これを用いて評価値を計算する構成とすることも可能である。
When a detection target exists in the learning image and the verification image, the evaluation
評価値計算部19は、出力情報記憶部18から出力情報を入力すると共に、教師情報記憶部16からその出力情報に対応する画像識別情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を当該画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに評価結果記憶部20に記憶させることができる。
The evaluation
Then, the evaluation value is calculated by comparing the output information and the teacher information, and the obtained evaluation value is stored in the evaluation
このとき、評価値計算部19は、教師情報の検出領域と非検出領域につき異なる計算方法により、学習用画像と検証用画像の検出領域の評価値と非検出領域の評価値を計算する。また、学習用画像を用いて計算した該評価値にもとづき個体情報の評価値を計算する。具体的には、検出領域の評価値と非検出領域の評価値を合算することなどによって、個体情報の評価値を算出することができる。
またこのとき、評価値計算部19は、検出領域の評価値を、点分布分析により計算することが好ましい。
At this time, the evaluation
At this time, it is preferable that the evaluation
ここで、本実施形態では、進化的計算により検出領域内の検出状況の良し悪しを把握する必要があるところ、検出対象が何らかの集合体である場合、検出領域内において平均的に反応する指標が良いと考えられたことから、点分布分析を採用した。
本実施形態において、点分布分析としては、K関数法、最近隣距離、区画法の少なくともいずれかの手法を使用することが好ましい。
Here, in the present embodiment, it is necessary to grasp the quality of the detection status in the detection region by evolutionary computation, but when the detection target is some kind of aggregate, the index that reacts on average in the detection region is Since it was considered good, point distribution analysis was adopted.
In the present embodiment, it is preferable to use at least one of the K-function method, the nearest neighbor distance, and the partition method as the point distribution analysis.
またこのとき、評価値計算部19は、非検出領域の評価値を、非検出領域と教師情報との輝度差などにより計算することが好ましい。
ここで、非検出領域には検出対象が何も存在していないことが前提であるが、例えば、非検出領域にノイズや、非検出対象ではあるが特徴のある物体が写っていた場合、これらが誤検出されることが考えられる。このため、非検出領域において検出対象を検出されないことを評価するために、非検出領域について評価値を計算する構成としている。
なお、「検出されない」とは、出力情報と教師情報の非検出領域の輝度差が0(最小二乗誤差=0)の場合を意味する。すなわち、0<非検出領域の最小二乗誤差の場合は何かが検出されたと分かり、0であれば検出されていないことが分かる。
At this time, it is preferable that the evaluation
Here, it is premised that there is no detection target in the non-detection area. For example, when noise or an object that is a non-detection target but is characteristic is shown in the non-detection area, these May be falsely detected. Therefore, in order to evaluate that the detection target is not detected in the non-detection area, the evaluation value is calculated for the non-detection area.
Note that "not detected" means a case where the brightness difference between the output information and the teacher information in the non-detection region is 0 (least squares error = 0). That is, if 0 <the least squares error of the non-detection region, it is known that something has been detected, and if it is 0, it is not detected.
評価値計算部19による評価値の計算は、具体的には、例えば以下の式を用いて好適に行うことが可能である。
yM(i):検出領域を分割した各領域において検出有りとして反応したピクセル数
M:分割数
a:全検出領域内で検出有りとして反応したピクセル数
w:重み係数
なお、検出領域において何も反応がない場合(検出されない場合)、期待値μは0となり数式では発散するが、この場合はプログラム上で発散を抑制して評価値を意図的に悪い値にすることなどにより処理することが可能である。
Specifically, the evaluation value calculation by the evaluation
また、評価値計算部19は、個体群記憶部12に記憶されている全ての個体情報(又は1世代分の個体情報)につき評価値を計算し終えて評価結果記憶部20に記憶させた場合などに、これらの評価値にもとづき個体情報を順位付け(ランキング)して、得られた順位付け情報を評価結果記憶部20に記憶させることができる。
Further, when the evaluation
さらに、評価値計算部19は、画像処理部17による画像処理を終了するか否かを判定するための終了判定を行うことができる。終了判定は、終了条件を満たすか否かにもとづき行うことができ、終了条件を満たす場合、画像処理部17による画像の処理を終了させて、画像処理装置1による処理を終了させることができる。そして、評価結果記憶部20に記憶された最も評価値の高い個体情報が、画像処理を行うための最適化された個体情報として得られる。
Further, the evaluation
終了条件としては、予め設定した全ての世代の個体群について画像処理を完了した場合や、一定の世代数以上で進化が発生していない場合などを挙げることができる。
進化が発生していない場合とは、評価値が、比較対象の時点よりも高くなっていない場合である。
なお、評価値計算部19からこの終了判定の機能を分離して、本実施形態の画像処理装置1において終了判定を行うための終了判定部を備えてもよい。
Examples of the termination condition include the case where image processing is completed for a preset population of all generations, and the case where evolution has not occurred in a certain number of generations or more.
The case where evolution has not occurred is the case where the evaluation value is not higher than the time point of comparison.
The end determination function may be separated from the evaluation
遺伝子操作部21は、評価結果記憶部20における個体情報の順位付け情報にもとづいて、個体情報の選択又は変更を行って、個体群記憶部12を更新する。
具体的には、遺伝子操作部21は、評価値が高い個体情報を次世代に残すエリート個体保存部と、評価値にもとづいて、一定の確率で個体情報を次世代に残す個体選択部と、2つの個体情報の一部を相互に交換する交叉部と、選択された1つの個体情報の一部又は全部やノードのパラメータをランダムに書き換える突然変異部とを有するものとすることができる。
The
Specifically, the
エリート個体保存部は、各世代の個体群において、一番評価値の良い個体情報などを、無条件で次世代に残す処理を行うことができる。
個体選択部は、各世代の個体群において、評価値の順位の高い個体情報を高い確率で選択して、次世代に残す処理を行うことができる。
The elite individual preservation unit can unconditionally leave the individual information with the best evaluation value in the population of each generation to the next generation.
The individual selection unit can select individual information having a high evaluation value in the population of each generation with a high probability and leave it to the next generation.
交叉部は、交叉処理として、複数の個体情報の各ノードの配列における同一(ノード番号)の並びについて、ある確率で入れ替える1様交叉を行うことができる。また、交叉部は、交叉処理として、各ノードの配列における同一の並びの1点を境として、一方の配列を相互に入れ替える1点交叉や、同一の並びの複数点を境として配列を相互に入れ替える複数点交叉を行うこともできる。交叉部は、このような交叉処理を、個体選択部により選択された個体情報に対して行うことができる。 As a crossing process, the crossing portion can perform one-way crossing in which the same (node number) arrangement in the array of each node of a plurality of individual information is replaced with a certain probability. In addition, as a crossing process, the crossing part is a one-point crossing in which one point in the same sequence is used as a boundary in the array of each node and one of the sequences is exchanged with each other, or an array is mutually bounded by a plurality of points in the same row. It is also possible to perform multi-point crossing to be replaced. The crossing section can perform such crossing processing on the individual information selected by the individual selection section.
突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、個体情報ごとに一定の確率でその個体情報の一部を書き換えたり、その個体情報の全てを書き換えることができる。突然変異部は、このような突然変異処理を、個体選択部により選択された個体情報に対して行うことができる。また、突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、新しい個体情報を生成することもできる。さらに、突然変異部に、突然変異処理として、選択された親個体情報のノードのパラメータの一部又は全部をランダムに書き換えることなどによって、パラメータ変異を行わせることもできる。
As a mutation process, the mutation unit rewrites a part of the individual information or rewrites all of the individual information with a certain probability for each individual information using the node stored in the functional
なお、同じ個体情報にもとづいて生成された同系列個体が増えると、多様性が失われて進化が袋小路(数学的に局所解に陥った状態)に入ってしまう。一方、同系列以外の個体を増やしすぎると、ランダム探索に近づき、効率的な進化が行われない。
そこで、学習初期では多様性を持たせるために、同系列以外の個体を増やすように突然変異部による処理を行い、学習中期では効率的な進化を実施するために、個体選択部により同系列を増やすことが好ましい。また、進化が止まった場合には、再度多様性を持たせるために突然変異部により同系列以外を増やすことなどを好適に行うことができる。
If the number of individuals of the same series generated based on the same individual information increases, diversity will be lost and evolution will enter a dead end (a state in which it has fallen into a mathematically local solution). On the other hand, if the number of individuals other than the same series is increased too much, it approaches a random search and efficient evolution is not performed.
Therefore, in order to have diversity in the early stage of learning, processing by the mutation part is performed so as to increase the number of individuals other than the same series, and in the middle stage of learning, the same series is processed by the individual selection part in order to carry out efficient evolution. It is preferable to increase it. Further, when the evolution is stopped, it is possible to preferably increase the number of mutations other than the same series by the mutation site in order to give diversity again.
そして、遺伝子操作部21は、新たな世代の個体群を生成して、個体群記憶部12に記憶させる。このとき、遺伝子操作部21は、前の世代の個体群を上書きすることにより、個体群記憶部12を更新することができる。また、複数世代の個体群を世代ごとに記憶させることにより、個体群記憶部12を更新することもできる。
Then, the
ここで、本実施形態で用いる学習用画像と検証用画像について、詳細に説明する。本実施形態では、学習用画像と検証用画像に2分割するホールドアウト法を使用している。
本実施形態において、学習用画像は、全個体情報(画像処理アルゴリズム)にて処理して出力情報を得るため、またその出力情報と教師情報を比較して評価値を計算するため、及び評価値を用いて個体の順位付けを実施するために用いることができる。
また、検証用画像は、一番良い個体情報(画像処理アルゴリズム)にて処理して出力情報を得るため、またその出力情報と教師情報を比較して評価値を計算するため、及びその評価値を用いて解析モデルの妥当性や過学習が発していなかなどを検証するために用いることができる。
なお、検証用画像は、人が結果を分析するために使用するため、基本的に進化的計算に影響は及ぼさないが、終了判定に検証用画像の評価値を用いる場合、例えば検証用画像の評価値が閾値に達した場合に終了する場合や学習用画像と検証用画像の評価値に大きな差が発生した場合に早期終了される場合、進化的計算に影響は及ぼすことになる。
Here, the learning image and the verification image used in the present embodiment will be described in detail. In this embodiment, a holdout method is used in which the image for learning and the image for verification are divided into two.
In the present embodiment, the learning image is processed by all individual information (image processing algorithm) to obtain output information, and the output information is compared with the teacher information to calculate the evaluation value, and the evaluation value. Can be used to perform individual ranking using.
In addition, the verification image is processed by the best individual information (image processing algorithm) to obtain output information, and the evaluation value is calculated by comparing the output information with the teacher information, and the evaluation value. Can be used to verify the validity of the analysis model and whether over-learning has occurred.
Since the verification image is used by a person to analyze the result, it basically does not affect the evolutionary computation, but when the evaluation value of the verification image is used for the end judgment, for example, the verification image Evolutionary computation will be affected if it ends when the evaluation value reaches the threshold, or if it ends early when there is a large difference between the evaluation values of the learning image and the verification image.
検証用画像につき、一番良い個体情報にて処理して出力情報を得る場合、1世代ごとに実施して、各世代における一番良い個体情報にて行うことができる。また、設定世代ごと(例えば10世代ごと)に実施して、一番良い個体情報にて行うこともできる。さらに、学習用画像を用いた評価値が改善されたタイミングや最終的に得られた個体情報(進化的計算終了後:最終世代)にて行うことなどもできる。このように、検証用画像を処理するタイミングは任意に設定することが可能である。
なお、後述する実施例では、学習用画像を用いた評価値が改善されたタイミングで、対応する個体情報にて処理して検証用画像についての出力情報を得ている。
When the verification image is processed with the best individual information to obtain the output information, it can be performed for each generation and the best individual information in each generation can be used. It can also be carried out for each set generation (for example, every 10 generations) with the best individual information. Furthermore, it can be performed at the timing when the evaluation value using the learning image is improved or at the finally obtained individual information (after the evolutionary calculation is completed: the final generation). In this way, the timing for processing the verification image can be arbitrarily set.
In the examples described later, when the evaluation value using the learning image is improved, the corresponding individual information is processed to obtain the output information of the verification image.
次に、本実施形態の画像処理装置による処理手順について、図2及び図3を参照して説明する。
まず、画像処理装置1における画像入力部13が、画像を入力する(ステップ10)。また、教師情報入力部15が、教師情報として教師範囲を入力する(ステップ11)。この教師範囲としては、例えば、検出領域と非検出領域の区分を示す画像を用いることができる。そして、個体生成部11によって、初期個体群が生成される(ステップ12)。
Next, the processing procedure by the image processing apparatus of this embodiment will be described with reference to FIGS. 2 and 3.
First, the
このとき、個体生成部11は、機能単位記憶部10からノードをランダムに選択して配列することにより個体情報を生成して、個体情報の識別情報ごとに個体群記憶部12に記憶させることができる。また、個体生成部11は、複数の個体情報からなる個体群を一つの世代として、世代番号ごとに複数の世代の個体群を個体群記憶部12に記憶させることもできる。
At this time, the
次に、画像処理部17は、個体群記憶部12における個体群の世代ごとに、個体群における全ての個体情報について画像処理を実行する(ステップ13、14、15)。
このとき、画像処理部17は、学習用画像と検証用画像ごとに出力情報としての画像などを作成して、出力情報記憶部18に記憶させることができる。またこのとき、画像処理部17は、学習用画像と検証用画像において検出対象が存在する場合、検出対象が存在する領域を示す情報を付加した画像を作成して、出力情報記憶部18に記憶させることができる。なお、学習用画像と検証用画像の処理タイミングは、前述のとおり、相違するが、便宜上まとめて記載している。
Next, the
At this time, the
次に、評価値計算部19は、個体情報ごとに、出力情報と教師情報を比較して、評価値を計算する(ステップ16)。
このとき、評価値計算部19による評価値の計算において、検出領域の評価値を、区画法などの点分布分析により計算する。また、非検出領域の評価値を、非検出領域と教師情報との輝度差などにより計算する。そして、検出領域の評価値と非検出領域の評価値を合算して、個体情報の評価値を計算する。
また、評価値計算部19は、得られた評価値を評価結果記憶部20に個体情報ごとに記憶させる。
そして、当該世代の全ての個体情報について、画像の処理から評価値の計算及び記憶までの処理を繰り返し実行する。
Next, the evaluation
At this time, in the calculation of the evaluation value by the evaluation
Further, the evaluation
Then, for all the individual information of the relevant generation, the processing from the image processing to the calculation and storage of the evaluation value is repeatedly executed.
次に、評価値計算部19は、評価結果記憶部20に記憶されている評価値にもとづいて、個体情報の順位付けを行う(ステップ17)。
また、評価値計算部19は、終了条件が満たされているか否かの判定処理を行う(ステップ18)。終了条件が満たされている場合、画像処理装置1による処理を終了する。
Next, the evaluation
In addition, the evaluation
終了条件が満たされていない場合、遺伝子操作部21は、遺伝子操作処理を実行する(ステップ19)。
具体的には、図3に示すように、遺伝子操作部21におけるエリート個体保存部は、最も評価値の高い個体情報を次世代の個体群の個体情報として選択する(ステップ20)。
また、遺伝子操作部21における個体選択部は、評価値の順位の高い個体情報ほど高い確率で次世代の個体群の個体情報として選択する(ステップ21)。
If the termination condition is not satisfied, the
Specifically, as shown in FIG. 3, the elite individual preservation unit in the
Further, the individual selection unit in the
さらに、遺伝子操作部21における交叉部は、個体選択部により選択された個体情報に対して、交叉処理を実行して、新たな個体情報を生成する(ステップ22)。
また、遺伝子操作部21における突然変異部は、個体選択部により選択された個体情報にもとづいて、またはこれらの個体情報を用いることなく、突然変異処理等を行い、新たな個体情報を生成する(ステップ23)。
なお、エリート個体保存部、個体選択部、交叉部、突然変異部による各処理の順序を、各処理を実行可能な順序の範囲で入れ替えて実行してもよい。
Further, the crossing portion in the
In addition, the mutation unit in the
In addition, the order of each process by the elite individual preservation unit, the individual selection unit, the cross section, and the mutation unit may be exchanged within the range of the order in which each process can be executed.
このような本実施形態の画像処理装置によれば、画像から検出対象を見つけ出す画像処理技術において、検出領域の範囲を示す情報を教師情報として用いることで、検出対象領域の割合により評価値が悪化する問題を解消することができる。また、従来、教師画像の生成に手間がかかっていた問題や人の過度な干渉が必要になっていた問題を解消することが可能となる。さらに、検出領域と非検出領域の評価方法としてそれぞれに適する異なる方法を用いることで、検出性能を向上させることも可能となっている。 According to the image processing apparatus of the present embodiment, in the image processing technique for finding the detection target from the image, the evaluation value deteriorates depending on the ratio of the detection target area by using the information indicating the range of the detection area as the teacher information. Can solve the problem. In addition, it is possible to solve the problem that it has been troublesome to generate a teacher image and the problem that excessive human interference has been required in the past. Further, it is possible to improve the detection performance by using different methods suitable for each of the detection region and the non-detection region.
[第二実施形態]
次に、本発明の第二実施形態に係る画像処理システム、及び画像処理プログラムについて、図4及び図5を参照して説明する。図4は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図であり、図5は、同画像処理装置による処理手順を示すフローチャートである。
[Second Embodiment]
Next, the image processing system and the image processing program according to the second embodiment of the present invention will be described with reference to FIGS. 4 and 5. FIG. 4 is a block diagram showing a configuration of an image processing device corresponding to the image processing system of the present embodiment, and FIG. 5 is a flowchart showing a processing procedure by the image processing device.
本実施形態の画像処理装置1aは、図4に示すように、機能単位記憶部10a、個体生成部11a、個体群記憶部12a、画像入力部13a、画像記憶部14a、教師情報入力部15a、教師情報記憶部16a、画像処理部17a、出力情報記憶部18a、評価値計算部19a、評価結果記憶部20a、及び遺伝子操作部21aを備えている。また、個体群記憶部12aは、親個体群記憶部121aと子個体群記憶部122aを備えている。
As shown in FIG. 4, the image processing apparatus 1a of the present embodiment includes a functional
本実施形態の画像処理装置1aにおける機能単位記憶部10a、画像入力部13a、画像記憶部14a、教師情報入力部15a、教師情報記憶部16a、出力情報記憶部18a、及び評価結果記憶部20aは、第一実施形態と同様のものとすることができる。また、本実施形態の画像処理装置1aにおけるその他の構成についても、以下に説明する点を除いて、第一実施形態と同様のものとすることができる。
The functional
個体生成部11aは、機能単位記憶部10aに記憶されているノードを用いて、複数のノードの配列からなる個体情報を生成する。このとき、個体生成部11aは、第一実施形態と同様に、個体情報において、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義することができる。
また、本実施形態における個体生成部11aは、個体情報として、複数の親個体情報をランダムに生成し、これら親個体情報からなる初期の親個体群を親個体群記憶部121aに記憶させることができる。
The
Further, the
遺伝子操作部21aは、親個体群記憶部121aにおける親個体情報に対して遺伝子操作を実行する。
具体的には、まず、親個体群記憶部121aにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。
The
Specifically, first, parent individual information for generating child individual information is randomly selected from the parent population in the parent
遺伝子操作部21aにおけるエリート個体保存部は、選択された親個体情報と同一の子個体情報からなる子個体群を子個体群記憶部122aに記憶させることができる。
そして、遺伝子操作部21aにおける交叉部は、選択された親個体情報に対して交叉処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122aに記憶させることができる。
また、遺伝子操作部21aにおける突然変異部は、機能単位記憶部10aに記憶されているノードを用いて、選択された親個体情報に対して突然変異処理を実行して、一定の確率で親個体情報の一部を書き換えたり、その全てを書き換えることによって得られた子個体情報からなる子個体群を子個体群記憶部122aに記憶させることができる。また、突然変異部は、突然変異処理として、機能単位記憶部10aに記憶されているノードを用いて、新しい個体情報を生成することもできる。さらに、突然変異部に、突然変異処理として、選択された親個体情報のノードのパラメータの一部又は全部をランダムに書き換えることなどによって、パラメータ変異を行わせることもできる。
The elite individual preservation unit in the
Then, the crossing portion in the
Further, the mutation unit in the
さらに、遺伝子操作部21aは、評価結果記憶部20aにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群からランダムに選択された上記の親個体情報と入れ替えることなどによって、親個体群記憶部121aにおける親個体情報を更新することができる。
Further, the
画像処理部17aは、画像記憶部14aから画像を入力すると共に、子個体群記憶部122aから子個体情報を入力して、その子個体情報にもとづき当該子個体情報に含まれる複数のノードを順次実行する。そして、画像処理部17aは、学習用画像と検証用画像ごとに出力情報としての画像などを作成し、この出力情報を当該画像の画像識別情報ごとで、かつ子個体情報の識別情報ごとに出力情報記憶部18aに記憶させることができる。
The
評価値計算部19aは、出力情報記憶部18aから出力情報を入力すると共に、教師情報記憶部16aからその出力情報に対応する画像識別情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を当該画像の画像識別情報ごとで、かつ子個体情報の識別情報ごとに評価結果記憶部20aに記憶させることができる。
The evaluation
Then, the evaluation value is calculated by comparing the output information and the teacher information, and the obtained evaluation value is stored in the evaluation
このとき、評価値計算部19aは、教師情報の検出領域と非検出領域につき異なる計算方法により、学習用画像と検証用画像の検出領域の評価値と非検出領域の評価値を計算する。また、学習用画像を用いて計算した該評価値にもとづき個体情報の評価値を計算する。具体的には、検出領域の評価値と非検出領域の評価値を合算することなどによって、個体情報の評価値を算出することができる。
またこのとき、評価値計算部19aは、検出領域の評価値を、点分布分析により計算することが好ましく、非検出領域の評価値を、非検出領域と教師情報との輝度差などにより計算することが好ましい。
At this time, the evaluation
At this time, the evaluation
また、評価値計算部19aは、個体群記憶部12aにおける子個体群記憶部122aに記憶されている全ての子個体情報(又は1世代分の子個体情報)につき評価値を計算し終えて評価結果記憶部20aに記憶させた場合などに、これらの評価値にもとづき子個体情報を順位付けして、得られた順位付け情報を評価結果記憶部20aに記憶させることができる。
さらに、評価値計算部19aは、画像処理部17aによる画像処理を終了するか否かを判定するための終了判定を行うことができる。
Further, the evaluation
Further, the evaluation
次に、本実施形態の画像処理装置の処理手順について、図5を参照して説明する。
まず、画像処理装置1aにおける画像入力部13aが、画像を入力する(ステップ30)。また、教師情報入力部15aが、教師情報としての教師範囲を入力する(ステップ31)この教師範囲としては、例えば、検出領域と非検出領域の区分を示す画像を用いることができる。そして、個体生成部11aによって、初期の親個体群が生成される(ステップ32)。
Next, the processing procedure of the image processing apparatus of the present embodiment will be described with reference to FIG.
First, the
このとき、個体生成部11aは、機能単位記憶部10aからノードをランダムに選択して配列することにより親個体情報を生成して、親個体情報の識別情報ごとに個体群記憶部12aにおける親個体群記憶部121aに記憶させることができる。この親個体群記憶部121aにおける親個体群は、後述する親個体群の更新処理によって更新され、設定された世代について以下の処理が繰り返し行われる(ステップ33)。
At this time, the
遺伝子操作部21aは、親個体群記憶部121aにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。(ステップ34)。そして、選択された親個体情報に対して遺伝子操作を実行する(ステップ35)。なお、ステップ34の親個体情報の選択を、ステップ35の遺伝子操作の一部として、実行してもよい。
The
すなわち、遺伝子操作部21aは、ランダムに選択された親個体情報に対して交叉処理や突然変異処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122aに記憶させる。
That is, the
次に、画像処理部17aは、子個体群記憶部122aにおける全ての子個体情報について画像の処理を実行する(ステップ36、37)。
このとき、画像処理部17aは、子個体情報ごとに出力情報としての画像などを作成して、力情報記憶部18aに記憶させることができる。またこのとき、画像処理部17aは、学習用画像と検証用画像において検出対象が存在する場合、検出対象が存在する領域を示す情報を付加した画像を作成して、出力情報記憶部18aに記憶させることができる。
Next, the
At this time, the
次に、評価値計算部19aは、子個体情報ごとに、出力情報と教師情報を比較して評価値を計算し(ステップ38)、得られた評価値を評価結果記憶部20aに子個体情報ごとに記憶させる。
このとき、評価値計算部19aによる評価値の計算において、検出領域の評価値を、区画法などの点分布分析により計算する。また、非検出領域の評価値を、非検出領域と教師情報との輝度差などにより計算し、検出領域の評価値と非検出領域の評価値を合算して、個体情報の評価値を計算する。
そして、子個体群記憶部122aにおける全ての子個体情報について、画像の処理から評価値の計算及び記憶までの処理を繰り返し実行する。
Next, the evaluation
At this time, in the calculation of the evaluation value by the evaluation
Then, for all the child individual information in the child
次に、評価値計算部19aは、評価結果記憶部20aに記憶されている評価値にもとづいて、子個体情報の順位付けを行う(ステップ39)。
そして、遺伝子操作部21aは、評価結果記憶部20aにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群からランダムに選択された上記の親個体情報と入れ替えることにより、個体群記憶部12aにおける親個体群記憶部121aの親個体情報を更新する(ステップ40)。
Next, the evaluation
Then, the
また、評価値計算部19aは、終了条件が満たされているか否かの判定処理を行い(ステップ41)、終了条件が満たされている場合、画像処理装置1aによる処理を終了する。
Further, the evaluation
画像処理装置1aによる処理を終了させる場合、評価値計算部19aは、最終世代における全ての個体情報につき評価値を計算し、評価値にもとづき個体情報を順位付けして、得られた順位付け情報を評価結果記憶部20aに記憶させることができる。
When the processing by the image processing device 1a is terminated, the evaluation
このような本実施形態の画像処理装置によれば、親個体群から親を選択して子個体情報を生成する時に遺伝子操作が実行されると共に、子個体情報を親個体群における親個体情報と入れ替えることで、親個体群を更新することができる。これにより、第一実施形態に比較して、進化の多様性をより保った状態で、最適な個体情報を探すことが可能となっている。 According to the image processing apparatus of the present embodiment as described above, genetic manipulation is executed when a parent is selected from the parent population and the child individual information is generated, and the child individual information is used as the parent individual information in the parent population. By swapping, the parent population can be updated. As a result, it is possible to search for the optimum individual information while maintaining the diversity of evolution as compared with the first embodiment.
上記実施形態の画像処理装置は、本発明の画像処理プログラムに制御されたコンピュータを用いて実現することができる。コンピュータのCPUは、画像処理プログラムにもとづいてコンピュータの各構成要素に指令を送り、画像処理装置の動作に必要となる所定の処理、例えば、個体生成処理、画像処理、評価値計算処理、遺伝子操作処理等を行わせる。このように、本発明の画像処理装置における各処理、動作は、プログラムとコンピュータとが協働した具体的手段により実現できるものである。 The image processing apparatus of the above embodiment can be realized by using a computer controlled by the image processing program of the present invention. The CPU of the computer sends a command to each component of the computer based on the image processing program, and predetermined processing required for the operation of the image processing apparatus, for example, individual generation processing, image processing, evaluation value calculation processing, genetic manipulation. Have them perform processing, etc. As described above, each process and operation in the image processing apparatus of the present invention can be realized by specific means in which the program and the computer cooperate.
プログラムは予めROM,RAM等の記録媒体に格納され、コンピュータに実装された記録媒体から当該コンピュータにプログラムを読み込ませて実行されるが、例えば通信回線を介してコンピュータに読み込ませることもできる。
また、プログラムを格納する記録媒体は、例えば半導体メモリ、磁気ディスク、光ディスク、その他任意のコンピュータで読取り可能な任意の記録手段により構成できる。
The program is stored in a recording medium such as ROM or RAM in advance, and the program is read by the computer from the recording medium mounted on the computer and executed. However, the program can also be read by the computer via a communication line, for example.
Further, the recording medium for storing the program can be configured by, for example, a semiconductor memory, a magnetic disk, an optical disk, or any other recording means that can be read by any computer.
以上説明したように、本発明の実施形態に係る画像処理システム、及び画像処理プログラムによれば、画像から検出対象を見つけ出す画像処理技術において画像処理をより最適化することが可能である。 As described above, according to the image processing system and the image processing program according to the embodiment of the present invention, it is possible to further optimize the image processing in the image processing technique for finding the detection target from the image.
以下、本発明の実施形態に係る画像処理装置を用いて、画像から検出対象を検出する画像処理を最適化した実験について、図6〜図22を用いて説明する。
実施例では、本発明の第二実施形態に係る画像処理装置を使用した。すなわち、教師情報として検出領域と非検出領域を区分する教師範囲を用いた。出力情報としては、検出対象が検出された場合、検出対象が存在する領域を示す情報が付加された画像が作成された。なお、検出対象が検出されない場合は、当該情報が付加されない画像が作成された。また、検出領域の評価値を点分布分析により計算し、非検出領域の評価値を教師情報との輝度差により計算し、これらを合算して評価値とした。検出領域内の分散は、区間法によるX2を求める式を用いて計算した。さらに、遺伝子操作を第二実施形態のとおり行った。
Hereinafter, an experiment in which image processing for detecting a detection target from an image is optimized using the image processing apparatus according to the embodiment of the present invention will be described with reference to FIGS. 6 to 22.
In the examples, the image processing apparatus according to the second embodiment of the present invention was used. That is, the teacher range that separates the detected area and the non-detected area was used as the teacher information. As output information, when a detection target was detected, an image was created to which information indicating an area where the detection target exists was added. If the detection target was not detected, an image to which the information was not added was created. In addition, the evaluation value of the detection area was calculated by point distribution analysis, the evaluation value of the non-detection area was calculated by the brightness difference from the teacher information, and these were added up to obtain the evaluation value. The variance within the detection region was calculated using the equation for obtaining X 2 by the interval method. Furthermore, the genetic manipulation was carried out according to the second embodiment.
具体的には、実施例では、評価値を以下の式を用いて算出した。
yM(i):検出領域を分割した各領域において検出有りとして反応したピクセル数
M:分割数
a:全検出領域内で検出有りとして反応したピクセル数
w:重み係数
Specifically, in the example, the evaluation value was calculated using the following formula.
一方、参考例では、本発明の第二実施形態に係る画像処理装置の一部を変更したものを使用した。具体的には、参考例では教師情報として検出対象を1ピクセルごとに詳細に描画した画像情報を用いた。出力情報としては、検出対象が検出された場合、検出対象を表示する画像が作成された。また、教師情報としての画像情報と出力情報をピクセルごとに比較して平均二乗誤差を算出し、これを評価値として評価結果記憶部に記憶させた。また、遺伝子操作は実施例と同様に行った。 On the other hand, in the reference example, a partially modified image processing apparatus according to the second embodiment of the present invention was used. Specifically, in the reference example, the image information in which the detection target is drawn in detail for each pixel is used as the teacher information. As output information, when a detection target is detected, an image displaying the detection target is created. Further, the image information as the teacher information and the output information were compared for each pixel to calculate the mean square error, which was stored in the evaluation result storage unit as an evaluation value. In addition, the genetic manipulation was performed in the same manner as in the examples.
参考例及び実施例の試験条件を図6に示す。
学習用画像と検証用画像として、サイズ64×64pixelのものをそれぞれ50枚ずつ準備した。
ノードとしては、入力ノードと出力ノードを各1ノードとし、個体情報を構成する処理ノードを10ノードとした。機能単位記憶部10aに記憶させて使用したノードを図7〜図15に示す。
The test conditions of the reference example and the example are shown in FIG.
As a learning image and a verification image, 50 images each having a size of 64 × 64 pixel were prepared.
As the nodes, the input node and the output node were set to 1 node each, and the processing nodes constituting the individual information were set to 10 nodes. The nodes stored and used in the functional
進化的計算は、進化の状態に拘わらず、世代数を5000世代として行った。親個体数を50個体、子個体数を62個体とした。子個体の内訳は、エリート保存によるものを2個体、一様交叉(変化率20%)によるものを20個体、突然変異(変化率15%)によるものを20個体、パラメータ変異(変化率10%)によるものを20個体である。
Evolutionary computation was performed assuming that the number of generations was 5000, regardless of the state of evolution. The number of parent individuals was 50, and the number of offspring was 62. The breakdown of the offspring is 2 individuals due to elite preservation, 20 individuals due to uniform crossover (change
学習用画像と検証用画像、及び教師情報は、図16に示すステップにより作成した。
なお、本実施例においては、学習用画像と検証用画像をプログラムで描画し、教師画像もプログラムで自動生成した。しかしながら、実際の検査場面においては、様々な欠陥について教師画像を自動で生成することは不可能であるため、教師画像は手作業で作成する必要がある。すなわち、参考例のように検査対象を1ピクセルごとに詳細に描画した画像を手作業で作成することを要するため非常に煩雑であり、従来は膨大な作業時間が必要であった。
The learning image, the verification image, and the teacher information were created by the steps shown in FIG.
In this embodiment, the learning image and the verification image were drawn by the program, and the teacher image was also automatically generated by the program. However, in an actual inspection scene, it is impossible to automatically generate a teacher image for various defects, so the teacher image needs to be created manually. That is, it is very complicated because it is necessary to manually create an image in which the inspection target is drawn in detail for each pixel as in the reference example, and a huge amount of work time has been required in the past.
まず、背景製作を行った(step1)。学習用画像と検証用画像については、各ピクセルに対して、輝度(128±25)をランダムに選択して描画した。参考例の教師画像と実施例の教師範囲については、黒塗りつぶしを行った。
次に、非検出対象の描画を行った(step2)。学習用画像と検証用画像については、画像中央に輝度(100〜120)、直径(22〜24pixel)、太さ(3〜5pixel)をランダムに選択し、非検出対象として輪を描いた。参考例の教師画像と実施例の教師範囲については、非検出対象物を描画しなかった。
First, the background was made (step1). For the training image and the verification image, the brightness (128 ± 25) was randomly selected and drawn for each pixel. The teacher image of the reference example and the teacher range of the example were blacked out.
Next, the non-detection target was drawn (step 2). For the learning image and the verification image, brightness (100 to 120), diameter (22 to 24 pixels), and thickness (3 to 5 pixels) were randomly selected in the center of the image, and a ring was drawn as a non-detection target. For the teacher image of the reference example and the teacher range of the example, the undetected object was not drawn.
次に、検出対象の描画を行った(step3)。学習用画像と検証用画像については、範囲(15〜25pixel、任意の位置)、数(15〜20個)、基準輝度(128±100)をランダムに選択し、各検出対象物について、直径(1〜3pixel)、基準輝度からの変化(0±25)をランダムに選択して、検出対象として範囲内に丸を描いた。参考例の教師画像については、検査対象と同じ形状の丸を白く塗りつぶした。実施例の教師範囲については、検出対象が存在する範囲を四角形状で白く塗りつぶした。 Next, the detection target was drawn (step 3). For the learning image and the verification image, the range (15 to 25 pixels, arbitrary position), number (15 to 20), and reference brightness (128 ± 100) are randomly selected, and the diameter (for each detection target) ( 1 to 3 pixels), the change from the reference brightness (0 ± 25) was randomly selected, and a circle was drawn within the range as the detection target. For the teacher image of the reference example, a circle with the same shape as the inspection target was painted white. Regarding the teacher range of the example, the range where the detection target exists was painted white in a square shape.
次に、ノイズを加える処理を行った(step4)。すなわち、学習用画像と検証用画像について、各ピクセルに対し、5%の確率で輝度(0〜50)をランダムに選択して元の輝度に足し合わせた。参考例の教師画像と実施例の教師範囲については、ノイズを加える処理は行わなかった。
さらに、ぼかしを加える処理を行った(step5)。すなわち、学習用画像と検証用画像について、ガウシアンフィルタ処理(カーネルサイズ3×3)を行った。参考例の教師画像と実施例の教師範囲については、ぼかしを加える処理は行わなかった。
このようにして作成した画像の一例を図16において示している。
Next, a process of adding noise was performed (step 4). That is, for the training image and the verification image, the brightness (0 to 50) was randomly selected with a probability of 5% for each pixel and added to the original brightness. No noise was added to the teacher image of the reference example and the teacher range of the example.
Further, a process of adding blur was performed (step 5). That is, the Gaussian filter processing (
An example of the image created in this way is shown in FIG.
評価値について、実施例と参考例では評価方法が異なるため、これらをそのまま比較することはできない。そこで、以下の式を用いて評価値の正規化を行った。
実施例と参考例を比較するために、次に示す2×2クロス表を使用した。なお、参考例においては、検出領域と非検出領域の区別はないが、実施例と比較するために、検査対象と同じ形状の丸を白く塗りつぶした領域を検出領域とし、それ以外の領域を非検出領域として、検出対象が見つかった画像数を集計した。 The following 2x2 cross table was used to compare the examples with the reference examples. In the reference example, there is no distinction between the detection area and the non-detection area, but for comparison with the example, the area in which the circle having the same shape as the inspection target is painted in white is used as the detection area, and the other areas are not. As the detection area, the number of images for which the detection target was found was totaled.
a:陽性の画像数(教師情報の検出領域において、検出対象が検出されたもの)
b:偽陽性の画像数(教師情報の非検出領域において、検出対象が検出されたもの)
c:偽陰性の画像数(教師情報の検出領域において、検出対象が検出されなかったもの)
d:陰性の画像数(教師情報の非検出領域において、検出対象が検出されなかったもの)
感度及び特異性は、1.0が最良値となる。
なお、本実施例では、学習用画像と検証用画像のそれぞれ50枚に対し、検出対象と非検出対象について比較しているため、a+b+c+d=100である。
a: Number of positive images (detection target detected in the detection area of teacher information)
b: Number of false positive images (detection target detected in the non-detection area of teacher information)
c: Number of false negative images (the detection target was not detected in the detection area of the teacher information)
d: Number of negative images (the detection target was not detected in the non-detection area of the teacher information)
The best value for sensitivity and specificity is 1.0.
In this embodiment, since the detection target and the non-detection target are compared for 50 images each of the learning image and the verification image, a + b + c + d = 100.
上記試験の結果として、参考例及び実施例における正規化された評価値の遷移を表すグラフを図17に示す。また、参考例により得られた個体情報の構造(画像処理アルゴリズム)を図18に、実施例により得られた個体情報の構造を図19に示す。
なお、これらの評価値は学習用画像にもとづくものである。検証用画像の評価値は計算を行っているが、参考例及び実施例の評価値の比較には用いていない。
As a result of the above test, a graph showing the transition of the normalized evaluation values in the reference example and the example is shown in FIG. Further, the structure of individual information (image processing algorithm) obtained by the reference example is shown in FIG. 18, and the structure of the individual information obtained by the example is shown in FIG.
It should be noted that these evaluation values are based on the learning image. Although the evaluation values of the verification images are calculated, they are not used for comparison of the evaluation values of the reference example and the example.
まず、参考例では、1000世代付近で急激に評価値が改善され、1300世代付近で進化が停滞した。図18に示す参考例の個体情報の構造を参照すると、参考例では1ピクセルごとに教師画像と比較して詳細な出力情報を得るための複雑なネットワークを生成している。これは、進化的計算において、次に進化する方向を多方面に考慮する必要があったためと推測される。 First, in the reference example, the evaluation value improved sharply around the 1000th generation, and the evolution stagnated around the 1300th generation. With reference to the structure of the individual information of the reference example shown in FIG. 18, in the reference example, a complicated network for obtaining detailed output information is generated for each pixel by comparing with the teacher image. It is presumed that this is because it was necessary to consider the direction of next evolution in various directions in evolutionary computation.
これに対して、実施例では、1000世代までに大きな停滞無く順調に評価値が改善されていることが分かる。図19に示す実施例の個体情報の構造を参照すると、実施例では非常にシンプルなアルゴリズムが生成されている。これは、進化する方向が少なく済んでいたことに起因すると推測される。また、シンプルなアルゴリズムになったのは、教師画像が範囲として大まかに与えられたため、参考例と異なり詳細に1ピクセルごとに教師画像と比較する必要が無く、進化的計算において、大まかに検出されれば良いと教師画像を通して教えてられたことに起因すると考えられる。 On the other hand, in the examples, it can be seen that the evaluation values have been steadily improved by the 1000th generation without major stagnation. With reference to the structure of the individual information of the example shown in FIG. 19, a very simple algorithm is generated in the example. It is presumed that this is due to the fact that the direction of evolution was small. Also, the simple algorithm is because the teacher image is roughly given as a range, so unlike the reference example, it is not necessary to compare it with the teacher image in detail for each pixel, and it is roughly detected in evolutionary computation. It is thought that this is due to the fact that it was taught through the teacher image that it should be done.
また、上記試験の結果として、参考例による学習結果と検証結果の感度・特異性を図20に、実施例による学習結果と検証結果の感度・特異性を図21に示す。さらに、参考例及び実施例による正解画像と不正解画像の例を図22に示す。
図20と図21に示される結果を比較すると、学習結果と検証結果共に参考例より実施例は良い性能を示した。また、参考例では学習結果と検証結果で感度、特異性共に大きな差が見て取れることから、過学習が発生していることが分かる。これに対して、実施例では学習結果と検証結果に大きな違いは無く、過学習が抑制されていることが分かる。
As a result of the above test, FIG. 20 shows the sensitivity / specificity of the learning result and the verification result according to the reference example, and FIG. 21 shows the sensitivity / specificity of the learning result and the verification result according to the example. Further, FIG. 22 shows an example of a correct answer image and an incorrect answer image according to the reference example and the example.
Comparing the results shown in FIGS. 20 and 21, the examples showed better performance than the reference examples in both the learning result and the verification result. In addition, in the reference example, a large difference in sensitivity and specificity can be seen between the learning result and the verification result, indicating that overfitting has occurred. On the other hand, in the examples, there is no big difference between the learning result and the verification result, and it can be seen that overfitting is suppressed.
また、図22を参照すると、参考例では検出対象を詳細に検出しようとしており、実施例では検出対象について特徴的な部分のみを検出していることが分かる。その理由は、前述したように、実施例では検出対象が大まかに検出されれば良いとして教師情報が与えられていることに起因し、これが進化的計算に反映されて、参考例との性能差を生んだと推測される。なお、参考例と実施例ともに非検出対象とした中央の輪は検出せず、背景のノイズについては誤検出があった。 Further, referring to FIG. 22, it can be seen that the reference example attempts to detect the detection target in detail, and the embodiment detects only a characteristic portion of the detection target. The reason is that, as described above, in the examples, the teacher information is given as if the detection target should be roughly detected, and this is reflected in the evolutionary computation, and the performance difference from the reference example. Is presumed to have given birth to. In both the reference example and the example, the central ring that was not detected was not detected, and the background noise was erroneously detected.
以上のとおり、本試験によって、簡単に教師情報を作成可能な実施例の画像処理装置が、参考例の画像処理装置よりも検出性能が良いことが分かった。また、実施例の画像処理装置によれば、教師情報を作成する手間を大幅に低減できることも明らかとなった。 As described above, it was found from this test that the image processing device of the example in which the teacher information can be easily created has better detection performance than the image processing device of the reference example. It was also clarified that the image processing apparatus of the embodiment can significantly reduce the time and effort required to create teacher information.
本発明は、以上の実施形態に限定されるものではなく、本発明の範囲内において、種々の変更実施が可能であることは言うまでもない。
例えば、画像処理装置における各構成を複数の情報処理装置に分散して持たせたり、ノードとして実施例で用いたもの以外のものを含めて使用したりすることができる。
また、上記の画像処理装置を画像検査用に用い、画像処理装置を、画像入力部が検査用の画像を入力し、最も評価値の高い個体情報にもとづき画像処理部によって検査用の画像を処理して得られた処理結果情報を記憶する処理結果記憶部を備えた構成とするなど適宜変更することが可能である。
It goes without saying that the present invention is not limited to the above embodiments, and various modifications can be made within the scope of the present invention.
For example, each configuration in the image processing device can be distributed to a plurality of information processing devices, or can be used as a node including a node other than the one used in the embodiment.
Further, the above image processing device is used for image inspection, the image input unit inputs an image for inspection, and the image processing unit processes the image for inspection based on the individual information having the highest evaluation value. It is possible to make appropriate changes such as a configuration including a processing result storage unit for storing the processing result information obtained in the above process.
本発明は、設備や製品などの画像データにもとづき検査などを行う場合であって、画像処理が最適化された画像検査用の情報処理装置を得るために、好適に利用することが可能である。 INDUSTRIAL APPLICABILITY The present invention is a case where inspection or the like is performed based on image data of equipment or a product, and can be suitably used for obtaining an information processing apparatus for image inspection with optimized image processing. ..
1,1a 画像処理装置
10,10a 機能単位記憶部
11,11a 個体生成部
12,12a 個体群記憶部
121a 親個体群記憶部
122a 子個体群記憶部
13,13a 画像入力部
14,14a 画像記憶部
15,15a 教師情報入力部
16,16a 教師情報記憶部
17,17a 画像判定部
18,18a 出力情報記憶部
19,19a 評価値計算部
20,20a 評価結果記憶部
21,21a 遺伝子操作部
1,1a
Claims (11)
有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部と、
複数の学習用画像と複数の検証用画像を記憶する画像記憶部と、
前記学習用画像と前記検証用画像にそれぞれ対応付けられ、出力情報を評価するための、検出領域と非検出領域を区分する教師情報を記憶する教師情報記憶部と、
前記個体情報にもとづいて前記学習用画像と前記検証用画像を処理し、前記出力情報を生成する画像処理部と、
前記出力情報と前記教師情報を比較して前記個体情報の評価値を計算し、前記学習用画像を用いて計算した前記評価値にもとづき前記個体情報を順位付けする評価値計算部と、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部と、を備え、
前記評価値計算部が、前記教師情報の前記検出領域と前記非検出領域につき異なる計算方法により、前記学習用画像と前記検証用画像の前記検出領域の評価値と前記非検出領域の評価値を計算し、これらの評価値にもとづき前記個体情報の評価値を計算する
ことを特徴とする画像処理システム。 It is an image processing system that optimizes image processing that detects the detection target from an image by using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living things.
A population storage unit that stores multiple individual information that defines the execution order of multiple functional units in a network that can include a cycle, and a population storage unit.
An image storage unit that stores a plurality of learning images and a plurality of verification images,
A teacher information storage unit that stores teacher information that separates a detection area and a non-detection area for evaluating output information, which is associated with the learning image and the verification image, respectively.
An image processing unit that processes the learning image and the verification image based on the individual information and generates the output information.
An evaluation value calculation unit that calculates the evaluation value of the individual information by comparing the output information with the teacher information and ranks the individual information based on the evaluation value calculated using the learning image.
A gene manipulation unit that updates the population storage unit by selecting or changing the individual information based on the ranking information of the individual information is provided.
The evaluation value calculation unit calculates the evaluation value of the detection region and the evaluation value of the non-detection region of the learning image and the verification image by different calculation methods for the detection region and the non-detection region of the teacher information. An image processing system characterized by calculating and calculating the evaluation value of the individual information based on these evaluation values.
前記評価値が高い個体情報を次世代に残すエリート保存部と、
前記評価値にもとづいて、一定の確率で個体情報を次世代に残す選択部と、
2つの個体情報の一部を相互に交換する交叉処理部と、
選択された1つの個体情報の一部又は全部をランダムに書き換える突然変異部と、を有する
ことを特徴とする請求項1〜6のいずれかに記載の画像処理システム。 The genetic manipulation unit
The elite storage unit that leaves individual information with high evaluation values to the next generation,
Based on the evaluation value, a selection unit that leaves individual information to the next generation with a certain probability,
A crossing processing unit that exchanges a part of two individual information with each other,
The image processing system according to any one of claims 1 to 6, further comprising a mutant portion that randomly rewrites a part or all of one selected individual information.
コンピュータを、
有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部、
学習用画像と検証用画像を記憶する画像記憶部、
前記学習用画像と前記検証用画像にそれぞれ対応付けられ、出力情報を評価するための、検出領域と非検出領域を区分する教師情報を記憶する教師情報記憶部、
前記個体情報にもとづいて前記画像を処理し、前記出力情報を生成する画像処理部、
前記出力情報と前記教師情報を比較して評価値を計算し、前記学習用画像を用いて計算した前記評価値にもとづき前記個体情報を順位付けする評価値計算部、及び、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部として機能させ、
前記評価値計算部に、前記教師情報の前記検出領域と前記非検出領域につき異なる計算方法により、前記学習用画像と前記検証用画像の前記検出領域の評価値と前記非検出領域の評価値を計算させ、これらの評価値にもとづき前記個体情報の評価値を計算させる
ことを実行させるための画像処理プログラム。 An image processing program that optimizes image processing to detect a detection target from an image using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms.
Computer,
A population storage unit that stores multiple individual information that defines the execution order of multiple functional units in a network that can include a cycle.
Image storage unit that stores learning images and verification images,
A teacher information storage unit that stores teacher information that separates a detection area and a non-detection area for evaluating output information, which is associated with the learning image and the verification image, respectively.
An image processing unit that processes the image based on the individual information and generates the output information.
An evaluation value calculation unit that calculates an evaluation value by comparing the output information with the teacher information and ranks the individual information based on the evaluation value calculated using the learning image, and an evaluation value calculation unit.
The individual information is selected or changed based on the ranking information of the individual information to function as a gene manipulation unit for updating the population storage unit.
The evaluation value calculation unit is provided with an evaluation value of the detection area and an evaluation value of the non-detection area of the learning image and the verification image by different calculation methods for the detection area and the non-detection area of the teacher information. An image processing program for calculating and calculating the evaluation value of the individual information based on these evaluation values.
The image processing program according to claim 9 or 10, wherein the evaluation value of the non-detection region is calculated based on the brightness difference from the teacher information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019174850A JP2021051617A (en) | 2019-09-26 | 2019-09-26 | Image processing system and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019174850A JP2021051617A (en) | 2019-09-26 | 2019-09-26 | Image processing system and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021051617A true JP2021051617A (en) | 2021-04-01 |
Family
ID=75156253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019174850A Pending JP2021051617A (en) | 2019-09-26 | 2019-09-26 | Image processing system and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021051617A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011014047A (en) * | 2009-07-03 | 2011-01-20 | Nikon Corp | Image processing apparatus, image processing method, and image processing program |
JP2014095961A (en) * | 2012-11-08 | 2014-05-22 | Hitachi High-Technologies Corp | Image analysis support apparatus and method |
JP2017182552A (en) * | 2016-03-31 | 2017-10-05 | 株式会社Screenホールディングス | Process flow generating system, process flow generating method, and program |
WO2019026104A1 (en) * | 2017-07-31 | 2019-02-07 | 富士通株式会社 | Information processing device, information processing program, and information processing method |
-
2019
- 2019-09-26 JP JP2019174850A patent/JP2021051617A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011014047A (en) * | 2009-07-03 | 2011-01-20 | Nikon Corp | Image processing apparatus, image processing method, and image processing program |
JP2014095961A (en) * | 2012-11-08 | 2014-05-22 | Hitachi High-Technologies Corp | Image analysis support apparatus and method |
JP2017182552A (en) * | 2016-03-31 | 2017-10-05 | 株式会社Screenホールディングス | Process flow generating system, process flow generating method, and program |
WO2019026104A1 (en) * | 2017-07-31 | 2019-02-07 | 富士通株式会社 | Information processing device, information processing program, and information processing method |
Non-Patent Citations (2)
Title |
---|
ZHONG QU ET AL.: ""The Algorithm of Concrete Surface Crack Detection Based on the Genetic Programming and Percolation", IEEE ACCESS, vol. 7, JPN6023027125, 1 May 2019 (2019-05-01), US, pages 57592 - 57603, XP011724163, ISSN: 0005098042, DOI: 10.1109/ACCESS.2019.2914259 * |
白川 真一、外2名: ""Genetic Image Networkによる画像変換の自動構築"", 情報処理学会論文誌, vol. Vol.48, No.SIG 19 (TOM 19), JPN6023027126, 15 December 2007 (2007-12-15), JP, pages 117 - 126, ISSN: 0005098041 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109919934B (en) | Liquid crystal panel defect detection method based on multi-source domain deep transfer learning | |
Farhan et al. | A novel method for splitting clumps of convex objects incorporating image intensity and using rectangular window-based concavity point-pair search | |
CN109961437A (en) | A kind of conspicuousness fabric defect detection method under the mode based on machine teaching | |
JP4660765B2 (en) | Evolutionary image automatic classification apparatus, filter structure generation method, and program | |
Georgieva et al. | Intelligent visual recognition and classification of cork tiles with neural networks | |
JP6177649B2 (en) | Data processing apparatus, length measurement system, defect inspection system, image tracking system, and data processing method | |
JP7468088B2 (en) | Image processing system and image processing program | |
JP2021051617A (en) | Image processing system and image processing program | |
JP2021165909A (en) | Information processing apparatus, information processing method for information processing apparatus, and program | |
JP2020107008A (en) | Image processing system, and image processing program | |
JP2022089430A (en) | Image processing system, and image processing program | |
Corona et al. | A new method to solve rotated template matching using metaheuristic algorithms and the structural similarity index | |
CN116452845A (en) | Bird fine granularity image classification method based on data enhancement | |
JP7247578B2 (en) | Image processing system and image processing program | |
JP7314711B2 (en) | Image processing system and image processing program | |
CN115018787A (en) | Anomaly detection method and system based on gradient enhancement | |
JP7314723B2 (en) | Image processing system and image processing program | |
JP7206892B2 (en) | Image inspection device, learning method for image inspection, and image inspection program | |
CN114399491A (en) | Human face image quality evaluation method and device and computer readable storage medium | |
JP7120528B2 (en) | Classifier construction method, image classification method, classifier construction device, and image classification device | |
Gharehchopogh et al. | A novel approach for edge detection in images based on cellular learning automata | |
CN113343918A (en) | Power equipment identification method, system, medium and electronic equipment | |
CN113449631A (en) | Image classification method and system | |
CN117934525A (en) | Initialization method of image edge detection model | |
JP7404962B2 (en) | Image processing system and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231027 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231114 |