JP2021051617A - Image processing system and image processing program - Google Patents

Image processing system and image processing program Download PDF

Info

Publication number
JP2021051617A
JP2021051617A JP2019174850A JP2019174850A JP2021051617A JP 2021051617 A JP2021051617 A JP 2021051617A JP 2019174850 A JP2019174850 A JP 2019174850A JP 2019174850 A JP2019174850 A JP 2019174850A JP 2021051617 A JP2021051617 A JP 2021051617A
Authority
JP
Japan
Prior art keywords
image
information
evaluation value
image processing
individual information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019174850A
Other languages
Japanese (ja)
Inventor
直己 高橋
Naoki Takahashi
直己 高橋
賢 柏原
Ken Kashiwabara
賢 柏原
圭亨 中村
Yoshiaki Nakamura
圭亨 中村
萌子 原
Moeko Hara
萌子 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Seikan Group Holdings Ltd
Original Assignee
Toyo Seikan Group Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Seikan Group Holdings Ltd filed Critical Toyo Seikan Group Holdings Ltd
Priority to JP2019174850A priority Critical patent/JP2021051617A/en
Publication of JP2021051617A publication Critical patent/JP2021051617A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a system for optimizing image processing in image processing technology which detects an object from an image.SOLUTION: An image processing system includes: an individual storage unit which stores individual information for defining the order of executing function units in a network having a closed circuit; an image storage unit which stores a learning image and a verification image; a teacher storage unit which stores teacher information associated with the learning image and the verification image and discriminating a detection area for evaluating output information from a non-detection area; an image processing unit which processes the learning image and the verification image on the basis of the individual information to generate output information; an evaluation value calculation unit which compares the output information with the teacher information and calculates an evaluation value of the individual information to rank the individual information; and a gene manipulation unit which selects or modifies the individual information on the basis of the rank information of the individual information to update the individual storage unit. The evaluation value calculation unit calculates an evaluation value of the detection area of the learning image and the verification image and an evaluation value of the non-detection area in different calculation methods for the detection area and the non-detection area of the teacher information, to calculate an evaluation value of individual information.SELECTED DRAWING: Figure 1

Description

本発明は、画像から検出対象を見つけ出す画像処理技術に関し、特に画像処理を最適化する画像処理システムに関する。 The present invention relates to an image processing technique for finding a detection target from an image, and more particularly to an image processing system for optimizing image processing.

従来、画像から検出対象を見つけ出す画像処理技術において、入力画像に画像処理を行って得られた出力画像を教師画像と比較して評価値を計算することにより、画像処理を最適化することが行われている。
この最適化手法では、画像における検出領域と非検出領域の比率にもとづいて評価値が悪化する場合があること、教師画像を作成するために手間がかかること、及びコンピュータによる最適化のために人の過度な干渉が必要になることが問題となっていた。
Conventionally, in image processing technology for finding a detection target from an image, the image processing can be optimized by comparing the output image obtained by performing image processing on the input image with the teacher image and calculating the evaluation value. It has been.
In this optimization method, the evaluation value may deteriorate based on the ratio of the detected region to the undetected region in the image, it takes time to create a teacher image, and a person due to computer optimization. The problem was that excessive interference was required.

特許第5479944号公報Japanese Patent No. 5479944 特許第4862150号公報Japanese Patent No. 4862150 特許第5011533号公報Japanese Patent No. 501153 特開2008−15817号公報Japanese Unexamined Patent Publication No. 2008-15817

ここで、画像から検出対象を見つけ出す画像処理技術として、特許文献1に記載の方法を挙げることができる。
この方法では、遺伝的プログラミング(GP)による並列型画像フィルタ自動生成システムにサイズ依存型交叉を導入している。これにより、複数の実舗装画像からクラックが存在する画像をフィルタ構築の訓練データに選定採用することで、様々なタイプの画像からクラックの抽出用画像フィルタを自動的に構築し、これを用いて損傷レベルの評価が行われている。
Here, as an image processing technique for finding a detection target from an image, the method described in Patent Document 1 can be mentioned.
In this method, size-dependent crossover is introduced into a parallel image filter automatic generation system by genetic programming (GP). As a result, by selecting and adopting an image with cracks from multiple actual pavement images as training data for filter construction, an image filter for extracting cracks is automatically constructed from various types of images, and this is used. Damage levels are being assessed.

また、このようないわゆる進化的計算を用いる技術として、特許文献2〜4に記載の進化的計算システムを挙げることができる。これらの進化的計算システムによれば、それぞれのシステムにおける処理のアルゴリズムの最適化を図ることが可能になっている。 Further, as a technique using such so-called evolutionary computation, the evolutionary computation system described in Patent Documents 2 to 4 can be mentioned. According to these evolutionary computation systems, it is possible to optimize the processing algorithm in each system.

しかしながら、これらの技術を用いても、入力画像に画像処理を行って得られた出力画像を教師画像と比較することによって画像処理を最適化する場合には、上述のように、検出対象領域の割合により評価値が悪化すること、教師画像の生成に手間がかかること、及び人の過度な干渉が必要になるという課題があった。
例えば、出力画像を教師画像と比較するために最小二乗法などを用いて各ピクセルに対して輝度の差で評価を行うと、検出対象物のサイズにもとづいて、同じ非検出の場合でも評価値に大きな相違が発生していた。
However, even if these techniques are used, when the image processing is optimized by comparing the output image obtained by performing image processing on the input image with the teacher image, as described above, the detection target region There are problems that the evaluation value deteriorates depending on the ratio, that it takes time and effort to generate a teacher image, and that excessive human interference is required.
For example, if the output image is evaluated by the difference in brightness for each pixel using the least squares method in order to compare it with the teacher image, the evaluation value is based on the size of the detection target even if the same non-detection is performed. There was a big difference in.

本発明者らは、このような検出対象物のサイズの評価値への影響が、画像処理の最適化の障害になっていると考え、検出領域(検出対象が存在している領域)の範囲を示す情報を教師情報として作成し、入力画像に画像処理を行って得られた出力情報とこの教師情報とを比較することによって、上記の課題を解消できることに想到した。
また、検出領域と非検出領域(検出対象が存在していない領域)の評価方法としてそれぞれに適する異なる方法を用いることで、検出性能を向上させることを可能とした。
さらに、進化的計算において、遺伝的ネットワークプログラミング(GNP)の手法を採用することにより、最適化の自由度を向上させることを可能にして、本発明を完成させた。
The present inventors consider that such an influence on the evaluation value of the size of the detection target is an obstacle to the optimization of image processing, and consider that the range of the detection region (the region where the detection target exists). It was conceived that the above problem can be solved by creating the information indicating the above as teacher information and comparing the output information obtained by performing image processing on the input image with this teacher information.
In addition, it is possible to improve the detection performance by using different methods suitable for each of the detection area and the non-detection area (the area where the detection target does not exist).
Furthermore, the present invention has been completed by making it possible to improve the degree of freedom of optimization by adopting the method of genetic network programming (GNP) in evolutionary computation.

すなわち、本発明は、画像から検出対象を見つけ出す画像処理技術において、画像処理をより最適化することが可能な画像処理システム、及び画像処理プログラムの提供を目的とする。 That is, an object of the present invention is to provide an image processing system and an image processing program capable of further optimizing image processing in an image processing technique for finding a detection target from an image.

上記目的を達成するため、本発明の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する画像処理システムであって、有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部と、複数の学習用画像と複数の検証用画像を記憶する画像記憶部と、前記学習用画像と前記検証用画像にそれぞれ対応付けられ、出力情報を評価するための、検出領域と非検出領域を区分する教師情報を記憶する教師情報記憶部と、前記個体情報にもとづいて前記学習用画像と前記検証用画像を処理し、前記出力情報を生成する画像処理部と、前記出力情報と前記教師情報を比較して前記個体情報の評価値を計算し、前記学習用画像を用いて計算した前記評価値にもとづき前記個体情報を順位付けする評価値計算部と、前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部とを備え、前記評価値計算部が、前記教師情報の前記検出領域と前記非検出領域につき異なる計算方法により、前記学習用画像と前記検証用画像の前記検出領域の評価値と前記非検出領域の評価値を計算し、これらの評価値にもとづき前記個体情報の評価値を計算する構成としてある。 In order to achieve the above object, the image processing system of the present invention optimizes image processing for detecting a detection target from an image by using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms. A processing system that stores a population storage unit that stores multiple individual information that defines the execution order of multiple functional units in a network that can include closed paths, and stores multiple learning images and multiple verification images. An image storage unit to be used, a teacher information storage unit that stores teacher information that separates a detection area and a non-detection area for evaluating output information, which is associated with the learning image and the verification image, respectively, and the above-mentioned. An image processing unit that processes the learning image and the verification image based on the individual information and generates the output information, compares the output information with the teacher information, and calculates an evaluation value of the individual information. The evaluation value calculation unit that ranks the individual information based on the evaluation value calculated using the learning image, and the individual group is selected or changed based on the ranking information of the individual information. The evaluation value calculation unit includes a genetic manipulation unit that updates the storage unit, and the evaluation value calculation unit uses different calculation methods for the detection region and the non-detection region of the teacher information to obtain the detection region of the learning image and the verification image. The evaluation value of the above and the evaluation value of the non-detection region are calculated, and the evaluation value of the individual information is calculated based on these evaluation values.

また、本発明の画像処理システムを、前記検出領域の評価値が点分布分析により計算される構成とすることが好ましい。
また、本発明の画像処理システムを、前記非検出領域の評価値が前記教師情報との輝度差により計算される構成とすることが好ましい。
Further, it is preferable that the image processing system of the present invention has a configuration in which the evaluation value of the detection region is calculated by point distribution analysis.
Further, it is preferable that the image processing system of the present invention has a configuration in which the evaluation value of the non-detection region is calculated based on the difference in brightness from the teacher information.

また、本発明の画像処理プログラムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する画像処理プログラムであって、コンピュータを、有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部、学習用画像と検証用画像を記憶する画像記憶部、前記学習用画像と前記検証用画像にそれぞれ対応付けられ、出力情報を評価するための、検出領域と非検出領域を区分する教師情報を記憶する教師情報記憶部、前記個体情報にもとづいて前記画像を処理し、前記出力情報を生成する画像処理部、前記出力情報と前記教師情報を比較して評価値を計算し、前記学習用画像を用いて計算した前記評価値にもとづき前記個体情報を順位付けする評価値計算部、及び、前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部として機能させ、前記評価値計算部に、前記教師情報の前記検出領域と前記非検出領域につき異なる計算方法により、前記学習用画像と前記検証用画像の前記検出領域の評価値と前記非検出領域の評価値を計算させ、これらの評価値にもとづき前記個体情報の評価値を計算させる構成としてある。 Further, the image processing program of the present invention is an image processing program that optimizes image processing for detecting a detection target from an image by using a genetic operation which is an optimization method that mathematically simulates the evolution of an organism. , A computer, a population storage unit that stores a plurality of individual information that defines an execution order of a plurality of functional units in a network that may include a closed path, an image storage unit that stores a learning image and a verification image, the learning A teacher information storage unit that stores teacher information that separates a detection area and a non-detection area for evaluating output information, which is associated with the image for verification and the image for verification, and processes the image based on the individual information. Then, the image processing unit that generates the output information calculates the evaluation value by comparing the output information with the teacher information, and ranks the individual information based on the evaluation value calculated using the learning image. The evaluation value calculation unit and the evaluation value calculation unit are used to select or change the individual information based on the ranking information of the individual information to function as a gene manipulation unit for updating the population storage unit. The evaluation value of the detection area and the evaluation value of the non-detection area of the learning image and the verification image are calculated by different calculation methods for the detection area and the non-detection area of the teacher information, and these evaluation values are used. Originally, the structure is such that the evaluation value of the individual information is calculated.

本発明によれば、画像から検出対象を見つけ出す画像処理技術において、画像処理をより最適化することが可能な画像処理システム、及び画像処理プログラムの提供が可能となる。 According to the present invention, it is possible to provide an image processing system and an image processing program capable of further optimizing image processing in an image processing technique for finding a detection target from an image.

本発明の第一実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置による処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure by the image processing apparatus of 1st Embodiment of this invention. 本発明の第一実施形態の画像処理装置による処理手順における遺伝子操作の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of a gene manipulation in the processing procedure by the image processing apparatus of 1st Embodiment of this invention. 本発明の第二実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of the 2nd Embodiment of this invention. 本発明の第二実施形態の画像処理装置による処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure by the image processing apparatus of the 2nd Embodiment of this invention. 参考例及び実施例の試験条件を示す説明図である。It is explanatory drawing which shows the test condition of a reference example and an Example. 参考例及び実施例で用いたノードの機能(画像処理:ノイズ除去)を示す説明図である。It is explanatory drawing which shows the function (image processing: noise removal) of a node used in a reference example and an Example. 参考例及び実施例で用いたノードの機能(画像処理:輝度補正)を示す説明図である。It is explanatory drawing which shows the function (image processing: luminance correction) of a node used in a reference example and an Example. 参考例及び実施例で用いたノードの機能(画像処理:2値化)を示す説明図である。It is explanatory drawing which shows the function (image processing: binarization) of the node used in the reference example and the Example. 参考例及び実施例で用いたノードの機能(画像処理:エッジ検出)を示す説明図である。It is explanatory drawing which shows the function (image processing: edge detection) of a node used in a reference example and an Example. 参考例及び実施例で用いたノードの機能(画像処理:周波数フィルタ)を示す説明図である。It is explanatory drawing which shows the function (image processing: frequency filter) of a node used in a reference example and an Example. 参考例及び実施例で用いたノードの機能(画像処理:演算)を示す説明図である。It is explanatory drawing which shows the function (image processing: calculation) of a node used in a reference example and an Example. 参考例及び実施例で用いたノードの機能(画像処理:モフォロジ)を示す説明図である。It is explanatory drawing which shows the function (image processing: morphology) of a node used in a reference example and an Example. 参考例及び実施例で用いたノードの機能(画像処理:検出対象判定)を示す説明図である。It is explanatory drawing which shows the function (image processing: detection target determination) of the node used in a reference example and an Example. 参考例及び実施例で用いたノードの機能(画像処理:分岐)を示す説明図である。It is explanatory drawing which shows the function (image processing: branch) of a node used in a reference example and an Example. 参考例及び実施例における学習用/検証用画像および教師情報の作成ステップを示す説明図である。It is explanatory drawing which shows the step of making the image for learning / verification and teacher information in a reference example and an Example. 参考例及び実施例における正規化された評価値の遷移を表すグラフを示す図である。It is a figure which shows the graph which shows the transition of the normalized evaluation value in a reference example and an Example. 参考例の学習によって得られた個体情報の構造、及び該個体情報で用いられたノードの機能を示す図である。It is a figure which shows the structure of the individual information obtained by learning of the reference example, and the function of the node used in the individual information. 実施例の学習によって得られた個体情報の構造、及び該個体情報で用いられたノードの機能を示す図である。It is a figure which shows the structure of the individual information obtained by learning of an Example, and the function of the node used in the individual information. 参考例による学習結果と検証結果の感度・特異性を示す図である。It is a figure which shows the sensitivity and peculiarity of the learning result and the verification result by a reference example. 実施例による学習結果と検証結果の感度・特異性を示す図である。It is a figure which shows the sensitivity / specificity of the learning result and the verification result by an Example. 参考例及び実施例による正解画像と不正解画像の例を示す図である。It is a figure which shows the example of the correct answer image and incorrect answer image by a reference example and an Example.

以下、本発明の画像処理システム、及び画像処理プログラムの実施形態について詳細に説明する。ただし、本発明は、以下の実施形態、及び後述する実施例の具体的な内容に限定されるものではない。 Hereinafter, an image processing system of the present invention and an embodiment of an image processing program will be described in detail. However, the present invention is not limited to the specific contents of the following embodiments and examples described later.

[第一実施形態]
まず、本発明の第一実施形態に係る画像処理システム、及び画像処理プログラムの第一実施形態について、図1〜図3を参照して説明する。図1は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図であり、図2は、同画像処理装置による処理手順を示すフローチャートである。また、図3は、同画像処理装置による処理手順における遺伝子操作の処理手順を示すフローチャートである。
[First Embodiment]
First, the image processing system according to the first embodiment of the present invention and the first embodiment of the image processing program will be described with reference to FIGS. 1 to 3. FIG. 1 is a block diagram showing a configuration of an image processing device corresponding to the image processing system of the present embodiment, and FIG. 2 is a flowchart showing a processing procedure by the image processing device. Further, FIG. 3 is a flowchart showing a processing procedure of gene manipulation in the processing procedure by the image processing apparatus.

本実施形態の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する。
具体的には、本実施形態の画像処理装置1は、図1に示すように、機能単位記憶部10、個体生成部11、個体群記憶部12、画像入力部13、画像記憶部14、教師情報入力部15、教師情報記憶部16、画像処理部17、出力情報記憶部18、評価値計算部19、評価結果記憶部20、及び遺伝子操作部21を備えている。
本実施形態の画像処理装置1におけるこれらの各構成は、図1に示すように一個の情報処理装置に全て備えることができる。また、これらの各構成は、複数の情報処理装置からなる画像処理システムの各装置に分散して備えてもよい。これは、後述する第二実施形態についても同様である。
The image processing system of the present embodiment optimizes image processing for detecting a detection target from an image by using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms.
Specifically, as shown in FIG. 1, the image processing device 1 of the present embodiment has a functional unit storage unit 10, an individual generation unit 11, a population storage unit 12, an image input unit 13, an image storage unit 14, and a teacher. It includes an information input unit 15, a teacher information storage unit 16, an image processing unit 17, an output information storage unit 18, an evaluation value calculation unit 19, an evaluation result storage unit 20, and a gene manipulation unit 21.
As shown in FIG. 1, all of these configurations in the image processing device 1 of the present embodiment can be provided in one information processing device. Further, each of these configurations may be distributed and provided in each device of the image processing system including a plurality of information processing devices. This also applies to the second embodiment described later.

機能単位記憶部10は、ある処理を実行する機能単位であるノード(遺伝子に相当する)をノード番号ごとに記憶する。本実施形態において、このノードとして、画像処理を行うための様々なものを用いることができ、後述する実施例では、図6〜図14に示すものを用いている。
また、これらのノードは、それぞれの処理の実行に用いるパラメータが存在する場合には、そのパラメータと共に機能単位記憶部10に記憶される。
The functional unit storage unit 10 stores nodes (corresponding to genes), which are functional units that execute a certain process, for each node number. In the present embodiment, various nodes for performing image processing can be used as this node, and in the examples described later, those shown in FIGS. 6 to 14 are used.
Further, when a parameter used for executing each process exists, these nodes are stored in the functional unit storage unit 10 together with the parameter.

さらに、ノードとして、何ら処理を実行しないものを用いてもよく、複数の処理を実行する機能単位をまとめたものを1個のノード(ノードセット)として用いてもよい。ノードとして何ら処理を実行しないものを含めて用いることにより、例えば個体情報を生成するための初期ノード数の設定値が多すぎた場合などに、実質的なノード数を減らすことができる。 Further, as the node, a node that does not execute any processing may be used, or a node (node set) that is a collection of functional units that execute a plurality of processes may be used. By using the nodes including those that do not perform any processing, the actual number of nodes can be reduced, for example, when the set value of the initial number of nodes for generating individual information is too large.

本明細書において、「画像処理」には、ノイズ除去のための各種フィルタ処理や、輝度補正などの補正処理、2値化処理、エッジ検出処理、周波数フィルタ処理、四則演算などの演算処理、モフォロジ処理、検出対象判定処理、分岐処理等が含まれる。 In the present specification, "image processing" includes various filter processing for noise removal, correction processing such as luminance correction, binarization processing, edge detection processing, frequency filter processing, arithmetic processing such as four-rule calculation, and morphology. Processing, detection target determination processing, branching processing, etc. are included.

個体生成部11は、機能単位記憶部10に記憶されているノードを用いて、複数のノードの配列からなる個体情報を生成する。このとき、個体生成部11は、複数のノードにもとづいて、複数の個体情報をランダムに生成することができる。
またこのとき、個体生成部11は、個体情報において、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義することができる。このネットワークは、向きが付いたリンクにより構成される有向ネットワークであり、フィードバックが含まれることがある。また、このネットワークには、直線構造と木構造も含まれ得る。
The individual generation unit 11 generates individual information composed of an array of a plurality of nodes by using the nodes stored in the functional unit storage unit 10. At this time, the individual generation unit 11 can randomly generate a plurality of individual information based on the plurality of nodes.
At this time, the individual generation unit 11 can define the execution order of a plurality of nodes in a network shape that can include a closed cycle in the individual information. This network is a directed network consisting of oriented links and may contain feedback. The network can also include linear and tree structures.

このような個体情報を用いれば、直線構造や木構造のみからなる個体情報を用いる場合に比較して、より柔軟な表現力を持つネットワーク構造を含めて学習を行うことができるため、最適解(実用上の最適解,実用解)を導き出す上で優位性がある。すなわち、問題に対してどの構造体が最適解になるかは人が事前に把握することができないため、機械学習の前に構造体の条件を決定することは難しい。このため、個体情報として、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義するものを使用して、幅広い条件で最適解を探索することは、真の最適解を導き出せる可能性を高める上で有効と考えられる。 By using such individual information, it is possible to perform learning including a network structure having more flexible expressive power as compared with the case of using individual information consisting only of a linear structure or a tree structure. It has an advantage in deriving the optimum solution for practical use and the practical solution for practical use). That is, it is difficult for a person to know in advance which structure is the optimum solution for a problem, so it is difficult to determine the conditions of the structure before machine learning. Therefore, searching for the optimal solution under a wide range of conditions using the individual information that defines the execution order of multiple nodes in a network that can include a cycle may lead to the true optimal solution. It is considered to be effective in enhancing.

個体群記憶部12は、個体生成部11によって生成された複数の個体情報からなる個体群を記憶する。この個体群として、1つの世代又は複数の世代を個体群記憶部12に記憶させることができ、世代番号ごとに個体情報を個体群記憶部12に記憶させることができる。
後述する評価値計算部19は、世代ごとに個体情報を順位付けして、順位付け情報を評価結果記憶部20に記憶させることができる。
The population storage unit 12 stores a population composed of a plurality of individual information generated by the individual generation unit 11. As this population, one generation or a plurality of generations can be stored in the population storage unit 12, and individual information can be stored in the population storage unit 12 for each generation number.
The evaluation value calculation unit 19, which will be described later, can rank individual information for each generation and store the ranking information in the evaluation result storage unit 20.

画像入力部13は、複数の学習用画像及び複数の検証用画像を画像処理装置1に入力して、画像識別情報ごとに画像記憶部14に記憶させる。
教師情報入力部15は、出力情報を評価するための教師情報を入力し、対応する画像識別情報ごとに教師情報記憶部16に記憶させる。
The image input unit 13 inputs a plurality of learning images and a plurality of verification images to the image processing device 1, and stores each image identification information in the image storage unit 14.
The teacher information input unit 15 inputs teacher information for evaluating the output information, and stores the corresponding image identification information in the teacher information storage unit 16.

本実施形態において、教師情報は、学習用画像と検証用画像にそれぞれ対応付けられ、出力情報を評価するための、検出領域と非検出領域を区分する情報であり、教師範囲と称する場合がある。
この教師情報としては、例えば、学習用画像と検証用画像において、検出対象が存在する部分を特定の色(後述の実施例では白)で取り囲み、検出対象が存在していない部分を他の色(後述の実施例では黒)で示すことにより、検出領域と非検出領域を区分する画像とすることができる。
検出対象が存在する部分を取り囲む検出領域の形状は、教師情報を容易に作成可能なものであることが好ましく、例えば矩形や円形、楕円形等とすることが好ましい。
In the present embodiment, the teacher information is associated with the learning image and the verification image, respectively, and is information for dividing the detection area and the non-detection area for evaluating the output information, and may be referred to as a teacher range. ..
As this teacher information, for example, in the learning image and the verification image, the part where the detection target exists is surrounded by a specific color (white in the examples described later), and the part where the detection target does not exist is another color. By showing (black in the examples described later), it is possible to obtain an image that separates the detection area and the non-detection area.
The shape of the detection region surrounding the portion where the detection target exists is preferably one in which teacher information can be easily created, and is preferably a rectangle, a circle, an ellipse, or the like.

ここで、本実施形態では、検出対象として、特に何らかの集合体である欠陥を想定している。このような欠陥としては、例えばフィルムのシワや、インクの飛びはね、紙やすりで擦ったような傷などが考えられる。
このような集合体の場合、教師情報として教師画像を作成するためには、非常に時間がかかるという問題があった。また、本発明者らは教師情報として教師個数や教師位置を用いる手法を既に開発しているが、検出対象が集合体の場合、その個数や位置を特定し難いという問題があった。
そこで、本発明者らは教師情報として教師範囲を用いることで、教師画像を作成する手間をさらに大きく低減することを可能とした。
Here, in the present embodiment, a defect that is some kind of aggregate is assumed as a detection target. Such defects include, for example, wrinkles in the film, splashes of ink, and scratches such as those rubbed with sandpaper.
In the case of such an aggregate, there is a problem that it takes a very long time to create a teacher image as teacher information. Further, the present inventors have already developed a method of using the number of teachers and the teacher position as teacher information, but there is a problem that it is difficult to specify the number and position when the detection target is an aggregate.
Therefore, the present inventors have made it possible to further reduce the time and effort required to create a teacher image by using the teacher range as the teacher information.

また、本実施形態では、学習用画像と検証用画像の教師情報(教師範囲)の作成において、検出されないことが良い対象については、検出領域を設定しないで教師情報(教師範囲)を作成することが好ましい。
検出されないことが良い対象は、概して以下の3種類が存在する。
(1)デザインとして存在する凹凸、模様、金型の空気抜きするための穴など、機能上必要な凹凸等
(2)欠陥でもあっても、仕様内に収まる傷(小さい、薄い傷など)、検査の後工程で除外可能なゴミ等
(3)フィルムなどが寄れる結果、それ自体に問題がないが、画像にハレーションが映り込んだもの
Further, in the present embodiment, in the creation of the teacher information (teacher range) of the learning image and the verification image, the teacher information (teacher range) is created without setting the detection area for the target that should not be detected. Is preferable.
There are generally the following three types of objects that should not be detected.
(1) Unevenness, pattern, holes for bleeding air from the mold, etc. that exist as a design, etc. (2) Even if it is a defect, scratches (small, thin scratches, etc.) that fit within the specifications, inspection Dust that can be excluded in the subsequent process (3) As a result of the film etc. coming close, there is no problem in itself, but halation is reflected in the image

なお、教師情報を画像にする場合、最小二乗法による評価では、検出対象物の大きさに評価値が影響を強く受けるため、小さい検出対象がない場合よりも、大きい検出対象の形状が異なる方が、評価値が悪化し易くなる。
例えば、ある画像において三角形を検出対象とした場合に、サイズが10ピクセルの三角形が検出されなかったとする。
このとき、同じ画像におけるより大きい三角形の出力が教師画像のものよりも一回り小さくなったとすると、その差が10ピクセル以上であれば、10ピクセルの三角形が無いことより評価値が悪化することになる。このため、機械学習では小さい三角より大きい三角を教師画像に近づけた方が評価値が良くなる傾向になり、小さい三角形より大きい三角形を一致させるように進化が進み、局所解に陥り易い状態になる。
これに対して、本実施形態では検出対象の大きさが異なる画像につき、未検出の場合の誤差が同一になるため、局所解に陥り難くなっている。
When the teacher information is used as an image, the evaluation value is strongly affected by the size of the detection target in the evaluation by the least squares method, so the shape of the large detection target is different from that when there is no small detection target. However, the evaluation value tends to deteriorate.
For example, suppose that when a triangle is detected in a certain image, a triangle having a size of 10 pixels is not detected.
At this time, if the output of the larger triangle in the same image is one size smaller than that of the teacher image, if the difference is 10 pixels or more, the evaluation value will be worse than the absence of the 10 pixel triangle. Become. For this reason, in machine learning, the evaluation value tends to be better when a triangle larger than a small triangle is brought closer to the teacher image, evolution progresses so as to match a triangle larger than a small triangle, and it becomes easy to fall into a local solution. ..
On the other hand, in the present embodiment, for images having different sizes of detection targets, the error in the case of no detection is the same, so that it is difficult to fall into a local solution.

画像処理部17は、画像記憶部14から画像を入力すると共に、個体群記憶部12から個体情報を入力して、その個体情報にもとづき当該個体情報に含まれる複数のノードを順次実行する。なお、画像処理部17は、画像の入力処理、及び出力画像の保存処理を行うために、それぞれを実行するためのノードも実行する。 The image processing unit 17 inputs an image from the image storage unit 14, and also inputs individual information from the population storage unit 12, and sequentially executes a plurality of nodes included in the individual information based on the individual information. The image processing unit 17 also executes a node for executing each of the image input processing and the output image storage processing.

このとき、各ノードは、画像から得られる情報を用いて、それぞれの機能に対応する処理を実行する。また、各ノードは、その処理結果にもとづいて、処理結果に対応する次のノードを選択的に実行し得る。したがって、個体情報に含まれるノードであっても、画像処理において、必ずしも全てのノードが実行される訳ではない。勿論、個体情報における全てのノードが実行される場合はある。また、フィードバックが行われることによって、一つの個体情報において1つのみ定義されているノードが、複数回実行されることもあり得る。 At this time, each node executes the process corresponding to each function by using the information obtained from the image. Further, each node can selectively execute the next node corresponding to the processing result based on the processing result. Therefore, even if the nodes are included in the individual information, not all the nodes are necessarily executed in the image processing. Of course, all the nodes in the individual information may be executed. Further, by giving feedback, a node defined as only one in one individual information may be executed a plurality of times.

また、ノードの機能としては、上述したように、ノイズ除去のための各種フィルタ処理や、輝度補正などの補正処理、2値化処理、エッジ検出処理、周波数フィルタ処理、四則演算などの演算処理、モフォロジ処理、分岐処理等の狭義の画像処理がある。これらは、画像処理部17によって、主として、検出対象候補を見つけるための処理として行われる。 In addition, as described above, the node functions include various filter processing for noise removal, correction processing such as luminance correction, binarization processing, edge detection processing, frequency filter processing, and arithmetic processing such as four-rule calculation. There are image processing in a narrow sense such as morphology processing and branch processing. These are mainly performed by the image processing unit 17 as a process for finding a detection target candidate.

また、ノードの機能としての検出対象判定処理は、画像処理部17によって、画像における一定範囲の検出対象候補をラベリングしてその特徴量を計算し、閾値などにもとづいて、その特徴量を備えた検出対象候補が、正しい検出対象であるか否かを判定する処理として行われる。
なお、検出対象判定処理において、非検出対象候補をラベリングしてその特徴量を計算し、閾値などにもとづきその特徴量を備えていないことにより、検出対象でないことを判定する処理を行うこともできる。
Further, in the detection target determination process as a function of the node, the image processing unit 17 labels the detection target candidates in a certain range in the image, calculates the feature amount, and provides the feature amount based on the threshold value or the like. It is performed as a process of determining whether or not the detection target candidate is a correct detection target.
In the detection target determination process, it is also possible to perform a process of labeling a non-detection target candidate, calculating its feature amount, and determining that it is not a detection target because the feature amount is not provided based on a threshold value or the like. ..

さらに、画像処理部17は、学習用画像と検証用画像ごとに出力情報としての画像などを作成して、出力情報記憶部18に記憶させることができる。
このとき、学習用画像と検証用画像について、検出対象が検出された場合は、検出対象が存在する領域を示す情報が付加された画像が作成され、検出対象が検出されない場合は、当該情報が付加されない画像が作成される。
そして、この出力情報を当該画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに出力情報記憶部18に記憶させることができる。
Further, the image processing unit 17 can create an image or the like as output information for each of the learning image and the verification image and store the image in the output information storage unit 18.
At this time, for the learning image and the verification image, if the detection target is detected, an image with information indicating the area where the detection target exists is added, and if the detection target is not detected, the information is added. An image that is not added is created.
Then, this output information can be stored in the output information storage unit 18 for each image identification information of the image and for each identification information of individual information.

なお、学習用画像と検証用画像において検出対象が存在する場合に、その範囲を示す情報を付加した画像などを生成する機能を評価値計算部19に行わせることもできる。すなわち、画像処理部17により画像処理を行った後、評価値計算部19が検出対象の範囲を示す情報を付加した画像を生成して出力情報記憶部18に記憶させ、これを用いて評価値を計算する構成とすることも可能である。 When a detection target exists in the learning image and the verification image, the evaluation value calculation unit 19 can be made to perform a function of generating an image or the like to which information indicating the range is added. That is, after image processing is performed by the image processing unit 17, the evaluation value calculation unit 19 generates an image to which information indicating the range of the detection target is added, stores the image in the output information storage unit 18, and uses this to store the evaluation value. It is also possible to have a configuration that calculates.

評価値計算部19は、出力情報記憶部18から出力情報を入力すると共に、教師情報記憶部16からその出力情報に対応する画像識別情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を当該画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに評価結果記憶部20に記憶させることができる。
The evaluation value calculation unit 19 inputs output information from the output information storage unit 18, and also inputs teacher information corresponding to the image identification information corresponding to the output information from the teacher information storage unit 16.
Then, the evaluation value is calculated by comparing the output information and the teacher information, and the obtained evaluation value is stored in the evaluation result storage unit 20 for each image identification information of the image and for each identification information of the individual information. it can.

このとき、評価値計算部19は、教師情報の検出領域と非検出領域につき異なる計算方法により、学習用画像と検証用画像の検出領域の評価値と非検出領域の評価値を計算する。また、学習用画像を用いて計算した該評価値にもとづき個体情報の評価値を計算する。具体的には、検出領域の評価値と非検出領域の評価値を合算することなどによって、個体情報の評価値を算出することができる。
またこのとき、評価値計算部19は、検出領域の評価値を、点分布分析により計算することが好ましい。
At this time, the evaluation value calculation unit 19 calculates the evaluation value of the detection area and the evaluation value of the non-detection area of the learning image and the verification image by different calculation methods for the detection area and the non-detection area of the teacher information. In addition, the evaluation value of the individual information is calculated based on the evaluation value calculated using the learning image. Specifically, the evaluation value of the individual information can be calculated by adding up the evaluation value of the detection area and the evaluation value of the non-detection area.
At this time, it is preferable that the evaluation value calculation unit 19 calculates the evaluation value of the detection region by point distribution analysis.

ここで、本実施形態では、進化的計算により検出領域内の検出状況の良し悪しを把握する必要があるところ、検出対象が何らかの集合体である場合、検出領域内において平均的に反応する指標が良いと考えられたことから、点分布分析を採用した。
本実施形態において、点分布分析としては、K関数法、最近隣距離、区画法の少なくともいずれかの手法を使用することが好ましい。
Here, in the present embodiment, it is necessary to grasp the quality of the detection status in the detection region by evolutionary computation, but when the detection target is some kind of aggregate, the index that reacts on average in the detection region is Since it was considered good, point distribution analysis was adopted.
In the present embodiment, it is preferable to use at least one of the K-function method, the nearest neighbor distance, and the partition method as the point distribution analysis.

またこのとき、評価値計算部19は、非検出領域の評価値を、非検出領域と教師情報との輝度差などにより計算することが好ましい。
ここで、非検出領域には検出対象が何も存在していないことが前提であるが、例えば、非検出領域にノイズや、非検出対象ではあるが特徴のある物体が写っていた場合、これらが誤検出されることが考えられる。このため、非検出領域において検出対象を検出されないことを評価するために、非検出領域について評価値を計算する構成としている。
なお、「検出されない」とは、出力情報と教師情報の非検出領域の輝度差が0(最小二乗誤差=0)の場合を意味する。すなわち、0<非検出領域の最小二乗誤差の場合は何かが検出されたと分かり、0であれば検出されていないことが分かる。
At this time, it is preferable that the evaluation value calculation unit 19 calculates the evaluation value of the non-detection region based on the brightness difference between the non-detection region and the teacher information.
Here, it is premised that there is no detection target in the non-detection area. For example, when noise or an object that is a non-detection target but is characteristic is shown in the non-detection area, these May be falsely detected. Therefore, in order to evaluate that the detection target is not detected in the non-detection area, the evaluation value is calculated for the non-detection area.
Note that "not detected" means a case where the brightness difference between the output information and the teacher information in the non-detection region is 0 (least squares error = 0). That is, if 0 <the least squares error of the non-detection region, it is known that something has been detected, and if it is 0, it is not detected.

評価値計算部19による評価値の計算は、具体的には、例えば以下の式を用いて好適に行うことが可能である。

Figure 2021051617
A:非検出領域の面積
(i):検出領域を分割した各領域において検出有りとして反応したピクセル数
M:分割数
a:全検出領域内で検出有りとして反応したピクセル数
w:重み係数
なお、検出領域において何も反応がない場合(検出されない場合)、期待値μは0となり数式では発散するが、この場合はプログラム上で発散を抑制して評価値を意図的に悪い値にすることなどにより処理することが可能である。 Specifically, the evaluation value calculation by the evaluation value calculation unit 19 can be preferably performed by using, for example, the following formula.
Figure 2021051617
A: Area of non-detection area y M (i): Number of pixels that reacted as detected in each area that divided the detection area M: Number of divisions a: Number of pixels that reacted as detected in all detection areas w: Weight coefficient If there is no reaction in the detection region (when it is not detected), the expected value μ becomes 0 and diverges in the mathematical formula, but in this case, the divergence is suppressed on the program and the evaluation value is intentionally made a bad value. It is possible to process by such things.

また、評価値計算部19は、個体群記憶部12に記憶されている全ての個体情報(又は1世代分の個体情報)につき評価値を計算し終えて評価結果記憶部20に記憶させた場合などに、これらの評価値にもとづき個体情報を順位付け(ランキング)して、得られた順位付け情報を評価結果記憶部20に記憶させることができる。 Further, when the evaluation value calculation unit 19 finishes calculating the evaluation value for all the individual information (or the individual information for one generation) stored in the population storage unit 12 and stores it in the evaluation result storage unit 20. For example, individual information can be ranked (ranked) based on these evaluation values, and the obtained ranking information can be stored in the evaluation result storage unit 20.

さらに、評価値計算部19は、画像処理部17による画像処理を終了するか否かを判定するための終了判定を行うことができる。終了判定は、終了条件を満たすか否かにもとづき行うことができ、終了条件を満たす場合、画像処理部17による画像の処理を終了させて、画像処理装置1による処理を終了させることができる。そして、評価結果記憶部20に記憶された最も評価値の高い個体情報が、画像処理を行うための最適化された個体情報として得られる。 Further, the evaluation value calculation unit 19 can perform an end determination for determining whether or not to end the image processing by the image processing unit 17. The end determination can be performed based on whether or not the end condition is satisfied, and if the end condition is satisfied, the image processing by the image processing unit 17 can be terminated and the processing by the image processing device 1 can be terminated. Then, the individual information having the highest evaluation value stored in the evaluation result storage unit 20 is obtained as the optimized individual information for performing image processing.

終了条件としては、予め設定した全ての世代の個体群について画像処理を完了した場合や、一定の世代数以上で進化が発生していない場合などを挙げることができる。
進化が発生していない場合とは、評価値が、比較対象の時点よりも高くなっていない場合である。
なお、評価値計算部19からこの終了判定の機能を分離して、本実施形態の画像処理装置1において終了判定を行うための終了判定部を備えてもよい。
Examples of the termination condition include the case where image processing is completed for a preset population of all generations, and the case where evolution has not occurred in a certain number of generations or more.
The case where evolution has not occurred is the case where the evaluation value is not higher than the time point of comparison.
The end determination function may be separated from the evaluation value calculation unit 19, and the image processing device 1 of the present embodiment may include an end determination unit for performing the end determination.

遺伝子操作部21は、評価結果記憶部20における個体情報の順位付け情報にもとづいて、個体情報の選択又は変更を行って、個体群記憶部12を更新する。
具体的には、遺伝子操作部21は、評価値が高い個体情報を次世代に残すエリート個体保存部と、評価値にもとづいて、一定の確率で個体情報を次世代に残す個体選択部と、2つの個体情報の一部を相互に交換する交叉部と、選択された1つの個体情報の一部又は全部やノードのパラメータをランダムに書き換える突然変異部とを有するものとすることができる。
The gene manipulation unit 21 updates the population storage unit 12 by selecting or changing the individual information based on the ranking information of the individual information in the evaluation result storage unit 20.
Specifically, the genetic manipulation unit 21 includes an elite individual storage unit that leaves individual information with a high evaluation value to the next generation, and an individual selection unit that leaves individual information to the next generation with a certain probability based on the evaluation value. It can have a crossing part that exchanges a part of two individual information with each other, and a mutation part that randomly rewrites a part or all of one selected individual information or a node parameter.

エリート個体保存部は、各世代の個体群において、一番評価値の良い個体情報などを、無条件で次世代に残す処理を行うことができる。
個体選択部は、各世代の個体群において、評価値の順位の高い個体情報を高い確率で選択して、次世代に残す処理を行うことができる。
The elite individual preservation unit can unconditionally leave the individual information with the best evaluation value in the population of each generation to the next generation.
The individual selection unit can select individual information having a high evaluation value in the population of each generation with a high probability and leave it to the next generation.

交叉部は、交叉処理として、複数の個体情報の各ノードの配列における同一(ノード番号)の並びについて、ある確率で入れ替える1様交叉を行うことができる。また、交叉部は、交叉処理として、各ノードの配列における同一の並びの1点を境として、一方の配列を相互に入れ替える1点交叉や、同一の並びの複数点を境として配列を相互に入れ替える複数点交叉を行うこともできる。交叉部は、このような交叉処理を、個体選択部により選択された個体情報に対して行うことができる。 As a crossing process, the crossing portion can perform one-way crossing in which the same (node number) arrangement in the array of each node of a plurality of individual information is replaced with a certain probability. In addition, as a crossing process, the crossing part is a one-point crossing in which one point in the same sequence is used as a boundary in the array of each node and one of the sequences is exchanged with each other, or an array is mutually bounded by a plurality of points in the same row. It is also possible to perform multi-point crossing to be replaced. The crossing section can perform such crossing processing on the individual information selected by the individual selection section.

突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、個体情報ごとに一定の確率でその個体情報の一部を書き換えたり、その個体情報の全てを書き換えることができる。突然変異部は、このような突然変異処理を、個体選択部により選択された個体情報に対して行うことができる。また、突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、新しい個体情報を生成することもできる。さらに、突然変異部に、突然変異処理として、選択された親個体情報のノードのパラメータの一部又は全部をランダムに書き換えることなどによって、パラメータ変異を行わせることもできる。 As a mutation process, the mutation unit rewrites a part of the individual information or rewrites all of the individual information with a certain probability for each individual information using the node stored in the functional unit storage unit 10. be able to. The mutation unit can perform such mutation processing on the individual information selected by the individual selection unit. In addition, the mutation unit can also generate new individual information by using the node stored in the functional unit storage unit 10 as the mutation process. Further, it is also possible to cause the mutation portion to perform parameter mutation as a mutation process by randomly rewriting a part or all of the parameters of the node of the selected parent individual information.

なお、同じ個体情報にもとづいて生成された同系列個体が増えると、多様性が失われて進化が袋小路(数学的に局所解に陥った状態)に入ってしまう。一方、同系列以外の個体を増やしすぎると、ランダム探索に近づき、効率的な進化が行われない。
そこで、学習初期では多様性を持たせるために、同系列以外の個体を増やすように突然変異部による処理を行い、学習中期では効率的な進化を実施するために、個体選択部により同系列を増やすことが好ましい。また、進化が止まった場合には、再度多様性を持たせるために突然変異部により同系列以外を増やすことなどを好適に行うことができる。
If the number of individuals of the same series generated based on the same individual information increases, diversity will be lost and evolution will enter a dead end (a state in which it has fallen into a mathematically local solution). On the other hand, if the number of individuals other than the same series is increased too much, it approaches a random search and efficient evolution is not performed.
Therefore, in order to have diversity in the early stage of learning, processing by the mutation part is performed so as to increase the number of individuals other than the same series, and in the middle stage of learning, the same series is processed by the individual selection part in order to carry out efficient evolution. It is preferable to increase it. Further, when the evolution is stopped, it is possible to preferably increase the number of mutations other than the same series by the mutation site in order to give diversity again.

そして、遺伝子操作部21は、新たな世代の個体群を生成して、個体群記憶部12に記憶させる。このとき、遺伝子操作部21は、前の世代の個体群を上書きすることにより、個体群記憶部12を更新することができる。また、複数世代の個体群を世代ごとに記憶させることにより、個体群記憶部12を更新することもできる。 Then, the gene manipulation unit 21 generates a new generation population and stores it in the population storage unit 12. At this time, the genetic manipulation unit 21 can update the population storage unit 12 by overwriting the population of the previous generation. In addition, the population storage unit 12 can be updated by storing a population of a plurality of generations for each generation.

ここで、本実施形態で用いる学習用画像と検証用画像について、詳細に説明する。本実施形態では、学習用画像と検証用画像に2分割するホールドアウト法を使用している。
本実施形態において、学習用画像は、全個体情報(画像処理アルゴリズム)にて処理して出力情報を得るため、またその出力情報と教師情報を比較して評価値を計算するため、及び評価値を用いて個体の順位付けを実施するために用いることができる。
また、検証用画像は、一番良い個体情報(画像処理アルゴリズム)にて処理して出力情報を得るため、またその出力情報と教師情報を比較して評価値を計算するため、及びその評価値を用いて解析モデルの妥当性や過学習が発していなかなどを検証するために用いることができる。
なお、検証用画像は、人が結果を分析するために使用するため、基本的に進化的計算に影響は及ぼさないが、終了判定に検証用画像の評価値を用いる場合、例えば検証用画像の評価値が閾値に達した場合に終了する場合や学習用画像と検証用画像の評価値に大きな差が発生した場合に早期終了される場合、進化的計算に影響は及ぼすことになる。
Here, the learning image and the verification image used in the present embodiment will be described in detail. In this embodiment, a holdout method is used in which the image for learning and the image for verification are divided into two.
In the present embodiment, the learning image is processed by all individual information (image processing algorithm) to obtain output information, and the output information is compared with the teacher information to calculate the evaluation value, and the evaluation value. Can be used to perform individual ranking using.
In addition, the verification image is processed by the best individual information (image processing algorithm) to obtain output information, and the evaluation value is calculated by comparing the output information with the teacher information, and the evaluation value. Can be used to verify the validity of the analysis model and whether over-learning has occurred.
Since the verification image is used by a person to analyze the result, it basically does not affect the evolutionary computation, but when the evaluation value of the verification image is used for the end judgment, for example, the verification image Evolutionary computation will be affected if it ends when the evaluation value reaches the threshold, or if it ends early when there is a large difference between the evaluation values of the learning image and the verification image.

検証用画像につき、一番良い個体情報にて処理して出力情報を得る場合、1世代ごとに実施して、各世代における一番良い個体情報にて行うことができる。また、設定世代ごと(例えば10世代ごと)に実施して、一番良い個体情報にて行うこともできる。さらに、学習用画像を用いた評価値が改善されたタイミングや最終的に得られた個体情報(進化的計算終了後:最終世代)にて行うことなどもできる。このように、検証用画像を処理するタイミングは任意に設定することが可能である。
なお、後述する実施例では、学習用画像を用いた評価値が改善されたタイミングで、対応する個体情報にて処理して検証用画像についての出力情報を得ている。
When the verification image is processed with the best individual information to obtain the output information, it can be performed for each generation and the best individual information in each generation can be used. It can also be carried out for each set generation (for example, every 10 generations) with the best individual information. Furthermore, it can be performed at the timing when the evaluation value using the learning image is improved or at the finally obtained individual information (after the evolutionary calculation is completed: the final generation). In this way, the timing for processing the verification image can be arbitrarily set.
In the examples described later, when the evaluation value using the learning image is improved, the corresponding individual information is processed to obtain the output information of the verification image.

次に、本実施形態の画像処理装置による処理手順について、図2及び図3を参照して説明する。
まず、画像処理装置1における画像入力部13が、画像を入力する(ステップ10)。また、教師情報入力部15が、教師情報として教師範囲を入力する(ステップ11)。この教師範囲としては、例えば、検出領域と非検出領域の区分を示す画像を用いることができる。そして、個体生成部11によって、初期個体群が生成される(ステップ12)。
Next, the processing procedure by the image processing apparatus of this embodiment will be described with reference to FIGS. 2 and 3.
First, the image input unit 13 in the image processing device 1 inputs an image (step 10). Further, the teacher information input unit 15 inputs a teacher range as teacher information (step 11). As the teacher range, for example, an image showing the division between the detection area and the non-detection area can be used. Then, the individual generation unit 11 generates an initial population (step 12).

このとき、個体生成部11は、機能単位記憶部10からノードをランダムに選択して配列することにより個体情報を生成して、個体情報の識別情報ごとに個体群記憶部12に記憶させることができる。また、個体生成部11は、複数の個体情報からなる個体群を一つの世代として、世代番号ごとに複数の世代の個体群を個体群記憶部12に記憶させることもできる。 At this time, the individual generation unit 11 may generate individual information by randomly selecting and arranging nodes from the functional unit storage unit 10, and store each identification information of the individual information in the population storage unit 12. it can. In addition, the individual generation unit 11 can store a population of a plurality of generations for each generation number in the population storage unit 12 with a population consisting of a plurality of individual information as one generation.

次に、画像処理部17は、個体群記憶部12における個体群の世代ごとに、個体群における全ての個体情報について画像処理を実行する(ステップ13、14、15)。
このとき、画像処理部17は、学習用画像と検証用画像ごとに出力情報としての画像などを作成して、出力情報記憶部18に記憶させることができる。またこのとき、画像処理部17は、学習用画像と検証用画像において検出対象が存在する場合、検出対象が存在する領域を示す情報を付加した画像を作成して、出力情報記憶部18に記憶させることができる。なお、学習用画像と検証用画像の処理タイミングは、前述のとおり、相違するが、便宜上まとめて記載している。
Next, the image processing unit 17 executes image processing for all the individual information in the population for each generation of the population in the population storage unit 12 (steps 13, 14, 15).
At this time, the image processing unit 17 can create an image or the like as output information for each of the learning image and the verification image, and store the image in the output information storage unit 18. At this time, when the detection target exists in the learning image and the verification image, the image processing unit 17 creates an image to which the information indicating the region where the detection target exists is added and stores it in the output information storage unit 18. Can be made to. Although the processing timings of the learning image and the verification image are different as described above, they are described together for convenience.

次に、評価値計算部19は、個体情報ごとに、出力情報と教師情報を比較して、評価値を計算する(ステップ16)。
このとき、評価値計算部19による評価値の計算において、検出領域の評価値を、区画法などの点分布分析により計算する。また、非検出領域の評価値を、非検出領域と教師情報との輝度差などにより計算する。そして、検出領域の評価値と非検出領域の評価値を合算して、個体情報の評価値を計算する。
また、評価値計算部19は、得られた評価値を評価結果記憶部20に個体情報ごとに記憶させる。
そして、当該世代の全ての個体情報について、画像の処理から評価値の計算及び記憶までの処理を繰り返し実行する。
Next, the evaluation value calculation unit 19 compares the output information with the teacher information for each individual information and calculates the evaluation value (step 16).
At this time, in the calculation of the evaluation value by the evaluation value calculation unit 19, the evaluation value of the detection region is calculated by the point distribution analysis such as the partition method. In addition, the evaluation value of the non-detection region is calculated based on the brightness difference between the non-detection region and the teacher information. Then, the evaluation value of the detection area and the evaluation value of the non-detection area are added up to calculate the evaluation value of the individual information.
Further, the evaluation value calculation unit 19 stores the obtained evaluation value in the evaluation result storage unit 20 for each individual information.
Then, for all the individual information of the relevant generation, the processing from the image processing to the calculation and storage of the evaluation value is repeatedly executed.

次に、評価値計算部19は、評価結果記憶部20に記憶されている評価値にもとづいて、個体情報の順位付けを行う(ステップ17)。
また、評価値計算部19は、終了条件が満たされているか否かの判定処理を行う(ステップ18)。終了条件が満たされている場合、画像処理装置1による処理を終了する。
Next, the evaluation value calculation unit 19 ranks the individual information based on the evaluation value stored in the evaluation result storage unit 20 (step 17).
In addition, the evaluation value calculation unit 19 performs a determination process of whether or not the end condition is satisfied (step 18). If the end condition is satisfied, the process by the image processing device 1 is terminated.

終了条件が満たされていない場合、遺伝子操作部21は、遺伝子操作処理を実行する(ステップ19)。
具体的には、図3に示すように、遺伝子操作部21におけるエリート個体保存部は、最も評価値の高い個体情報を次世代の個体群の個体情報として選択する(ステップ20)。
また、遺伝子操作部21における個体選択部は、評価値の順位の高い個体情報ほど高い確率で次世代の個体群の個体情報として選択する(ステップ21)。
If the termination condition is not satisfied, the gene manipulation unit 21 executes the gene manipulation process (step 19).
Specifically, as shown in FIG. 3, the elite individual preservation unit in the gene manipulation unit 21 selects the individual information having the highest evaluation value as the individual information of the next-generation population (step 20).
Further, the individual selection unit in the gene manipulation unit 21 selects as individual information of the next-generation population with a higher probability as the individual information having a higher evaluation value ranks (step 21).

さらに、遺伝子操作部21における交叉部は、個体選択部により選択された個体情報に対して、交叉処理を実行して、新たな個体情報を生成する(ステップ22)。
また、遺伝子操作部21における突然変異部は、個体選択部により選択された個体情報にもとづいて、またはこれらの個体情報を用いることなく、突然変異処理等を行い、新たな個体情報を生成する(ステップ23)。
なお、エリート個体保存部、個体選択部、交叉部、突然変異部による各処理の順序を、各処理を実行可能な順序の範囲で入れ替えて実行してもよい。
Further, the crossing portion in the gene manipulation unit 21 executes a crossing process on the individual information selected by the individual selection unit to generate new individual information (step 22).
In addition, the mutation unit in the gene manipulation unit 21 performs mutation processing or the like based on the individual information selected by the individual selection unit or without using these individual information to generate new individual information ( Step 23).
In addition, the order of each process by the elite individual preservation unit, the individual selection unit, the cross section, and the mutation unit may be exchanged within the range of the order in which each process can be executed.

このような本実施形態の画像処理装置によれば、画像から検出対象を見つけ出す画像処理技術において、検出領域の範囲を示す情報を教師情報として用いることで、検出対象領域の割合により評価値が悪化する問題を解消することができる。また、従来、教師画像の生成に手間がかかっていた問題や人の過度な干渉が必要になっていた問題を解消することが可能となる。さらに、検出領域と非検出領域の評価方法としてそれぞれに適する異なる方法を用いることで、検出性能を向上させることも可能となっている。 According to the image processing apparatus of the present embodiment, in the image processing technique for finding the detection target from the image, the evaluation value deteriorates depending on the ratio of the detection target area by using the information indicating the range of the detection area as the teacher information. Can solve the problem. In addition, it is possible to solve the problem that it has been troublesome to generate a teacher image and the problem that excessive human interference has been required in the past. Further, it is possible to improve the detection performance by using different methods suitable for each of the detection region and the non-detection region.

[第二実施形態]
次に、本発明の第二実施形態に係る画像処理システム、及び画像処理プログラムについて、図4及び図5を参照して説明する。図4は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図であり、図5は、同画像処理装置による処理手順を示すフローチャートである。
[Second Embodiment]
Next, the image processing system and the image processing program according to the second embodiment of the present invention will be described with reference to FIGS. 4 and 5. FIG. 4 is a block diagram showing a configuration of an image processing device corresponding to the image processing system of the present embodiment, and FIG. 5 is a flowchart showing a processing procedure by the image processing device.

本実施形態の画像処理装置1aは、図4に示すように、機能単位記憶部10a、個体生成部11a、個体群記憶部12a、画像入力部13a、画像記憶部14a、教師情報入力部15a、教師情報記憶部16a、画像処理部17a、出力情報記憶部18a、評価値計算部19a、評価結果記憶部20a、及び遺伝子操作部21aを備えている。また、個体群記憶部12aは、親個体群記憶部121aと子個体群記憶部122aを備えている。 As shown in FIG. 4, the image processing apparatus 1a of the present embodiment includes a functional unit storage unit 10a, an individual generation unit 11a, a population storage unit 12a, an image input unit 13a, an image storage unit 14a, and a teacher information input unit 15a. It includes a teacher information storage unit 16a, an image processing unit 17a, an output information storage unit 18a, an evaluation value calculation unit 19a, an evaluation result storage unit 20a, and a gene manipulation unit 21a. Further, the population storage unit 12a includes a parent population storage unit 121a and a child population storage unit 122a.

本実施形態の画像処理装置1aにおける機能単位記憶部10a、画像入力部13a、画像記憶部14a、教師情報入力部15a、教師情報記憶部16a、出力情報記憶部18a、及び評価結果記憶部20aは、第一実施形態と同様のものとすることができる。また、本実施形態の画像処理装置1aにおけるその他の構成についても、以下に説明する点を除いて、第一実施形態と同様のものとすることができる。 The functional unit storage unit 10a, the image input unit 13a, the image storage unit 14a, the teacher information input unit 15a, the teacher information storage unit 16a, the output information storage unit 18a, and the evaluation result storage unit 20a in the image processing device 1a of the present embodiment are , The same as in the first embodiment. Further, other configurations in the image processing apparatus 1a of the present embodiment can be the same as those of the first embodiment except for the points described below.

個体生成部11aは、機能単位記憶部10aに記憶されているノードを用いて、複数のノードの配列からなる個体情報を生成する。このとき、個体生成部11aは、第一実施形態と同様に、個体情報において、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義することができる。
また、本実施形態における個体生成部11aは、個体情報として、複数の親個体情報をランダムに生成し、これら親個体情報からなる初期の親個体群を親個体群記憶部121aに記憶させることができる。
The individual generation unit 11a generates individual information composed of an array of a plurality of nodes by using the nodes stored in the functional unit storage unit 10a. At this time, the individual generation unit 11a can define the execution order of a plurality of nodes in a network shape that can include a closed cycle in the individual information, as in the first embodiment.
Further, the individual generation unit 11a in the present embodiment randomly generates a plurality of parent individual information as individual information, and stores an initial parent population composed of these parent individual information in the parent population storage unit 121a. it can.

遺伝子操作部21aは、親個体群記憶部121aにおける親個体情報に対して遺伝子操作を実行する。
具体的には、まず、親個体群記憶部121aにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。
The gene manipulation unit 21a executes a gene manipulation on the parent individual information in the parent population storage unit 121a.
Specifically, first, parent individual information for generating child individual information is randomly selected from the parent population in the parent population storage unit 121a.

遺伝子操作部21aにおけるエリート個体保存部は、選択された親個体情報と同一の子個体情報からなる子個体群を子個体群記憶部122aに記憶させることができる。
そして、遺伝子操作部21aにおける交叉部は、選択された親個体情報に対して交叉処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122aに記憶させることができる。
また、遺伝子操作部21aにおける突然変異部は、機能単位記憶部10aに記憶されているノードを用いて、選択された親個体情報に対して突然変異処理を実行して、一定の確率で親個体情報の一部を書き換えたり、その全てを書き換えることによって得られた子個体情報からなる子個体群を子個体群記憶部122aに記憶させることができる。また、突然変異部は、突然変異処理として、機能単位記憶部10aに記憶されているノードを用いて、新しい個体情報を生成することもできる。さらに、突然変異部に、突然変異処理として、選択された親個体情報のノードのパラメータの一部又は全部をランダムに書き換えることなどによって、パラメータ変異を行わせることもできる。
The elite individual preservation unit in the genetic manipulation unit 21a can store a child population consisting of the same child individual information as the selected parent individual information in the child population storage unit 122a.
Then, the crossing portion in the genetic manipulation unit 21a executes a crossing process on the selected parent individual information to generate a plurality of child individual information, and stores the child population composed of these child individual information as the child population. It can be stored in the unit 122a.
Further, the mutation unit in the genetic manipulation unit 21a executes mutation processing on the selected parent individual information using the node stored in the functional unit storage unit 10a, and the parent individual has a certain probability. A child population consisting of child individual information obtained by rewriting a part of the information or rewriting all of the information can be stored in the child population storage unit 122a. In addition, the mutation unit can also generate new individual information by using the node stored in the functional unit storage unit 10a as the mutation process. Further, it is also possible to cause the mutation portion to perform parameter mutation as a mutation process by randomly rewriting a part or all of the parameters of the node of the selected parent individual information.

さらに、遺伝子操作部21aは、評価結果記憶部20aにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群からランダムに選択された上記の親個体情報と入れ替えることなどによって、親個体群記憶部121aにおける親個体情報を更新することができる。 Further, the gene manipulation unit 21a randomly selects the child individual information having the best evaluation value and the child individual information selected with the probability based on the ranking information of the child individual information in the evaluation result storage unit 20a from the parent population. The parent individual information in the parent population storage unit 121a can be updated by replacing the parent individual information selected in.

画像処理部17aは、画像記憶部14aから画像を入力すると共に、子個体群記憶部122aから子個体情報を入力して、その子個体情報にもとづき当該子個体情報に含まれる複数のノードを順次実行する。そして、画像処理部17aは、学習用画像と検証用画像ごとに出力情報としての画像などを作成し、この出力情報を当該画像の画像識別情報ごとで、かつ子個体情報の識別情報ごとに出力情報記憶部18aに記憶させることができる。 The image processing unit 17a inputs an image from the image storage unit 14a, inputs child individual information from the child population storage unit 122a, and sequentially executes a plurality of nodes included in the child individual information based on the child individual information. To do. Then, the image processing unit 17a creates an image as output information for each of the learning image and the verification image, and outputs this output information for each image identification information of the image and for each identification information of the child individual information. It can be stored in the storage unit 18a.

評価値計算部19aは、出力情報記憶部18aから出力情報を入力すると共に、教師情報記憶部16aからその出力情報に対応する画像識別情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を当該画像の画像識別情報ごとで、かつ子個体情報の識別情報ごとに評価結果記憶部20aに記憶させることができる。
The evaluation value calculation unit 19a inputs output information from the output information storage unit 18a, and also inputs teacher information corresponding to the image identification information corresponding to the output information from the teacher information storage unit 16a.
Then, the evaluation value is calculated by comparing the output information and the teacher information, and the obtained evaluation value is stored in the evaluation result storage unit 20a for each image identification information of the image and for each identification information of the child individual information. it can.

このとき、評価値計算部19aは、教師情報の検出領域と非検出領域につき異なる計算方法により、学習用画像と検証用画像の検出領域の評価値と非検出領域の評価値を計算する。また、学習用画像を用いて計算した該評価値にもとづき個体情報の評価値を計算する。具体的には、検出領域の評価値と非検出領域の評価値を合算することなどによって、個体情報の評価値を算出することができる。
またこのとき、評価値計算部19aは、検出領域の評価値を、点分布分析により計算することが好ましく、非検出領域の評価値を、非検出領域と教師情報との輝度差などにより計算することが好ましい。
At this time, the evaluation value calculation unit 19a calculates the evaluation value of the detection area and the evaluation value of the non-detection area of the learning image and the verification image by different calculation methods for the detection area and the non-detection area of the teacher information. In addition, the evaluation value of the individual information is calculated based on the evaluation value calculated using the learning image. Specifically, the evaluation value of the individual information can be calculated by adding up the evaluation value of the detection area and the evaluation value of the non-detection area.
At this time, the evaluation value calculation unit 19a preferably calculates the evaluation value of the detection region by point distribution analysis, and calculates the evaluation value of the non-detection region based on the brightness difference between the non-detection region and the teacher information. Is preferable.

また、評価値計算部19aは、個体群記憶部12aにおける子個体群記憶部122aに記憶されている全ての子個体情報(又は1世代分の子個体情報)につき評価値を計算し終えて評価結果記憶部20aに記憶させた場合などに、これらの評価値にもとづき子個体情報を順位付けして、得られた順位付け情報を評価結果記憶部20aに記憶させることができる。
さらに、評価値計算部19aは、画像処理部17aによる画像処理を終了するか否かを判定するための終了判定を行うことができる。
Further, the evaluation value calculation unit 19a completes the calculation of the evaluation value for all the child individual information (or the child individual information for one generation) stored in the child population storage unit 122a in the population storage unit 12a and evaluates the evaluation value. When the result storage unit 20a stores the information, the child individual information can be ranked based on these evaluation values, and the obtained ranking information can be stored in the evaluation result storage unit 20a.
Further, the evaluation value calculation unit 19a can perform an end determination for determining whether or not to end the image processing by the image processing unit 17a.

次に、本実施形態の画像処理装置の処理手順について、図5を参照して説明する。
まず、画像処理装置1aにおける画像入力部13aが、画像を入力する(ステップ30)。また、教師情報入力部15aが、教師情報としての教師範囲を入力する(ステップ31)この教師範囲としては、例えば、検出領域と非検出領域の区分を示す画像を用いることができる。そして、個体生成部11aによって、初期の親個体群が生成される(ステップ32)。
Next, the processing procedure of the image processing apparatus of the present embodiment will be described with reference to FIG.
First, the image input unit 13a in the image processing device 1a inputs an image (step 30). Further, the teacher information input unit 15a inputs a teacher range as teacher information (step 31). As the teacher range, for example, an image showing a division between a detection area and a non-detection area can be used. Then, the individual generation unit 11a generates an initial parent population (step 32).

このとき、個体生成部11aは、機能単位記憶部10aからノードをランダムに選択して配列することにより親個体情報を生成して、親個体情報の識別情報ごとに個体群記憶部12aにおける親個体群記憶部121aに記憶させることができる。この親個体群記憶部121aにおける親個体群は、後述する親個体群の更新処理によって更新され、設定された世代について以下の処理が繰り返し行われる(ステップ33)。 At this time, the individual generation unit 11a generates parent individual information by randomly selecting and arranging nodes from the functional unit storage unit 10a, and the parent individual in the population storage unit 12a for each identification information of the parent individual information. It can be stored in the group storage unit 121a. The parent population in the parent population storage unit 121a is updated by the update processing of the parent population described later, and the following processing is repeated for the set generation (step 33).

遺伝子操作部21aは、親個体群記憶部121aにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。(ステップ34)。そして、選択された親個体情報に対して遺伝子操作を実行する(ステップ35)。なお、ステップ34の親個体情報の選択を、ステップ35の遺伝子操作の一部として、実行してもよい。 The genetic manipulation unit 21a randomly selects parent individual information for generating child individual information from the parent population in the parent population storage unit 121a. (Step 34). Then, genetic manipulation is executed on the selected parent individual information (step 35). The selection of parent individual information in step 34 may be performed as part of the genetic manipulation in step 35.

すなわち、遺伝子操作部21aは、ランダムに選択された親個体情報に対して交叉処理や突然変異処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122aに記憶させる。 That is, the gene manipulation unit 21a executes crossing processing or mutation processing on randomly selected parent individual information to generate a plurality of child individual information, and the child population consisting of these child individual information is generated as a child. It is stored in the population storage unit 122a.

次に、画像処理部17aは、子個体群記憶部122aにおける全ての子個体情報について画像の処理を実行する(ステップ36、37)。
このとき、画像処理部17aは、子個体情報ごとに出力情報としての画像などを作成して、力情報記憶部18aに記憶させることができる。またこのとき、画像処理部17aは、学習用画像と検証用画像において検出対象が存在する場合、検出対象が存在する領域を示す情報を付加した画像を作成して、出力情報記憶部18aに記憶させることができる。
Next, the image processing unit 17a executes image processing for all the child individual information in the child population storage unit 122a (steps 36 and 37).
At this time, the image processing unit 17a can create an image or the like as output information for each child individual information and store it in the force information storage unit 18a. At this time, when the detection target exists in the learning image and the verification image, the image processing unit 17a creates an image to which the information indicating the region where the detection target exists is added and stores it in the output information storage unit 18a. Can be made to.

次に、評価値計算部19aは、子個体情報ごとに、出力情報と教師情報を比較して評価値を計算し(ステップ38)、得られた評価値を評価結果記憶部20aに子個体情報ごとに記憶させる。
このとき、評価値計算部19aによる評価値の計算において、検出領域の評価値を、区画法などの点分布分析により計算する。また、非検出領域の評価値を、非検出領域と教師情報との輝度差などにより計算し、検出領域の評価値と非検出領域の評価値を合算して、個体情報の評価値を計算する。
そして、子個体群記憶部122aにおける全ての子個体情報について、画像の処理から評価値の計算及び記憶までの処理を繰り返し実行する。
Next, the evaluation value calculation unit 19a calculates the evaluation value by comparing the output information and the teacher information for each child individual information (step 38), and the obtained evaluation value is stored in the evaluation result storage unit 20a as the child individual information. Remember each time.
At this time, in the calculation of the evaluation value by the evaluation value calculation unit 19a, the evaluation value of the detection region is calculated by the point distribution analysis such as the partition method. In addition, the evaluation value of the non-detection area is calculated based on the brightness difference between the non-detection area and the teacher information, and the evaluation value of the detection area and the evaluation value of the non-detection area are added up to calculate the evaluation value of the individual information. ..
Then, for all the child individual information in the child population storage unit 122a, the processes from image processing to evaluation value calculation and storage are repeatedly executed.

次に、評価値計算部19aは、評価結果記憶部20aに記憶されている評価値にもとづいて、子個体情報の順位付けを行う(ステップ39)。
そして、遺伝子操作部21aは、評価結果記憶部20aにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群からランダムに選択された上記の親個体情報と入れ替えることにより、個体群記憶部12aにおける親個体群記憶部121aの親個体情報を更新する(ステップ40)。
Next, the evaluation value calculation unit 19a ranks the child individual information based on the evaluation value stored in the evaluation result storage unit 20a (step 39).
Then, the gene manipulation unit 21a randomly selects the child individual information having the best evaluation value and the child individual information selected with the probability based on the ranking information of the child individual information in the evaluation result storage unit 20a from the parent population. The parent individual information of the parent population storage unit 121a in the population storage unit 12a is updated by replacing the parent individual information selected in (step 40).

また、評価値計算部19aは、終了条件が満たされているか否かの判定処理を行い(ステップ41)、終了条件が満たされている場合、画像処理装置1aによる処理を終了する。 Further, the evaluation value calculation unit 19a performs a determination process of whether or not the end condition is satisfied (step 41), and if the end condition is satisfied, the process by the image processing device 1a ends.

画像処理装置1aによる処理を終了させる場合、評価値計算部19aは、最終世代における全ての個体情報につき評価値を計算し、評価値にもとづき個体情報を順位付けして、得られた順位付け情報を評価結果記憶部20aに記憶させることができる。 When the processing by the image processing device 1a is terminated, the evaluation value calculation unit 19a calculates the evaluation value for all the individual information in the final generation, ranks the individual information based on the evaluation value, and obtains the ranking information. Can be stored in the evaluation result storage unit 20a.

このような本実施形態の画像処理装置によれば、親個体群から親を選択して子個体情報を生成する時に遺伝子操作が実行されると共に、子個体情報を親個体群における親個体情報と入れ替えることで、親個体群を更新することができる。これにより、第一実施形態に比較して、進化の多様性をより保った状態で、最適な個体情報を探すことが可能となっている。 According to the image processing apparatus of the present embodiment as described above, genetic manipulation is executed when a parent is selected from the parent population and the child individual information is generated, and the child individual information is used as the parent individual information in the parent population. By swapping, the parent population can be updated. As a result, it is possible to search for the optimum individual information while maintaining the diversity of evolution as compared with the first embodiment.

上記実施形態の画像処理装置は、本発明の画像処理プログラムに制御されたコンピュータを用いて実現することができる。コンピュータのCPUは、画像処理プログラムにもとづいてコンピュータの各構成要素に指令を送り、画像処理装置の動作に必要となる所定の処理、例えば、個体生成処理、画像処理、評価値計算処理、遺伝子操作処理等を行わせる。このように、本発明の画像処理装置における各処理、動作は、プログラムとコンピュータとが協働した具体的手段により実現できるものである。 The image processing apparatus of the above embodiment can be realized by using a computer controlled by the image processing program of the present invention. The CPU of the computer sends a command to each component of the computer based on the image processing program, and predetermined processing required for the operation of the image processing apparatus, for example, individual generation processing, image processing, evaluation value calculation processing, genetic manipulation. Have them perform processing, etc. As described above, each process and operation in the image processing apparatus of the present invention can be realized by specific means in which the program and the computer cooperate.

プログラムは予めROM,RAM等の記録媒体に格納され、コンピュータに実装された記録媒体から当該コンピュータにプログラムを読み込ませて実行されるが、例えば通信回線を介してコンピュータに読み込ませることもできる。
また、プログラムを格納する記録媒体は、例えば半導体メモリ、磁気ディスク、光ディスク、その他任意のコンピュータで読取り可能な任意の記録手段により構成できる。
The program is stored in a recording medium such as ROM or RAM in advance, and the program is read by the computer from the recording medium mounted on the computer and executed. However, the program can also be read by the computer via a communication line, for example.
Further, the recording medium for storing the program can be configured by, for example, a semiconductor memory, a magnetic disk, an optical disk, or any other recording means that can be read by any computer.

以上説明したように、本発明の実施形態に係る画像処理システム、及び画像処理プログラムによれば、画像から検出対象を見つけ出す画像処理技術において画像処理をより最適化することが可能である。 As described above, according to the image processing system and the image processing program according to the embodiment of the present invention, it is possible to further optimize the image processing in the image processing technique for finding the detection target from the image.

以下、本発明の実施形態に係る画像処理装置を用いて、画像から検出対象を検出する画像処理を最適化した実験について、図6〜図22を用いて説明する。
実施例では、本発明の第二実施形態に係る画像処理装置を使用した。すなわち、教師情報として検出領域と非検出領域を区分する教師範囲を用いた。出力情報としては、検出対象が検出された場合、検出対象が存在する領域を示す情報が付加された画像が作成された。なお、検出対象が検出されない場合は、当該情報が付加されない画像が作成された。また、検出領域の評価値を点分布分析により計算し、非検出領域の評価値を教師情報との輝度差により計算し、これらを合算して評価値とした。検出領域内の分散は、区間法によるXを求める式を用いて計算した。さらに、遺伝子操作を第二実施形態のとおり行った。
Hereinafter, an experiment in which image processing for detecting a detection target from an image is optimized using the image processing apparatus according to the embodiment of the present invention will be described with reference to FIGS. 6 to 22.
In the examples, the image processing apparatus according to the second embodiment of the present invention was used. That is, the teacher range that separates the detected area and the non-detected area was used as the teacher information. As output information, when a detection target was detected, an image was created to which information indicating an area where the detection target exists was added. If the detection target was not detected, an image to which the information was not added was created. In addition, the evaluation value of the detection area was calculated by point distribution analysis, the evaluation value of the non-detection area was calculated by the brightness difference from the teacher information, and these were added up to obtain the evaluation value. The variance within the detection region was calculated using the equation for obtaining X 2 by the interval method. Furthermore, the genetic manipulation was carried out according to the second embodiment.

具体的には、実施例では、評価値を以下の式を用いて算出した。

Figure 2021051617
A:非検出領域の面積
(i):検出領域を分割した各領域において検出有りとして反応したピクセル数
M:分割数
a:全検出領域内で検出有りとして反応したピクセル数
w:重み係数 Specifically, in the example, the evaluation value was calculated using the following formula.
Figure 2021051617
A: Area of non-detection area y M (i): Number of pixels that responded as detected in each area that divided the detection area M: Number of divisions a: Number of pixels that reacted as detected in all detection areas w: Weight coefficient

一方、参考例では、本発明の第二実施形態に係る画像処理装置の一部を変更したものを使用した。具体的には、参考例では教師情報として検出対象を1ピクセルごとに詳細に描画した画像情報を用いた。出力情報としては、検出対象が検出された場合、検出対象を表示する画像が作成された。また、教師情報としての画像情報と出力情報をピクセルごとに比較して平均二乗誤差を算出し、これを評価値として評価結果記憶部に記憶させた。また、遺伝子操作は実施例と同様に行った。 On the other hand, in the reference example, a partially modified image processing apparatus according to the second embodiment of the present invention was used. Specifically, in the reference example, the image information in which the detection target is drawn in detail for each pixel is used as the teacher information. As output information, when a detection target is detected, an image displaying the detection target is created. Further, the image information as the teacher information and the output information were compared for each pixel to calculate the mean square error, which was stored in the evaluation result storage unit as an evaluation value. In addition, the genetic manipulation was performed in the same manner as in the examples.

参考例及び実施例の試験条件を図6に示す。
学習用画像と検証用画像として、サイズ64×64pixelのものをそれぞれ50枚ずつ準備した。
ノードとしては、入力ノードと出力ノードを各1ノードとし、個体情報を構成する処理ノードを10ノードとした。機能単位記憶部10aに記憶させて使用したノードを図7〜図15に示す。
The test conditions of the reference example and the example are shown in FIG.
As a learning image and a verification image, 50 images each having a size of 64 × 64 pixel were prepared.
As the nodes, the input node and the output node were set to 1 node each, and the processing nodes constituting the individual information were set to 10 nodes. The nodes stored and used in the functional unit storage unit 10a are shown in FIGS. 7 to 15.

進化的計算は、進化の状態に拘わらず、世代数を5000世代として行った。親個体数を50個体、子個体数を62個体とした。子個体の内訳は、エリート保存によるものを2個体、一様交叉(変化率20%)によるものを20個体、突然変異(変化率15%)によるものを20個体、パラメータ変異(変化率10%)によるものを20個体である。 Evolutionary computation was performed assuming that the number of generations was 5000, regardless of the state of evolution. The number of parent individuals was 50, and the number of offspring was 62. The breakdown of the offspring is 2 individuals due to elite preservation, 20 individuals due to uniform crossover (change rate 20%), 20 individuals due to mutation (change rate 15%), and parameter variation (change rate 10%). ) Is 20 individuals.

学習用画像と検証用画像、及び教師情報は、図16に示すステップにより作成した。
なお、本実施例においては、学習用画像と検証用画像をプログラムで描画し、教師画像もプログラムで自動生成した。しかしながら、実際の検査場面においては、様々な欠陥について教師画像を自動で生成することは不可能であるため、教師画像は手作業で作成する必要がある。すなわち、参考例のように検査対象を1ピクセルごとに詳細に描画した画像を手作業で作成することを要するため非常に煩雑であり、従来は膨大な作業時間が必要であった。
The learning image, the verification image, and the teacher information were created by the steps shown in FIG.
In this embodiment, the learning image and the verification image were drawn by the program, and the teacher image was also automatically generated by the program. However, in an actual inspection scene, it is impossible to automatically generate a teacher image for various defects, so the teacher image needs to be created manually. That is, it is very complicated because it is necessary to manually create an image in which the inspection target is drawn in detail for each pixel as in the reference example, and a huge amount of work time has been required in the past.

まず、背景製作を行った(step1)。学習用画像と検証用画像については、各ピクセルに対して、輝度(128±25)をランダムに選択して描画した。参考例の教師画像と実施例の教師範囲については、黒塗りつぶしを行った。
次に、非検出対象の描画を行った(step2)。学習用画像と検証用画像については、画像中央に輝度(100〜120)、直径(22〜24pixel)、太さ(3〜5pixel)をランダムに選択し、非検出対象として輪を描いた。参考例の教師画像と実施例の教師範囲については、非検出対象物を描画しなかった。
First, the background was made (step1). For the training image and the verification image, the brightness (128 ± 25) was randomly selected and drawn for each pixel. The teacher image of the reference example and the teacher range of the example were blacked out.
Next, the non-detection target was drawn (step 2). For the learning image and the verification image, brightness (100 to 120), diameter (22 to 24 pixels), and thickness (3 to 5 pixels) were randomly selected in the center of the image, and a ring was drawn as a non-detection target. For the teacher image of the reference example and the teacher range of the example, the undetected object was not drawn.

次に、検出対象の描画を行った(step3)。学習用画像と検証用画像については、範囲(15〜25pixel、任意の位置)、数(15〜20個)、基準輝度(128±100)をランダムに選択し、各検出対象物について、直径(1〜3pixel)、基準輝度からの変化(0±25)をランダムに選択して、検出対象として範囲内に丸を描いた。参考例の教師画像については、検査対象と同じ形状の丸を白く塗りつぶした。実施例の教師範囲については、検出対象が存在する範囲を四角形状で白く塗りつぶした。 Next, the detection target was drawn (step 3). For the learning image and the verification image, the range (15 to 25 pixels, arbitrary position), number (15 to 20), and reference brightness (128 ± 100) are randomly selected, and the diameter (for each detection target) ( 1 to 3 pixels), the change from the reference brightness (0 ± 25) was randomly selected, and a circle was drawn within the range as the detection target. For the teacher image of the reference example, a circle with the same shape as the inspection target was painted white. Regarding the teacher range of the example, the range where the detection target exists was painted white in a square shape.

次に、ノイズを加える処理を行った(step4)。すなわち、学習用画像と検証用画像について、各ピクセルに対し、5%の確率で輝度(0〜50)をランダムに選択して元の輝度に足し合わせた。参考例の教師画像と実施例の教師範囲については、ノイズを加える処理は行わなかった。
さらに、ぼかしを加える処理を行った(step5)。すなわち、学習用画像と検証用画像について、ガウシアンフィルタ処理(カーネルサイズ3×3)を行った。参考例の教師画像と実施例の教師範囲については、ぼかしを加える処理は行わなかった。
このようにして作成した画像の一例を図16において示している。
Next, a process of adding noise was performed (step 4). That is, for the training image and the verification image, the brightness (0 to 50) was randomly selected with a probability of 5% for each pixel and added to the original brightness. No noise was added to the teacher image of the reference example and the teacher range of the example.
Further, a process of adding blur was performed (step 5). That is, the Gaussian filter processing (kernel size 3 × 3) was performed on the training image and the verification image. No blurring was performed on the teacher image of the reference example and the teacher range of the example.
An example of the image created in this way is shown in FIG.

評価値について、実施例と参考例では評価方法が異なるため、これらをそのまま比較することはできない。そこで、以下の式を用いて評価値の正規化を行った。

Figure 2021051617
As for the evaluation values, since the evaluation methods are different between the examples and the reference examples, they cannot be compared as they are. Therefore, the evaluation value was normalized using the following formula.
Figure 2021051617

実施例と参考例を比較するために、次に示す2×2クロス表を使用した。なお、参考例においては、検出領域と非検出領域の区別はないが、実施例と比較するために、検査対象と同じ形状の丸を白く塗りつぶした領域を検出領域とし、それ以外の領域を非検出領域として、検出対象が見つかった画像数を集計した。 The following 2x2 cross table was used to compare the examples with the reference examples. In the reference example, there is no distinction between the detection area and the non-detection area, but for comparison with the example, the area in which the circle having the same shape as the inspection target is painted in white is used as the detection area, and the other areas are not. As the detection area, the number of images for which the detection target was found was totaled.

Figure 2021051617
表1において、a、b、c、dは、以下を示す。
a:陽性の画像数(教師情報の検出領域において、検出対象が検出されたもの)
b:偽陽性の画像数(教師情報の非検出領域において、検出対象が検出されたもの)
c:偽陰性の画像数(教師情報の検出領域において、検出対象が検出されなかったもの)
d:陰性の画像数(教師情報の非検出領域において、検出対象が検出されなかったもの)
感度及び特異性は、1.0が最良値となる。
なお、本実施例では、学習用画像と検証用画像のそれぞれ50枚に対し、検出対象と非検出対象について比較しているため、a+b+c+d=100である。
Figure 2021051617
In Table 1, a, b, c, d indicate the following.
a: Number of positive images (detection target detected in the detection area of teacher information)
b: Number of false positive images (detection target detected in the non-detection area of teacher information)
c: Number of false negative images (the detection target was not detected in the detection area of the teacher information)
d: Number of negative images (the detection target was not detected in the non-detection area of the teacher information)
The best value for sensitivity and specificity is 1.0.
In this embodiment, since the detection target and the non-detection target are compared for 50 images each of the learning image and the verification image, a + b + c + d = 100.

上記試験の結果として、参考例及び実施例における正規化された評価値の遷移を表すグラフを図17に示す。また、参考例により得られた個体情報の構造(画像処理アルゴリズム)を図18に、実施例により得られた個体情報の構造を図19に示す。
なお、これらの評価値は学習用画像にもとづくものである。検証用画像の評価値は計算を行っているが、参考例及び実施例の評価値の比較には用いていない。
As a result of the above test, a graph showing the transition of the normalized evaluation values in the reference example and the example is shown in FIG. Further, the structure of individual information (image processing algorithm) obtained by the reference example is shown in FIG. 18, and the structure of the individual information obtained by the example is shown in FIG.
It should be noted that these evaluation values are based on the learning image. Although the evaluation values of the verification images are calculated, they are not used for comparison of the evaluation values of the reference example and the example.

まず、参考例では、1000世代付近で急激に評価値が改善され、1300世代付近で進化が停滞した。図18に示す参考例の個体情報の構造を参照すると、参考例では1ピクセルごとに教師画像と比較して詳細な出力情報を得るための複雑なネットワークを生成している。これは、進化的計算において、次に進化する方向を多方面に考慮する必要があったためと推測される。 First, in the reference example, the evaluation value improved sharply around the 1000th generation, and the evolution stagnated around the 1300th generation. With reference to the structure of the individual information of the reference example shown in FIG. 18, in the reference example, a complicated network for obtaining detailed output information is generated for each pixel by comparing with the teacher image. It is presumed that this is because it was necessary to consider the direction of next evolution in various directions in evolutionary computation.

これに対して、実施例では、1000世代までに大きな停滞無く順調に評価値が改善されていることが分かる。図19に示す実施例の個体情報の構造を参照すると、実施例では非常にシンプルなアルゴリズムが生成されている。これは、進化する方向が少なく済んでいたことに起因すると推測される。また、シンプルなアルゴリズムになったのは、教師画像が範囲として大まかに与えられたため、参考例と異なり詳細に1ピクセルごとに教師画像と比較する必要が無く、進化的計算において、大まかに検出されれば良いと教師画像を通して教えてられたことに起因すると考えられる。 On the other hand, in the examples, it can be seen that the evaluation values have been steadily improved by the 1000th generation without major stagnation. With reference to the structure of the individual information of the example shown in FIG. 19, a very simple algorithm is generated in the example. It is presumed that this is due to the fact that the direction of evolution was small. Also, the simple algorithm is because the teacher image is roughly given as a range, so unlike the reference example, it is not necessary to compare it with the teacher image in detail for each pixel, and it is roughly detected in evolutionary computation. It is thought that this is due to the fact that it was taught through the teacher image that it should be done.

また、上記試験の結果として、参考例による学習結果と検証結果の感度・特異性を図20に、実施例による学習結果と検証結果の感度・特異性を図21に示す。さらに、参考例及び実施例による正解画像と不正解画像の例を図22に示す。
図20と図21に示される結果を比較すると、学習結果と検証結果共に参考例より実施例は良い性能を示した。また、参考例では学習結果と検証結果で感度、特異性共に大きな差が見て取れることから、過学習が発生していることが分かる。これに対して、実施例では学習結果と検証結果に大きな違いは無く、過学習が抑制されていることが分かる。
As a result of the above test, FIG. 20 shows the sensitivity / specificity of the learning result and the verification result according to the reference example, and FIG. 21 shows the sensitivity / specificity of the learning result and the verification result according to the example. Further, FIG. 22 shows an example of a correct answer image and an incorrect answer image according to the reference example and the example.
Comparing the results shown in FIGS. 20 and 21, the examples showed better performance than the reference examples in both the learning result and the verification result. In addition, in the reference example, a large difference in sensitivity and specificity can be seen between the learning result and the verification result, indicating that overfitting has occurred. On the other hand, in the examples, there is no big difference between the learning result and the verification result, and it can be seen that overfitting is suppressed.

また、図22を参照すると、参考例では検出対象を詳細に検出しようとしており、実施例では検出対象について特徴的な部分のみを検出していることが分かる。その理由は、前述したように、実施例では検出対象が大まかに検出されれば良いとして教師情報が与えられていることに起因し、これが進化的計算に反映されて、参考例との性能差を生んだと推測される。なお、参考例と実施例ともに非検出対象とした中央の輪は検出せず、背景のノイズについては誤検出があった。 Further, referring to FIG. 22, it can be seen that the reference example attempts to detect the detection target in detail, and the embodiment detects only a characteristic portion of the detection target. The reason is that, as described above, in the examples, the teacher information is given as if the detection target should be roughly detected, and this is reflected in the evolutionary computation, and the performance difference from the reference example. Is presumed to have given birth to. In both the reference example and the example, the central ring that was not detected was not detected, and the background noise was erroneously detected.

以上のとおり、本試験によって、簡単に教師情報を作成可能な実施例の画像処理装置が、参考例の画像処理装置よりも検出性能が良いことが分かった。また、実施例の画像処理装置によれば、教師情報を作成する手間を大幅に低減できることも明らかとなった。 As described above, it was found from this test that the image processing device of the example in which the teacher information can be easily created has better detection performance than the image processing device of the reference example. It was also clarified that the image processing apparatus of the embodiment can significantly reduce the time and effort required to create teacher information.

本発明は、以上の実施形態に限定されるものではなく、本発明の範囲内において、種々の変更実施が可能であることは言うまでもない。
例えば、画像処理装置における各構成を複数の情報処理装置に分散して持たせたり、ノードとして実施例で用いたもの以外のものを含めて使用したりすることができる。
また、上記の画像処理装置を画像検査用に用い、画像処理装置を、画像入力部が検査用の画像を入力し、最も評価値の高い個体情報にもとづき画像処理部によって検査用の画像を処理して得られた処理結果情報を記憶する処理結果記憶部を備えた構成とするなど適宜変更することが可能である。
It goes without saying that the present invention is not limited to the above embodiments, and various modifications can be made within the scope of the present invention.
For example, each configuration in the image processing device can be distributed to a plurality of information processing devices, or can be used as a node including a node other than the one used in the embodiment.
Further, the above image processing device is used for image inspection, the image input unit inputs an image for inspection, and the image processing unit processes the image for inspection based on the individual information having the highest evaluation value. It is possible to make appropriate changes such as a configuration including a processing result storage unit for storing the processing result information obtained in the above process.

本発明は、設備や製品などの画像データにもとづき検査などを行う場合であって、画像処理が最適化された画像検査用の情報処理装置を得るために、好適に利用することが可能である。 INDUSTRIAL APPLICABILITY The present invention is a case where inspection or the like is performed based on image data of equipment or a product, and can be suitably used for obtaining an information processing apparatus for image inspection with optimized image processing. ..

1,1a 画像処理装置
10,10a 機能単位記憶部
11,11a 個体生成部
12,12a 個体群記憶部
121a 親個体群記憶部
122a 子個体群記憶部
13,13a 画像入力部
14,14a 画像記憶部
15,15a 教師情報入力部
16,16a 教師情報記憶部
17,17a 画像判定部
18,18a 出力情報記憶部
19,19a 評価値計算部
20,20a 評価結果記憶部
21,21a 遺伝子操作部
1,1a Image processing device 10,10a Functional unit storage unit 11,11a Individual generation unit 12, 12a Individual group storage unit 121a Parent population storage unit 122a Child population storage unit 13, 13a Image input unit 14, 14a Image storage unit 15,15a Teacher information input unit 16,16a Teacher information storage unit 17,17a Image judgment unit 18,18a Output information storage unit 19, 19a Evaluation value calculation unit 20, 20a Evaluation result storage unit 21,21a Gene manipulation unit

Claims (11)

生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する画像処理システムであって、
有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部と、
複数の学習用画像と複数の検証用画像を記憶する画像記憶部と、
前記学習用画像と前記検証用画像にそれぞれ対応付けられ、出力情報を評価するための、検出領域と非検出領域を区分する教師情報を記憶する教師情報記憶部と、
前記個体情報にもとづいて前記学習用画像と前記検証用画像を処理し、前記出力情報を生成する画像処理部と、
前記出力情報と前記教師情報を比較して前記個体情報の評価値を計算し、前記学習用画像を用いて計算した前記評価値にもとづき前記個体情報を順位付けする評価値計算部と、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部と、を備え、
前記評価値計算部が、前記教師情報の前記検出領域と前記非検出領域につき異なる計算方法により、前記学習用画像と前記検証用画像の前記検出領域の評価値と前記非検出領域の評価値を計算し、これらの評価値にもとづき前記個体情報の評価値を計算する
ことを特徴とする画像処理システム。
It is an image processing system that optimizes image processing that detects the detection target from an image by using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living things.
A population storage unit that stores multiple individual information that defines the execution order of multiple functional units in a network that can include a cycle, and a population storage unit.
An image storage unit that stores a plurality of learning images and a plurality of verification images,
A teacher information storage unit that stores teacher information that separates a detection area and a non-detection area for evaluating output information, which is associated with the learning image and the verification image, respectively.
An image processing unit that processes the learning image and the verification image based on the individual information and generates the output information.
An evaluation value calculation unit that calculates the evaluation value of the individual information by comparing the output information with the teacher information and ranks the individual information based on the evaluation value calculated using the learning image.
A gene manipulation unit that updates the population storage unit by selecting or changing the individual information based on the ranking information of the individual information is provided.
The evaluation value calculation unit calculates the evaluation value of the detection region and the evaluation value of the non-detection region of the learning image and the verification image by different calculation methods for the detection region and the non-detection region of the teacher information. An image processing system characterized by calculating and calculating the evaluation value of the individual information based on these evaluation values.
前記検出領域の評価値が点分布分析により計算されることを特徴とする請求項1記載の画像処理システム。 The image processing system according to claim 1, wherein the evaluation value of the detection region is calculated by point distribution analysis. 前記点分布分析がK関数法、最近隣距離、区画法の少なくともいずれかであることを特徴とする請求項2記載の画像処理システム。 The image processing system according to claim 2, wherein the point distribution analysis is at least one of a K-function method, a nearest neighborhood distance, and a partition method. 前記非検出領域の評価値が前記教師情報との輝度差により計算されることを特徴とする請求項1〜3のいずれかに記載の画像処理システム。 The image processing system according to any one of claims 1 to 3, wherein the evaluation value of the non-detection region is calculated based on the brightness difference from the teacher information. 前記画像処理部による処理に、ノイズ除去、輝度補正、2値化、エッジ検出、周波数フィルタ、及び四則演算処理の少なくともいずれかが含まれることを特徴とする請求項1〜4のいずれかに記載の画像処理システム。 The processing according to any one of claims 1 to 4, wherein the processing by the image processing unit includes at least one of noise removal, luminance correction, binarization, edge detection, frequency filter, and four-rule arithmetic processing. Image processing system. 前記画像処理部による処理に、前記画像における一定範囲の特徴量を算出する処理、及び前記特徴量にもとづいて前記一定範囲が検出対象であるか否かを判定する処理が含まれることを特徴とする請求項1〜5のいずれかに記載の画像処理システム。 The processing by the image processing unit is characterized in that it includes a process of calculating a feature amount in a certain range in the image and a process of determining whether or not the certain range is a detection target based on the feature amount. The image processing system according to any one of claims 1 to 5. 前記遺伝的操作部が、
前記評価値が高い個体情報を次世代に残すエリート保存部と、
前記評価値にもとづいて、一定の確率で個体情報を次世代に残す選択部と、
2つの個体情報の一部を相互に交換する交叉処理部と、
選択された1つの個体情報の一部又は全部をランダムに書き換える突然変異部と、を有する
ことを特徴とする請求項1〜6のいずれかに記載の画像処理システム。
The genetic manipulation unit
The elite storage unit that leaves individual information with high evaluation values to the next generation,
Based on the evaluation value, a selection unit that leaves individual information to the next generation with a certain probability,
A crossing processing unit that exchanges a part of two individual information with each other,
The image processing system according to any one of claims 1 to 6, further comprising a mutant portion that randomly rewrites a part or all of one selected individual information.
前記画像入力部が、検査用の画像を入力し、最も評価値の高い個体情報にもとづき前記画像処理部によって前記検査用の画像を処理して得られた処理結果情報を記憶する処理結果記憶部を備えたことを特徴とする請求項1〜7のいずれかに記載の画像処理システム。 The image input unit inputs an image for inspection, and the processing result storage unit stores the processing result information obtained by processing the image for inspection by the image processing unit based on the individual information having the highest evaluation value. The image processing system according to any one of claims 1 to 7, wherein the image processing system is provided. 生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する画像処理プログラムであって、
コンピュータを、
有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する複数の個体情報を記憶する個体群記憶部、
学習用画像と検証用画像を記憶する画像記憶部、
前記学習用画像と前記検証用画像にそれぞれ対応付けられ、出力情報を評価するための、検出領域と非検出領域を区分する教師情報を記憶する教師情報記憶部、
前記個体情報にもとづいて前記画像を処理し、前記出力情報を生成する画像処理部、
前記出力情報と前記教師情報を比較して評価値を計算し、前記学習用画像を用いて計算した前記評価値にもとづき前記個体情報を順位付けする評価値計算部、及び、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部として機能させ、
前記評価値計算部に、前記教師情報の前記検出領域と前記非検出領域につき異なる計算方法により、前記学習用画像と前記検証用画像の前記検出領域の評価値と前記非検出領域の評価値を計算させ、これらの評価値にもとづき前記個体情報の評価値を計算させる
ことを実行させるための画像処理プログラム。
An image processing program that optimizes image processing to detect a detection target from an image using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living organisms.
Computer,
A population storage unit that stores multiple individual information that defines the execution order of multiple functional units in a network that can include a cycle.
Image storage unit that stores learning images and verification images,
A teacher information storage unit that stores teacher information that separates a detection area and a non-detection area for evaluating output information, which is associated with the learning image and the verification image, respectively.
An image processing unit that processes the image based on the individual information and generates the output information.
An evaluation value calculation unit that calculates an evaluation value by comparing the output information with the teacher information and ranks the individual information based on the evaluation value calculated using the learning image, and an evaluation value calculation unit.
The individual information is selected or changed based on the ranking information of the individual information to function as a gene manipulation unit for updating the population storage unit.
The evaluation value calculation unit is provided with an evaluation value of the detection area and an evaluation value of the non-detection area of the learning image and the verification image by different calculation methods for the detection area and the non-detection area of the teacher information. An image processing program for calculating and calculating the evaluation value of the individual information based on these evaluation values.
前記検出領域の評価値が点分布分析により計算されることを特徴とする請求項9記載の画像処理プログラム。 The image processing program according to claim 9, wherein the evaluation value of the detection region is calculated by point distribution analysis. 前記非検出領域の評価値が前記教師情報との輝度差により計算されることを特徴とする請求項9又は10記載の画像処理プログラム。
The image processing program according to claim 9 or 10, wherein the evaluation value of the non-detection region is calculated based on the brightness difference from the teacher information.
JP2019174850A 2019-09-26 2019-09-26 Image processing system and image processing program Pending JP2021051617A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019174850A JP2021051617A (en) 2019-09-26 2019-09-26 Image processing system and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019174850A JP2021051617A (en) 2019-09-26 2019-09-26 Image processing system and image processing program

Publications (1)

Publication Number Publication Date
JP2021051617A true JP2021051617A (en) 2021-04-01

Family

ID=75156253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019174850A Pending JP2021051617A (en) 2019-09-26 2019-09-26 Image processing system and image processing program

Country Status (1)

Country Link
JP (1) JP2021051617A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011014047A (en) * 2009-07-03 2011-01-20 Nikon Corp Image processing apparatus, image processing method, and image processing program
JP2014095961A (en) * 2012-11-08 2014-05-22 Hitachi High-Technologies Corp Image analysis support apparatus and method
JP2017182552A (en) * 2016-03-31 2017-10-05 株式会社Screenホールディングス Process flow generating system, process flow generating method, and program
WO2019026104A1 (en) * 2017-07-31 2019-02-07 富士通株式会社 Information processing device, information processing program, and information processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011014047A (en) * 2009-07-03 2011-01-20 Nikon Corp Image processing apparatus, image processing method, and image processing program
JP2014095961A (en) * 2012-11-08 2014-05-22 Hitachi High-Technologies Corp Image analysis support apparatus and method
JP2017182552A (en) * 2016-03-31 2017-10-05 株式会社Screenホールディングス Process flow generating system, process flow generating method, and program
WO2019026104A1 (en) * 2017-07-31 2019-02-07 富士通株式会社 Information processing device, information processing program, and information processing method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHONG QU ET AL.: ""The Algorithm of Concrete Surface Crack Detection Based on the Genetic Programming and Percolation", IEEE ACCESS, vol. 7, JPN6023027125, 1 May 2019 (2019-05-01), US, pages 57592 - 57603, XP011724163, ISSN: 0005098042, DOI: 10.1109/ACCESS.2019.2914259 *
白川 真一、外2名: ""Genetic Image Networkによる画像変換の自動構築"", 情報処理学会論文誌, vol. Vol.48, No.SIG 19 (TOM 19), JPN6023027126, 15 December 2007 (2007-12-15), JP, pages 117 - 126, ISSN: 0005098041 *

Similar Documents

Publication Publication Date Title
CN109919934B (en) Liquid crystal panel defect detection method based on multi-source domain deep transfer learning
Farhan et al. A novel method for splitting clumps of convex objects incorporating image intensity and using rectangular window-based concavity point-pair search
CN109961437A (en) A kind of conspicuousness fabric defect detection method under the mode based on machine teaching
JP4660765B2 (en) Evolutionary image automatic classification apparatus, filter structure generation method, and program
Georgieva et al. Intelligent visual recognition and classification of cork tiles with neural networks
JP6177649B2 (en) Data processing apparatus, length measurement system, defect inspection system, image tracking system, and data processing method
JP7468088B2 (en) Image processing system and image processing program
JP2021051617A (en) Image processing system and image processing program
JP2021165909A (en) Information processing apparatus, information processing method for information processing apparatus, and program
JP2020107008A (en) Image processing system, and image processing program
JP2022089430A (en) Image processing system, and image processing program
Corona et al. A new method to solve rotated template matching using metaheuristic algorithms and the structural similarity index
CN116452845A (en) Bird fine granularity image classification method based on data enhancement
JP7247578B2 (en) Image processing system and image processing program
JP7314711B2 (en) Image processing system and image processing program
CN115018787A (en) Anomaly detection method and system based on gradient enhancement
JP7314723B2 (en) Image processing system and image processing program
JP7206892B2 (en) Image inspection device, learning method for image inspection, and image inspection program
CN114399491A (en) Human face image quality evaluation method and device and computer readable storage medium
JP7120528B2 (en) Classifier construction method, image classification method, classifier construction device, and image classification device
Gharehchopogh et al. A novel approach for edge detection in images based on cellular learning automata
CN113343918A (en) Power equipment identification method, system, medium and electronic equipment
CN113449631A (en) Image classification method and system
CN117934525A (en) Initialization method of image edge detection model
JP7404962B2 (en) Image processing system and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231114