JP7404962B2 - Image processing system and image processing program - Google Patents

Image processing system and image processing program Download PDF

Info

Publication number
JP7404962B2
JP7404962B2 JP2020052175A JP2020052175A JP7404962B2 JP 7404962 B2 JP7404962 B2 JP 7404962B2 JP 2020052175 A JP2020052175 A JP 2020052175A JP 2020052175 A JP2020052175 A JP 2020052175A JP 7404962 B2 JP7404962 B2 JP 7404962B2
Authority
JP
Japan
Prior art keywords
classification
individual information
unit
singularity
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020052175A
Other languages
Japanese (ja)
Other versions
JP2021152687A (en
Inventor
賢 柏原
直己 高橋
圭亨 中村
萌子 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Seikan Group Holdings Ltd
Original Assignee
Toyo Seikan Group Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Seikan Group Holdings Ltd filed Critical Toyo Seikan Group Holdings Ltd
Priority to JP2020052175A priority Critical patent/JP7404962B2/en
Publication of JP2021152687A publication Critical patent/JP2021152687A/en
Application granted granted Critical
Publication of JP7404962B2 publication Critical patent/JP7404962B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像から検出対象を見つけ出す画像処理技術に関し、特に画像処理を最適化する画像処理システムに関する。 The present invention relates to an image processing technique for finding a detection target from an image, and particularly to an image processing system that optimizes image processing.

従来、画像から検出対象を見つけ出す画像処理アルゴリズムの自動生成において、複数の機能単位の実行順序を定義する個体情報を用いて学習用画像に対して画像処理を行い、得られた出力画像を教師画像と比較して評価値を計算し、その結果を個体情報に反映させることにより学習を行って、画像処理を最適化することが行われている。
このような画像処理として、画像の特異点の探索、特異点の特徴量計算、及び特異点の分類等を挙げることができる。
Conventionally, in automatic generation of image processing algorithms that find detection targets from images, image processing is performed on training images using individual information that defines the execution order of multiple functional units, and the resulting output image is used as a teacher image. Image processing is optimized by performing learning by calculating evaluation values by comparing the results with individual information and reflecting the results in individual information.
Examples of such image processing include searching for a singular point in an image, calculating a feature amount of a singular point, and classifying a singular point.

ところで、探索によって得られた特異点には、許容できるもの(以下、良品)と許容できないもの(以下、不良品)が含まれる可能性がある。このため、特異点の探索において、良品の特異点が検出された場合には、特異点は良品として分類され、不良品の特異点が検出された場合には、特異点は不良品として分類されることが望ましい。また、不良品の種類を分類できればより望ましい。 Incidentally, the singular points obtained through the search may include those that are acceptable (hereinafter referred to as non-defective products) and those that are unacceptable (hereinafter referred to as defective products). Therefore, in the search for singular points, if a singular point of a non-defective product is detected, the singular point is classified as a non-defective product, and if a singular point of a defective product is detected, the singular point is classified as a defective product. It is desirable that It would also be more desirable if the types of defective products could be classified.

また、特異点の探索、特異点の特徴量計算、及び特異点の分類には関連性があるため、分類結果が特異点の探索に反映されると、これらの処理の関連性にもとづく相乗効果が期待できる。
一方、これらの処理を個別に最適化する画像処理システムでは、その関連性が反映されないため、相乗効果を期待することができない。また、関連性を人間が考慮してチューニングすることは非常に難しく、現実的には不可能である。
In addition, since there is a relationship between the search for singular points, the calculation of feature values for singular points, and the classification of singular points, when the classification results are reflected in the search for singular points, a synergistic effect based on the relationship between these processes will occur. can be expected.
On the other hand, in an image processing system that individually optimizes these processes, the relationship between them is not reflected, so synergistic effects cannot be expected. Furthermore, it is extremely difficult and practically impossible for humans to tune by taking relevance into account.

特許第4660765号公報Patent No. 4660765 特許第4688954号公報Patent No. 4688954 特許第6646234号公報Patent No. 6646234

ここで、画像を分類するため最適な特徴量を見つけ出す画像処理アルゴリズムの自動生成技術として、特許文献1に記載の進化型画像自動分類装置を挙げることができる。この装置では、進化的計算の一つである遺伝的アルゴリズムを用いて、画像分類を目的とした画像処理および特徴量の探索の最適化が行われている。
また、特許文献2に記載の特徴量選択装置では、画像の特徴量計算について、遺伝的アルゴリズムを用いた最適化が行われている。
さらに、特許文献3に記載のプログラム生成装置では、画像処理および特徴量計算、及び画像の分類手法について、遺伝的プログラミングを用いた最適化が行われている。
Here, as an example of a technology for automatically generating an image processing algorithm that finds optimal feature amounts for classifying images, an evolutionary automatic image classification device described in Patent Document 1 can be mentioned. This device uses a genetic algorithm, which is a type of evolutionary computation, to optimize image processing and feature search for the purpose of image classification.
Furthermore, in the feature quantity selection device described in Patent Document 2, optimization using a genetic algorithm is performed for image feature quantity calculation.
Furthermore, in the program generation device described in Patent Document 3, image processing, feature amount calculation, and image classification method are optimized using genetic programming.

しかしながら、これらの手法は画像単位で分類を実施するため、複数の検出対象が写る画像に対して検出対象ごとに分類する機能や、これらの画像処理の関連性にもとづく相乗効果及び分類精度をより一層高めることが可能な画像処理システムの提供が望まれていた。
本発明は、上記事情に鑑みてなされたものであり、画像処理アルゴリズムの自動生成において、画像に写る検出対象である特異点の探索、特異点の特徴量計算、及び特異点の分類の相乗効果及び分類精度を、遺伝的操作を用いて最適化することが可能な画像処理システム、及び画像処理プログラムの提供を目的とする。
However, these methods perform classification on an image-by-image basis, so it is necessary to have a function to classify images containing multiple detection targets for each detection target, and to improve the synergistic effect and classification accuracy based on the relationship of these image processes. It has been desired to provide an image processing system that can further improve the performance.
The present invention has been made in view of the above circumstances, and utilizes the synergistic effect of searching for a singular point to be detected in an image, calculating feature quantities of the singular point, and classifying the singular point in automatically generating an image processing algorithm. The present invention aims to provide an image processing system and an image processing program that can optimize the classification accuracy using genetic manipulation.

上記目的を達成するため、本発明の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出して、その検出対象を分類する処理を最適化する画像処理システムであって、複数の機能単位の実行順序を定義する複数の個体情報を、検出対象である特異点を探索する機能単位からなる特異点探索用領域と、探索された特異点を分類する機能単位からなる、分類器を含む分類用領域とを備えた構成で記憶する個体群記憶部と、複数の学習用画像を記憶する画像記憶部と、前記個体情報における前記特異点探索用領域の機能単位にもとづき前記学習用画像を処理して、特異点探索結果を生成する特異点探索部と、前記個体情報における前記分類用領域の機能単位にもとづき前記特異点探索結果を処理すると共に、前記分類器の機械学習を行って学習済み分類器を生成し、前記学習用画像における特異点を分類する分類結果を生成する分類部と、前記特異点探索結果を評価するための前記学習用画像に対応付けられた教師情報を記憶する教師情報記憶部と、前記特異点探索結果と前記教師情報を比較して特異点探索の評価値を計算し、前記分類結果にもとづき分類の評価値を計算し、前記特異点探索の評価値と前記分類の評価値にもとづき前記個体情報の評価値を計算して前記個体情報を順位付けする評価部と、前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部とを備える構成としてある。 In order to achieve the above object, the image processing system of the present invention detects a detection target from an image using genetic manipulation, which is an optimization method that mathematically simulates biological evolution, and classifies the detection target. An image processing system that optimizes the processing of a plurality of individual information that defines the execution order of a plurality of functional units, and a singularity search area consisting of a functional unit that searches for a singularity that is a detection target, and a search a population storage unit configured to store a classification area including a classifier, which is made up of a functional unit for classifying singular points, an image storage unit that stores a plurality of learning images; a singularity search unit that processes the learning image based on the functional unit of the singularity search area and generates a singularity search result; a classification unit that processes the results, performs machine learning on the classifier to generate a trained classifier, and generates a classification result for classifying singular points in the learning image; and evaluates the singular point search results. a teacher information storage unit that stores teacher information associated with the learning image for the training; and calculates an evaluation value of the singularity search by comparing the singularity search result and the teacher information, and calculates an evaluation value of the singularity search based on the classification result. an evaluation unit that calculates an evaluation value of classification, calculates an evaluation value of the individual information based on the evaluation value of the singularity search and the evaluation value of the classification, and ranks the individual information; and a ranking of the individual information. The configuration includes a genetic manipulation unit that selects or changes the individual information based on the information and updates the individual population storage unit.

また、本発明の画像処理システムは、前記特異点探索用領域と前記分類用領域とが、同一の個体情報において連続的に含まれ、又は、別個の個体情報に含まれた構成としてある。 Further, the image processing system of the present invention is configured such that the singular point search area and the classification area are successively included in the same individual information, or are included in separate individual information.

また、本発明の画像処理システムは、前記分類部が、前記特異点探索結果における特異点の特徴量を計算する特徴量計算部と、前記特異点の特徴量にもとづき前記特異点を分類する前記分類器の機械学習を行う分類器学習部を有する構成としてある。 Further, in the image processing system of the present invention, the classification section includes a feature amount calculation section that calculates the feature amount of the singular point in the singular point search result, and a feature amount calculation section that classifies the singular point based on the feature amount of the singular point. The configuration includes a classifier learning section that performs machine learning of the classifier.

また、本発明の画像処理システムを、前記分類用領域が、サポートベクターマシン(Support Vector Machine)、ニューラルネットワーク、ランダムフォレスト、若しくはスパースモデリングからなる群から選択されたいずれかの教師あり学習を行う分類器、又は、マハラノビスタグチ法、ワンクラスサポートベクターマシン(One Class Support Vector Machine)、オートエンコーダ、混合ガウス法、若しくはk-means法からなる群から選択されたいずれかの教師なし学習を行う分類器を含む構成とすることも好ましい。 Further, the image processing system of the present invention may be used for classification in which the classification region performs any supervised learning selected from the group consisting of a support vector machine, a neural network, a random forest, or sparse modeling. or a classifier that performs unsupervised learning selected from the group consisting of Mahalanobistaguchi method, One Class Support Vector Machine, autoencoder, Gaussian mixture method, or k-means method. It is also preferable to have a configuration including.

また、本発明の画像処理システムを、前記分類用領域が、前記教師なし学習を行う分類器を含み、前記画像記憶部が、複数の検証用画像をさらに記憶し、前記特異点探索部が、前記個体情報における前記特異点探索用領域の機能単位にもとづき前記検証用画像を処理して、特異点探索結果を生成し、前記分類部が、前記特異点探索結果における特異点の特徴量を計算し、前記特異点の特徴量にもとづいて、前記学習済み分類器を用いて前記検証用画像における前記特異点を分類する構成とすることも好ましい。 Further, in the image processing system of the present invention, the classification area includes the classifier that performs the unsupervised learning, the image storage unit further stores a plurality of verification images, and the singularity search unit: Processing the verification image based on the functional unit of the singularity search area in the individual information to generate a singularity search result, and the classification unit calculating the feature amount of the singularity in the singularity search result. However, it is also preferable that the singular point in the verification image be classified using the learned classifier based on the feature amount of the singular point.

また、本発明の画像処理システムを、前記特異点探索結果を学習用特異点探索結果と検証用特異点探索結果に分割する特異点分割部をさらに備え、前記分類部が、前記個体情報における前記分類用領域の機能単位にもとづき前記学習用特異点探索結果を処理すると共に、前記分類器の機械学習を行って学習済み分類器を生成し、前記個体情報における前記分類用領域の機能単位にもとづき前記検証用特異点探索結果を処理すると共に、前記学習済み分類器を用いて前記検証用画像における特異点を分類する分類結果を生成する構成とすることも好ましい。 The image processing system of the present invention further includes a singularity dividing unit that divides the singularity search result into a learning singularity search result and a verification singularity search result, and the classification unit is configured to divide the singularity search result into a learning singularity search result and a verification singularity search result. Processing the learning singularity search result based on the functional unit of the classification area, performing machine learning of the classifier to generate a trained classifier, and processing the training singularity search result based on the functional unit of the classification area in the individual information. It is also preferable to process the verification singularity search result and generate a classification result for classifying the singularity in the verification image using the learned classifier.

また、本発明の画像処理プログラムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出して、その検出対象を分類する処理を最適化する画像処理プログラムであって、コンピュータを、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出して、その検出対象を分類する処理を最適化する画像処理システムであって、複数の機能単位の実行順序を定義する複数の個体情報を、検出対象である特異点を探索する機能単位からなる特異点探索用領域と、探索された特異点を分類する機能単位からなる、分類器を含む分類用領域とを備えた構成で記憶する個体群記憶部、複数の学習用画像を記憶する画像記憶部、前記個体情報における前記特異点探索用領域の機能単位にもとづき前記学習用画像を処理して、特異点探索結果を生成する特異点探索部、前記個体情報における前記分類用領域の機能単位にもとづき前記特異点探索結果を処理すると共に、前記分類器の機械学習を行って学習済み分類器を生成し、前記学習用画像における特異点を分類する分類結果を生成する分類部、前記特異点探索結果を評価するための前記学習用画像に対応付けられた教師情報を記憶する教師情報記憶部、前記特異点探索結果と前記教師情報を比較して特異点探索の評価値を計算し、前記分類結果にもとづき分類の評価値を計算し、前記特異点探索の評価値と前記分類の評価値にもとづき前記個体情報の評価値を計算して前記個体情報を順位付けする評価部、及び、前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部として機能させる構成としてある。 In addition, the image processing program of the present invention uses genetic manipulation, which is an optimization method that mathematically simulates biological evolution, to detect a detection target from an image and optimize the process of classifying the detection target. An image processing program that uses a computer to detect a detection target from an image and optimize the process of classifying the detection target using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living things. An image processing system that uses a plurality of individual information that defines the execution order of a plurality of functional units as a singularity search area consisting of a functional unit that searches for a singularity that is a detection target, and a singularity that is searched for. a population storage unit configured to store a classification area including a classifier, which is composed of a functional unit for classifying the information; an image storage unit that stores a plurality of learning images; and an area for searching for the singularity in the individual information. a singularity search unit that processes the learning image based on the functional unit of the training image to generate a singularity search result; a singularity search unit that processes the singularity search result based on the functional unit of the classification area in the individual information; A classification unit that performs machine learning of the classifier to generate a trained classifier and generates a classification result for classifying singular points in the training image, and corresponds to the training image for evaluating the singularity search results. a teacher information storage unit that stores assigned teacher information, calculates an evaluation value of the singularity search by comparing the singularity search result and the teacher information, calculates an evaluation value of the classification based on the classification result, and calculates the evaluation value of the classification based on the classification result; an evaluation unit that calculates an evaluation value of the individual information based on the evaluation value of the singular point search and the evaluation value of the classification and ranks the individual information, and selects the individual information based on the ranking information of the individual information. Alternatively, the genetic manipulation section may be configured to function as a genetic manipulation section that updates the population storage section by making changes.

本発明によれば、画像処理アルゴリズムの自動生成において、画像に写る検出対象である特異点の探索、特異点の特徴量計算、及び特異点の分類の相乗効果及び分類精度を、遺伝的操作を用いて最適化することが可能な画像処理システム、及び画像処理プログラムの提供が可能となる。 According to the present invention, in the automatic generation of an image processing algorithm, genetic manipulation is performed to search for a singular point that is a detection target in an image, calculate the feature amount of the singular point, and improve the synergistic effect and classification accuracy of the singular point classification. It becomes possible to provide an image processing system and an image processing program that can be used and optimized.

本発明の第一実施形態の画像処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an image processing device according to a first embodiment of the present invention. 本発明の第一実施形態の画像処理装置における機能単位記憶部のデータ例を示す図である。FIG. 3 is a diagram showing an example of data in a functional unit storage unit in the image processing apparatus according to the first embodiment of the present invention. 本発明の第一実施形態の画像処理装置における機能単位記憶部のデータ例を示す図である。FIG. 3 is a diagram showing an example of data in a functional unit storage unit in the image processing apparatus according to the first embodiment of the present invention. 本発明の第一実施形態の画像処理装置における機能単位記憶部のデータ例を示す図である。FIG. 3 is a diagram showing an example of data in a functional unit storage unit in the image processing apparatus according to the first embodiment of the present invention. 本発明の第一実施形態の画像処理装置における個体群記憶部の個体情報(遺伝子連続型)を示す図である。FIG. 3 is a diagram showing individual information (gene continuous type) in an individual group storage unit in the image processing device according to the first embodiment of the present invention. 本発明の第一実施形態の画像処理装置における個体群記憶部(個体情報における特異点探索用ノード領域)のデータ例を示す図である。FIG. 3 is a diagram illustrating an example of data in an individual group storage unit (node area for singular point search in individual information) in the image processing apparatus according to the first embodiment of the present invention. 本発明の第一実施形態の画像処理装置における個体群記憶部(個体情報における分類用ノード領域)のデータ例を示す図である。FIG. 3 is a diagram showing an example of data in an individual group storage unit (a classification node area in individual information) in the image processing apparatus according to the first embodiment of the present invention. 本発明の第一実施形態の画像処理装置による処理手順を示すフローチャートである。3 is a flowchart showing a processing procedure by the image processing apparatus according to the first embodiment of the present invention. 本発明の第一実施形態の画像処理装置による遺伝子操作の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of genetic manipulation by the image processing device of the first embodiment of the present invention. 本発明の第二実施形態の画像処理装置の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of an image processing device according to a second embodiment of the present invention. 本発明の第二実施形態の画像処理装置による処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure by the image processing device of the second embodiment of the present invention. 本発明の第三実施形態の画像処理装置の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of an image processing device according to a third embodiment of the present invention. 本発明の第三実施形態の画像処理装置における個体群記憶部の個体情報(遺伝子分離型)を示す図である。It is a figure which shows the individual information (gene separation type) of the population storage part in the image processing apparatus of 3rd embodiment of this invention. 本発明の第三実施形態の画像処理装置による処理手順を示すフローチャートである。It is a flow chart which shows a processing procedure by an image processing device of a third embodiment of the present invention. 本発明の第四実施形態の画像処理装置の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of an image processing device according to a fourth embodiment of the present invention. 本発明の第四実施形態の画像処理装置による処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure by the image processing device of the fourth embodiment of the present invention. 本発明の第五実施形態の画像処理装置の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of an image processing device according to a fifth embodiment of the present invention. 本発明の第五実施形態の画像処理装置による処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure by the image processing device of the fifth embodiment of the present invention. 本発明の第六実施形態の画像処理装置の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of an image processing device according to a sixth embodiment of the present invention. 本発明の第六実施形態の画像処理装置による処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure by the image processing device of the sixth embodiment of the present invention. 本発明の第七実施形態の画像処理装置の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of an image processing device according to a seventh embodiment of the present invention. 本発明の第七実施形態の画像処理装置による処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure by the image processing apparatus of 7th embodiment of this invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention. 本発明の各実施形態の画像処理装置における機能単位記憶部の詳細データ例を示す図である。FIG. 3 is a diagram showing an example of detailed data of a functional unit storage unit in an image processing apparatus according to each embodiment of the present invention.

以下、本発明の画像処理システム、及び画像処理プログラムの実施形態について詳細に説明する。ただし、本発明は、以下の実施形態の具体的な内容に限定されるものではない。 Embodiments of the image processing system and image processing program of the present invention will be described in detail below. However, the present invention is not limited to the specific contents of the following embodiments.

[第一実施形態]
まず、本発明の第一実施形態に係る画像処理システム、及び画像処理プログラムについて、図1、図2A,B,C、図3、及び図4A,Bを参照して説明する。図1は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図である。図2A,B,Cは、当該画像処理装置における機能単位記憶部のデータ例を示す図である。図3は、当該画像処理装置におけるにおける個体群記憶部の個体情報(遺伝子連続型)を示す図である。図4Aは、当該画像処理装置における個体群記憶部(個体情報における特異点探索用ノード領域)のデータ例を示す図であり、図4Bは、当該画像処理装置における個体群記憶部(個体情報における分類用ノード領域)のデータ例を示す図である。
[First embodiment]
First, an image processing system and an image processing program according to a first embodiment of the present invention will be described with reference to FIG. 1, FIGS. 2A, B, and C, FIG. 3, and FIGS. 4A and B. FIG. 1 is a block diagram showing the configuration of an image processing apparatus corresponding to the image processing system of this embodiment. 2A, B, and C are diagrams showing examples of data in a functional unit storage section in the image processing apparatus. FIG. 3 is a diagram showing individual information (gene continuous type) in an individual population storage unit in the image processing apparatus. FIG. 4A is a diagram showing an example of data in the population storage unit (node area for singular point search in individual information) in the image processing device, and FIG. 4B is a diagram showing an example of data in the population storage unit (node area for singularity search in individual information) in the image processing device FIG. 3 is a diagram showing an example of data of a classification node area.

本実施形態の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化するものである。
具体的には、本実施形態の画像処理装置1は、図1に示すように、機能単位記憶部10、個体生成部11、個体群記憶部12、画像入力部13、画像記憶部14、教師情報入力部15、教師情報記憶部16、比較情報入力部17、比較情報記憶部18、特異点探索画像処理部19、特異点探索結果記憶部20、探索評価値計算部21、探索評価結果記憶部22、特徴量計算部23、特徴量記憶部24、分類器学習部25、学習済み分類器記憶部26、分類結果記憶部27、分類評価値計算部28、分類評価結果記憶部29、個体評価値計算部30、個体評価結果記憶部31、及び遺伝子操作部32を備えている。
The image processing system of this embodiment optimizes image processing for detecting a detection target from an image using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living things.
Specifically, as shown in FIG. 1, the image processing device 1 of this embodiment includes a functional unit storage section 10, an individual generation section 11, an individual population storage section 12, an image input section 13, an image storage section 14, and a teacher. Information input unit 15, teacher information storage unit 16, comparison information input unit 17, comparison information storage unit 18, singularity search image processing unit 19, singularity search result storage unit 20, search evaluation value calculation unit 21, search evaluation result storage unit 22, feature quantity calculation unit 23, feature quantity storage unit 24, classifier learning unit 25, learned classifier storage unit 26, classification result storage unit 27, classification evaluation value calculation unit 28, classification evaluation result storage unit 29, individual It includes an evaluation value calculation section 30, an individual evaluation result storage section 31, and a gene manipulation section 32.

本実施形態において、特異点探索画像処理部19と特異点探索結果記憶部20を含む構成を「特異点探索部」1(A)と総称する。また、特徴量計算部23と特徴量計算部24と分類器学習部25と学習済み分類器記憶部26と分類結果記憶部27を含む構成を「分類部」1(B)と総称する。また、探索評価値計算部21と探索評価結果記憶部22と分類評価値計算部28と分類評価結果記憶部29と個体評価値計算部30と個体評価結果記憶部31を含む構成を「評価部」1(C)と総称する。
本実施形態の画像処理装置1におけるこれらの各構成は、図1に示すように一個の情報処理装置に全て備えることができる。また、これらの各構成は、複数の情報処理装置からなる画像処理システムの各装置に分散して備えてもよい。これは、後述する各実施形態についても同様である。
In this embodiment, the configuration including the singularity search image processing section 19 and the singularity search result storage section 20 is collectively referred to as a "singularity search section" 1(A). Further, the configuration including the feature amount calculation section 23, the feature amount calculation section 24, the classifier learning section 25, the learned classifier storage section 26, and the classification result storage section 27 is collectively referred to as a "classification section" 1(B). In addition, the configuration including the search evaluation value calculation section 21, the search evaluation result storage section 22, the classification evaluation value calculation section 28, the classification evaluation result storage section 29, the individual evaluation value calculation section 30, and the individual evaluation result storage section 31 is referred to as the "evaluation section". 1(C).
All of these configurations in the image processing device 1 of this embodiment can be included in one information processing device as shown in FIG. Further, each of these configurations may be distributed and provided in each device of an image processing system including a plurality of information processing devices. This also applies to each embodiment described below.

機能単位記憶部10は、ある処理を実行する機能単位であるノード(遺伝子に相当する)をノード番号ごとに記憶する。
ノードの種類としては、図2A,Bに示すような様々な処理を行うものを用いることができる。すなわち、例えば色空間処理(グレー変換、RGB変換、Lab変換、XYZ変換、HSV変換)、特徴量抽出範囲の変形処理(膨張、縮小、穴埋め、周囲)、特徴量抽出処理(特徴量抽出範囲の輝度の平均値、標準偏差、最大値、最小値、最大値-最小値、中央値、歪度、尖度、特徴量抽出範囲の面積、周囲長、円形度、外接四角形アスペクト比、外接四角形面積比)、ノイズ除去処理(移動平均フィルタ、ガウシアン、バイラテラル、最大値フィルタ、最小値フィルタ、中央値フィルタ、閾値付き移動平均フィルタ、閾値付きガウシアンフィルタ、閾値付き中央値フィルタ)、輝度補正処理(シグモイド補正、ガンマ補正、ヒストグラム平坦化、輝度減算、輝度反転、正規化、シェーディング補正)、2値化処理(範囲内を白、範囲内を黒、その他各種判別分析法)、エッジ検出処理(ソーベル、ラプラシアン(4近傍)、ラプラシアン(8近傍)、キャニー、アンシャープフィルタ)、周波数フィルタ処理(ローパスフィルタ、ハイパスフィルタ)、演算処理(最大値、最小値、加算、減算、積算、除算、代数和、代数積、限界積、激烈和、激烈積)、モフォロジ処理(オープニング、クロージング)、検出対象判定処理(ラベリング、面積判定、円形度判定、外接四角形アスペクト比判定、外接四角形面積比判定、輝度平均判定、輝度標準偏差判定、輝度最大値判定、輝度最小値判定)、分岐処理(輝度の平均値、輝度の標準偏差、輝度の最大値、輝度の最小値、輝度の最大値-最小値、輝度の中央値)、教師あり学習(サポートベクターマシン(SVM)、ニューラルネットワーク、ランダムフォレスト、スパースモデリング)、教師なし学習(マハラノビスタグチ法(MT法)、one class サポートベクターマシン(SVM)、オートエンコーダ、混合ガウス法、k-means(多クラス分類))、及び特定の処理を行わないもの(処理無し)を用いることができる。
これらのノードは、それぞれの処理の実行に用いるパラメータが存在する場合には、そのパラメータと共に機能単位記憶部10に記憶される。なお、これらのノードのより詳細なデータを図20A~Lに示す。
The functional unit storage unit 10 stores nodes (corresponding to genes), which are functional units that execute a certain process, for each node number.
As the type of node, nodes that perform various processes as shown in FIGS. 2A and 2B can be used. That is, for example, color space processing (gray conversion, RGB conversion, Lab conversion, XYZ conversion, HSV conversion), transformation processing of feature extraction range (dilation, reduction, hole filling, surroundings), feature extraction processing (feature extraction range Average brightness value, standard deviation, maximum value, minimum value, maximum value-minimum value, median value, skewness, kurtosis, area of feature extraction range, perimeter, circularity, circumscribed rectangle aspect ratio, circumscribed rectangle area ratio), noise removal processing (moving average filter, Gaussian, bilateral, maximum value filter, minimum value filter, median filter, moving average filter with threshold, Gaussian filter with threshold, median filter with threshold), brightness correction processing ( sigmoid correction, gamma correction, histogram flattening, brightness subtraction, brightness inversion, normalization, shading correction), binarization processing (white within the range, black within the range, and various other discriminant analysis methods), edge detection processing (Sobel , Laplacian (4 neighbors), Laplacian (8 neighbors), Canny, unsharp filter), frequency filter processing (low pass filter, high pass filter), arithmetic processing (maximum value, minimum value, addition, subtraction, multiplication, division, algebraic sum) , algebraic product, marginal product, intense sum, intense product), morphology processing (opening, closing), detection target determination processing (labeling, area determination, circularity determination, circumscribed rectangle aspect ratio determination, circumscribed rectangle area ratio determination, brightness average judgment, brightness standard deviation judgment, maximum brightness value judgment, minimum brightness value judgment), branch processing (average brightness, standard deviation of brightness, maximum brightness, minimum brightness, maximum - minimum brightness, brightness) ), supervised learning (support vector machine (SVM), neural network, random forest, sparse modeling), unsupervised learning (Mahalanovistaguchi method (MT method), one class support vector machine (SVM), autoencoder, Gaussian mixture method, k-means (multi-class classification)), and methods that do not perform specific processing (no processing) can be used.
These nodes are stored in the functional unit storage unit 10 together with parameters used to execute each process, if any. Note that more detailed data of these nodes are shown in FIGS. 20A to 20L.

また、ノードとして、上記のように特定の処理を行わないものを用いてもよく、複数の処理を実行する機能単位をまとめたものを1個のノード(ノードセット)として用いてもよい。ノードとして特定の処理を実行しないものを含めて用いることにより、例えば個体情報を生成するための初期ノード数の設定値が多すぎた場合などに、実質的なノード数を減らすことができる。 Furthermore, a node that does not perform any specific processing as described above may be used, or a node (node set) that is a collection of functional units that perform a plurality of processing may be used. By using nodes that do not perform specific processing, the actual number of nodes can be reduced, for example, when the initial number of nodes for generating individual information is set too high.

個体生成部11は、機能単位記憶部10に記憶されているノードを用いて、複数のノードの配列からなる複数の個体情報を生成する。この個体情報が、画像処理アルゴリズムを構成する。
本実施形態において、個体情報は、図3に示すように、特異点探索用のノードからなる領域(以下、特異点探索用ノード領域)と、分類用のノードからなる領域(以下、分類用ノード領域)とを有している。なお、前述のとおり、個体情報には、特定の処理を行わないノードが含まれる場合があるが、これについては省略する。以下の実施形態においても同様である。
The individual generation unit 11 uses the nodes stored in the functional unit storage unit 10 to generate a plurality of pieces of individual information consisting of an arrangement of a plurality of nodes. This individual information constitutes an image processing algorithm.
In this embodiment, as shown in FIG. area). Note that, as described above, the individual information may include nodes that do not perform specific processing, but this will be omitted. The same applies to the following embodiments.

特異点探索用ノード領域には、画像における検出対象である特異点を探索して、特異点が存在する場合に、その範囲及び特徴の特定に用いることが可能な各種ノードが備えられている。
具体的には、特異点探索用ノード領域におけるノードとして、図4Aに示すように、色空間(例えば、グレー変換)、ノイズ除去(例えば、移動平均フィルタ)、輝度補正(例えば、シグモイド補正)、2値化(例えば、範囲内を白)、エッジ検出(例えば、ソーベル)、周波数フィルタ(例えば、ローパスフィルタ)、演算(例えば、最大値)、モフォロジ(例えば、オープニング)、ラベリング(例えば、ラベリング)、検出対象判定(例えば、面積判定)、分岐(例えば、輝度の平均値)等の各処理を行うものを好適に用いることができる。
The singularity search node area includes various nodes that can be used to search for a singularity that is a detection target in an image and, when a singularity exists, to specify its range and characteristics.
Specifically, as shown in FIG. 4A, the nodes in the singular point search node area include color space (e.g., gray conversion), noise removal (e.g., moving average filter), brightness correction (e.g., sigmoid correction), Binarization (e.g., white within range), edge detection (e.g., Sobel), frequency filter (e.g., low-pass filter), operation (e.g., maximum value), morphology (e.g., opening), labeling (e.g., labeling) , detection target determination (for example, area determination), branching (for example, brightness average value), etc. can be suitably used.

分類用ノード領域には、特異点探索結果などにもとづいて、特異点の特徴量を計算し、得られた特徴量にもとづき、特異点を分類することに用いることが可能な各種ノードが備えられている。
ここで、分類で使用される特徴量には、複数のものが存在しており、分類用ノード領域には、それらの特徴量を抽出するための複数の処理セットを構成する各種ノードが含まれる。
The classification node area is equipped with various nodes that can be used to calculate the feature amount of a singular point based on the singularity search results and classify the singular point based on the obtained feature amount. ing.
Here, there are multiple features used in classification, and the classification node area includes various nodes that constitute multiple processing sets for extracting those features. .

具体的には、分類用ノード領域におけるノードとして、図4Bに示すように、5個の特徴量が抽出される場合、1つ目の特徴量抽出用として、後述する特異点探索結果記憶部における画像に対して特徴量抽出範囲の変形(例えば、拡大)、後述する画像記憶部における画像に対して色空間(例えば、グレー変換)、ノイズ除去(例えば、移動平均フィルタ)、輝度補正(例えば、シグモイド補正)、特徴量抽出(例えば、特徴量抽出範囲の輝度の平均値)等の各処理を行うものを用いることができる。
また、2つ目の特徴量抽出用として、特異点探索結果記憶部における画像に対して特徴量抽出範囲の変形(例えば、拡大)、特徴量抽出(例えば、特徴量抽出範囲の面積)等の各処理を行うものを用いることができる。
そして、分類用ノード領域においてさらに3つの処理セットを構成する各種ノードが含められると共に、分類器(教師あり学習)として、例えば、サポートベクターマシンのノードを含むものを好適に用いることができる。
Specifically, when five feature quantities are extracted as nodes in the classification node area as shown in FIG. 4B, for the first feature quantity extraction, Transformation (e.g., enlargement) of the feature extraction range of the image, color space (e.g., gray conversion), noise removal (e.g., moving average filter), brightness correction (e.g., A device that performs various processes such as sigmoid correction), feature amount extraction (for example, average value of brightness in a feature amount extraction range) can be used.
In addition, for the second feature extraction, the image in the singular point search result storage unit is modified (e.g., expanded) of the feature extraction range, feature extraction (e.g., area of the feature extraction range), etc. A device that performs each process can be used.
The classification node area further includes various nodes constituting three processing sets, and a classifier (supervised learning) that includes, for example, a support vector machine node can be suitably used.

個体生成部11は、これらの各種ノードを用いて、特異点探索用ノード領域と分類用ノード領域ごとにそれぞれ所定の条件下でランダムに選択して配列することにより、特異点探索用ノード領域と分類用ノード領域を有する複数の個体情報を生成することができる。
またこのとき、個体生成部11は、個体情報において、直線構造、木構造、又はネットワーク状に複数のノードの実行順序を定義することができる。ネットワークは、向きが付いたリンクにより構成される有向ネットワークであり、フィードバックを含むものとすることができる。
The individual generation unit 11 uses these various nodes to randomly select and arrange the singularity search node area and the classification node area under predetermined conditions, respectively, thereby generating the singularity search node area and the classification node area. A plurality of pieces of individual information having classification node areas can be generated.
Further, at this time, the individual generation unit 11 can define the execution order of a plurality of nodes in a linear structure, a tree structure, or a network in the individual information. The network is a directed network made up of oriented links and may include feedback.

なお、ネットワーク状の個体情報を用いれば、直線構造や木構造のみからなる個体情報を用いる場合に比較して、より柔軟な表現力を持つネットワーク構造を含めて学習を行うことができるため、最適解(実用上の最適解、実用解)を導き出す上で優位性がある。すなわち、問題に対してどの構造体が最適解になるかは人が事前に把握することができないため、機械学習の前に構造体の条件を決定することは難しい。このため、個体情報として、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義するものを使用して、幅広い条件で最適解を探索することは、真の最適解を導き出せる可能性を高める上で有効と考えられる。 Furthermore, if network-like individual information is used, learning can be performed including a network structure with more flexible expressive power than when using individual information consisting only of linear structures or tree structures, so it is optimal. It has an advantage in deriving solutions (practical optimal solutions, practical solutions). In other words, since it is impossible for humans to know in advance which structure will provide the optimal solution to a problem, it is difficult to determine the conditions for the structure before machine learning. Therefore, searching for an optimal solution under a wide range of conditions using individual information that defines the execution order of multiple nodes in a network that may include closed paths increases the possibility of deriving a true optimal solution. It is considered to be effective in increasing

個体群記憶部12は、個体生成部11によって生成された複数の個体情報からなる個体群を記憶する。この個体群として、1つの世代又は複数の世代を個体群記憶部12に記憶させることができ、世代番号ごとに個体情報を個体群記憶部12に記憶させることができる。 The individual population storage unit 12 stores an individual population consisting of a plurality of pieces of individual information generated by the individual generation unit 11. As this population, one generation or a plurality of generations can be stored in the population storage section 12, and individual information can be stored in the population storage section 12 for each generation number.

ここで、本実施形態において、個体情報の特異点探索用ノード領域にもとづく特異点探索処理については、教師あり学習が行われる。特異点探索処理について教師あり学習を行う点については、以下の実施形態でも同様である。
また、本実施形態において、個体情報の分類用ノード領域における分類器にもとづく分類処理についても、教師あり学習が行われ、分類器として、教師あり学習であるサポートベクターマシン、ニューラルネットワーク、ランダムフォレスト、スパースモデリング等のいずれかがランダムに選択される。なお、本実施形態において、分類器は教師あり学習であれば良く、その種類はこれらに限定されない。教師あり学習又は教師なし学習の種類がそれぞれ限定されない点については、以下の実施形態についても同様である。
さらに、本実施形態において、個体情報は、特異点探索用ノード領域と分類用ノード領域が連続して配置された遺伝子連続型である。
Here, in this embodiment, supervised learning is performed for the singularity search process based on the node area for singularity search of individual information. The same applies to the following embodiments in that supervised learning is performed for singularity search processing.
In addition, in this embodiment, supervised learning is also performed for the classification processing based on the classifier in the node area for classification of individual information, and the classifier is a support vector machine, neural network, random forest, etc. that is supervised learning. Either sparse modeling or the like is randomly selected. Note that in this embodiment, the classifier only needs to perform supervised learning, and its type is not limited to these. The same applies to the following embodiments in that the types of supervised learning and unsupervised learning are not limited.
Furthermore, in this embodiment, the individual information is of a gene continuous type in which the singularity search node area and the classification node area are arranged consecutively.

画像入力部13は、複数の学習用画像を画像処理装置1に入力して、画像の識別情報ごとに画像記憶部14に記憶させる。
教師情報入力部15は、特異点探索結果を評価するための教師情報を入力し、対応する画像の識別情報ごとに教師情報記憶部16に記憶させる。
この教師情報としては、学習用画像に対応する教師画像などを用いることができる。また、教師情報として、画像における検出対象の個数や位置、あるいは検出対象が存在する範囲などを用いることもできる。
The image input unit 13 inputs a plurality of learning images to the image processing device 1 and causes the image storage unit 14 to store each image identification information.
The teacher information input unit 15 inputs teacher information for evaluating the singular point search results, and stores the information in the teacher information storage unit 16 for each identification information of the corresponding image.
As this teacher information, a teacher image corresponding to the learning image, etc. can be used. Further, as the teacher information, the number and position of detection targets in the image, the range in which the detection targets exist, etc. can also be used.

比較情報入力部17は、特異点を分類するための比較情報(ラベル)を入力し、対応する画像の識別情報ごとに比較情報記憶部18に記憶させる。
この比較情報としては、画像における特異点の種類及びその程度等を用いることができる。例えば、比較情報が種類であれば傷や打痕など、程度であれば傷の酷さなどを用いることができる。
The comparison information input unit 17 inputs comparison information (labels) for classifying singular points, and stores the information in the comparison information storage unit 18 for each identification information of the corresponding image.
As this comparison information, the type and degree of singularity in the image can be used. For example, if the comparison information is a type, it can be a scratch or a dent, and if the comparison information is a grade, it can be the severity of the scratch.

特異点探索画像処理部19は、画像記憶部14から画像を入力すると共に、個体群記憶部12から個体情報を入力して、その個体情報にもとづき当該個体情報における特異点探索用ノード領域に含まれる複数のノードを順次実行する。この特異点探索画像処理は、検出対象候補を見つけるための処理として行われる。なお、特異点探索画像処理部19は、画像の入力処理、及び出力画像の保存処理を行うために、それぞれを実行するためのノードも実行する。 The singularity search image processing unit 19 inputs an image from the image storage unit 14 and also inputs individual information from the population storage unit 12, and based on the individual information, selects images included in the node area for singularity search in the individual information. Run multiple nodes sequentially. This singular point search image processing is performed as a process for finding detection target candidates. Note that, in order to perform image input processing and output image storage processing, the singular point search image processing unit 19 also executes nodes for executing each of them.

このとき、各ノードは、画像から得られる情報を用いて、それぞれの機能に対応する処理を実行する。また、各ノードは、その処理結果にもとづいて、処理結果に対応する次のノードを選択的に実行し得る。したがって、個体情報に含まれるノードであっても、画像処理において、必ずしも全てのノードが実行される訳ではない。勿論、個体情報における全てのノードが実行される場合はある。また、フィードバックが行われることによって、一つの個体情報において1つのみ定義されているノードが、複数回実行されることもあり得る。 At this time, each node uses information obtained from the image to execute processing corresponding to its respective function. Further, each node can selectively execute the next node corresponding to the processing result based on the processing result. Therefore, even if the nodes are included in the individual information, not all nodes are necessarily executed in image processing. Of course, there are cases where all nodes in the individual information are executed. Further, due to feedback, only one node defined in one piece of individual information may be executed multiple times.

特異点探索画像処理部19は、画像ごとに特異点探索結果としての画像などを作成して、個体情報(の識別情報)ごと且つ画像(の識別情報)ごとに特異点探索結果記憶部20に記憶させる。
特異点探索結果として画像を作成する場合、検出対象(特異点)が検出された場合は、検出対象が存在する領域を示す情報(特異点領域情報)が付加された画像を作成し、検出対象が検出されなかった場合は、当該情報が付加されていない画像を作成する。
なお、教師情報が、画像における検出対象の個数、位置、又は検出対象が存在する範囲である場合は、それぞれ検出対象の個数、位置、又は検出対象が存在する範囲が特異点探索結果として作成され、特異点探索結果記憶部20に記憶される。
The singularity search image processing unit 19 creates an image as a singularity search result for each image, and stores it in the singularity search result storage unit 20 for each individual information (identification information) and for each image (identification information). Make me remember.
When creating an image as a result of singularity search, if a detection target (singularity) is detected, an image is created with information indicating the area where the detection target exists (singularity region information), and If the information is not detected, an image without the information added is created.
In addition, if the teacher information is the number and position of detection targets in the image, or the range in which the detection targets exist, the number and position of the detection targets, or the range in which the detection targets exist are respectively created as the singularity search result. , are stored in the singular point search result storage section 20.

特異点探索結果記憶部20は、特異点探索結果を個体情報ごと且つ画像ごとに記憶する。 The singular point search result storage unit 20 stores the singular point search results for each individual information and for each image.

探索評価値計算部21は、特異点探索結果記憶部20から特異点探索結果を入力すると共に、教師情報記憶部16からその特異点探索結果に対応する教師情報を入力する。
そして、特異点探索結果と教師情報を比較して、特異点探索の評価値(探索評価値)を計算し、算出された探索評価値を個体情報ごと且つ画像ごとに探索評価結果記憶部22に記憶させることができる。
The search evaluation value calculation unit 21 inputs the singularity search result from the singularity search result storage unit 20 and also inputs the teacher information corresponding to the singularity search result from the teacher information storage unit 16.
Then, the singularity search result and the teacher information are compared to calculate the singularity search evaluation value (search evaluation value), and the calculated search evaluation value is stored in the search evaluation result storage unit 22 for each individual information and image. It can be memorized.

このとき、探索評価値計算部21は、教師画像、教師個数、教師位置、教師範囲等の指標にもとづいて、指標評価値(指標値)を計算する。
また、探索評価値計算部21は、画像処理装置1の処理速度、個体情報におけるノード使用率、個体情報の大きさ等の指標にもとづいて、指標評価値(指標値)を計算することもできる。
そして、探索評価値計算部21は、これらの指標評価値を用いて、重み付きの足し合わせなどを行うことによって、探索評価値を計算することができる。
At this time, the search evaluation value calculation unit 21 calculates an index evaluation value (index value) based on indicators such as the teacher image, the number of teachers, the teacher position, and the teacher range.
The search evaluation value calculation unit 21 can also calculate an index evaluation value (index value) based on indicators such as the processing speed of the image processing device 1, the node usage rate in individual information, and the size of individual information. .
Then, the search evaluation value calculation unit 21 can calculate a search evaluation value by performing weighted addition or the like using these index evaluation values.

教師画像を用いる場合、その探索評価値の計算は、例えば平均二乗誤差を用いて、以下の式により行うことができる。

Figure 0007404962000001
When using a teacher image, the search evaluation value can be calculated using the following formula using, for example, the mean squared error.
Figure 0007404962000001

探索評価結果記憶部22は、探索評価値を個体情報ごと且つ画像ごとに記憶する。 The search evaluation result storage unit 22 stores search evaluation values for each individual information and for each image.

特徴量計算部23は、特異点探索によって見つかった検出対象候補である特異点の特徴量を計算するものであり、特異点探索結果記憶部20から特異点探索結果を入力すると共に、個体群記憶部12から個体情報を入力して、その個体情報にもとづき当該個体情報における分類用ノード領域に含まれる複数のノード(分類器を除く)を順次実行する。また、特徴量計算部23は、画像記憶部14から画像を入力して、画像を用いるノードを実行することもできる。これは、以下の実施形態においても同様である。 The feature amount calculation unit 23 calculates the feature amount of a singular point that is a detection target candidate found by the singularity search, and inputs the singularity search result from the singularity search result storage unit 20 and stores the population memory. Individual information is input from the unit 12, and a plurality of nodes (excluding the classifier) included in the classification node area of the individual information are sequentially executed based on the individual information. Further, the feature calculation unit 23 can also input an image from the image storage unit 14 and execute a node using the image. This also applies to the following embodiments.

このとき、特徴量計算部23は、例えば、画像記憶部14から入力した画像に色空間処理を実施し、変更後の画像に対してノイズ除去、輝度補正、エッジ検出、周波数フィルタ等の処理を行うと共に、特異点探索結果の画像に対して特徴量抽出範囲の変形、検出対象判定等を実施して、算出された特徴量を個体情報ごと且つ画像ごと且つ特異点ごとに特徴量記憶部24に記憶させることができる。 At this time, the feature calculation unit 23 performs color space processing on the image input from the image storage unit 14, and performs processing such as noise removal, brightness correction, edge detection, and frequency filtering on the changed image. At the same time, transformation of the feature extraction range, detection target determination, etc. are performed on the images resulting from the singularity search, and the calculated feature quantities are stored in the feature quantity storage unit 24 for each individual information, each image, and each singularity. can be memorized.

特徴量記憶部24は、特徴量を個体情報ごと且つ画像ごと且つ特異点ごとに記憶する。 The feature storage unit 24 stores feature amounts for each piece of individual information, for each image, and for each singular point.

分類器学習部25は、特徴量記憶部24から特徴量を入力すると共に、個体群記憶部12から個体情報を入力して、その個体情報にもとづき当該個体情報における分類用ノード領域に含まれる分類器の機械学習を実行する。
このとき、分類器学習部25は、例えば、比較情報記憶部18から特異点を分類するための比較情報(ラベル)を入力し、分類器として教師あり学習であるサポートベクターマシンによる機械学習を実行する。
そして、分類器学習部25は、学習済み分類器を学習済み分類器記憶部26に記憶させると共に、分類結果を個体情報ごと且つ画像ごと且つ特異点ごとに分類結果記憶部27に記憶させることができる。
The classifier learning unit 25 inputs feature quantities from the feature quantity storage unit 24 and inputs individual information from the population storage unit 12, and determines the classification included in the classification node area of the individual information based on the individual information. Execute machine learning on the device.
At this time, the classifier learning unit 25 inputs, for example, comparison information (labels) for classifying singular points from the comparison information storage unit 18, and executes machine learning using a support vector machine, which is supervised learning, as a classifier. do.
Then, the classifier learning unit 25 stores the learned classifier in the learned classifier storage unit 26, and stores the classification results in the classification result storage unit 27 for each individual information, each image, and each singular point. can.

分類結果記憶部27は、分類結果を個体情報ごと且つ画像ごと且つ特異点ごとに記憶する。 The classification result storage unit 27 stores classification results for each individual information, for each image, and for each singular point.

分類評価値計算部28は、分類結果記憶部27から分類結果を入力すると共に、比較情報記憶部18からその分類結果に対応する比較情報を入力する。
そして、分類結果と比較情報を比較して検出対象候補の分類の評価値(分類評価値)を計算し、得られた評価値を個体情報ごと且つ画像ごと且つ特異点ごとに分類評価結果記憶部29に記憶させることができる。
The classification evaluation value calculation section 28 inputs the classification results from the classification result storage section 27 and also inputs the comparison information corresponding to the classification results from the comparison information storage section 18.
Then, the classification result and comparison information are compared to calculate the classification evaluation value (classification evaluation value) of the detection target candidate, and the obtained evaluation value is stored in the classification evaluation result storage for each individual information, image, and singularity. 29 can be stored.

このとき、分類評価値計算部28は、分類の正確度、再現性、適合度、F値等の指標にもとづいて、指標評価値(指標値)を計算する。
また、分類評価値計算部28は、画像処理装置1の処理速度、個体情報におけるノード使用率、個体情報の大きさ等の指標にもとづいて、指標評価値(指標値)を計算することもできる。
そして、分類評価値計算部28は、これらの指標評価値を用いて、重み付きの足し合わせなどを行うことによって、分類評価値を計算することができる。
At this time, the classification evaluation value calculation unit 28 calculates an index evaluation value (index value) based on indices such as classification accuracy, reproducibility, degree of suitability, and F value.
The classification evaluation value calculation unit 28 can also calculate an index evaluation value (index value) based on indicators such as the processing speed of the image processing device 1, the node usage rate in individual information, and the size of individual information. .
Then, the classification evaluation value calculation unit 28 can calculate the classification evaluation value by performing weighted addition or the like using these index evaluation values.

分類評価結果記憶部29は、分類評価値を個体情報ごと且つ画像ごと且つ特異点ごとに記憶する。 The classification evaluation result storage unit 29 stores classification evaluation values for each individual information, for each image, and for each singular point.

個体評価値計算部30は、探索評価結果記憶部22から探索評価結果を入力すると共に、分類評価結果記憶部29から分類評価結果を入力して、個体情報の評価値を計算する。そして、算出された個体情報の評価値を個体評価結果記憶部31に記憶させる。
このとき、個体評価値計算部30は、例えば、探索評価結果と分類評価結果を個体情報ごとに重み付きの足し合わせなどを行うことによって、個体情報の評価値を計算することができる。
The individual evaluation value calculation section 30 receives the search evaluation results from the search evaluation result storage section 22 and the classification evaluation results from the classification evaluation result storage section 29, and calculates the evaluation value of the individual information. Then, the calculated evaluation value of the individual information is stored in the individual evaluation result storage section 31.
At this time, the individual evaluation value calculation unit 30 can calculate the evaluation value of the individual information by, for example, performing weighted addition of the search evaluation result and the classification evaluation result for each individual information.

また、個体評価値計算部30は、個体群記憶部12に記憶されている全ての個体情報(又は設定された世代分の個体情報)につき個体評価値を計算し終えて個体評価結果記憶部31に記憶させたタイミングなどで、それらの評価値にもとづき世代ごと又は設定された世代ごとに個体情報を順位付け(ランキング)して、得られた順位付け情報を個体評価結果記憶部31に記憶させることができる。 Further, the individual evaluation value calculation unit 30 calculates the individual evaluation value for all the individual information (or the individual information for the set generation) stored in the population storage unit 12, and then returns it to the individual evaluation result storage unit 30. The individual information is ranked (ranked) for each generation or set generation based on those evaluation values at the timing stored in the storage unit 31, and the obtained ranking information is stored in the individual evaluation result storage unit 31. be able to.

さらに、個体評価値計算部30は、画像処理装置1による処理を終了するか否かを判定するための終了判定を行うことができる。終了判定は、終了条件を満たすか否かにもとづき行うことができ、終了条件を満たす場合、画像処理装置1による処理を終了させることができる。そして、個体評価結果記憶部31に記憶された最も評価値の高い個体情報が、画像処理を行うための最適化された個体情報として得られる。 Further, the individual evaluation value calculation unit 30 can perform an end determination to determine whether or not to end the processing by the image processing device 1. The termination determination can be made based on whether or not the termination condition is satisfied, and if the termination condition is satisfied, the processing by the image processing apparatus 1 can be terminated. Then, the individual information with the highest evaluation value stored in the individual evaluation result storage section 31 is obtained as the optimized individual information for image processing.

終了条件としては、予め設定した全ての世代の個体群について画像処理を完了した場合や、一定の世代数以上で進化が発生していない場合などを挙げることができる。
進化が発生していない場合とは、評価値が、比較対象の時点よりも改善されていない場合である。
なお、個体評価値計算部30からこの終了判定の機能を分離して、本実施形態の画像処理装置1において終了判定を行うための終了判定部を備えてもよい。
Examples of termination conditions include a case where image processing is completed for populations of all preset generations, a case where no evolution occurs after a certain number of generations, and the like.
A case in which no evolution has occurred is a case in which the evaluation value is not improved compared to the point of comparison.
Note that the end determination function may be separated from the individual evaluation value calculation section 30, and the image processing apparatus 1 of this embodiment may include a termination determination section for making the end determination.

個体評価結果記憶部31は、個体評価値を個体情報ごとに記憶する。また、世代ごと又は設定された世代ごとに個体情報の順位付け情報を記憶する。 The individual evaluation result storage unit 31 stores individual evaluation values for each individual information. Furthermore, ranking information of individual information is stored for each generation or for each set generation.

遺伝子操作部32は、個体評価結果記憶部31における個体情報の順位付け情報にもとづいて、個体情報の選択又は変更を行って、個体群記憶部12を更新する。
これによって、個体群記憶部12に新たな世代の個体群の個体情報を順次追加することができる。
The gene manipulation section 32 selects or changes individual information based on the ranking information of the individual information in the individual evaluation result storage section 31, and updates the individual population storage section 12.
Thereby, individual information of a new generation of individuals can be sequentially added to the individual population storage unit 12.

具体的には、遺伝子操作部32は、評価値が高い個体情報を次世代に残すエリート個体保存部と、評価値にもとづいて、一定の確率で個体情報を次世代に残す個体選択部と、2つの個体情報の一部を相互に交換する交叉部と、選択された1つの個体情報の一部又は全部やノードのパラメータをランダムに書き換える突然変異部とを有するものとすることができる。 Specifically, the gene manipulation unit 32 includes an elite individual preservation unit that leaves individual information with a high evaluation value to the next generation, an individual selection unit that leaves individual information to the next generation with a certain probability based on the evaluation value, It may include a crossover section that mutually exchanges parts of two pieces of individual information, and a mutation section that randomly rewrites part or all of the selected piece of individual information or the parameters of a node.

エリート個体保存部は、各世代の個体群において、一番評価値の良い個体情報などを、無条件で次世代に残す処理を行うことができる。
個体選択部は、各世代の個体群において、評価値の順位の高い個体情報を高い確率で選択して、次世代に残す処理等を行うことができる。
The elite individual storage unit can carry out processing to unconditionally leave information on individuals with the best evaluation value in the population of each generation to the next generation.
The individual selection unit can perform processing such as selecting individual information with a high ranking of evaluation values with high probability in the population of individuals of each generation, and leaving the information to the next generation.

交叉部は、交叉処理として、複数の個体情報の各ノードの配列における同一(ノード番号)の並びについて、ある確率で入れ替える1様交叉を行うことができる。また、交叉部は、交叉処理として、各ノードの配列における同一の並びの1点を境として、一方の配列を相互に入れ替える1点交叉や、同一の並びの複数点を境として配列を相互に入れ替える複数点交叉を行うこともできる。交叉部は、このような交叉処理を、個体選択部により選択された個体情報に対して行うことができる。 As a crossover process, the crossover unit can perform a one-way crossover in which the same (node numbers) sequences in the array of each node of a plurality of pieces of individual information are replaced with a certain probability. In addition, the crossover section can perform crossover processing such as one-point crossover, in which one array is mutually swapped with one point in the same row in each node array as a boundary, or one-point crossover, in which one array is mutually swapped with one point in the same row in the array of each node, or the arrays are mutually swapped, using multiple points in the same row as a boundary. It is also possible to perform a multi-point intersection with interchanging. The crossover unit can perform such crossover processing on the individual information selected by the individual selection unit.

突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、個体情報ごとに一定の確率でその個体情報の一部を書き換えたり、その個体情報の全てを書き換えることができる。突然変異部は、このような突然変異処理を、個体選択部により選択された個体情報に対して行うことができる。また、突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、新しい個体情報を生成することもできる。さらに、突然変異部に、突然変異処理として、選択された親個体情報のノードのパラメータの一部又は全部をランダムに書き換えることなどによって、パラメータ変異を行わせることもできる。 As a mutation process, the mutation unit uses the nodes stored in the functional unit storage unit 10 to rewrite a part of the individual information or rewrite all of the individual information with a certain probability for each individual information. be able to. The mutation section can perform such mutation processing on the individual information selected by the individual selection section. Furthermore, the mutation section can also generate new individual information using the nodes stored in the functional unit storage section 10 as mutation processing. Furthermore, the mutation unit can perform parameter mutation by randomly rewriting some or all of the parameters of the selected parent individual information node as mutation processing.

なお、同じ個体情報にもとづいて生成された同系列個体が増えると、多様性が失われて進化が袋小路(数学的に局所解に陥った状態)に入ってしまう。一方、同系列以外の個体を増やしすぎると、ランダム探索に近づき、効率的な進化が行われない。
そこで、学習初期では多様性を持たせるために、同系列以外の個体を増やすように突然変異部による処理を行い、学習中期では効率的な進化を実施するために、個体選択部により同系列を増やすことが好ましい。また、進化が止まった場合には、再度多様性を持たせるために突然変異部により同系列以外を増やすことなどを好適に行うことができる。
Furthermore, if the number of individuals of the same lineage generated based on the same individual information increases, diversity will be lost and evolution will enter a dead end (mathematically a state of falling into a local solution). On the other hand, if the number of individuals outside the same lineage increases too much, it approaches random search and efficient evolution will not occur.
Therefore, in the early stages of learning, in order to provide diversity, the mutation unit performs processing to increase the number of individuals other than the same lineage, and in the middle stage of learning, in order to carry out efficient evolution, the individual selection unit performs processing to increase the number of individuals from the same lineage. It is preferable to increase it. Furthermore, when evolution has stopped, it is possible to suitably increase the number of non-same lineages using a mutation site in order to increase diversity again.

そして、遺伝子操作部32は、新たな世代の個体群を生成して、個体群記憶部12に記憶させる。このとき、遺伝子操作部32は、前の世代の個体群を上書きすることにより、個体群記憶部12を更新することができる。また、複数世代の個体群を世代ごとに記憶させることにより、個体群記憶部12を更新することもできる。 Then, the genetic manipulation unit 32 generates a new generation population and stores it in the population storage unit 12. At this time, the genetic manipulation section 32 can update the population storage section 12 by overwriting the population of the previous generation. Furthermore, the population storage unit 12 can be updated by storing a plurality of generations of population for each generation.

次に、本実施形態の画像処理装置による処理手順について、図5及び図6を参照して説明する。図5は、本実施形態の画像処理装置による処理手順を示すフローチャートであり、図6は、同画像処理装置による遺伝子操作の処理手順を示すフローチャートである。 Next, the processing procedure by the image processing apparatus of this embodiment will be explained with reference to FIGS. 5 and 6. FIG. 5 is a flowchart showing a processing procedure by the image processing device of this embodiment, and FIG. 6 is a flowchart showing a processing procedure for gene manipulation by the same image processing device.

まず、画像処理装置1における画像入力部13が、学習用画像を入力して、画像記憶部14に記憶させる(ステップ10)。また、教師情報入力部15が、特異点探索用の教師情報としての教師画像を入力し、教師情報記憶部16に記憶させる(ステップ11)。さらに、比較情報入力部17が、特異点を分類するための比較情報(ラベル)を入力し、比較情報記憶部18に記憶させる(ステップ12)。 First, the image input unit 13 in the image processing device 1 inputs a learning image and stores it in the image storage unit 14 (step 10). Further, the teacher information input unit 15 inputs a teacher image as teacher information for singular point search, and stores it in the teacher information storage unit 16 (step 11). Further, the comparison information input unit 17 inputs comparison information (label) for classifying the singularity, and stores it in the comparison information storage unit 18 (step 12).

次に、個体生成部11が、初期個体群を生成する(ステップ13)。
具体的には、個体生成部11は、機能単位記憶部10に記憶されている各種ノードにもとづいて、特異点探索用ノード領域と分類用ノード領域ごとに、それぞれに用いることのできるノードを所定の条件下でランダムに選択して配列することにより、特異点探索用ノード領域と分類用ノード領域を有する複数の個体情報を生成して、個体群記憶部12に記憶させる。
なお、ステップ10~13の各ステップの実行順序は、入れ替えてもよい。
Next, the individual generation unit 11 generates an initial population (step 13).
Specifically, the individual generation unit 11 predetermines nodes that can be used for each of the singularity search node area and the classification node area based on the various nodes stored in the functional unit storage unit 10. By randomly selecting and arranging them under the following conditions, a plurality of pieces of individual information having a node area for singularity search and a node area for classification are generated and stored in the population storage unit 12.
Note that the order of execution of steps 10 to 13 may be changed.

このとき、個体生成部11は、複数の個体情報からなる個体群を一つの世代として、世代番号ごとに個体群を個体群記憶部12に記憶させることができる。
なお、新たな世代の個体群は、個体群記憶部12に記憶されている個体情報に対して、遺伝子操作部32が遺伝子操作を行うことによって作成することができる。すなわち、新たな世代の個体群は、遺伝子操作部32により個体情報の選択又は変更が行われ、個体群記憶部12が更新されることによって作成することができる。
At this time, the individual generation unit 11 can store the individual group consisting of a plurality of pieces of individual information as one generation in the individual population storage unit 12 for each generation number.
Note that the new generation population can be created by the genetic manipulation section 32 performing genetic manipulation on the individual information stored in the population storage section 12. That is, a new generation population can be created by selecting or changing individual information by the genetic manipulation section 32 and updating the population storage section 12.

このように、個体群記憶部12における世代は、ステップ14に示す世代ループの実行に従って順次追加されるようにすることができる。
世代ループは、予め設定された世代数分について実行される。なお、後述する終了判定で終了条件が満たされる場合、設定された世代数分の実行前に世代ループが終了することがある。
In this way, generations in the population storage unit 12 can be added sequentially according to the execution of the generation loop shown in step 14.
The generation loop is executed for a preset number of generations. Note that if a termination condition is satisfied in the termination determination described later, the generation loop may terminate before execution for the set number of generations.

世代ループにおいて、個体群ループが、個体群記憶部12における当該世代の全ての個体情報について実行される(ステップ15)。
まず、特異点探索画像処理部19が、個体群記憶部12における個体情報における特異点探索用ノード領域の各ノードにもとづいて、特異点探索画像処理を実行する(ステップ16)。
そして、各学習用画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20に記憶させる。
In the generation loop, the population loop is executed for all individual information of the generation in the population storage unit 12 (step 15).
First, the singularity search image processing unit 19 executes singularity search image processing based on each node in the singularity search node area in the individual information in the population storage unit 12 (step 16).
Then, an image or the like as a singularity search result corresponding to each learning image is created and stored in the singularity search result storage unit 20.

次に、探索評価値計算部21が、特異点探索結果記憶部20から特異点探索結果を入力すると共に、教師情報記憶部16からその特異点探索結果に対応する教師情報を入力し、特異点探索結果と教師情報を比較して探索評価値を計算し、算出された評価値を探索評価結果記憶部22に記憶させる(ステップ17)。 Next, the search evaluation value calculation unit 21 inputs the singularity search result from the singularity search result storage unit 20 and inputs the teacher information corresponding to the singularity search result from the teacher information storage unit 16, and A search evaluation value is calculated by comparing the search result and the teacher information, and the calculated evaluation value is stored in the search evaluation result storage section 22 (step 17).

次に、特徴量計算部23が、特異点探索結果記憶部20から特異点探索結果を入力し、個体群記憶部12における個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、各特異点の特徴量を計算する(ステップ18)。また、特徴量計算部23は、画像記憶部14から画像を入力して、その画像を用いるノードを実行することもできる。
そして、特徴量計算部23は、算出された特徴量を特徴量記憶部24に記憶させる。
Next, the feature calculation unit 23 inputs the singularity search results from the singularity search result storage unit 20 and sequentially selects each node (excluding the classifier) in the individual information classification node area in the population storage unit 12. By executing this, the feature amount of each singular point is calculated (step 18). Further, the feature calculation unit 23 can also input an image from the image storage unit 14 and execute a node using the image.
Then, the feature amount calculation unit 23 stores the calculated feature amount in the feature amount storage unit 24.

次に、分類器学習部25が、特徴量記憶部24から特徴量を入力し、個体群記憶部12における個体情報の分類用ノード領域に含まれる分類器の機械学習を実行する(ステップ19)。
そして、分類器学習部25は、学習済み分類器を学習済み分類器記憶部26に記憶させ、分類結果を分類結果記憶部27に記憶させる。
Next, the classifier learning section 25 inputs the feature amount from the feature amount storage section 24 and executes machine learning of the classifier included in the classification node area of the individual information in the population storage section 12 (step 19). .
Then, the classifier learning unit 25 stores the learned classifier in the learned classifier storage unit 26 and stores the classification result in the classification result storage unit 27.

次に、分類評価値計算部28が、分類結果記憶部27から分類結果を入力すると共に、比較情報記憶部18からその分類結果に対応する比較情報を入力し、分類結果と比較情報を比較して分類評価値を計算し、算出された評価値を分類評価結果記憶部29に記憶させる(ステップ20)。 Next, the classification evaluation value calculation unit 28 inputs the classification result from the classification result storage unit 27 and also inputs the comparison information corresponding to the classification result from the comparison information storage unit 18, and compares the classification result and the comparison information. A classification evaluation value is calculated, and the calculated evaluation value is stored in the classification evaluation result storage section 29 (step 20).

次に、個体評価値計算部30が、探索評価結果記憶部22から探索評価結果を入力すると共に、分類評価結果記憶部29から分類評価結果を入力して、個体情報の評価値を計算し、算出された個体情報の評価値を個体評価結果記憶部31に記憶させる。
そして、個体評価値計算部30は、個体評価結果記憶部31に記憶されている評価値にもとづいて、個体情報の順位付けを行い、その結果を個体評価結果記憶部31に記憶する(ステップ21)。
Next, the individual evaluation value calculation unit 30 inputs the search evaluation results from the search evaluation result storage unit 22 and the classification evaluation results from the classification evaluation result storage unit 29, and calculates the evaluation value of the individual information. The calculated evaluation value of the individual information is stored in the individual evaluation result storage section 31.
Then, the individual evaluation value calculation unit 30 ranks the individual information based on the evaluation values stored in the individual evaluation result storage unit 31, and stores the results in the individual evaluation result storage unit 31 (step 21 ).

次に、個体評価値計算部30は、終了条件が満たされているか否かの判定処理を行う(ステップ22)。
終了条件が満たされている場合は、画像処理装置1による処理を終了する。
終了条件が満たされていない場合は、遺伝子操作部32が、遺伝子操作処理を実行する(ステップ23)。これにより、遺伝子操作部32は、個体群記憶部12に新たな世代の個体群を追加更新することができる。
Next, the individual evaluation value calculation unit 30 performs a process of determining whether the termination condition is satisfied (step 22).
If the termination conditions are met, the processing by the image processing device 1 is terminated.
If the termination condition is not met, the genetic manipulation unit 32 executes genetic manipulation processing (step 23). Thereby, the gene manipulation section 32 can add and update the population of a new generation to the population storage section 12.

具体的には、図6に示すように、遺伝子操作部32におけるエリート個体保存部が、最も評価値の高い個体情報を次世代の個体群の個体情報として選択する(ステップ30)。
また、遺伝子操作部32における個体選択部が、評価値の順位の高い個体情報ほど高い確率で次世代の個体群の個体情報として選択する(ステップ31)。
Specifically, as shown in FIG. 6, the elite individual storage section in the genetic manipulation section 32 selects the individual information with the highest evaluation value as the individual information of the next generation population (step 30).
Further, the individual selection unit in the gene manipulation unit 32 selects individual information with a higher evaluation value rank as individual information of the next generation population with a higher probability (step 31).

さらに、遺伝子操作部32における交叉部が、個体選択部により選択された個体情報に対して、交叉処理を実行して、新たな個体情報を生成する(ステップ32)。
また、遺伝子操作部32における突然変異部が、個体選択部により選択された個体情報にもとづいて、またはこれらの個体情報を用いることなく、突然変異処理等を行い、新たな個体情報を生成する(ステップ33)。
なお、エリート個体保存部、個体選択部、交叉部、突然変異部による各処理の順序を、各処理を実行可能な順序の範囲で入れ替えて実行してもよい。
Further, the crossover unit in the gene manipulation unit 32 performs crossover processing on the individual information selected by the individual selection unit to generate new individual information (step 32).
Furthermore, the mutation unit in the gene manipulation unit 32 performs mutation processing or the like based on the individual information selected by the individual selection unit or without using this individual information to generate new individual information ( Step 33).
Note that the order of each process by the elite individual storage unit, individual selection unit, crossover unit, and mutation unit may be changed within the range of the order in which each process can be executed.

この遺伝子操作処理によって、個体群記憶部12に次の世代の個体群の個体情報を追加することができる。
このように、世代ループを繰り返すことで、個体群記憶部12において、新たな世代の個体群の個体情報を順次追加することができる。
以上の処理の結果、個体評価結果記憶部31にはどの個体情報が最適であるかが記憶され、個体群記憶部12には最適化された個体情報が記憶される。
Through this genetic manipulation process, individual information of the next generation population can be added to the population storage unit 12.
In this way, by repeating the generation loop, individual information of a new generation of individuals can be sequentially added to the population storage section 12.
As a result of the above processing, the individual evaluation result storage section 31 stores which individual information is optimal, and the individual group storage section 12 stores optimized individual information.

このような本実施形態によれば、画像処理アルゴリズムの自動生成において、特異点の探索、特異点の特徴量計算、及び特異点の分類の相乗効果及び分類精度を、遺伝的操作を用いて最適化することが可能である。
例えば、特異点の探索のみを最適化するケースにおいては、検出対象と非検出対象が似ているために区別することが難しく且つ検出対象の数が非検出対象に対して少ない場合には、非検出対象を検出しないように学習が進んで、偽陰性(検出対象を検出しない)を発生させることが多い。
しかし、本実施形態によれば、特異点の探索において検出対象を陽性(検出対象を検出する)とし、非検出対象を偽陽性(非検出対象を検出する)した場合であっても、特異点の分類において、偽陽性判定された検出対象を陰性判定に変更するように進化させることが可能となる。
According to this embodiment, in automatically generating an image processing algorithm, the synergistic effect and classification accuracy of singularity search, singularity feature quantity calculation, and singularity classification are optimized using genetic operations. It is possible to convert
For example, in the case of optimizing only the search for singular points, if the detection target and non-detection target are similar and it is difficult to distinguish them, and the number of detection targets is smaller than the non-detection target, then the non-detection target is Learning progresses so as not to detect the detection target, often resulting in false negatives (the detection target is not detected).
However, according to the present embodiment, even if the detection target is set as positive (the detection target is detected) and the non-detection target is false positive (the non-detection target is detected) in the search for the singular point, the singular point In this classification, it is possible to evolve a detection target that has been determined to be a false positive to be changed to a negative determination.

[第二実施形態]
次に、本発明の第二実施形態に係る画像処理システム、及び画像処理プログラムについて、図7を参照して説明する。図7は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図である。
[Second embodiment]
Next, an image processing system and an image processing program according to a second embodiment of the present invention will be described with reference to FIG. 7. FIG. 7 is a block diagram showing the configuration of an image processing device corresponding to the image processing system of this embodiment.

本実施形態の画像処理装置1aは、図7に示すように、機能単位記憶部10a、個体生成部11a、個体群記憶部12a、画像入力部13a、画像記憶部14a、教師情報入力部15a、教師情報記憶部16a、比較情報入力部17a、比較情報記憶部18a、特異点探索画像処理部19a、特異点探索結果記憶部20a、探索評価値計算部21a、探索評価結果記憶部22a、特徴量計算部23a、特徴量記憶部24a、分類器学習部25a、学習済み分類器記憶部26a、分類結果記憶部27a、分類評価値計算部28a、分類評価結果記憶部29a、個体評価値計算部30a、個体評価結果記憶部31a、及び遺伝子操作部32aを備えている。また、個体群記憶部12aは、親個体群記憶部121aと子個体群記憶部122aを備えている。 As shown in FIG. 7, the image processing device 1a of this embodiment includes a functional unit storage section 10a, an individual generation section 11a, an individual population storage section 12a, an image input section 13a, an image storage section 14a, a teacher information input section 15a, Teacher information storage unit 16a, comparison information input unit 17a, comparison information storage unit 18a, singularity search image processing unit 19a, singularity search result storage unit 20a, search evaluation value calculation unit 21a, search evaluation result storage unit 22a, feature amount Calculation unit 23a, feature storage unit 24a, classifier learning unit 25a, learned classifier storage unit 26a, classification result storage unit 27a, classification evaluation value calculation unit 28a, classification evaluation result storage unit 29a, individual evaluation value calculation unit 30a , an individual evaluation result storage section 31a, and a gene manipulation section 32a. Furthermore, the population storage section 12a includes a parent population storage section 121a and a child population storage section 122a.

本実施形態の画像処理装置1aにおける機能単位記憶部10a、画像入力部13a、画像記憶部14a、教師情報入力部15a、教師情報記憶部16a、比較情報入力部17a、比較情報記憶部18a、特異点探索結果記憶部20a、探索評価値計算部21a、探索評価結果記憶部22a、特徴量記憶部24a、学習済み分類器記憶部26a、分類結果記憶部27a、分類評価値計算部28a、分類評価結果記憶部29a、及び個体評価結果記憶部31aは、第一実施形態と同様のものとすることができる。また、本実施形態の画像処理装置1aにおけるその他の構成についても、以下に説明する点を除いて、第一実施形態と同様のものとすることができる。 Functional unit storage unit 10a, image input unit 13a, image storage unit 14a, teacher information input unit 15a, teacher information storage unit 16a, comparison information input unit 17a, comparison information storage unit 18a, specific Point search result storage section 20a, search evaluation value calculation section 21a, search evaluation result storage section 22a, feature amount storage section 24a, trained classifier storage section 26a, classification result storage section 27a, classification evaluation value calculation section 28a, classification evaluation The result storage section 29a and the individual evaluation result storage section 31a can be the same as those in the first embodiment. Further, the other configurations of the image processing apparatus 1a of this embodiment can be the same as those of the first embodiment, except for the points described below.

個体生成部11aは、機能単位記憶部10aに記憶されている各種ノードにもとづいて、特異点探索用ノード領域と分類用ノード領域ごとに、それぞれに用いることのできるノードを所定の条件下でランダムに選択して配列することにより、特異点探索用ノード領域と分類用ノード領域を有する複数の親個体情報を生成して、個体群記憶部12aにおける親個体群記憶部121aに記憶させる。 The individual generation unit 11a randomly generates nodes that can be used for each of the singularity search node area and the classification node area under predetermined conditions based on the various nodes stored in the functional unit storage unit 10a. By selecting and arranging the parent individual information, a plurality of pieces of parent individual information having singularity search node areas and classification node areas are generated and stored in the parent individual population storage unit 121a in the individual population storage unit 12a.

個体群記憶部12aは、親個体群記憶部121aと子個体群記憶部122aを備えている。
親個体群記憶部121aは、個体生成部11aによって生成された複数の親個体情報からなる親個体群を記憶する。また、1つの世代又は複数の世代の親個体群を記憶させることができ、世代番号ごとに各個体情報を記憶させることができる。
子個体群記憶部122aは、遺伝子操作部32aによって生成された複数の子個体情報からなる子個体群を記憶する。また、親個体群に対応する1つの世代又は複数の世代の子個体群を記憶させることができ、世代番号ごとに各個体情報を記憶させることができる。
The population storage section 12a includes a parent population storage section 121a and a child population storage section 122a.
The parent population storage unit 121a stores a parent population consisting of a plurality of parent individual information generated by the individual generation unit 11a. Furthermore, a parent population of one generation or a plurality of generations can be stored, and individual information can be stored for each generation number.
The child population storage section 122a stores a child population consisting of a plurality of child individual information generated by the gene manipulation section 32a. Further, it is possible to store one generation or a plurality of generations of child populations corresponding to a parent population, and it is possible to store individual information for each generation number.

本実施形態において、個体情報の分類用ノード領域における分類器にもとづく分類処理については、教師あり学習によって学習が行われる。
また、本実施形態において、個体情報は、特異点探索用ノード領域と分類用ノード領域が連続して配置された遺伝子連続型である。
In this embodiment, the classification processing based on the classifier in the classification node area of individual information is learned by supervised learning.
Furthermore, in this embodiment, the individual information is of a gene continuous type in which the singularity search node area and the classification node area are arranged consecutively.

遺伝子操作部32aは、親個体群記憶部121aにおける親個体情報に対して遺伝子操作を実行し、親個体群に対応する複数の子個体情報からなる子個体群を生成して、子個体群記憶部122aに記憶させることができる。
本実施形態では、親個体群と子個体群のセットが1つの世代に含められ、これらのセットが複数の世代分生成されて、それぞれ親個体群記憶部121aと子個体群記憶部122aに記憶される。
The genetic manipulation unit 32a performs genetic manipulation on the parent individual information in the parent population storage unit 121a, generates a child population consisting of a plurality of child individual information corresponding to the parent population, and stores the child population memory. The information can be stored in the section 122a.
In this embodiment, a set of a parent population and a child population is included in one generation, and these sets are generated for multiple generations and stored in the parent population storage unit 121a and child population storage unit 122a, respectively. be done.

具体的には、遺伝子操作部32aは、まず、親個体群記憶部121aにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。次に、選択した親個体情報と同一の子個体情報からなる子個体群を子個体群記憶部122aに記憶させる。また、選択された親個体情報に対して交叉処理を実行して複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122aに記憶させる。 Specifically, the gene manipulation unit 32a first randomly selects parent individual information for generating child individual information from the parent population in the parent population storage unit 121a. Next, a child population consisting of the same child individual information as the selected parent individual information is stored in the child population storage section 122a. Further, a crossover process is performed on the selected parent individual information to generate a plurality of child individual information, and a child individual group consisting of these child individual information is stored in the child individual population storage section 122a.

また、遺伝子操作部32aは、機能単位記憶部10aに記憶されているノードを用いて、選択された親個体情報に対して突然変異処理を実行し、一定の確率で親個体情報の一部又は全部を書き換えることによって得られた子個体情報からなる子個体群を子個体群記憶部122aに記憶させることもできる。さらに、突然変異処理として、機能単位記憶部10aに記憶されているノードを用いて、新しい個体情報を生成することもでき、選択された親個体情報のノードのパラメータの一部又は全部をランダムに書き換えることなどによりパラメータ変異を行わせることもできる。 In addition, the gene manipulation unit 32a performs mutation processing on the selected parent individual information using the nodes stored in the functional unit storage unit 10a, and with a certain probability, a part of the parent individual information or A child population consisting of child individual information obtained by rewriting the entire information can also be stored in the child population storage section 122a. Furthermore, as a mutation process, new individual information can be generated using the nodes stored in the functional unit storage unit 10a, and some or all of the parameters of the selected parent individual information node are randomly changed. Parameter variations can also be performed by rewriting.

このように、遺伝子操作部32aは、親個体群記憶部121aにおける親個体情報に対して遺伝子操作を実行することにより、複数の子個体情報からなる子個体群を生成して、これらを子個体群記憶部122aに記憶させる。 In this way, the genetic manipulation unit 32a generates a child population consisting of a plurality of child individual information by performing genetic manipulation on the parent individual information in the parent population storage unit 121a, and divides these into child individuals. It is stored in the group storage unit 122a.

また、遺伝子操作部32aは、個体評価結果記憶部31aにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群からランダムに選択された上記の親個体情報と入れ替えることなどによって、親個体群記憶部121aにおける親個体情報を更新することができる。
これにより、遺伝子操作部32aは、個体群記憶部12aにおける親個体群記憶部121aに新たな親個体群の個体情報を追加することができる。
そして、世代ループを繰り返すことで、個体群記憶部12aにおいて、新たな世代の親個体群の個体情報を順次追加することができる。
Furthermore, the gene manipulation unit 32a selects the child individual information with the best evaluation value and the child individual information selected with probability from the parent population based on the ranking information of the child individual information in the individual evaluation result storage unit 31a. The parent individual information in the parent individual group storage unit 121a can be updated by replacing it with the above randomly selected parent individual information.
Thereby, the gene manipulation section 32a can add individual information of a new parent population to the parent population storage section 121a in the population storage section 12a.
Then, by repeating the generation loop, individual information of the parent population of a new generation can be sequentially added to the population storage unit 12a.

特異点探索画像処理部19aは、子個体群記憶部122aにおける子個体情報の特異点探索用ノード領域の各ノードにもとづいて、特異点探索画像処理を実行する。そして、各学習用画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20aに記憶させる。 The singularity search image processing unit 19a executes singularity search image processing based on each node in the singularity search node area of the child individual information in the child population storage unit 122a. Then, an image or the like as a singularity search result corresponding to each learning image is created and stored in the singularity search result storage section 20a.

特徴量計算部23aは、特異点探索結果記憶部20aから特異点探索結果を入力し、子個体群記憶部122aにおける子個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、各特異点の特徴量を計算する。そして、算出された特徴量を特徴量記憶部24aに記憶させる。 The feature calculation unit 23a inputs the singularity search results from the singularity search result storage unit 20a, and sequentially executes each node (excluding the classifier) in the classification node area of child individual information in the child population storage unit 122a. By doing so, the feature amount of each singular point is calculated. Then, the calculated feature amount is stored in the feature amount storage section 24a.

分類器学習部25aは、特徴量記憶部24aから特徴量を入力し、子個体群記憶部122aにおける子個体情報の分類用ノード領域に含まれる分類器の機械学習を実行する。そして、学習済み分類器を学習済み分類器記憶部26aに記憶させ、分類結果を分類結果記憶部27aに記憶させる。 The classifier learning unit 25a inputs the feature amount from the feature amount storage unit 24a, and executes machine learning of the classifier included in the classification node area of the child individual information in the child population storage unit 122a. Then, the learned classifier is stored in the learned classifier storage section 26a, and the classification result is stored in the classification result storage section 27a.

個体評価値計算部30aは、探索評価結果記憶部22aから探索評価結果を入力すると共に、分類評価結果記憶部29aから分類評価結果を入力して、子個体情報の評価値を計算し、算出された子個体情報の評価値を個体評価結果記憶部31aに記憶させる。そして、個体評価結果記憶部31aに記憶されている評価値にもとづいて、子個体情報の順位付けを行い、その結果を個体評価結果記憶部31aに記憶する。 The individual evaluation value calculation unit 30a inputs the search evaluation results from the search evaluation result storage unit 22a and the classification evaluation results from the classification evaluation result storage unit 29a, calculates the evaluation value of the child individual information, and calculates the evaluation value of the child individual information. The evaluation value of the child individual information is stored in the individual evaluation result storage section 31a. Then, the child individual information is ranked based on the evaluation values stored in the individual evaluation result storage section 31a, and the results are stored in the individual evaluation result storage section 31a.

次に、本実施形態の画像処理システムに対応する画像処理装置の処理手順について、図8を参照して説明する。図8は、本実施形態の画像処理システムに対応する画像処理装置による処理手順を示すフローチャートである。 Next, the processing procedure of the image processing apparatus corresponding to the image processing system of this embodiment will be explained with reference to FIG. FIG. 8 is a flowchart showing a processing procedure by an image processing apparatus corresponding to the image processing system of this embodiment.

まず、画像処理装置1aにおける画像入力部13aが、学習用画像を入力して、画像記憶部14aに記憶させる(ステップ40)。また、教師情報入力部15aが、特異点探索用の教師情報としての教師画像を入力し、教師情報記憶部16aに記憶させる(ステップ41)。さらに、比較情報入力部17aが、特異点を分類するための比較情報(ラベル)を入力し、比較情報記憶部18aに記憶させる(ステップ42)。 First, the image input unit 13a in the image processing device 1a inputs a learning image and stores it in the image storage unit 14a (step 40). Further, the teacher information input unit 15a inputs a teacher image as teacher information for singular point search, and stores it in the teacher information storage unit 16a (step 41). Further, the comparison information input unit 17a inputs comparison information (label) for classifying the singularity, and stores it in the comparison information storage unit 18a (step 42).

次に、個体生成部11aが、初期の親個体群を生成する(ステップ43)。
具体的には、個体生成部11aは、機能単位記憶部10aに記憶されている各種ノードにもとづいて、特異点探索用ノード領域と分類用ノード領域ごとに、それぞれに用いることのできるノードを所定の条件下でランダムに選択して配列することにより、特異点探索用ノード領域と分類用ノード領域を有する複数の親個体情報を生成して、個体群記憶部12aにおける親個体群記憶部121aに記憶させる。
なお、ステップ40~43の各ステップの実行順序は、入れ替えてもよい。
Next, the individual generation unit 11a generates an initial parent population (step 43).
Specifically, the individual generation unit 11a predetermines nodes that can be used for each of the singularity search node area and the classification node area based on the various nodes stored in the functional unit storage unit 10a. By randomly selecting and arranging them under the following conditions, a plurality of parent individual information having singularity search node areas and classification node areas are generated and stored in the parent population storage unit 121a in the population storage unit 12a. Make me remember.
Note that the order of execution of steps 40 to 43 may be changed.

この親個体群記憶部121aにおける親個体群は、後述する親個体群の更新処理によって更新され、世代ループにおいて、設定された世代について以下の処理が繰り返し行われる(ステップ44)。 The parent population in the parent population storage unit 121a is updated by a parent population update process described later, and the following process is repeatedly performed for the set generation in a generation loop (step 44).

次に、世代ループにおいて、遺伝子操作部32aが、親個体群記憶部121aにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。(ステップ45)。そして、選択された親個体情報に対して遺伝子操作を実行する(ステップ46)。なお、ステップ45の親個体情報の選択を、ステップ46の遺伝子操作の一部として実行してもよい。これは、以下の実施形態においても同様である。
このとき、遺伝子操作部32aは、親個体情報に対して交叉処理や突然変異処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122aに記憶させる。
Next, in the generation loop, the gene manipulation unit 32a randomly selects parent individual information for generating child individual information from the parent population in the parent population storage unit 121a. (Step 45). Genetic manipulation is then performed on the selected parent individual information (step 46). Note that the selection of parent individual information in step 45 may be performed as part of the genetic manipulation in step 46. This also applies to the following embodiments.
At this time, the gene manipulation unit 32a executes crossover processing and mutation processing on the parent individual information to generate a plurality of child individual information, and stores the child population consisting of these child individual information in the child population storage. 122a.

次に、子個体群ループにおいて(ステップ47)、特異点探索画像処理部19aが、子個体群記憶部122aにおける子個体情報の特異点探索用ノード領域の各ノードにもとづいて、特異点探索画像処理を実行する(ステップ48)。
そして、各学習用画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20aに記憶させる。
Next, in the child population loop (step 47), the singularity search image processing unit 19a generates a singularity search image based on each node in the singularity search node area of the child individual information in the child population storage unit 122a. Processing is executed (step 48).
Then, an image or the like as a singularity search result corresponding to each learning image is created and stored in the singularity search result storage section 20a.

次に、探索評価値計算部21aが、特異点探索結果記憶部20aから特異点探索結果を入力すると共に、教師情報記憶部16aからその特異点探索結果に対応する教師情報を入力し、特異点探索結果と教師情報を比較して探索評価値を計算し、算出された評価値を探索評価結果記憶部22aに記憶させる(ステップ49)。 Next, the search evaluation value calculation unit 21a inputs the singularity search result from the singularity search result storage unit 20a, and also inputs the teacher information corresponding to the singularity search result from the teacher information storage unit 16a, and A search evaluation value is calculated by comparing the search result and the teacher information, and the calculated evaluation value is stored in the search evaluation result storage section 22a (step 49).

次に、特徴量計算部23aが、特異点探索結果記憶部20aから特異点探索結果を入力し、子個体群記憶部122aにおける子個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、各特異点の特徴量を計算する(ステップ50)。
そして、特徴量計算部23aは、算出された特徴量を特徴量記憶部24aに記憶させる。
Next, the feature calculation unit 23a inputs the singularity search results from the singularity search result storage unit 20a, and each node (excluding the classifier) in the classification node area of child individual information in the child population storage unit 122a. The feature amount of each singular point is calculated by sequentially executing (step 50).
Then, the feature amount calculation unit 23a stores the calculated feature amount in the feature amount storage unit 24a.

次に、分類器学習部25aが、特徴量記憶部24aから特徴量を入力し、子個体群記憶部122aにおける子個体情報の分類用ノード領域に含まれる分類器の機械学習を実行する(ステップ51)。
そして、分類器学習部25aは、学習済み分類器を学習済み分類器記憶部26aに記憶させ、分類結果を分類結果記憶部27aに記憶させる。
Next, the classifier learning unit 25a inputs the feature amount from the feature amount storage unit 24a and executes machine learning of the classifier included in the classification node area of the child individual information in the child population storage unit 122a (step 51).
Then, the classifier learning unit 25a stores the learned classifier in the learned classifier storage unit 26a, and stores the classification result in the classification result storage unit 27a.

次に、分類評価値計算部28aが、分類結果記憶部27aから分類結果を入力すると共に、比較情報記憶部18aからその分類結果に対応する比較情報を入力し、分類結果と比較情報を比較して分類評価値を計算し、算出された評価値を分類評価結果記憶部29aに記憶させる(ステップ52)。
そして、子個体群記憶部122aにおける全ての子個体情報について、ステップ48からステップ52までの処理を繰り返し実行する。
Next, the classification evaluation value calculation unit 28a inputs the classification result from the classification result storage unit 27a, and also inputs the comparison information corresponding to the classification result from the comparison information storage unit 18a, and compares the classification result and the comparison information. A classification evaluation value is calculated, and the calculated evaluation value is stored in the classification evaluation result storage section 29a (step 52).
Then, the processes from step 48 to step 52 are repeatedly executed for all the child individual information in the child population storage unit 122a.

次に、個体評価値計算部30aが、探索評価結果記憶部22aから探索評価結果を入力すると共に、分類評価結果記憶部29aから分類評価結果を入力して、子個体情報の評価値を計算し、算出された子個体情報の評価値を個体評価結果記憶部31aに記憶させる。
そして、個体評価値計算部30aは、個体評価結果記憶部31aに記憶されている評価値にもとづいて、子個体情報の順位付けを行い、その結果を個体評価結果記憶部31aに記憶させる(ステップ53)。
Next, the individual evaluation value calculation unit 30a inputs the search evaluation results from the search evaluation result storage unit 22a and inputs the classification evaluation results from the classification evaluation result storage unit 29a, and calculates the evaluation value of child individual information. , the calculated evaluation value of the child individual information is stored in the individual evaluation result storage section 31a.
Then, the individual evaluation value calculation unit 30a ranks the child individual information based on the evaluation values stored in the individual evaluation result storage unit 31a, and stores the results in the individual evaluation result storage unit 31a (step 53).

そして、遺伝子操作部32aは、個体評価結果記憶部31aにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、ステップ45において親個体群からランダムに選択された上記の親個体情報と入れ替えることなどによって、個体群記憶部12aにおける親個体群記憶部121aの親個体情報を更新することができる(ステップ54)。 Then, the gene manipulation unit 32a transfers the child individual information with the best evaluation value and the child individual information selected with probability to the parent in step 45 based on the ranking information of the child individual information in the individual evaluation result storage unit 31a. The parent individual information in the parent population storage section 121a in the population storage section 12a can be updated by replacing it with the above parent individual information randomly selected from the population group (step 54).

遺伝子操作部32aのこのような処理によって、個体群記憶部12aにおける親個体群記憶部121aに新たな世代としての親個体群の個体情報を追加することができる。
そして、世代ループを繰り返すことで、個体群記憶部12aにおいて、新たな世代の親個体群の個体情報を順次追加することができる。
Through such processing by the gene manipulation section 32a, individual information of the parent population as a new generation can be added to the parent population storage section 121a in the population storage section 12a.
Then, by repeating the generation loop, individual information of the parent population of a new generation can be sequentially added to the population storage unit 12a.

また、個体評価値計算部30aは、終了条件が満たされているか否かの判定処理を行い(ステップ55)、終了条件が満たされている場合、画像処理装置1aによる処理を終了する。
以上の処理の結果、個体評価結果記憶部31aにはどの個体情報が最適であるかが記憶され、個体群記憶部12aには最適化された個体情報が記憶される。
The individual evaluation value calculation unit 30a also performs a process of determining whether or not the termination conditions are satisfied (step 55), and if the termination conditions are satisfied, the processing by the image processing device 1a is terminated.
As a result of the above processing, which individual information is optimal is stored in the individual evaluation result storage section 31a, and the optimized individual information is stored in the individual group storage section 12a.

このような本実施形態の画像処理システムによれば、親個体群から親を選択して子個体情報を生成する時に遺伝子操作が実行されると共に、特定の子個体情報を親個体群における親個体情報と入れ替えることにより親個体群を更新して、新たな世代の個体情報を追加することができる。これにより、第一実施形態に比較して、進化の多様性をより保った状態で、最適な個体情報を探すことが可能となっている。 According to the image processing system of this embodiment, genetic manipulation is performed when selecting a parent from a parent population to generate child individual information, and specific child individual information is transferred to a parent individual in the parent population. By replacing the information, the parent population can be updated and individual information of a new generation can be added. This makes it possible to search for optimal individual information while maintaining evolutionary diversity more than in the first embodiment.

[第三実施形態]
次に、本発明の第三実施形態に係る画像処理システム、及び画像処理プログラムについて、図9及び図10を参照して説明する。図9は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図である。図10は、当該画像処理装置における個体群記憶部の個体情報(遺伝子分離型)を示す図である。
[Third embodiment]
Next, an image processing system and an image processing program according to a third embodiment of the present invention will be described with reference to FIGS. 9 and 10. FIG. 9 is a block diagram showing the configuration of an image processing device corresponding to the image processing system of this embodiment. FIG. 10 is a diagram showing individual information (gene-separated type) in the population storage section in the image processing device.

本実施形態の画像処理装置1bは、図9に示すように、第二実施形態と比較して、最良組合せ判定部33bと組合せ判定結果記憶部34bをさらに備えると共に、個体評価値計算部30aと個体評価結果記憶部31aに相当する構成を備えていない点で相違する。
また、本実施形態の画像処理装置1bは、個体群記憶部12bにおいて、個体情報(親個体情報及び子個体情報)として、特異点探索用ノード領域を備えたものと、分類用ノード領域を備えたものとが分離して記憶されている点で第二実施形態と相違している。
また、本実施形態の画像処理装置1bにおけるその他の構成については、以下に説明する点を除いて、第二実施形態と同様のものとすることができる。
As shown in FIG. 9, the image processing device 1b of the present embodiment is further equipped with a best combination determination section 33b and a combination determination result storage section 34b, as well as an individual evaluation value calculation section 30a, compared to the second embodiment. The difference is that it does not have a configuration equivalent to the individual evaluation result storage section 31a.
In addition, the image processing device 1b of this embodiment includes a node area for singularity search and a node area for classification as individual information (parent individual information and child individual information) in the population storage unit 12b. This embodiment differs from the second embodiment in that the data are stored separately.
Further, the other configurations of the image processing device 1b of this embodiment can be the same as those of the second embodiment except for the points described below.

個体生成部11bは、機能単位記憶部10bに記憶されている各種ノードにもとづいて、特異点探索に用いることのできるノード群からノードを所定の条件下でランダムに選択して配列することにより、特異点探索用の複数の親個体情報を生成して、個体群記憶部12bにおける親個体群記憶部121bに記憶させる。
また、個体生成部11bは、機能単位記憶部10bに記憶されている各種ノードにもとづいて、特異点の分類に用いることのできるノード群からノードを所定の条件下でランダムに選択して配列することにより、分類用の複数の親個体情報を生成して、個体群記憶部12bにおける親個体群記憶部121bに記憶させる。
The individual generation unit 11b randomly selects and arranges nodes from a group of nodes that can be used for singularity search under predetermined conditions based on the various nodes stored in the functional unit storage unit 10b. A plurality of pieces of parent individual information for singular point search is generated and stored in the parent individual population storage unit 121b in the individual population storage unit 12b.
Furthermore, the individual generation unit 11b randomly selects and arranges nodes under predetermined conditions from a node group that can be used for classifying singularities, based on the various nodes stored in the functional unit storage unit 10b. By doing so, a plurality of pieces of parent individual information for classification are generated and stored in the parent individual population storage section 121b in the individual population storage section 12b.

個体群記憶部12bは、親個体群記憶部121bと子個体群記憶部122bを備えている。
本実施形態では、図10に示すように、親個体情報及び子個体情報として、それぞれ特異点探索用ノード領域を備えた特異点探索用の個体情報と、分類用ノード領域を備えた分類用の個体情報とが、親個体群記憶部121bと子個体群記憶部122bのそれぞれにおいて別個に備えられている。
The population storage section 12b includes a parent population storage section 121b and a child population storage section 122b.
In this embodiment, as shown in FIG. 10, the parent individual information and the child individual information are individual information for singularity search having a node area for singularity search, and individual information for classification having a node area for classification. Individual information is separately provided in each of the parent population storage section 121b and the child population storage section 122b.

本実施形態において、分類用の個体情報における分類器にもとづく分類処理については、教師あり学習によって学習が行われる。
また、本実施形態において、個体情報は、特異点探索用と分類用とが別個に備えられた遺伝子分離型である。
In this embodiment, the classification process based on the classifier in the individual information for classification is performed by supervised learning.
Furthermore, in this embodiment, the individual information is of a gene-separated type in which information for searching for singular points and information for classification are separately provided.

特異点探索画像処理部19bは、子個体群記憶部122bにおける特異点探索用の子個体情報にもとづいて、特異点探索画像処理を実行し、各学習用画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20bに記憶させる。 The singularity search image processing unit 19b executes singularity search image processing based on the child individual information for singularity search in the child population storage unit 122b, and generates a singularity search result corresponding to each learning image. An image or the like is created and stored in the singularity search result storage section 20b.

探索評価値計算部21bは、探索評価結果記憶部22bに記憶されている探索評価値にもとづいて、特異点探索用の子個体情報の順位付けを行い、その結果を探索評価結果記憶部22bに記憶する。 The search evaluation value calculation unit 21b ranks the child individual information for singular point search based on the search evaluation value stored in the search evaluation result storage unit 22b, and stores the result in the search evaluation result storage unit 22b. Remember.

特徴量計算部23bは、特異点探索結果記憶部20bから特異点探索結果を入力し、子個体群記憶部122bにおける分類用の子個体情報の各ノード(分類器を除く)を順次実行することにより、各特異点の特徴量を計算し、算出された特徴量を特徴量記憶部24bに記憶させる。 The feature amount calculation unit 23b inputs the singularity search result from the singularity search result storage unit 20b, and sequentially executes each node (excluding the classifier) of the child individual information for classification in the child population storage unit 122b. As a result, the feature amount of each singular point is calculated, and the calculated feature amount is stored in the feature amount storage section 24b.

分類器学習部25bは、特徴量記憶部24bから特徴量を入力し、子個体群記憶部122bにおける分類用の子個体情報に含まれる分類器の機械学習を実行し、学習済み分類器を学習済み分類器記憶部26bに記憶させ、分類結果を分類結果記憶部27bに記憶させる。 The classifier learning unit 25b inputs the feature quantity from the feature quantity storage unit 24b, executes machine learning of the classifier included in the child individual information for classification in the child population storage unit 122b, and learns the learned classifier. The classification results are stored in the completed classifier storage unit 26b, and the classification results are stored in the classification result storage unit 27b.

分類評価値計算部28bは、分類評価結果記憶部29bに記憶されている分類評価値にもとづいて、分類用の子個体情報の順位付けを行い、その結果を分類評価結果記憶部29bに記憶する。 The classification evaluation value calculation unit 28b ranks child individual information for classification based on the classification evaluation values stored in the classification evaluation result storage unit 29b, and stores the results in the classification evaluation result storage unit 29b. .

最良組合せ判定部33bは、探索評価結果記憶部22bから特異点探索用の子個体情報の順位付け情報を入力すると共に、分類評価結果記憶部29bから分類用の子個体情報の順位付けを入力して、特異点探索用の子個体情報と分類用の子個体情報の最良の組合せを判定する。最良の組合せとしては、探索評価値の最も高い特異点探索用の子個体情報と分類評価値の最も高い分類用の子個体情報の組合せなどとすることができる。
また、最良組合せ判定部33bは、最良の組合せ情報を含む組合せ判定結果を組合せ判定結果記憶部34bに記憶させる。この組合せ判定結果には、特異点探索用の子個体情報と分類用の子個体情報の順位付け情報を含めることができる。
The best combination determination unit 33b inputs ranking information of child individual information for singular point search from the search evaluation result storage unit 22b, and inputs ranking information of child individual information for classification from the classification evaluation result storage unit 29b. Then, the best combination of child individual information for singular point search and child individual information for classification is determined. The best combination may be a combination of child individual information for singularity search with the highest search evaluation value and child individual information for classification with the highest classification evaluation value.
Furthermore, the best combination determination section 33b causes the combination determination result storage section 34b to store the combination determination result including the best combination information. This combination determination result can include child individual information for singular point search and ranking information of child individual information for classification.

遺伝子操作部32bは、親個体群記憶部121bにおける特異点探索用の親個体群からランダムに子個体情報を生成する親個体情報を選択して、選択された親個体情報に対して遺伝子操作を実行する。
また、遺伝子操作部32bは、親個体群記憶部121bにおける分類用の親個体群からランダムに子個体情報を生成する親個体情報を選択して、選択された親個体情報に対して遺伝子操作を実行する。
The genetic manipulation unit 32b randomly selects parent individual information for generating child individual information from the parent population for singularity search in the parent population storage unit 121b, and performs genetic manipulation on the selected parent individual information. Execute.
Furthermore, the genetic manipulation unit 32b randomly selects parent individual information for generating child individual information from the parent population for classification in the parent population storage unit 121b, and performs genetic manipulation on the selected parent individual information. Execute.

さらに、遺伝子操作部32bは、組合せ判定結果記憶部34bにおける組合せ判定結果にもとづいて、特異点探索用の子個体情報と分類用の子個体情報のそれぞれについて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群から選択された親個体情報の一部と入れ替えることなどによって、個体群記憶部12bにおける親個体群記憶部121bの親個体情報を更新することができる。 Furthermore, the gene manipulation unit 32b selects the child individual information with the best evaluation value for each of the child individual information for singular point search and the child individual information for classification based on the combination determination results in the combination determination result storage unit 34b. and updating the parent individual information in the parent population storage unit 121b in the population storage unit 12b by replacing the child individual information selected by the probability with a part of the parent individual information selected from the parent population. I can do it.

次に、本実施形態の画像処理システムに対応する画像処理装置の処理手順について、図11を参照して説明する。図11は、本実施形態の画像処理システムに対応する画像処理装置による処理手順を示すフローチャートである。 Next, a processing procedure of an image processing apparatus corresponding to the image processing system of this embodiment will be described with reference to FIG. 11. FIG. 11 is a flowchart showing a processing procedure by an image processing apparatus corresponding to the image processing system of this embodiment.

まず、画像処理装置1bにおける画像入力部13bが、学習用画像を入力して、画像記憶部14bに記憶させる(ステップ60)。また、教師情報入力部15bが、特異点探索用の教師情報としての教師画像を入力し、教師情報記憶部16bに記憶させる(ステップ61)。さらに、比較情報入力部17bが、特異点を分類するための比較情報(ラベル)を入力し、比較情報記憶部18bに記憶させる(ステップ62)。 First, the image input unit 13b in the image processing device 1b inputs a learning image and stores it in the image storage unit 14b (step 60). Further, the teacher information input unit 15b inputs a teacher image as teacher information for singular point search, and stores it in the teacher information storage unit 16b (step 61). Furthermore, the comparison information input unit 17b inputs comparison information (label) for classifying the singularity, and stores it in the comparison information storage unit 18b (step 62).

次に、個体生成部11bが、初期の親個体群を生成する。
具体的には、個体生成部11bは、機能単位記憶部10bに記憶されている各種ノードにもとづいて、特異点探索に用いることのできるノード群からノードを所定の条件下でランダムに選択して配列することにより、特異点探索用の複数の親個体情報を生成して、個体群記憶部12bにおける親個体群記憶部121bに記憶させる(ステップ63)。
また、個体生成部11bは、機能単位記憶部10bに記憶されている各種ノードにもとづいて、特異点の分類に用いることのできるノード群からノードを所定の条件下でランダムに選択して配列することにより、分類用の複数の親個体情報を生成して、個体群記憶部12bにおける親個体群記憶部121bに記憶させる(ステップ64)。
なお、ステップ60~64の各ステップの実行順序は、入れ替えてもよい。
Next, the individual generation unit 11b generates an initial parent population.
Specifically, the individual generation unit 11b randomly selects nodes from a group of nodes that can be used for singularity search under predetermined conditions based on the various nodes stored in the functional unit storage unit 10b. By arranging them, a plurality of pieces of parent individual information for singular point search are generated and stored in the parent population storage unit 121b in the population storage unit 12b (step 63).
Furthermore, the individual generation unit 11b randomly selects and arranges nodes under predetermined conditions from a node group that can be used for classifying singularities, based on the various nodes stored in the functional unit storage unit 10b. As a result, a plurality of pieces of parent individual information for classification are generated and stored in the parent individual group storage section 121b in the individual group storage section 12b (step 64).
Note that the order of execution of steps 60 to 64 may be changed.

この親個体群記憶部121bにおける親個体群は、後述する親個体群の更新処理によって更新され、世代ループにおいて、設定された世代について以下の処理が繰り返し行われる(ステップ65)。 The parent population in the parent population storage unit 121b is updated by a parent population update process described later, and the following process is repeatedly performed for the set generation in a generation loop (step 65).

次に、世代ループにおいて、遺伝子操作部32bが、親個体群記憶部121bにおける特異点探索用の親個体群からランダムに子個体情報を生成する親個体情報を選択して(ステップ66)、選択された親個体情報に対して遺伝子操作を実行する(ステップ67)。また、遺伝子操作部32bが、親個体群記憶部121bにおける分類用の親個体群からランダムに子個体情報を生成する親個体情報を選択して(ステップ66)、選択された親個体情報に対して遺伝子操作を実行する(ステップ68)。 Next, in the generation loop, the gene manipulation section 32b randomly selects parent individual information for generating child individual information from the parent population for singularity search in the parent population storage section 121b (step 66), and selects Genetic manipulation is performed on the parent individual information obtained (step 67). Further, the gene manipulation unit 32b randomly selects parent individual information for generating child individual information from the parent population for classification in the parent population storage unit 121b (step 66), and applies the selected parent individual information to the parent individual information. Then, genetic manipulation is performed (step 68).

このとき、遺伝子操作部32bは、特異点探索用の親個体情報と分類用の親個体情報に対して交叉処理や突然変異処理を実行して、特異点探索用の複数の子個体情報と分類用の複数の子個体情報をそれぞれ生成し、各子個体情報からなる特異点探索用の子個体群と分類用の子個体群を子個体群記憶部122bに記憶させる。 At this time, the gene manipulation unit 32b performs crossover processing and mutation processing on the parent individual information for singular point search and the parent individual information for classification, and classifies it with a plurality of child individual information for singular point search. A plurality of pieces of child individual information are generated respectively, and a child population for singular point search and a child population for classification, which are made up of each child individual information, are stored in the child population storage unit 122b.

次に、特異点探索用の子個体群ループにおいて(ステップ69)、特異点探索画像処理部19bが、子個体群記憶部122bにおける特異点探索用の子個体情報にもとづいて、特異点探索画像処理を実行する(ステップ70)。
そして、各学習用画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20bに記憶させる。
Next, in the child population loop for singularity search (step 69), the singularity search image processing unit 19b generates a singularity search image based on the child individual information for singularity search in the child population storage unit 122b. Processing is executed (step 70).
Then, an image or the like as a singularity search result corresponding to each learning image is created and stored in the singularity search result storage section 20b.

次に、探索評価値計算部21bが、探索評価結果記憶部22bから特異点探索結果を入力すると共に、教師情報記憶部16bからその特異点探索結果に対応する教師情報を入力し、特異点探索結果と教師情報を比較して探索評価値を計算し、算出された評価値を探索評価結果記憶部22bに記憶させる(ステップ71)。
そして、子個体群記憶部122bにおける全ての特異点探索用の子個体情報について、ステップ70からステップ71までの処理を繰り返し実行する。
さらに、探索評価値計算部21bは、探索評価結果記憶部22bに記憶されている探索評価値にもとづいて、特異点探索用の子個体情報の順位付けを行い、その結果を探索評価結果記憶部22bに記憶させる(ステップ72)。
Next, the search evaluation value calculation unit 21b inputs the singularity search result from the search evaluation result storage unit 22b, and also inputs the teacher information corresponding to the singularity search result from the teacher information storage unit 16b, and performs the singularity search. A search evaluation value is calculated by comparing the result with the teacher information, and the calculated evaluation value is stored in the search evaluation result storage section 22b (step 71).
Then, the processes from step 70 to step 71 are repeatedly executed for all the child individual information for singular point search in the child population storage unit 122b.
Furthermore, the search evaluation value calculation unit 21b ranks the child individual information for singular point search based on the search evaluation value stored in the search evaluation result storage unit 22b, and the search evaluation value calculation unit 21b ranks the child individual information for singular point search. 22b (step 72).

次に、分類用の子個体群ループにおいて(ステップ73)、特徴量計算部23bが、特異点探索結果記憶部20bから特異点探索結果を入力し、子個体群記憶部122bにおける分類用の子個体情報の各ノード(分類器を除く)を順次実行することにより、各特異点の特徴量を計算する(ステップ74)。なお、このとき入力する特異点探索結果としては、特異点探索の子個体群における最良の個体情報を用いて得られたものなどを使用するができる。
そして、特徴量計算部23bは、算出された特徴量を特徴量記憶部24bに記憶させる。
Next, in the child population loop for classification (step 73), the feature calculation unit 23b inputs the singularity search results from the singularity search result storage unit 20b, and stores the child population for classification in the child population storage unit 122b. By sequentially executing each node of the individual information (excluding the classifier), the feature amount of each singular point is calculated (step 74). Note that the singularity search result input at this time may be one obtained using the best individual information in the child population of the singularity search.
Then, the feature amount calculation section 23b stores the calculated feature amount in the feature amount storage section 24b.

次に、分類器学習部25bが、特徴量記憶部24bから特徴量を入力し、子個体群記憶部122bにおける分類用の子個体情報に含まれる分類器の機械学習を実行する(ステップ75)。
そして、分類器学習部25bは、学習済み分類器を学習済み分類器記憶部26bに記憶させ、分類結果を分類結果記憶部27bに記憶させる。
Next, the classifier learning unit 25b inputs the feature amount from the feature amount storage unit 24b and executes machine learning of the classifier included in the child individual information for classification in the child population storage unit 122b (step 75). .
Then, the classifier learning unit 25b stores the learned classifier in the learned classifier storage unit 26b, and stores the classification result in the classification result storage unit 27b.

次に、分類評価値計算部28bが、分類結果記憶部27bから分類結果を入力すると共に、比較情報記憶部18bからその分類結果に対応する比較情報を入力し、分類結果と比較情報を比較して分類評価値を計算し、算出された評価値を分類評価結果記憶部29bに記憶させる(ステップ76)。
そして、子個体群記憶部122bにおける全ての分類用の子個体情報について、ステップ73からステップ76までの処理を繰り返し実行する。
Next, the classification evaluation value calculation unit 28b inputs the classification result from the classification result storage unit 27b, and also inputs the comparison information corresponding to the classification result from the comparison information storage unit 18b, and compares the classification result and the comparison information. A classification evaluation value is calculated, and the calculated evaluation value is stored in the classification evaluation result storage section 29b (step 76).
Then, the processes from step 73 to step 76 are repeatedly executed for all child individual information for classification in the child population storage unit 122b.

さらに、分類評価値計算部28bは、分類評価結果記憶部29bに記憶されている分類評価値にもとづいて、分類用の子個体情報の順位付けを行い、その結果を分類評価結果記憶部29bに記憶する(ステップ77)。 Furthermore, the classification evaluation value calculation unit 28b ranks child individual information for classification based on the classification evaluation values stored in the classification evaluation result storage unit 29b, and stores the results in the classification evaluation result storage unit 29b. Store (step 77).

次に、最良組合せ判定部33bが、探索評価結果記憶部22bから特異点探索用の子個体情報の順位付け情報を入力すると共に、分類評価結果記憶部29bから分類用の子個体情報の順位付けを入力して、特異点探索用の子個体情報と分類用の子個体情報の最良の組合せを判定する(ステップ78)。
そして、最良組合せ判定部33bは、最良の組合せ情報を含む組合せ判定結果を組合せ判定結果記憶部34bに記憶させる。また、組合せ判定結果には、特異点探索用の子個体情報と分類用の子個体情報の順位付け情報を含めることができる。
Next, the best combination determination unit 33b inputs ranking information of child individual information for singularity search from the search evaluation result storage unit 22b, and also inputs ranking information of child individual information for classification from the classification evaluation result storage unit 29b. is input, and the best combination of child individual information for singular point search and child individual information for classification is determined (step 78).
The best combination determination unit 33b then stores the combination determination result including the best combination information in the combination determination result storage unit 34b. Further, the combination determination result can include child individual information for singular point search and ranking information of child individual information for classification.

そして、遺伝子操作部32bは、組合せ判定結果記憶部34bにおける組合せ判定結果にもとづいて、特異点探索用の子個体情報と分類用の子個体情報のそれぞれについて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、ステップ66において親個体群から選択された親個体情報の一部と入れ替えることなどによって、個体群記憶部12bにおける親個体群記憶部121bの親個体情報を更新する(ステップ79)。 Then, the gene manipulation unit 32b selects the child individual information with the best evaluation value for each of the child individual information for singular point search and the child individual information for classification based on the combination determination results in the combination determination result storage unit 34b. The parent individual information of the parent population storage unit 121b in the population storage unit 12b is changed by replacing the child individual information selected with the probability and the part of the parent individual information selected from the parent population in step 66. Update (step 79).

遺伝子操作部32bのこのような処理によって、個体群記憶部12bにおける親個体群記憶部121bに新たな世代としての親個体群の個体情報を追加することができる。
そして、世代ループを繰り返すことで、個体群記憶部12bにおいて、新たな世代の親個体群の個体情報を順次追加することができる。
Through such processing by the gene manipulation section 32b, individual information of the parent population as a new generation can be added to the parent population storage section 121b in the population storage section 12b.
Then, by repeating the generation loop, individual information of the parent population of a new generation can be sequentially added to the population storage unit 12b.

また、最良組合せ判定部33bは、終了条件が満たされているか否かの判定処理を行い(ステップ80)、終了条件が満たされている場合、画像処理装置1bによる処理を終了する。
以上の処理の結果、組合せ判定結果記憶部34bにはどの個体情報の組合せが最適であるかが記憶され、個体群記憶部12bには最適化された特異点探索用の子個体情報と分類用の子個体情報が記憶される。
The best combination determination unit 33b also performs a determination process to determine whether the termination condition is satisfied (step 80), and if the termination condition is satisfied, the process by the image processing device 1b is terminated.
As a result of the above processing, the combination determination result storage unit 34b stores which combination of individual information is optimal, and the population storage unit 12b stores the optimized child individual information for singular point search and classification information. child individual information is stored.

このような本実施形態の画像処理装置によれば、特異点探索用の個体情報と分類用の個体情報を分離しつつ、これらの組合せを進化的計算に反映することが可能となる。
例えば、特異点探索において評価の悪い子個体情報に対しては、子個体群(分類)ループ処理を実施しないようにするなど、計算時間の短時間化が可能である。また、評価の良い特異点探索用の子個体情報について、最適な分類用の子個体情報を集中的に探索できるため、画像処理装置の性能をより向上させることが可能である。
According to the image processing apparatus of this embodiment, it is possible to separate individual information for singular point search and individual information for classification, and to reflect a combination of these in evolutionary calculation.
For example, calculation time can be shortened by not performing child individual group (classification) loop processing for child individual information that is poorly evaluated in the singular point search. In addition, since it is possible to intensively search for optimal child individual information for classification with respect to child individual information for singular point search that has been evaluated well, it is possible to further improve the performance of the image processing device.

[第四実施形態]
次に、本発明の第四実施形態に係る画像処理システム、及び画像処理プログラムについて、図12を参照して説明する。図12は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図である。
[Fourth embodiment]
Next, an image processing system and an image processing program according to a fourth embodiment of the present invention will be described with reference to FIG. 12. FIG. 12 is a block diagram showing the configuration of an image processing device corresponding to the image processing system of this embodiment.

本実施形態の画像処理装置1cは、図12に示すように、第二実施形態と比較して、検証用特徴量計算部35c、検証用特徴量記憶部36c、分類処理部37cをさらに備えると共に、特徴量計算部23aと特徴量記憶部24aに変えて学習用特徴量計算部23cと学習用特徴量記憶部24cを備えている点で相違している。
本実施形態の画像処理装置1cにおけるその他の構成については、以下に説明する点を除いて、第二実施形態と同様のものとすることができる。
As shown in FIG. 12, the image processing device 1c of the present embodiment, compared to the second embodiment, further includes a verification feature calculation unit 35c, a verification feature storage unit 36c, and a classification processing unit 37c. , is different in that a learning feature calculating section 23c and a learning feature storing section 24c are provided instead of the feature calculating section 23a and the feature storing section 24a.
The other configurations of the image processing device 1c of this embodiment can be the same as those of the second embodiment, except for the points described below.

本実施形態において、個体情報の分類用ノード領域における分類器にもとづく分類処理については、教師なし学習が行われ、分類器として、教師なし学習であるマハラノビスタグチ法、one class サポートベクターマシン、オートエンコーダ、混合ガウス法、k-mean等のいずれかがランダムに選択される。
また、本実施形態において、個体情報は、特異点探索用ノード領域と分類用ノード領域が連続して配置された遺伝子連続型である。
In this embodiment, unsupervised learning is performed for the classification process based on the classifier in the node area for classifying individual information, and the classifier uses the Mahalanobistaguchi method, which is unsupervised learning, one class support vector machine, and autoencoder. , Gaussian mixture method, k-mean, etc. are randomly selected.
Furthermore, in this embodiment, the individual information is of a gene continuous type in which the singularity search node area and the classification node area are arranged consecutively.

画像入力部13cは、学習用画像と検証用画像を入力して、これらを画像記憶部14cに記憶させる。
特異点探索画像処理部19cは、各学習用画像及び各検証用画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20cに記憶させる。
The image input unit 13c inputs the learning image and the verification image and stores them in the image storage unit 14c.
The singularity search image processing unit 19c creates images as singularity search results corresponding to each learning image and each verification image, and stores them in the singularity search result storage unit 20c.

学習用特徴量計算部23cは、特異点探索結果記憶部20cから特異点探索結果を入力し、子個体群記憶部122cにおける子個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、学習用画像の各特異点の特徴量を計算する。
学習用特徴量計算部23cは、学習用画像の各特異点の特徴量を個体情報ごと且つ画像ごとに学習用特徴量記憶部24cに記憶させる。
The learning feature calculation unit 23c inputs the singularity search results from the singularity search result storage unit 20c, and calculates each node (excluding the classifier) in the classification node area of the child individual information in the child population storage unit 122c. By sequentially executing the calculation, the feature amount of each singular point of the learning image is calculated.
The learning feature amount calculation unit 23c causes the learning feature amount storage unit 24c to store the feature amount of each singular point of the learning image for each individual information and for each image.

分類器学習部25cは、学習用特徴量記憶部24cから学習用画像の各特異点の特徴量を入力し、子個体群記憶部122cにおける子個体情報の分類用ノード領域に含まれる分類器の機械学習を実行し、学習済み分類器を学習済み分類器記憶部26cに記憶させる。 The classifier learning unit 25c inputs the feature amount of each singular point of the learning image from the learning feature storage unit 24c, and inputs the feature amount of each singular point of the learning image from the learning feature storage unit 24c, and calculates the classifier included in the classification node area of the child individual information in the child population storage unit 122c. Machine learning is executed and the learned classifier is stored in the learned classifier storage unit 26c.

検証用特徴量計算部35cは、特異点探索結果記憶部20cから特異点探索結果を入力し、子個体群記憶部122cにおける子個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、検証用画像の各特異点の特徴量を計算する。
検証用特徴量計算部35cは、検証用画像の各特異点の特徴量を個体情報ごと且つ画像ごとに検証用特徴量記憶部36cに記憶させる。
The verification feature calculation unit 35c inputs the singularity search results from the singularity search result storage unit 20c, and calculates each node (excluding the classifier) in the classification node area of the child individual information in the child population storage unit 122c. By sequentially executing the steps, the feature amount of each singular point of the verification image is calculated.
The verification feature amount calculation unit 35c stores the feature amount of each singular point of the verification image in the verification feature amount storage unit 36c for each individual information and for each image.

分類処理部37cは、検証用特徴量記憶部36cから検証用画像の各特異点の特徴量を入力し、学習済み分類器記憶部26cに記憶された学習済み分類器を実行することにより特異点を分類して、分類結果を分類結果記憶部27cに記憶させる。 The classification processing unit 37c inputs the feature amount of each singular point of the verification image from the verification feature storage unit 36c, and executes the trained classifier stored in the trained classifier storage unit 26c to identify the singular point. are classified and the classification results are stored in the classification result storage section 27c.

分類評価値計算部28cは、分類結果記憶部27cから分類結果を入力すると共に、比較情報記憶部18cからその分類結果に対応する比較情報を入力して、分類結果と比較情報を比較して検出対象候補の分類の評価値を計算し、得られた評価値を個体情報ごと且つ画像ごと且つ特異点ごとに分類評価結果記憶部29cに記憶させることができる。なお、分類器が2分類で処理するものである場合、例えばマハラノビスタグチ法又はone class サポートベクターマシンである場合であって、教師情報が画像の場合は、比較情報がなくても分類できるため、分類評価値計算部28cによる比較情報の入力及び比較情報との比較を省略して分類の評価値を計算することができる。 The classification evaluation value calculation unit 28c inputs the classification result from the classification result storage unit 27c and also inputs the comparison information corresponding to the classification result from the comparison information storage unit 18c, and compares the classification result and the comparison information for detection. The evaluation value of the classification of the target candidate can be calculated, and the obtained evaluation value can be stored in the classification evaluation result storage unit 29c for each individual information, each image, and each singular point. Note that when the classifier processes two classifications, for example, the Mahalanobistaguchi method or the one class support vector machine, and the training information is an image, classification can be performed without comparison information. The classification evaluation value can be calculated without inputting the comparison information and comparing it with the comparison information by the classification evaluation value calculation unit 28c.

次に、本実施形態の画像処理システムに対応する画像処理装置の処理手順について、図13を参照して説明する。図13は、本実施形態の画像処理システムに対応する画像処理装置による処理手順を示すフローチャートである。 Next, a processing procedure of an image processing apparatus corresponding to the image processing system of this embodiment will be described with reference to FIG. 13. FIG. 13 is a flowchart showing a processing procedure by an image processing apparatus corresponding to the image processing system of this embodiment.

まず、画像処理装置1cにおける画像入力部13cが、学習用画像と検証用画像を入力して、これらを画像記憶部14cに記憶させる(ステップ90)。また、教師情報入力部15cが、学習用画像と検証用画像の特異点探索用の教師情報としての教師画像を入力し、教師情報記憶部16cに記憶させる(ステップ91)。さらに、比較情報入力部17cが、特異点を分類するための比較情報(ラベル)を入力し、比較情報記憶部18cに記憶させる(ステップ92)。 First, the image input unit 13c in the image processing device 1c inputs a learning image and a verification image, and stores them in the image storage unit 14c (step 90). Further, the teacher information input unit 15c inputs a teacher image as teacher information for searching for singular points in the learning image and the verification image, and stores it in the teacher information storage unit 16c (step 91). Further, the comparison information input unit 17c inputs comparison information (label) for classifying singular points, and stores it in the comparison information storage unit 18c (step 92).

次に、個体生成部11cが、初期の親個体群を生成する(ステップ93)。
具体的には、個体生成部11cは、機能単位記憶部10cに記憶されている各種ノードにもとづいて、特異点探索用ノード領域と分類用ノード領域ごとに、それぞれに用いることのできるノードを所定の条件下でランダムに選択して配列することにより、特異点探索用ノード領域と分類用ノード領域を有する複数の親個体情報を生成して、個体群記憶部12cにおける親個体群記憶部121cに記憶させる。
なお、ステップ90~93の各ステップの実行順序は、入れ替えてもよい。
Next, the individual generation unit 11c generates an initial parent population (step 93).
Specifically, the individual generation unit 11c predetermines nodes that can be used for each of the singularity search node area and the classification node area based on the various nodes stored in the functional unit storage unit 10c. By randomly selecting and arranging them under the following conditions, a plurality of parent individual information having a node area for singularity search and a node area for classification are generated and stored in the parent population storage unit 121c in the population storage unit 12c. Make me remember.
Note that the order of execution of steps 90 to 93 may be changed.

この親個体群記憶部121cにおける親個体群は、後述する親個体群の更新処理によって更新され、世代ループにおいて、設定された世代について以下の処理が繰り返し行われる(ステップ94)。 The parent population in the parent population storage unit 121c is updated by a parent population update process described later, and the following process is repeatedly performed for the set generation in a generation loop (step 94).

次に、世代ループにおいて、遺伝子操作部32cが、親個体群記憶部121cにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。(ステップ95)。そして、選択された親個体情報に対して遺伝子操作を実行する(ステップ96)。
このとき、遺伝子操作部32cは、親個体情報に対して交叉処理や突然変異処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122cに記憶させる。
Next, in the generation loop, the gene manipulation unit 32c randomly selects parent individual information for generating child individual information from the parent population in the parent population storage unit 121c. (Step 95). Genetic manipulation is then performed on the selected parent individual information (step 96).
At this time, the gene manipulation unit 32c executes crossover processing and mutation processing on the parent individual information to generate a plurality of child individual information, and stores the child population consisting of these child individual information in the child population storage. 122c.

次に、子個体群ループにおいて(ステップ97)、特異点探索画像処理部19cが、子個体群記憶部122cにおける子個体情報の特異点探索用ノード領域の各ノードにもとづいて、特異点探索画像処理を実行する(ステップ98)。
そして、各学習用画像と各検証用画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20cに記憶させる。
Next, in the child population loop (step 97), the singularity search image processing unit 19c generates a singularity search image based on each node in the node area for singularity search of the child individual information in the child population storage unit 122c. Processing is executed (step 98).
Then, images as singularity search results corresponding to each learning image and each verification image are created and stored in the singularity search result storage section 20c.

次に、探索評価値計算部21cが、探索評価結果記憶部22cから特異点探索結果を入力すると共に、教師情報記憶部16cからその特異点探索結果に対応する教師情報を入力し、特異点探索結果と教師情報を比較して探索評価値を計算し、算出された評価値を探索評価結果記憶部22cに記憶させる(ステップ99)。 Next, the search evaluation value calculation unit 21c inputs the singularity search result from the search evaluation result storage unit 22c, and also inputs the teacher information corresponding to the singularity search result from the teacher information storage unit 16c, and performs the singularity search. A search evaluation value is calculated by comparing the result with the teacher information, and the calculated evaluation value is stored in the search evaluation result storage section 22c (step 99).

次に、学習用特徴量計算部23cが、特異点探索結果記憶部20cから特異点探索結果を入力し、子個体群記憶部122cにおける子個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、学習用画像の各特異点の特徴量を計算する(ステップ100)。また、学習用特徴量計算部23cは、画像記憶部14cから画像を入力して、画像を用いるノードを実行することもできる。これは、検証用特徴量計算部35cについても同様であるが、図12において省略している。
そして、学習用特徴量計算部23cは、算出された学習用画像の各特異点の特徴量を学習用特徴量記憶部24cに記憶させる。
Next, the learning feature calculation unit 23c inputs the singularity search results from the singularity search result storage unit 20c, and selects each node (classifier) in the classification node area of the child individual information in the child population storage unit 122c. The feature amount of each singular point of the learning image is calculated by sequentially executing (excluding the following) (step 100). Further, the learning feature calculation unit 23c can also input an image from the image storage unit 14c and execute a node using the image. This also applies to the verification feature calculation unit 35c, but is omitted in FIG. 12.
Then, the learning feature calculating unit 23c stores the calculated feature of each singular point of the learning image in the learning feature storing unit 24c.

次に、分類器学習部25cが、学習用特徴量記憶部24cから学習用画像の各特異点の特徴量を入力し、子個体群記憶部122cにおける子個体情報の分類用ノード領域に含まれる分類器の機械学習を実行する(ステップ101)。
そして、分類器学習部25cは、学習済み分類器を学習済み分類器記憶部26cに記憶させる。
Next, the classifier learning unit 25c inputs the feature quantity of each singular point of the learning image from the learning feature quantity storage unit 24c, and inputs the feature quantity of each singular point of the learning image from the learning feature quantity storage unit 24c, and inputs the feature quantity of each singular point of the learning image to be included in the classification node area of the child individual information in the child population storage unit 122c. Machine learning of the classifier is performed (step 101).
The classifier learning unit 25c then stores the trained classifier in the trained classifier storage unit 26c.

次に、検証用特徴量計算部35cが、特異点探索結果記憶部20cから特異点探索結果を入力し、子個体群記憶部122cにおける子個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、検証用画像の各特異点の特徴量を計算する(ステップ102)。
そして、検証用特徴量計算部35cは、算出された検証用画像の各特異点の特徴量を検証用特徴量記憶部36cに記憶させる。
Next, the verification feature calculation unit 35c inputs the singularity search results from the singularity search result storage unit 20c, and selects each node (classifier) in the classification node area of the child individual information in the child population storage unit 122c. The feature amount of each singular point of the verification image is calculated by sequentially executing (excluding the following steps) (step 102).
Then, the verification feature amount calculation unit 35c causes the verification feature amount storage unit 36c to store the calculated feature amount of each singular point of the verification image.

次に、分類処理部37cが、検証用特徴量記憶部36cから検証用画像の各特異点の特徴量を入力し、学習済み分類器記憶部26cに記憶された学習済み分類器を実行することにより特異点を分類して、分類結果を分類結果記憶部27cに記憶させる(ステップ103)。 Next, the classification processing unit 37c inputs the feature amount of each singular point of the verification image from the verification feature storage unit 36c, and executes the learned classifier stored in the trained classifier storage unit 26c. The singular points are classified according to the following, and the classification results are stored in the classification result storage section 27c (step 103).

次に、分類評価値計算部28cが、分類結果記憶部27cから分類結果を入力すると共に、比較情報記憶部18cからその分類結果に対応する比較情報を入力し、分類結果と比較情報を比較して分類評価値を計算し、算出された評価値を分類評価結果記憶部29cに記憶させる(ステップ104)。
そして、子個体群記憶部122cにおける全ての子個体情報について、ステップ98からステップ104までの処理を繰り返し実行する。
Next, the classification evaluation value calculation unit 28c inputs the classification result from the classification result storage unit 27c, and also inputs the comparison information corresponding to the classification result from the comparison information storage unit 18c, and compares the classification result and the comparison information. A classification evaluation value is calculated, and the calculated evaluation value is stored in the classification evaluation result storage section 29c (step 104).
Then, the processes from step 98 to step 104 are repeatedly executed for all the child individual information in the child population storage section 122c.

次に、個体評価値計算部30cが、探索評価結果記憶部22cから探索評価結果を入力すると共に、分類評価結果記憶部29cから分類評価結果を入力して、子個体情報の評価値を計算し、算出された子個体情報の評価値を個体評価結果記憶部31cに記憶させる。
そして、個体評価値計算部30cは、個体評価結果記憶部31cに記憶されている評価値にもとづいて、子個体情報の順位付けを行い、その結果を個体評価結果記憶部31cに記憶する(ステップ105)。
Next, the individual evaluation value calculation unit 30c inputs the search evaluation results from the search evaluation result storage unit 22c and the classification evaluation results from the classification evaluation result storage unit 29c, and calculates the evaluation value of child individual information. , the calculated evaluation value of the child individual information is stored in the individual evaluation result storage section 31c.
Then, the individual evaluation value calculation unit 30c ranks the child individual information based on the evaluation values stored in the individual evaluation result storage unit 31c, and stores the results in the individual evaluation result storage unit 31c (step 105).

そして、遺伝子操作部32cは、個体評価結果記憶部31cにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、ステップ95において親個体群からランダムに選択された上記の親個体情報と入れ替えることなどによって、個体群記憶部12cにおける親個体群記憶部121cの親個体情報を更新することができる(ステップ106)。 Then, the gene manipulation unit 32c transfers the child individual information with the best evaluation value and the child individual information selected with probability to the parent in step 95 based on the ranking information of the child individual information in the individual evaluation result storage unit 31c. The parent individual information in the parent population storage section 121c in the population storage section 12c can be updated by replacing the information with the parent individual information randomly selected from the population group (step 106).

遺伝子操作部32cのこのような処理によって、個体群記憶部12cにおける親個体群記憶部121cに新たな世代としての親個体群の個体情報を追加することができる。
そして、世代ループを繰り返すことで、個体群記憶部12cにおいて、新たな世代の親個体群の個体情報を順次追加することができる。
Through such processing by the gene manipulation unit 32c, individual information of the parent population as a new generation can be added to the parent population storage unit 121c in the population storage unit 12c.
Then, by repeating the generation loop, individual information of the parent population of a new generation can be sequentially added to the population storage unit 12c.

また、個体評価値計算部30cは、終了条件が満たされているか否かの判定処理を行い(ステップ107)、終了条件が満たされている場合、画像処理装置1cによる処理を終了する。
以上の処理の結果、個体評価結果記憶部31cにはどの個体情報が最適であるかが記憶され、個体群記憶部12cには最適化された個体情報が記憶される。
The individual evaluation value calculation unit 30c also performs a process of determining whether the termination condition is satisfied (step 107), and if the termination condition is satisfied, the processing by the image processing device 1c is terminated.
As a result of the above processing, which individual information is optimal is stored in the individual evaluation result storage section 31c, and the optimized individual information is stored in the individual group storage section 12c.

このような本実施形態の画像処理システムによれば、マハラノビスタグチ法、one class サポートベクターマシン、オートエンコーダ、混合ガウス法、k-meansなどの教師なし学習を行う分類器を用いる場合において、特異点の探索、特異点の特徴量計算、及び特異点の分類の相乗効果及び分類精度を、遺伝的操作を用いて最適化することが可能である。また、このような教師なし学習を用いることで、画像に写る検出対象のラベリング作業を行うことなく、特異点探索における偽陽性に対する修正を行うことが可能となる。 According to the image processing system of this embodiment, when using a classifier that performs unsupervised learning such as Mahalanobistaguchi method, one class support vector machine, autoencoder, Gaussian mixture method, k-means, etc., singularity It is possible to optimize the synergistic effect and classification accuracy of the search, feature calculation of singular points, and classification of singular points using genetic operations. Furthermore, by using such unsupervised learning, it is possible to correct false positives in singularity search without labeling detection targets in images.

[第五実施形態]
次に、本発明の第五実施形態に係る画像処理システム、及び画像処理プログラムについて、図14を参照して説明する。図14は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図である。
[Fifth embodiment]
Next, an image processing system and an image processing program according to a fifth embodiment of the present invention will be described with reference to FIG. 14. FIG. 14 is a block diagram showing the configuration of an image processing device corresponding to the image processing system of this embodiment.

本実施形態の画像処理装置1dは、図14に示すように、第二実施形態と比較して、最良組合せ判定部33dと組合せ判定結果記憶部34dをさらに備えると共に、個体評価値計算部30aと個体評価結果記憶部31aに相当する構成を備えていない点で相違する。
また、本実施形態の画像処理装置1dは、個体群記憶部12dにおいて、個体情報(親個体情報及び子個体情報)として、特異点探索用ノード領域を備えたものと、分類用ノード領域を備えたものとが分離して記憶されている点で第二実施形態と相違している。
さらに、本実施形態の画像処理装置1dは、検証用特徴量計算部35d、検証用特徴量記憶部36d、分類処理部37dをさらに備えると共に、特徴量計算部23aと特徴量記憶部24aに変えて学習用特徴量計算部23dと学習用特徴量記憶部24dを備えている点で第二実施形態と相違している。
本実施形態の画像処理装置1dにおけるその他の構成については、以下に説明する点を除いて、第二実施形態と同様のものとすることができる。
As shown in FIG. 14, the image processing device 1d of the present embodiment further includes a best combination determination section 33d and a combination determination result storage section 34d, as well as an individual evaluation value calculation section 30a, compared to the second embodiment. The difference is that it does not have a configuration equivalent to the individual evaluation result storage section 31a.
In addition, the image processing device 1d of the present embodiment has a node area for singular point search and a node area for classification as individual information (parent individual information and child individual information) in the population storage unit 12d. This embodiment differs from the second embodiment in that the data are stored separately.
Furthermore, the image processing device 1d of the present embodiment further includes a verification feature calculation unit 35d, a verification feature storage unit 36d, and a classification processing unit 37d, and replaces the feature calculation unit 23a and the feature storage unit 24a with This embodiment differs from the second embodiment in that it includes a learning feature calculation unit 23d and a learning feature storage unit 24d.
The other configurations of the image processing device 1d of this embodiment can be the same as those of the second embodiment, except for the points described below.

個体生成部11dは、機能単位記憶部10dに記憶されている各種ノードにもとづいて、特異点探索に用いることのできるノード群からノードを所定の条件下でランダムに選択して配列することにより、特異点探索用の複数の親個体情報を生成して、個体群記憶部12dにおける親個体群記憶部121dに記憶させる。
また、個体生成部11dは、機能単位記憶部10dに記憶されている各種ノードにもとづいて、特異点の分類に用いることのできるノード群からノードを所定の条件下でランダムに選択して配列することにより、分類用の複数の親個体情報を生成して、個体群記憶部12dにおける親個体群記憶部121dに記憶させる。
The individual generation unit 11d randomly selects and arranges nodes from a group of nodes that can be used for singularity search under predetermined conditions based on the various nodes stored in the functional unit storage unit 10d. A plurality of pieces of parent individual information for singular point search is generated and stored in the parent individual population storage section 121d in the individual population storage section 12d.
Furthermore, the individual generation unit 11d randomly selects and arranges nodes under predetermined conditions from a node group that can be used for classifying singularities, based on the various nodes stored in the functional unit storage unit 10d. By doing so, a plurality of pieces of parent individual information for classification are generated and stored in the parent individual group storage unit 121d in the individual population storage unit 12d.

個体群記憶部12dは、親個体群記憶部121dと子個体群記憶部122dを備えている。
本実施形態では、親個体情報及び子個体情報として、それぞれ特異点探索用ノード領域を備えた特異点探索用の個体情報と、分類用ノード領域を備えた分類用の個体情報とが、親個体群記憶部121dと子個体群記憶部122dのそれぞれにおいて別個に備えられている。
The population storage section 12d includes a parent population storage section 121d and a child population storage section 122d.
In this embodiment, as parent individual information and child individual information, individual information for singularity search having a node area for searching for singularity and individual information for classification having a node area for classification are used as parent individual information. Each of the group storage unit 121d and the child population storage unit 122d is provided separately.

本実施形態において、分類用の個体情報における分類器にもとづく分類処理については、教師なし学習によって学習が行われる。
また、本実施形態において、個体情報は、特異点探索用と分類用とが別個に備えられた遺伝子分離型である。
In this embodiment, the classification process based on the classifier in the individual information for classification is performed by unsupervised learning.
Furthermore, in this embodiment, the individual information is of a gene-separated type in which information for searching for singular points and information for classification are separately provided.

画像入力部13dは、学習用画像と検証用画像を入力して、これらを画像記憶部14dに記憶させる。 The image input unit 13d inputs the learning image and the verification image and stores them in the image storage unit 14d.

特異点探索画像処理部19dは、子個体群記憶部122dにおける特異点探索用の子個体情報にもとづいて、特異点探索画像処理を実行し、学習用画像と検証用画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20dに記憶させる。 The singularity search image processing unit 19d executes singularity search image processing based on the child individual information for singularity search in the child population storage unit 122d, and performs singularity search corresponding to the learning image and the verification image. An image or the like as a result is created and stored in the singular point search result storage section 20d.

探索評価値計算部21dは、探索評価結果記憶部22dに記憶されている探索評価値にもとづいて、特異点探索用の子個体情報の順位付けを行い、その結果を探索評価結果記憶部22dに記憶する。 The search evaluation value calculation unit 21d ranks the child individual information for singular point search based on the search evaluation value stored in the search evaluation result storage unit 22d, and stores the result in the search evaluation result storage unit 22d. Remember.

学習用特徴量計算部23dは、特異点探索結果記憶部20dから特異点探索結果を入力し、子個体群記憶部122dにおける分類用の子個体情報の各ノード(分類器を除く)を順次実行することにより、学習用画像の各特異点の特徴量を計算する。
学習用特徴量計算部23dは、学習用画像の各特異点の特徴量を個体情報ごと且つ画像ごとに学習用特徴量記憶部24dに記憶させる。
The learning feature calculation unit 23d inputs the singularity search results from the singularity search result storage unit 20d, and sequentially executes each node (excluding the classifier) of child individual information for classification in the child population storage unit 122d. By doing so, the feature amount of each singular point of the learning image is calculated.
The learning feature calculating unit 23d stores the feature of each singular point of the learning image in the learning feature storing unit 24d for each individual information and for each image.

分類器学習部25dは、学習用特徴量記憶部24dから学習用画像の各特異点の特徴量を入力し、子個体群記憶部122dにおける分類用の子個体情報に含まれる分類器の機械学習を実行し、学習済み分類器を学習済み分類器記憶部26dに記憶させる。 The classifier learning unit 25d inputs the feature amount of each singular point of the learning image from the learning feature storage unit 24d, and performs machine learning of the classifier included in the child individual information for classification in the child population storage unit 122d. is executed, and the learned classifier is stored in the learned classifier storage unit 26d.

検証用特徴量計算部35dは、特異点探索結果記憶部20dから特異点探索結果を入力し、子個体群記憶部122dにおける分類用の子個体情報の各ノード(分類器を除く)を順次実行することにより、検証用画像の各特異点の特徴量を計算する。
検証用特徴量計算部35dは、検証用画像の各特異点の特徴量を個体情報ごと且つ画像ごとに検証用特徴量記憶部36dに記憶させる。
The verification feature calculation unit 35d inputs the singularity search results from the singularity search result storage unit 20d, and sequentially executes each node (excluding the classifier) of child individual information for classification in the child population storage unit 122d. By doing so, the feature amount of each singular point of the verification image is calculated.
The verification feature calculation unit 35d stores the feature of each singular point of the verification image in the verification feature storage unit 36d for each individual information and image.

分類処理部37dは、検証用特徴量記憶部36dから検証用画像の各特異点の特徴量を入力し、学習済み分類器記憶部26dに記憶された学習済み分類器により特異点を分類して、分類結果を分類結果記憶部27dに記憶させる。 The classification processing unit 37d inputs the feature amount of each singular point of the verification image from the verification feature storage unit 36d, and classifies the singular point using the trained classifier stored in the trained classifier storage unit 26d. , the classification results are stored in the classification result storage section 27d.

分類評価値計算部28dは、分類結果記憶部27dから分類結果を入力すると共に、比較情報記憶部18dからその分類結果に対応する比較情報を入力して、分類結果と比較情報を比較して検出対象候補の分類の評価値を計算し、得られた評価値を個体情報ごと且つ画像ごと且つ特異点ごとに分類評価結果記憶部29dに記憶させることができる。 The classification evaluation value calculation unit 28d inputs the classification results from the classification result storage unit 27d and also inputs the comparison information corresponding to the classification results from the comparison information storage unit 18d, and compares the classification results and the comparison information for detection. The evaluation value of the classification of the target candidate can be calculated, and the obtained evaluation value can be stored in the classification evaluation result storage unit 29d for each individual information, for each image, and for each singular point.

このとき、分類評価値計算部28dは、分類の正確度、再現性、適合度、F値等の指標にもとづいて、指標評価値を計算する。
また、分類評価値計算部28dは、画像処理装置1の処理速度、個体情報におけるノード使用率、個体情報の大きさ等の指標にもとづいて、指標評価値を計算することもできる。
そして、分類評価値計算部28dは、これらの指標評価値を用いて、重み付きの足し合わせなどを行うことによって、分類評価値を計算することができる。
At this time, the classification evaluation value calculation unit 28d calculates an index evaluation value based on indices such as classification accuracy, reproducibility, degree of adaptation, and F value.
Further, the classification evaluation value calculation unit 28d can also calculate the index evaluation value based on indicators such as the processing speed of the image processing device 1, the node usage rate in the individual information, and the size of the individual information.
Then, the classification evaluation value calculation unit 28d can calculate the classification evaluation value by performing weighted addition or the like using these index evaluation values.

最良組合せ判定部33dは、探索評価結果記憶部22dから特異点探索用の子個体情報の順位付け情報を入力すると共に、分類評価結果記憶部29dから分類用の子個体情報の順位付けを入力して、特異点探索用の子個体情報と分類用の子個体情報の最良の組合せを判定する。最良の組合せとしては、探索評価値の最も高い特異点探索用の子個体情報と分類評価値の最も高い分類用の子個体情報の組合せなどとすることができる。
また、最良組合せ判定部33dは、最良の組合せ情報を含む組合せ判定結果を組合せ判定結果記憶部34dに記憶させる。この組合せ判定結果には、特異点探索用の子個体情報と分類用の子個体情報の順位付け情報を含めることができる。
The best combination determination unit 33d inputs ranking information of child individual information for singularity search from the search evaluation result storage unit 22d, and inputs ranking information of child individual information for classification from the classification evaluation result storage unit 29d. Then, the best combination of child individual information for singular point search and child individual information for classification is determined. The best combination may be a combination of child individual information for singularity search with the highest search evaluation value and child individual information for classification with the highest classification evaluation value.
Moreover, the best combination determination section 33d causes the combination determination result including the best combination information to be stored in the combination determination result storage section 34d. This combination determination result can include child individual information for singular point search and ranking information of child individual information for classification.

遺伝子操作部32dは、親個体群記憶部121dにおける特異点探索用の親個体群からランダムに子個体情報を生成する親個体情報を選択して、選択された親個体情報に対して遺伝子操作を実行する。
また、遺伝子操作部32dは、親個体群記憶部121dにおける分類用の親個体群からランダムに子個体情報を生成する親個体情報を選択して、選択された親個体情報に対して遺伝子操作を実行する。
The genetic manipulation unit 32d randomly selects parent individual information for generating child individual information from the parent population for singularity search in the parent population storage unit 121d, and performs genetic manipulation on the selected parent individual information. Execute.
Furthermore, the genetic manipulation unit 32d randomly selects parent individual information for generating child individual information from the parent population for classification in the parent population storage unit 121d, and performs genetic manipulation on the selected parent individual information. Execute.

さらに、遺伝子操作部32dは、組合せ判定結果記憶部34dにおける組合せ判定結果にもとづいて、特異点探索用の子個体情報と分類用の子個体情報のそれぞれについて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群から選択された親個体情報の一部と入れ替えることなどによって、個体群記憶部12dにおける親個体群記憶部121dの親個体情報を更新することができる。 Furthermore, the gene manipulation unit 32d selects the child individual information with the best evaluation value for each of the child individual information for singularity search and the child individual information for classification based on the combination determination results in the combination determination result storage unit 34d. and updating the parent individual information in the parent population storage unit 121d in the population storage unit 12d by replacing the child individual information selected by the probability with a part of the parent individual information selected from the parent population. I can do it.

次に、本実施形態の画像処理システムに対応する画像処理装置の処理手順について、図15を参照して説明する。図15は、本実施形態の画像処理システムに対応する画像処理装置による処理手順を示すフローチャートである。 Next, the processing procedure of the image processing apparatus corresponding to the image processing system of this embodiment will be explained with reference to FIG. FIG. 15 is a flowchart showing a processing procedure by an image processing apparatus corresponding to the image processing system of this embodiment.

まず、画像処理装置1dにおける画像入力部13dが、学習用画像と検証用画像を入力して、画像記憶部14dに記憶させる(ステップ110)。また、教師情報入力部15dが、特異点探索用の教師情報としての教師画像を入力し、教師情報記憶部16dに記憶させる(ステップ111)。さらに、比較情報入力部17dが、特異点を分類するための比較情報(ラベル)を入力し、比較情報記憶部18dに記憶させる(ステップ112)。 First, the image input unit 13d in the image processing device 1d inputs a learning image and a verification image and stores them in the image storage unit 14d (step 110). Further, the teacher information input unit 15d inputs a teacher image as teacher information for singular point search, and stores it in the teacher information storage unit 16d (step 111). Further, the comparison information input unit 17d inputs comparison information (label) for classifying the singularity, and stores it in the comparison information storage unit 18d (step 112).

次に、個体生成部11dが、初期の親個体群を生成する。
具体的には、個体生成部11dは、機能単位記憶部10dに記憶されている各種ノードにもとづいて、特異点探索に用いることのできるノード群からノードを所定の条件下でランダムに選択して配列することにより、特異点探索用の複数の親個体情報を生成して、個体群記憶部12dにおける親個体群記憶部121dに記憶させる(ステップ113)。
また、個体生成部11dは、機能単位記憶部10dに記憶されている各種ノードにもとづいて、特異点の分類に用いることのできるノード群からノードを所定の条件下でランダムに選択して配列することにより、分類用の複数の親個体情報を生成して、個体群記憶部12dにおける親個体群記憶部121dに記憶させる(ステップ114)。
なお、ステップ110~114の各ステップの実行順序は、入れ替えてもよい。
Next, the individual generation unit 11d generates an initial parent population.
Specifically, the individual generation unit 11d randomly selects nodes from a group of nodes that can be used for singularity search under predetermined conditions based on the various nodes stored in the functional unit storage unit 10d. By arranging them, a plurality of pieces of parent individual information for singularity search are generated and stored in the parent population storage section 121d in the population storage section 12d (step 113).
Furthermore, the individual generation unit 11d randomly selects and arranges nodes under predetermined conditions from a node group that can be used for classifying singularities, based on the various nodes stored in the functional unit storage unit 10d. As a result, a plurality of pieces of parent individual information for classification are generated and stored in the parent individual group storage unit 121d in the individual population storage unit 12d (step 114).
Note that the order of execution of steps 110 to 114 may be changed.

この親個体群記憶部121dにおける親個体群は、後述する親個体群の更新処理によって更新され、世代ループにおいて、設定された世代について以下の処理が繰り返し行われる(ステップ115)。 The parent population in the parent population storage unit 121d is updated by a parent population update process described later, and the following process is repeatedly performed for the set generation in a generation loop (step 115).

次に、世代ループにおいて、遺伝子操作部32dが、親個体群記憶部121dにおける特異点探索用の親個体群からランダムに子個体情報を生成する親個体情報を選択して(ステップ116)、選択された親個体情報に対して遺伝子操作を実行する(ステップ117)。また、遺伝子操作部32dが、親個体群記憶部121dにおける分類用の親個体群からランダムに子個体情報を生成する親個体情報を選択して(ステップ116)、選択された親個体情報に対して遺伝子操作を実行する(ステップ118)。 Next, in the generation loop, the gene manipulation unit 32d randomly selects parent individual information for generating child individual information from the parent population for singularity search in the parent population storage unit 121d (step 116), and selects Genetic manipulation is performed on the parent individual information obtained (step 117). In addition, the gene manipulation unit 32d randomly selects parent individual information for generating child individual information from the parent population for classification in the parent population storage unit 121d (step 116), and applies the selected parent individual information to the parent individual information. Then, genetic manipulation is performed (step 118).

このとき、遺伝子操作部32dは、特異点探索用の親個体情報と分類用の親個体情報に対して交叉処理や突然変異処理を実行して、特異点探索用の複数の子個体情報と分類用の複数の子個体情報をそれぞれ生成し、各子個体情報からなる特異点探索用の子個体群と分類用の子個体群を子個体群記憶部122dに記憶させる。 At this time, the gene manipulation unit 32d performs crossover processing and mutation processing on the parent individual information for singular point search and the parent individual information for classification, and classifies it with a plurality of child individual information for singular point search. A plurality of pieces of child individual information are generated respectively, and a child population for singular point search and a child population for classification, which are made up of each child individual information, are stored in the child population storage unit 122d.

次に、特異点探索用の子個体群ループにおいて(ステップ119)、特異点探索画像処理部19dが、子個体群記憶部122dにおける特異点探索用の子個体情報にもとづいて、特異点探索画像処理を実行する(ステップ120)。
そして、各学習用画像と各検証用画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20dに記憶させる。
Next, in the child population loop for singularity search (step 119), the singularity search image processing unit 19d generates a singularity search image based on the child individual information for singularity search in the child population storage unit 122d. Processing is executed (step 120).
Then, images as singularity search results corresponding to each learning image and each verification image are created and stored in the singularity search result storage section 20d.

次に、探索評価値計算部21dが、探索評価結果記憶部22dから特異点探索結果を入力すると共に、教師情報記憶部16dからその特異点探索結果に対応する教師情報を入力し、特異点探索結果と教師情報を比較して探索評価値を計算し、算出された評価値を探索評価結果記憶部22dに記憶させる(ステップ121)。
そして、子個体群記憶部122dにおける全ての特異点探索用の子個体情報について、ステップ120からステップ121までの処理を繰り返し実行する。
さらに、探索評価値計算部21dは、探索評価結果記憶部22dに記憶されている探索評価値にもとづいて、特異点探索用の子個体情報の順位付けを行い、その結果を探索評価結果記憶部22dに記憶する(ステップ122)。
Next, the search evaluation value calculation unit 21d inputs the singularity search result from the search evaluation result storage unit 22d, and also inputs the teacher information corresponding to the singularity search result from the teacher information storage unit 16d, and performs the singularity search. A search evaluation value is calculated by comparing the result with the teacher information, and the calculated evaluation value is stored in the search evaluation result storage section 22d (step 121).
Then, the processing from step 120 to step 121 is repeatedly executed for all the child individual information for singularity search in the child population storage unit 122d.
Furthermore, the search evaluation value calculation unit 21d ranks the child individual information for singular point search based on the search evaluation value stored in the search evaluation result storage unit 22d, and the search evaluation value calculation unit 21d ranks the child individual information for singular point search. 22d (step 122).

次に、分類用の子個体群ループにおいて(ステップ123)、学習用特徴量計算部23dが、特異点探索結果記憶部20dから学習用画像の特異点探索結果を入力し、子個体群記憶部122dにおける分類用の子個体情報の各ノード(分類器を除く)を順次実行することにより、学習用画像の各特異点の特徴量を計算する(ステップ124)。なお、このとき入力する特異点探索結果としては、特異点探索の子個体群における最良の個体情報を用いて得られたものなどを使用するができる。
そして、学習用特徴量計算部23dは、算出された学習用画像の各特異点の特徴量を学習用特徴量記憶部24dに記憶させる。
Next, in the child population loop for classification (step 123), the learning feature calculation unit 23d inputs the singularity search results of the learning images from the singularity search result storage unit 20d, and By sequentially executing each node (excluding the classifier) of the child individual information for classification in step 122d, the feature amount of each singular point of the learning image is calculated (step 124). Note that the singularity search result input at this time may be one obtained using the best individual information in the child population of the singularity search.
Then, the learning feature calculation unit 23d stores the calculated feature of each singular point of the learning image in the learning feature storage unit 24d.

次に、分類器学習部25dが、学習用特徴量記憶部24dから学習用画像の各特異点の特徴量を入力し、子個体群記憶部122dにおける分類用の子個体情報に含まれる分類器の機械学習を実行する(ステップ125)。
そして、分類器学習部25dは、学習済み分類器を学習済み分類器記憶部26dに記憶させる。
Next, the classifier learning unit 25d inputs the feature amount of each singular point of the learning image from the learning feature storage unit 24d, and uses the classifier included in the child individual information for classification in the child population storage unit 122d. machine learning is executed (step 125).
The classifier learning unit 25d then stores the trained classifier in the trained classifier storage unit 26d.

次に、検証用特徴量計算部35dが、特異点探索結果記憶部20dから検証用画像の特異点探索結果を入力し、子個体群記憶部122dにおける分類用の子個体情報の各ノード(分類器を除く)を順次実行することにより、検証用画像の各特異点の特徴量を計算する(ステップ126)。
そして、検証用特徴量計算部35dは、算出された検証用画像の各特異点の特徴量を検証用特徴量記憶部36dに記憶させる。
Next, the verification feature calculation unit 35d inputs the singularity search results of the verification image from the singularity search result storage unit 20d, and receives each node (classification) of child individual information for classification in the child population storage unit 122d. The feature amount of each singular point of the verification image is calculated (step 126).
Then, the verification feature calculating unit 35d stores the calculated feature of each singular point of the verification image in the verification feature storing unit 36d.

次に、分類処理部37dが、検証用特徴量記憶部36dから検証用画像の各特異点の特徴量を入力し、学習済み分類器記憶部26dに記憶された学習済み分類器により特異点を分類して、分類結果を分類結果記憶部27dに記憶させる(ステップ127)。 Next, the classification processing unit 37d inputs the feature amount of each singular point of the verification image from the verification feature storage unit 36d, and uses the trained classifier stored in the trained classifier storage unit 26d to identify the singular point. The classification results are stored in the classification result storage section 27d (step 127).

次に、分類評価値計算部28dが、分類結果記憶部27dから分類結果を入力すると共に、比較情報記憶部18dからその分類結果に対応する比較情報を入力し、分類結果と比較情報を比較して分類評価値を計算し、算出された評価値を分類評価結果記憶部29dに記憶させる(ステップ128)。
そして、子個体群記憶部122dにおける全ての分類用の子個体情報について、ステップ124からステップ128までの処理を繰り返し実行する。
Next, the classification evaluation value calculation unit 28d inputs the classification result from the classification result storage unit 27d, and also inputs the comparison information corresponding to the classification result from the comparison information storage unit 18d, and compares the classification result and the comparison information. A classification evaluation value is calculated, and the calculated evaluation value is stored in the classification evaluation result storage section 29d (step 128).
Then, the processes from step 124 to step 128 are repeatedly executed for all child individual information for classification in the child population storage unit 122d.

さらに、分類評価値計算部28dは、分類評価結果記憶部29dに記憶されている分類評価値にもとづいて、分類用の子個体情報の順位付けを行い、その結果を分類評価結果記憶部29dに記憶させる(ステップ129)。 Furthermore, the classification evaluation value calculation unit 28d ranks child individual information for classification based on the classification evaluation values stored in the classification evaluation result storage unit 29d, and stores the results in the classification evaluation result storage unit 29d. It is stored (step 129).

次に、最良組合せ判定部33dが、探索評価結果記憶部22dから特異点探索用の子個体情報の順位付け情報を入力すると共に、分類評価結果記憶部29dから分類用の子個体情報の順位付けを入力して、特異点探索用の子個体情報と分類用の子個体情報の最良の組合せを判定する(ステップ130)。
そして、最良組合せ判定部33dは、最良の組合せ情報を含む組合せ判定結果を組合せ判定結果記憶部34dに記憶させる。また、組合せ判定結果には、特異点探索用の子個体情報と分類用の子個体情報の順位付け情報を含めることができる。
Next, the best combination determination unit 33d inputs ranking information of child individual information for singular point search from the search evaluation result storage unit 22d, and also inputs ranking information of child individual information for classification from the classification evaluation result storage unit 29d. is input, and the best combination of child individual information for singular point search and child individual information for classification is determined (step 130).
Then, the best combination determination section 33d causes the combination determination result including the best combination information to be stored in the combination determination result storage section 34d. Further, the combination determination result can include child individual information for singular point search and ranking information of child individual information for classification.

そして、遺伝子操作部32dは、組合せ判定結果記憶部34dにおける組合せ判定結果にもとづいて、特異点探索用の子個体情報と分類用の子個体情報のそれぞれについて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、ステップ116において親個体群から選択された親個体情報の一部と入れ替えることなどによって、個体群記憶部12dにおける親個体群記憶部121dの親個体情報を更新することができる(ステップ131)。 Then, the gene manipulation unit 32d selects the child individual information with the best evaluation value for each of the child individual information for singular point search and the child individual information for classification based on the combination determination results in the combination determination result storage unit 34d. The parent individual information of the parent population storage unit 121d in the population storage unit 12d is changed by replacing the child individual information selected with the probability and the part of the parent individual information selected from the parent population in step 116. It can be updated (step 131).

遺伝子操作部32dのこのような処理によって、個体群記憶部12dにおける親個体群記憶部121dに新たな世代としての親個体群の個体情報を追加することができる。
そして、世代ループを繰り返すことで、個体群記憶部12dにおいて、新たな世代の親個体群の個体情報を順次追加することができる。
Through such processing by the gene manipulation section 32d, individual information of the parent population as a new generation can be added to the parent population storage section 121d in the population storage section 12d.
Then, by repeating the generation loop, individual information of the parent population of a new generation can be sequentially added to the population storage unit 12d.

また、最良組合せ判定部33dは、終了条件が満たされているか否かの判定処理を行い(ステップ132)、終了条件が満たされている場合、画像処理装置1dによる処理を終了する。
以上の処理の結果、組合せ判定結果記憶部34dにはどの個体情報の組合せが最適であるかが記憶され、個体群記憶部12dには最適化された特異点探索用の子個体情報と分類用の子個体情報が記憶される。
The best combination determining unit 33d also performs a determination process to determine whether the termination condition is satisfied (step 132), and if the termination condition is satisfied, the process by the image processing device 1d is terminated.
As a result of the above processing, the combination determination result storage unit 34d stores which combination of individual information is optimal, and the population storage unit 12d stores the optimized child individual information for singular point search and classification information. child individual information is stored.

このような本実施形態の画像処理装置によれば、マハラノビスタグチ法、one class サポートベクターマシン、オートエンコーダ、混合ガウス法、k-meansなどの教師なし学習を行う分類器を用いる場合において、特異点の探索、特異点の特徴量計算、及び特異点の分類の相乗効果及び分類精度を、遺伝的操作を用いて最適化することが可能となり、また特異点探索用の個体情報と分類用の個体情報を分離しつつ、その組合せを進化的計算に反映することが可能となる。 According to the image processing apparatus of this embodiment, when using a classifier that performs unsupervised learning such as Mahalanobistaguchi method, one class support vector machine, autoencoder, Gaussian mixture method, k-means, etc., singularity It is now possible to optimize the synergistic effect and classification accuracy of the search for singularity, feature calculation of singularity, and classification of singularity using genetic operations. It becomes possible to separate information and reflect its combination in evolutionary calculations.

例えば、特異点探索において評価の悪い子個体情報に対しては、子個体群(分類)ループ処理を実施しないようにするなど、計算時間の短時間化が可能である。また、評価の良い特異点探索用の子個体情報について、最適な分類用の子個体情報を集中的に探索できるため、画像処理装置の性能をより向上させることが可能である。さらに、このような教師なし学習を用いることで、画像に写る検出対象のラベリング作業を行うことなく、特異点探索における偽陽性に対する修正を行うことが可能となる。 For example, calculation time can be shortened by not performing child individual group (classification) loop processing for child individual information that is poorly evaluated in the singular point search. In addition, since it is possible to intensively search for optimal child individual information for classification with respect to child individual information for singular point search that has been evaluated well, it is possible to further improve the performance of the image processing device. Furthermore, by using such unsupervised learning, it is possible to correct false positives in singularity search without labeling detection targets in images.

[第六実施形態]
次に、本発明の第六実施形態に係る画像処理システム、及び画像処理プログラムについて、図16を参照して説明する。図16は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図である。
[Sixth embodiment]
Next, an image processing system and an image processing program according to a sixth embodiment of the present invention will be described with reference to FIG. 16. FIG. 16 is a block diagram showing the configuration of an image processing device corresponding to the image processing system of this embodiment.

本実施形態の画像処理装置1eは、図16に示すように、第四実施形態と比較して、特異点分割部38eをさらに備えている点で相違している。
本実施形態の画像処理装置1eにおけるその他の構成については、以下に説明する点を除いて、第四実施形態と同様のものとすることができる。
As shown in FIG. 16, the image processing device 1e of this embodiment is different from the fourth embodiment in that it further includes a singular point dividing section 38e.
The other configurations of the image processing apparatus 1e of this embodiment can be the same as those of the fourth embodiment, except for the points described below.

本実施形態において、個体情報の分類用ノード領域における分類器にもとづく分類処理については、教師なし学習が行われる。
また、本実施形態において、個体情報は、特異点探索用ノード領域と分類用ノード領域が連続して配置された遺伝子連続型である。
In this embodiment, unsupervised learning is performed for classification processing based on a classifier in the classification node area of individual information.
Furthermore, in this embodiment, the individual information is of a gene continuous type in which the singularity search node area and the classification node area are arranged consecutively.

特異点分割部38eは、教師情報記憶部16eから教師情報を入力すると共に、これに対応する特異点探索結果を特異点探索結果記憶部20eから入力して、その特異点探索結果を学習用特異点探索結果と検証用特異点探索結果に分割して、特異点探索結果記憶部20eに記憶させる。
ここで、探索して得られた特異点は、教師情報にもとづき良品と不良品に分類できる。そこで、特異点分割部38eにより、特異点探索結果を例えば良品の特異点情報を示す学習用特異点探索結果と、良品及び不良品の特異点情報を示す検証用特異点探索結果とに分割することで、これらを用いて教師なし学習の分類器の学習を実行可能にしている。
The singularity dividing unit 38e inputs the teacher information from the teacher information storage unit 16e, and inputs the corresponding singularity search result from the singularity search result storage unit 20e, and uses the singularity search result as a learning singularity. It is divided into a point search result and a verification singularity search result and stored in the singularity search result storage section 20e.
Here, the singular points obtained through the search can be classified into good products and defective products based on teacher information. Therefore, the singularity dividing unit 38e divides the singularity search result into, for example, a learning singularity search result indicating singularity information of non-defective products, and a verification singularity search result indicating singularity information of non-defective products and defective products. This makes it possible to use these to train a classifier using unsupervised learning.

学習用特徴量計算部23eは、特異点探索結果記憶部20eから学習用特異点探索結果を入力し、子個体群記憶部122eにおける子個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、各学習用特異点の特徴量を計算する。
学習用特徴量計算部23eは、算出された各学習用特異点の特徴量を個体情報ごと且つ画像ごとに且つ特異点ごとに学習用特徴量記憶部24eに記憶させる。
The learning feature calculation unit 23e inputs the learning singularity search results from the singularity search result storage unit 20e, and receives each node (excluding the classifier) of the classification node area of the child individual information in the child population storage unit 122e. ) to calculate the feature amount of each learning singular point.
The learning feature amount calculation unit 23e stores the calculated feature amount of each learning singular point in the learning feature amount storage unit 24e for each individual information, for each image, and for each singular point.

分類器学習部25eは、学習用特徴量記憶部24eから各学習用特異点の特徴量を入力し、子個体群記憶部122eにおける子個体情報の分類用ノード領域に含まれる分類器の機械学習を実行し、学習済み分類器を学習済み分類器記憶部26eに記憶させる。 The classifier learning unit 25e inputs the feature amount of each learning singular point from the learning feature storage unit 24e, and performs machine learning of the classifier included in the classification node area of the child individual information in the child population storage unit 122e. is executed, and the learned classifier is stored in the learned classifier storage section 26e.

検証用特徴量計算部35eは、特異点探索結果記憶部20eから検証用特異点探索結果を入力し、子個体群記憶部122eにおける子個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、各検証用特異点の特徴量を計算し、算出された各検証用特異点の特徴量を検証用特徴量記憶部36eに記憶させる。 The verification feature calculation unit 35e inputs the verification singularity search results from the singularity search result storage unit 20e, and calculates each node (excluding the classifier) in the classification node area of the child individual information in the child population storage unit 122e. ), the feature amount of each verification singular point is calculated, and the calculated feature amount of each verification singular point is stored in the verification feature storage section 36e.

分類処理部37eは、検証用特徴量記憶部36eから各検証用特異点の特徴量を入力し、学習済み分類器記憶部26eに記憶された学習済み分類器を実行することにより特異点を分類して、分類結果を分類結果記憶部27eに記憶させる。 The classification processing unit 37e inputs the feature amount of each verification singular point from the verification feature storage unit 36e, and classifies the singular point by executing the trained classifier stored in the trained classifier storage unit 26e. Then, the classification results are stored in the classification result storage section 27e.

次に、本実施形態の画像処理システムに対応する画像処理装置の処理手順について、図17を参照して説明する。図17は、本実施形態の画像処理システムに対応する画像処理装置による処理手順を示すフローチャートである。 Next, a processing procedure of an image processing apparatus corresponding to the image processing system of this embodiment will be described with reference to FIG. 17. FIG. 17 is a flowchart showing a processing procedure by an image processing apparatus corresponding to the image processing system of this embodiment.

まず、画像処理装置1eにおける画像入力部13eが、学習用画像を入力して、これらを画像記憶部14eに記憶させる(ステップ140)。
次に、特異点探索用の教師情報の入力(ステップ141)から特異点探索結果の評価値計算(ステップ149)までの各処理の内容は、図13に示す第四実施形態におけるステップ91~99と同様である。
First, the image input unit 13e in the image processing device 1e inputs learning images and stores them in the image storage unit 14e (step 140).
Next, the contents of each process from inputting teacher information for singularity search (step 141) to evaluation value calculation of singularity search results (step 149) are as follows from steps 91 to 99 in the fourth embodiment shown in FIG. It is similar to

次に、特異点分割部38eが、教師情報記憶部16eから教師情報を入力すると共に、これに対応する特異点探索結果を特異点探索結果記憶部20eから入力して、その特異点探索結果を学習用特異点探索結果と検証用特異点探索結果に分割して、特異点探索結果記憶部20eに記憶させる(ステップ150)。 Next, the singularity dividing unit 38e inputs the teacher information from the teacher information storage unit 16e, and inputs the corresponding singularity search result from the singularity search result storage unit 20e, and stores the singularity search result. The results are divided into a learning singularity search result and a verification singularity search result and stored in the singularity search result storage unit 20e (step 150).

次に、学習用特徴量計算部23eが、特異点探索結果記憶部20eから学習用特異点探索結果を入力し、子個体群記憶部122eにおける子個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、各学習用特異点の特徴量を計算する(ステップ151)。
そして、学習用特徴量計算部23eは、算出された各学習用特異点の特徴量を学習用特徴量記憶部24eに記憶させる。
Next, the learning feature amount calculation unit 23e inputs the learning singularity search results from the singularity search result storage unit 20e, and receives each node (classification) of the classification node area of the child individual information in the child population storage unit 122e. The feature amount of each learning singular point is calculated by sequentially executing (excluding the vector) (step 151).
Then, the learning feature calculation unit 23e stores the calculated feature of each learning singular point in the learning feature storage unit 24e.

次に、分類器学習部25eが、学習用特徴量記憶部24eから各学習用特異点の特徴量を入力し、子個体群記憶部122eにおける子個体情報の分類用ノード領域に含まれる分類器の機械学習を実行する(ステップ152)。
そして、分類器学習部25eは、学習済み分類器を学習済み分類器記憶部26eに記憶させる。
Next, the classifier learning unit 25e inputs the feature amount of each learning singular point from the learning feature storage unit 24e, and classifiers included in the classification node area of the child individual information in the child population storage unit 122e. machine learning is executed (step 152).
Then, the classifier learning unit 25e stores the trained classifier in the trained classifier storage unit 26e.

次に、検証用特徴量計算部35eが、特異点探索結果記憶部20eから検証用特異点探索結果を入力し、子個体群記憶部122eにおける子個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、各検証用特異点の特徴量を計算する(ステップ153)。
そして、検証用特徴量計算部35eは、算出された各検証用特異点の特徴量を検証用特徴量記憶部36eに記憶させる。
Next, the verification feature calculation unit 35e inputs the verification singularity search results from the singularity search result storage unit 20e, and receives each node (classification) of the classification node area of the child individual information in the child population storage unit 122e. The feature amount of each verification singularity is calculated by sequentially executing (excluding the vector) (step 153).
Then, the verification feature calculation unit 35e stores the calculated feature of each verification singularity in the verification feature storage unit 36e.

次に、分類処理部37eが、検証用特徴量記憶部36eから各検証用特異点の特徴量を入力し、学習済み分類器記憶部26eに記憶された学習済み分類器を実行することにより特異点を分類して、分類結果を分類結果記憶部27eに記憶させる(ステップ154)。 Next, the classification processing unit 37e inputs the feature amount of each verification singular point from the verification feature storage unit 36e, and executes the trained classifier stored in the trained classifier storage unit 26e to The points are classified and the classification results are stored in the classification result storage section 27e (step 154).

次に、分類評価値計算部28eが、分類結果記憶部27eから分類結果を入力すると共に、比較情報記憶部18eからその分類結果に対応する比較情報を入力し、分類結果と比較情報を比較して分類評価値を計算し、算出された評価値を分類評価結果記憶部29eに記憶させる(ステップ155)。
そして、子個体群記憶部122eにおける全ての子個体情報について、ステップ148からステップ155までの処理を繰り返し実行する。
以降の子個体情報の順位付け(ステップ156)から終了判定(ステップ158)までの各処理内容は、第四実施形態におけるステップ105~107と同様である。
Next, the classification evaluation value calculation unit 28e inputs the classification result from the classification result storage unit 27e, and also inputs the comparison information corresponding to the classification result from the comparison information storage unit 18e, and compares the classification result and the comparison information. A classification evaluation value is calculated, and the calculated evaluation value is stored in the classification evaluation result storage section 29e (step 155).
Then, the processes from step 148 to step 155 are repeatedly executed for all the child individual information in the child population storage section 122e.
The subsequent processing contents from ranking of child individual information (step 156) to end determination (step 158) are the same as steps 105 to 107 in the fourth embodiment.

なお、前述した第五実施形態の画像処理装置1dに特徴量分割部を備えて、図15の子個体群(分類)ループ(ステップ123)の前に、上記の学習用特異点探索結果と検証用特異点探索結果の分割(ステップ150)を実行し、図15のステップ124~128に変えて、上記のステップ151~155を実行することで、個体情報が遺伝分離型の場合について、本実施形態を適用することも可能である。 It should be noted that the image processing device 1d of the fifth embodiment described above is equipped with a feature dividing unit, and the above-described learning singularity search results and verification are performed before the child population (classification) loop (step 123) of FIG. By executing the division of the singularity search results (step 150) and executing steps 151 to 155 above instead of steps 124 to 128 in FIG. It is also possible to apply forms.

このような本実施形態の画像処理システムによれば、教師なし学習を行う分類器を用いる場合において、特異点探索結果を学習用特異点探索結果と検証用特異点探索結果に分割することによって、学習用特異点と検証用特異点の特徴量を効率的に計算することが可能になっている。
すなわち、本実施形態によれば、入力する画像を事前に学習用画像と検証用画像に分割する必要がない。また、特異点の探索結果を用いて学習用特異点と検証用特異点を分割するため、学習用特異点と検証用特異点の数をバランスよく分けることができ、画像処理システムの性能をより向上させることが可能となる。
According to the image processing system of this embodiment, when using a classifier that performs unsupervised learning, by dividing the singularity search results into the learning singularity search results and the verification singularity search results, It is now possible to efficiently calculate the features of the training singularity and the verification singularity.
That is, according to this embodiment, there is no need to divide an input image into a learning image and a verification image in advance. In addition, since the singularity search results are used to divide the training singularities and verification singularities, the number of training singularities and verification singularities can be divided in a well-balanced manner, improving the performance of the image processing system. It becomes possible to improve the performance.

[第七実施形態]
次に、本発明の第七実施形態に係る画像処理システム、及び画像処理プログラムについて、図18を参照して説明する。図18は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図である。
[Seventh embodiment]
Next, an image processing system and an image processing program according to a seventh embodiment of the present invention will be described with reference to FIG. 18. FIG. 18 is a block diagram showing the configuration of an image processing device corresponding to the image processing system of this embodiment.

本実施形態の画像処理装置1fは、最適化された個体情報と学習済み分類器を用いて、検査対象画像における特異点を分類するものであり、図18に示すように、個体群記憶部12f、画像入力部13f、画像記憶部14f、特異点探索画像処理部19f、特異点探索結果記憶部20f、特徴量計算部23f、特徴量記憶部24f、学習済み分類器記憶部26f、分類結果記憶部27f、分類処理部37fを備えている。 The image processing device 1f of this embodiment classifies singular points in the image to be inspected using optimized individual information and a learned classifier, and as shown in FIG. , image input section 13f, image storage section 14f, singularity search image processing section 19f, singularity search result storage section 20f, feature amount calculation section 23f, feature amount storage section 24f, learned classifier storage section 26f, classification result storage section It includes a section 27f and a classification processing section 37f.

本実施形態の画像処理装置1fにおける画像記憶部14f、特異点探索結果記憶部20f、特徴量記憶部24f、分類結果記憶部27fは、第一実施形態と同様のものとすることができる。また、本実施形態の画像処理装置1fにおけるその他の構成についても、以下に説明する点を除いて、第一実施形態と同様のものとすることができる。
なお、これらの構成を、第一実施形態~第六実施形態の画像処理システムにおいて備えることも好ましい。
The image storage section 14f, singular point search result storage section 20f, feature amount storage section 24f, and classification result storage section 27f in the image processing device 1f of this embodiment can be the same as those in the first embodiment. Further, the other configurations of the image processing device 1f of this embodiment can be the same as those of the first embodiment, except for the points described below.
Note that it is also preferable that these configurations be included in the image processing systems of the first to sixth embodiments.

個体群記憶部12fは、最終的に得られた最適化された個体情報を記憶する。
以下は、個体情報が遺伝子連続型である場合について説明しているが、遺伝子分離型の個体情報についても同様に適用することができる。
画像入力部13fは、検査対象画像を入力して、画像記憶部14fに記憶させる。
学習済み分類器記憶部26fは、最終的に得られた学習済み分類器を記憶する。
The individual population storage unit 12f stores the finally obtained optimized individual information.
The following describes the case where the individual information is of the gene-continuous type, but the same can be applied to the gene-separated type of individual information.
The image input section 13f inputs the image to be inspected and stores it in the image storage section 14f.
The trained classifier storage unit 26f stores the finally obtained trained classifier.

特異点探索画像処理部19fは、個体群記憶部12fにおける最適化された子個体情報の特異点探索用ノード領域の各ノードにもとづいて、特異点探索画像処理を実行し、各検査対象画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20fに記憶させる。 The singularity search image processing unit 19f executes singularity search image processing based on each node in the singularity search node area of the optimized child individual information in the population storage unit 12f, and performs singularity search image processing on each inspection target image. An image or the like as a corresponding singularity search result is created and stored in the singularity search result storage section 20f.

特徴量計算部23fは、特異点探索結果記憶部20fから特異点探索結果を入力し、個体群記憶部12fにおける最適化された個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、検査対象画像の各特異点の特徴量を計算し、算出された検査対象画像の各特異点の特徴量を特徴量記憶部24fに記憶させる。 The feature calculation unit 23f inputs the singularity search results from the singularity search result storage unit 20f, and calculates each node (excluding the classifier) in the optimized individual information classification node area in the population storage unit 12f. By sequentially executing, the feature amount of each singular point of the image to be inspected is calculated, and the calculated feature amount of each singular point of the image to be inspected is stored in the feature amount storage section 24f.

分類処理部37fは、特徴量記憶部24fから検査対象画像の各特異点の特徴量を入力し、学習済み分類器記憶部26fに記憶された学習済み分類器を実行することにより検査対象画像の各特異点を分類して、分類結果を分類結果記憶部27fに記憶させる。 The classification processing unit 37f inputs the feature amount of each singular point of the image to be inspected from the feature amount storage unit 24f, and executes the learned classifier stored in the learned classifier storage unit 26f, thereby classifying the image to be inspected. Each singular point is classified and the classification results are stored in the classification result storage section 27f.

次に、本実施形態の画像処理システムに対応する画像処理装置の処理手順について、図19を参照して説明する。図19は、本実施形態の画像処理システムに対応する画像処理装置による処理手順を示すフローチャートである。 Next, the processing procedure of the image processing apparatus corresponding to the image processing system of this embodiment will be explained with reference to FIG. FIG. 19 is a flowchart showing a processing procedure by an image processing apparatus corresponding to the image processing system of this embodiment.

まず、画像処理装置1fにおける画像入力部13fが、検査対象画像を入力して、画像記憶部14fに記憶させる(ステップ170)。
次に、特異点探索画像処理部19fが、個体群記憶部12fにおける最適化された子個体情報の特異点探索用ノード領域の各ノードにもとづいて、特異点探索画像処理を実行する(ステップ171)。そして、各検査対象画像に対応する特異点探索結果としての画像等を作成して、特異点探索結果記憶部20fに記憶させる。
First, the image input unit 13f in the image processing device 1f inputs an image to be inspected and stores it in the image storage unit 14f (step 170).
Next, the singularity search image processing unit 19f executes singularity search image processing based on each node in the singularity search node area of the optimized child individual information in the population storage unit 12f (step 171). ). Then, an image or the like as a singular point search result corresponding to each image to be inspected is created and stored in the singular point search result storage section 20f.

次に、特徴量計算部23fが、特異点探索結果記憶部20fから特異点探索結果を入力し、個体群記憶部12fにおける最適化された個体情報の分類用ノード領域の各ノード(分類器を除く)を順次実行することにより、検証用画像の各特異点の特徴量を計算する(ステップ172)。そして、特徴量計算部23fは、算出された検証用画像の各特異点の特徴量を特徴量記憶部24fに記憶させる。 Next, the feature calculation unit 23f inputs the singularity search results from the singularity search result storage unit 20f, and selects each node (classifier) of the optimized individual information classification node area in the population storage unit 12f. The feature amount of each singular point of the verification image is calculated by sequentially executing (excluding the following steps) (step 172). Then, the feature amount calculation unit 23f stores the calculated feature amount of each singular point of the verification image in the feature amount storage unit 24f.

次に、分類処理部37fが、検証用特徴量記憶部36eから検証用画像の各特異点の特徴量を入力し、学習済み分類器記憶部26fに記憶された学習済み分類器を実行することにより特異点を分類して、分類結果を分類結果記憶部27fに記憶させる(ステップ173)。 Next, the classification processing unit 37f inputs the feature amount of each singular point of the verification image from the verification feature storage unit 36e, and executes the trained classifier stored in the trained classifier storage unit 26f. The singular points are classified according to the following, and the classification results are stored in the classification result storage section 27f (step 173).

このような本実施形態の画像処理システムによれば、最適化された個体情報と学習済み分類器を用いて、検査対象画像における特異点を分類することが可能である。 According to the image processing system of this embodiment, it is possible to classify singular points in an image to be inspected using optimized individual information and a learned classifier.

上記実施形態の画像処理装置は、本発明の画像処理プログラムに制御されたコンピュータを用いて実現することができる。コンピュータのCPUは、画像処理プログラムにもとづいてコンピュータの各構成要素に指令を送り、画像処理装置の動作に必要となる所定の処理、例えば、個体生成処理、特異点探索画像処理、評価値計算処理、特徴量計算処理、分類器学習処理、遺伝子操作処理、最良組合せ判定処理、特異点分割処理等を行わせる。このように、本発明の画像処理装置における各処理、動作は、プログラムとコンピュータとが協働した具体的手段により実現できるものである。 The image processing apparatus of the above embodiment can be realized using a computer controlled by the image processing program of the present invention. The CPU of the computer sends instructions to each component of the computer based on the image processing program, and performs predetermined processing necessary for the operation of the image processing device, such as individual generation processing, singularity search image processing, and evaluation value calculation processing. , feature amount calculation processing, classifier learning processing, genetic manipulation processing, best combination determination processing, singular point division processing, etc. In this way, each process and operation in the image processing apparatus of the present invention can be realized by specific means in which a program and a computer cooperate.

プログラムは予めROM、RAM等の記録媒体に格納され、コンピュータに実装された記録媒体から当該コンピュータにプログラムを読み込ませて実行されるが、例えば通信回線を介してコンピュータに読み込ませることもできる。
また、プログラムを格納する記録媒体は、例えば半導体メモリ、磁気ディスク、光ディスク、その他任意のコンピュータで読取り可能な任意の記録手段により構成できる。
The program is stored in advance in a recording medium such as a ROM or RAM, and the program is read into the computer from the recording medium installed in the computer and executed, but it can also be read into the computer via a communication line, for example.
Further, the recording medium that stores the program can be constituted by, for example, a semiconductor memory, a magnetic disk, an optical disk, or any other computer-readable recording means.

本発明は、以上の実施形態に限定されるものではなく、本発明の範囲内において、種々の変更実施が可能であることは言うまでもない。
例えば、画像処理装置における各構成を複数の情報処理装置に分散して持たせたり、ノードとして実施形態に示したもの以外のものを含めて使用したりすることができる。また、第一実施形態から第七実施形態の画像処理システムを様々に組み合わせた構成をコンピュータに備えて、各画像処理システムを切替可能にすることも可能である。
It goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications can be made within the scope of the present invention.
For example, each configuration of the image processing device can be distributed among a plurality of information processing devices, or nodes other than those shown in the embodiments can be used. Further, it is also possible to equip a computer with a configuration in which the image processing systems of the first embodiment to the seventh embodiment are combined in various ways, so that each image processing system can be switched.

本発明は、設備や製品などの画像データにもとづき検査などを行う場合であって、画像処理が最適化された画像検査用の情報処理装置を得るために、好適に利用することが可能である。 INDUSTRIAL APPLICABILITY The present invention can be suitably used to obtain an information processing device for image inspection with optimized image processing when inspecting equipment, products, etc. based on image data. .

1,1a 画像処理装置
10,10a 機能単位記憶部
11,11a 個体生成部
12,12a 個体群記憶部
121a 親個体群記憶部
122a 子個体群記憶部
13,13a 画像入力部
14,14a 画像記憶部
15,15a 教師情報入力部
16,16a 教師情報記憶部
17,17a 比較情報入力部
18,18a 比較情報記憶部
19,19a 特異点探索画像処理部
20,20a 特異点探索結果記憶部
21,21a 探索評価値計算部
22,22a 探索評価結果記憶部
23,23a 特徴量計算部
23c 学習用特徴量計算部
24,24a 特徴量記憶部
24c 学習用特徴量記憶部
25,25a 分類器学習部
26,26a 学習済み分類器記憶部
27,27a 分類結果記憶部
28,28a 分類評価値計算部
29,29a 分類評価結果記憶部
30,30a 個体評価値計算部
31,31a 個体評価結果記憶部
32,32a 遺伝子操作部
33b 最良組合せ判定部
34b 組合せ判定結果記憶部
35c 検証用特徴量計算部
36c 検証用特徴量記憶部
37c 分類処理部
38e 特異点分割部
1, 1a Image processing device 10, 10a Functional unit storage unit 11, 11a Individual generation unit 12, 12a Population storage unit 121a Parent population storage unit 122a Child population storage unit 13, 13a Image input unit 14, 14a Image storage unit 15, 15a Teacher information input unit 16, 16a Teacher information storage unit 17, 17a Comparison information input unit 18, 18a Comparison information storage unit 19, 19a Singularity search image processing unit 20, 20a Singularity search result storage unit 21, 21a Search Evaluation value calculation section 22, 22a Search evaluation result storage section 23, 23a Feature amount calculation section 23c Learning feature amount calculation section 24, 24a Feature amount storage section 24c Learning feature amount storage section 25, 25a Classifier learning section 26, 26a Trained classifier storage unit 27, 27a Classification result storage unit 28, 28a Classification evaluation value calculation unit 29, 29a Classification evaluation result storage unit 30, 30a Individual evaluation value calculation unit 31, 31a Individual evaluation result storage unit 32, 32a Genetic manipulation Part 33b Best combination determination unit 34b Combination determination result storage unit 35c Verification feature calculation unit 36c Verification feature storage unit 37c Classification processing unit 38e Singularity division unit

Claims (13)

生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出して、その検出対象を分類する処理を最適化する画像処理システムであって、
複数の機能単位の実行順序を定義する複数の個体情報を、検出対象である特異点を探索する機能単位からなる特異点探索用領域と、探索された特異点を分類する機能単位からなる、分類器を含む分類用領域とを備えた構成で記憶する個体群記憶部と、
複数の学習用画像を記憶する画像記憶部と、
前記個体情報における前記特異点探索用領域の機能単位にもとづき前記学習用画像を処理して、特異点探索結果を生成する特異点探索部と、
前記個体情報における前記分類用領域の機能単位にもとづき前記特異点探索結果を処理すると共に、前記分類器の機械学習を行って学習済み分類器を生成し、前記学習用画像における特異点を分類する分類結果を生成する分類部と、
前記特異点探索結果を評価するための前記学習用画像に対応付けられた教師情報を記憶する教師情報記憶部と、
前記特異点探索結果と前記教師情報を比較して特異点探索の評価値を計算し、前記分類結果にもとづき分類の評価値を計算し、前記特異点探索の評価値と前記分類の評価値にもとづき前記個体情報の評価値を計算して前記個体情報を順位付けする評価部と、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部と、を備える
ことを特徴とする画像処理システム。
An image processing system that uses genetic manipulation, which is an optimization method that mathematically simulates biological evolution, to detect a detection target from an image and optimize the process of classifying the detection target,
Multiple pieces of individual information that define the execution order of multiple functional units are classified into a singularity search area consisting of functional units that search for singularities to be detected, and functional units that classify the searched singularities. a population storage unit that stores data in a configuration including a classification area including a container;
an image storage unit that stores a plurality of learning images;
a singularity search unit that processes the learning image based on the functional unit of the singularity search area in the individual information to generate a singularity search result;
Processing the singularity search result based on the functional unit of the classification area in the individual information, performing machine learning on the classifier to generate a trained classifier, and classifying the singularity in the learning image. a classification unit that generates classification results;
a teacher information storage unit that stores teacher information associated with the learning image for evaluating the singularity search results;
Calculate the evaluation value of singularity search by comparing the singularity search result and the teacher information, calculate the evaluation value of classification based on the classification result, and calculate the evaluation value of singularity search and the evaluation value of classification based on the classification result. an evaluation unit that calculates an evaluation value of the individual information based on the individual information and ranks the individual information;
An image processing system comprising: a genetic manipulation unit that selects or changes the individual information based on ranking information of the individual information and updates the population storage unit.
前記特異点探索用領域と前記分類用領域とが、同一の個体情報において連続的に含まれ、又は、別個の個体情報に含まれたことを特徴とする請求項1記載の画像処理システム。 2. The image processing system according to claim 1, wherein the singularity search area and the classification area are consecutively included in the same individual information or are included in separate individual information. 前記分類部が、前記特異点探索結果における特異点の特徴量を計算する特徴量計算部と、前記特異点の特徴量にもとづき前記特異点を分類する前記分類器の機械学習を行う分類器学習部を有する
ことを特徴とする請求項1又は2記載の画像処理システム。
The classification unit includes a feature calculation unit that calculates a feature amount of a singular point in the singularity search result, and a classifier learning that performs machine learning of the classifier that classifies the singular point based on the feature amount of the singular point. The image processing system according to claim 1 or 2, further comprising a portion.
前記分類用領域が、サポートベクターマシン(Support Vector Machine)、ニューラルネットワーク、ランダムフォレスト、若しくはスパースモデリングからなる群から選択されたいずれかの教師あり学習を行う分類器、又は、マハラノビスタグチ法、ワンクラスサポートベクターマシン(One Class Support Vector Machine)、オートエンコーダ、混合ガウス法、若しくはk-means法からなる群から選択されたいずれかの教師なし学習を行う分類器を含む
ことを特徴とする請求項1~3のいずれかに記載の画像処理システム。
The classification region is a classifier that performs supervised learning selected from the group consisting of a support vector machine, a neural network, a random forest, or sparse modeling, or a Mahalanobistaguchi method, or a one-class classifier. Claim 1 comprising a classifier that performs unsupervised learning selected from the group consisting of a support vector machine (One Class Support Vector Machine), an autoencoder, a Gaussian mixture method, or a k-means method. The image processing system according to any one of 3 to 3.
前記分類用領域が、前記教師なし学習を行う分類器を含み、
前記画像記憶部が、複数の検証用画像をさらに記憶し、
前記特異点探索部が、前記個体情報における前記特異点探索用領域の機能単位にもとづき前記検証用画像を処理して、特異点探索結果を生成し、
前記分類部が、前記特異点探索結果における特異点の特徴量を計算し、前記特異点の特徴量にもとづいて、前記学習済み分類器を用いて前記検証用画像における前記特異点を分類する
ことを特徴とする請求項記載の画像処理システム。
The classification area includes the classifier that performs the unsupervised learning,
the image storage unit further stores a plurality of verification images;
The singularity search unit processes the verification image based on the functional unit of the singularity search area in the individual information to generate a singularity search result,
The classification unit calculates the feature amount of the singular point in the singular point search result, and classifies the singular point in the verification image using the trained classifier based on the feature amount of the singular point. The image processing system according to claim 4 , characterized in that:
前記特異点探索結果を学習用特異点探索結果と検証用特異点探索結果に分割する特異点分割部をさらに備え、
前記分類部が、前記個体情報における前記分類用領域の機能単位にもとづき前記学習用特異点探索結果を処理すると共に、前記分類器の機械学習を行って学習済み分類器を生成し、前記個体情報における前記分類用領域の機能単位にもとづき前記検証用特異点探索結果を処理すると共に、前記学習済み分類器を用いて前記検証用画像における特異点を分類する分類結果を生成する
ことを特徴とする請求項5記載の画像処理システム。
further comprising a singularity dividing unit that divides the singularity search result into a learning singularity search result and a verification singularity search result,
The classification unit processes the learning singularity search result based on the functional unit of the classification area in the individual information, performs machine learning of the classifier to generate a learned classifier, and generates a learned classifier based on the individual information. processing the verification singularity search result based on the functional unit of the classification region, and generating a classification result for classifying the singularity in the verification image using the trained classifier. The image processing system according to claim 5.
前記分類結果と比較するための前記学習用画像に対応付けられた比較情報を記憶する比較情報記憶部をさらに備え、
前記評価部が、前記分類結果と前記比較情報にもとづき前記分類結果の評価値を計算する
ことを特徴とする請求項1~6のいずれかに記載の画像処理システム。
further comprising a comparison information storage unit that stores comparison information associated with the learning image for comparison with the classification results,
The image processing system according to claim 1, wherein the evaluation unit calculates an evaluation value of the classification result based on the classification result and the comparison information.
画像の特異点を探索する特異点探索用の複数の機能単位と、分類器を含む検出対象を分類する分類用の複数の機能単位を記憶する機能単位記憶部と、
前記機能単位記憶部から機能単位を選択して配列することによって、前記特異点探索用領域及び前記分類用領域を備えた個体情報を生成する個体生成部、又は、前記特異点探索用領域を備えた個体情報と前記分類用領域を備えた個体情報を別個に生成する個体生成部と、をさらに備えた
ことを特徴とする請求項1~7のいずれかに記載の画像処理システム。
a functional unit storage unit that stores a plurality of functional units for singularity searching to search for singularity in an image, and a plurality of functional units for classification to classify a detection target including a classifier;
an individual generation unit that generates individual information including the singularity search area and the classification area by selecting and arranging functional units from the functional unit storage unit, or comprising the singularity search area The image processing system according to any one of claims 1 to 7, further comprising: an individual generation unit that separately generates individual information including the classification area and individual information including the classification area.
前記個体情報において、複数の機能単位の実行順序が有閉路を含み得るネットワーク状に定義されていることを特徴とする請求項1~8のいずれかに記載の画像処理システム。 9. The image processing system according to claim 1, wherein in the individual information, an execution order of a plurality of functional units is defined in the form of a network that may include closed circuits. 前記遺伝子操作部が、
前記評価値が高い個体情報を次世代に残すエリート保存部と、
前記評価値にもとづいて、一定の確率で個体情報を次世代に残す選択部と、
2つの個体情報の一部を相互に交換する交叉処理部と、
選択された1つの個体情報の一部又は全部をランダムに書き換える突然変異部と、を有する
ことを特徴とする請求項1~9のいずれかに記載の画像処理システム。
The genetic manipulation unit ,
an elite preservation department that leaves individual information with a high evaluation value to the next generation;
a selection unit that leaves individual information to the next generation with a certain probability based on the evaluation value;
a crossover processing unit that mutually exchanges part of the two individual information;
The image processing system according to any one of claims 1 to 9, further comprising a mutation section that randomly rewrites part or all of selected individual information.
前記遺伝子操作部が、前記個体群記憶部を更新することにより、新たな世代の複数の個体情報を繰り返し作成し、
前記特異点探索部及び前記分類部が、前記遺伝子操作部により新たな世代の複数の個体情報が作成されると、当該新たな世代の複数の個体情報を前記複数の個体情報として使用する
ことを特徴とする請求項1~10のいずれかに記載の画像処理システム。
The genetic manipulation unit repeatedly creates a plurality of individual information of a new generation by updating the population storage unit,
When the plurality of individual information of a new generation is created by the gene manipulation unit, the singularity search unit and the classification unit use the plurality of individual information of the new generation as the plurality of individual information. The image processing system according to any one of claims 1 to 10.
前記個体群記憶部が、最終的に得られた最適化された個体情報を記憶し、
前記学習済み分類器記憶部が、最終的に得られた学習済み分類器を記憶し、
画像記憶部が、検査対象画像を記憶し、
前記特異点探索部が、前記最適化された個体情報における前記特異点探索用領域の機能単位にもとづき前記検査対象画像を処理して、特異点探索結果を生成し、
前記分類部が、前記最適化された個体情報における前記分類用領域の機能単位にもとづき前記特異点探索結果を処理し、前記学習済み分類器を用いて、前記検査対象画像における特異点を分類する分類結果を生成する
ことを特徴とする請求項1~11のいずれかに記載の画像処理システム。
The population storage unit stores finally obtained optimized individual information,
The trained classifier storage unit stores the finally obtained trained classifier,
an image storage unit stores an image to be inspected;
The singularity search unit processes the inspection target image based on the functional unit of the singularity search area in the optimized individual information to generate a singularity search result,
The classification unit processes the singularity search result based on the functional unit of the classification area in the optimized individual information, and classifies the singularity in the inspection target image using the trained classifier. The image processing system according to claim 1, wherein the image processing system generates a classification result.
生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出して、その検出対象を分類する処理を最適化する画像処理プログラムであって、
コンピュータを、
生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出して、その検出対象を分類する処理を最適化する画像処理システムであって、
複数の機能単位の実行順序を定義する複数の個体情報を、検出対象である特異点を探索する機能単位からなる特異点探索用領域と、探索された特異点を分類する機能単位からなる、分類器を含む分類用領域とを備えた構成で記憶する個体群記憶部、
複数の学習用画像を記憶する画像記憶部、
前記個体情報における前記特異点探索用領域の機能単位にもとづき前記学習用画像を処理して、特異点探索結果を生成する特異点探索部、
前記個体情報における前記分類用領域の機能単位にもとづき前記特異点探索結果を処理すると共に、前記分類器の機械学習を行って学習済み分類器を生成し、前記学習用画像における特異点を分類する分類結果を生成する分類部、
前記特異点探索結果を評価するための前記学習用画像に対応付けられた教師情報を記憶する教師情報記憶部、
前記特異点探索結果と前記教師情報を比較して特異点探索の評価値を計算し、前記分類結果にもとづき分類の評価値を計算し、前記特異点探索の評価値と前記分類の評価値にもとづき前記個体情報の評価値を計算して前記個体情報を順位付けする評価部、及び、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部として機能させる
ことを特徴とする画像処理プログラム。
An image processing program that uses genetic manipulation, which is an optimization method that mathematically simulates biological evolution, to detect a detection target from an image and optimize the process of classifying the detection target,
computer,
An image processing system that uses genetic manipulation, which is an optimization method that mathematically simulates biological evolution, to detect a detection target from an image and optimize the process of classifying the detection target,
Multiple pieces of individual information that define the execution order of multiple functional units are classified into a singularity search area consisting of functional units that search for singularities to be detected, and functional units that classify the searched singularities. a population storage unit configured to store a classification area including a container;
an image storage unit that stores a plurality of learning images;
a singularity search unit that processes the learning image based on the functional unit of the singularity search area in the individual information to generate a singularity search result;
Processing the singularity search result based on the functional unit of the classification area in the individual information, performing machine learning on the classifier to generate a trained classifier, and classifying the singularity in the learning image. a classification unit that generates classification results;
a teacher information storage unit that stores teacher information associated with the learning image for evaluating the singularity search results;
Calculate the evaluation value of the singularity search by comparing the singularity search result and the teacher information, calculate the evaluation value of the classification based on the classification result, and calculate the evaluation value of the singularity search and the classification evaluation value based on the classification result. an evaluation unit that calculates an evaluation value of the individual information based on the individual information and ranks the individual information;
An image processing program that functions as a genetic manipulation unit that selects or changes the individual information based on ranking information of the individual information and updates the population storage unit.
JP2020052175A 2020-03-24 2020-03-24 Image processing system and image processing program Active JP7404962B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020052175A JP7404962B2 (en) 2020-03-24 2020-03-24 Image processing system and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020052175A JP7404962B2 (en) 2020-03-24 2020-03-24 Image processing system and image processing program

Publications (2)

Publication Number Publication Date
JP2021152687A JP2021152687A (en) 2021-09-30
JP7404962B2 true JP7404962B2 (en) 2023-12-26

Family

ID=77886524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020052175A Active JP7404962B2 (en) 2020-03-24 2020-03-24 Image processing system and image processing program

Country Status (1)

Country Link
JP (1) JP7404962B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090792A (en) 2006-10-05 2008-04-17 Yamaguchi Univ Eyeball detection method using genetic algorithm
JP2009175925A (en) 2008-01-23 2009-08-06 Nec Software Chubu Ltd Unit, method and control program for collation parameter optimization
JP2017010475A (en) 2015-06-26 2017-01-12 富士通株式会社 Program generation device, program generation method, and generated program
JP6646234B2 (en) 2015-10-22 2020-02-14 富士通株式会社 Program generation device, program generation method, and generation program
JP2020107008A (en) 2018-12-27 2020-07-09 東洋製罐グループホールディングス株式会社 Image processing system, and image processing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090792A (en) 2006-10-05 2008-04-17 Yamaguchi Univ Eyeball detection method using genetic algorithm
JP2009175925A (en) 2008-01-23 2009-08-06 Nec Software Chubu Ltd Unit, method and control program for collation parameter optimization
JP2017010475A (en) 2015-06-26 2017-01-12 富士通株式会社 Program generation device, program generation method, and generated program
JP6646234B2 (en) 2015-10-22 2020-02-14 富士通株式会社 Program generation device, program generation method, and generation program
JP2020107008A (en) 2018-12-27 2020-07-09 東洋製罐グループホールディングス株式会社 Image processing system, and image processing program

Also Published As

Publication number Publication date
JP2021152687A (en) 2021-09-30

Similar Documents

Publication Publication Date Title
KR102077804B1 (en) Method and system for pre-processing machine learning data
Lin et al. Parameter tuning, feature selection and weight assignment of features for case-based reasoning by artificial immune system
Kiliç et al. Comparison of different strategies of utilizing fuzzy clustering in structure identification
CN112132014B (en) Target re-identification method and system based on non-supervised pyramid similarity learning
CN112784918A (en) Node identification method, system and device based on unsupervised graph representation learning
CN114463540A (en) Segmenting images using neural networks
CN112086144A (en) Molecule generation method, molecule generation device, electronic device, and storage medium
US20210319269A1 (en) Apparatus for determining a classifier for identifying objects in an image, an apparatus for identifying objects in an image and corresponding methods
CN109934352B (en) Automatic evolution method of intelligent model
CN114782761B (en) Intelligent storage material identification method and system based on deep learning
JP7404962B2 (en) Image processing system and image processing program
KR20220014744A (en) Data preprocessing system based on a reinforcement learning and method thereof
JP7468088B2 (en) Image processing system and image processing program
CN114722918A (en) Tumor classification method based on DNA methylation
JP7206892B2 (en) Image inspection device, learning method for image inspection, and image inspection program
JP2022089430A (en) Image processing system, and image processing program
JP6993250B2 (en) Content feature extractor, method, and program
JP7314723B2 (en) Image processing system and image processing program
JP2020107008A (en) Image processing system, and image processing program
Limberg et al. Improving active learning by avoiding ambiguous samples
KR102636461B1 (en) Automated labeling method, device, and system for learning artificial intelligence models
Sreedharan et al. 5 Leave-One-Out Validation in Machine Cross-Learning
Płaczek Neighborhood selection and rules identification for cellular automata: a rough sets approach
CN117593890B (en) Detection method and device for road spilled objects, electronic equipment and storage medium
Korade et al. Identification of appropriate Machine Learning Algorithm to predict Wine Quality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R150 Certificate of patent or registration of utility model

Ref document number: 7404962

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150