JP7314711B2 - Image processing system and image processing program - Google Patents

Image processing system and image processing program Download PDF

Info

Publication number
JP7314711B2
JP7314711B2 JP2019149261A JP2019149261A JP7314711B2 JP 7314711 B2 JP7314711 B2 JP 7314711B2 JP 2019149261 A JP2019149261 A JP 2019149261A JP 2019149261 A JP2019149261 A JP 2019149261A JP 7314711 B2 JP7314711 B2 JP 7314711B2
Authority
JP
Japan
Prior art keywords
image
information
image processing
unit
individual information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019149261A
Other languages
Japanese (ja)
Other versions
JP2020038637A (en
Inventor
直己 高橋
賢 柏原
圭亨 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Seikan Group Holdings Ltd
Original Assignee
Toyo Seikan Group Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Seikan Group Holdings Ltd filed Critical Toyo Seikan Group Holdings Ltd
Publication of JP2020038637A publication Critical patent/JP2020038637A/en
Application granted granted Critical
Publication of JP7314711B2 publication Critical patent/JP7314711B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像から検出対象を見つけ出す画像処理技術に関し、特に画像処理を最適化する画像処理システムに関する。 The present invention relates to an image processing technique for finding a detection target from an image, and more particularly to an image processing system for optimizing image processing.

従来、画像から検出対象を見つけ出す画像処理技術において、入力画像に画像処理を行って得られた出力画像を教師画像と比較して評価値を算出することにより、画像処理を最適化する方法が行われている。
この方法では、画像における検出対象領域と非検出対象領域の比率にもとづいて評価値が悪化する場合があること、教師画像を生成するために手間がかかること、及びコンピュータによる最適化のために人の過度な干渉が必要になることが問題となっている。
Conventionally, in image processing technology for finding detection targets from an image, a method of optimizing image processing is performed by comparing an output image obtained by performing image processing on an input image with a teacher image and calculating an evaluation value.
In this method, there are problems that the evaluation value may deteriorate based on the ratio of the detection target area and the non-detection target area in the image, it takes time to generate the teacher image, and excessive human intervention is required for computer optimization.

特許第5479944号公報Japanese Patent No. 5479944 特許第4862150号公報Japanese Patent No. 4862150 特許第5011533号公報Japanese Patent No. 5011533 特開2008-15817号公報JP 2008-15817 A

ここで、画像から検出対象を見つけ出す画像処理技術として、特許文献1に記載の方法を挙げることができる。
この方法では、遺伝的プログラミング(GP)による並列型画像フィルタ自動生成システムにサイズ依存型交叉を導入している。これにより、複数の実舗装画像からクラックが存在する画像をフィルタ構築の訓練データに選定採用することで、様々なタイプの画像からクラックの抽出用画像フィルタを自動的に構築し、これを用いて損傷レベルの評価が行われている。
Here, as an image processing technique for finding a detection target from an image, the method described in Patent Document 1 can be mentioned.
This method introduces size-dependent crossover into a parallel image filter automatic generation system by genetic programming (GP). As a result, by selecting and adopting images with cracks from multiple actual pavement images as training data for filter construction, image filters for extracting cracks are automatically constructed from various types of images, and damage levels are evaluated using these.

また、このようないわゆる進化的計算を用いる技術として、特許文献2~4に記載の進化的計算システムを挙げることができる。これらの進化的計算システムによれば、それぞれのシステムにおける処理のアルゴリズムの最適化を図ることが可能になっている。 In addition, the evolutionary computing systems described in Patent Documents 2 to 4 can be cited as techniques using such so-called evolutionary computation. These evolutionary computing systems make it possible to optimize the processing algorithm in each system.

しかしながら、これらの技術を用いても、入力画像に画像処理を行って得られた出力画像を教師画像と比較することによって画像処理を最適化する場合には、上述のように、検出対象領域の割合により評価値が悪化すること、教師画像の生成に手間がかかること、及び人の過度な干渉が必要になるという課題があった。
例えば、出力画像を教師画像と比較するために最小二乗法などを用いて各ピクセルに対して輝度の差で評価を行うと、検出対象物のサイズにもとづいて、同じ非検出の場合でも評価値に大きな相違が発生していた。
However, even when these techniques are used, when optimizing image processing by comparing an output image obtained by performing image processing on an input image with a teacher image, as described above, there are problems that the evaluation value deteriorates depending on the ratio of the detection target area, generation of the teacher image is troublesome, and excessive human intervention is required.
For example, when comparing the output image with the teacher image and evaluating the difference in luminance for each pixel using the method of least squares, etc., there was a large difference in the evaluation value based on the size of the detection target even in the same non-detection case.

本発明者らは、このような検出対象物のサイズの評価値への影響が、画像処理の最適化の障害になっていると考え、入力画像に画像処理を行って検出対象の個数を示す出力情報を作成し、これを教師情報としての数値と比較することによって、上記の課題を解消できることに想到した。また、進化的計算において、遺伝的ネットワークプログラミング(GNP)の手法を採用することにより、最適化の自由度を向上させることを可能にして、本発明を完成させた。 The inventors of the present invention believed that the effect of the size of the object to be detected on the evaluation value was an obstacle to optimizing the image processing, and performed image processing on the input image to create output information indicating the number of objects to be detected. In addition, in evolutionary computation, by adopting the technique of genetic network programming (GNP), it is possible to improve the degree of freedom of optimization, thereby completing the present invention.

すなわち、本発明は、画像から検出対象を見つけ出す画像処理技術において、画像処理をより最適化することが可能な画像処理システム、及び画像処理プログラムの提供を目的とする。 That is, an object of the present invention is to provide an image processing system and an image processing program capable of further optimizing image processing in image processing technology for finding a detection target from an image.

上記目的を達成するため、本発明の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する画像処理システムであって、有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する一又は二以上の個体情報を記憶する個体群記憶部と、学習用又は検証用の画像を入力する画像入力部と、出力情報を評価するための教師情報を入力する教師情報入力部と、前記個体情報にもとづいて前記画像を処理し、前記出力情報を生成する画像処理部と、前記出力情報と前記教師情報を比較して評価値を計算し、この評価値にもとづき前記個体情報を順位付けする評価値計算部と、前記個体情報の順位付け情報にもとづいて、前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部とを備え、前記画像処理部による処理に、前記画像における検出対象を計数する処理が含まれ、前記教師情報及び前記出力情報が、前記画像における検出対象の個数を示す数値である構成としてある。 In order to achieve the above object, the image processing system of the present invention is an image processing system that optimizes image processing for detecting a detection target from an image using genetic manipulation, which is an optimization technique that mathematically simulates the evolution of living organisms, comprising: a population storage unit for storing one or more pieces of individual information defining the execution order of a plurality of functional units in a network that can include a cycle; an image input unit for inputting images for learning or verification; a teacher information input unit for inputting teacher information for evaluating output information; an image processing unit that processes the image based on the individual information and generates the output information; an evaluation value calculation unit that compares the output information with the teacher information to calculate an evaluation value and ranks the individual information based on the evaluation value; and a gene operation unit that selects or changes the individual information based on the ranking information of the individual information to update the population storage unit, wherein processing by the image processing unit includes counting detection targets in the image, The output information is a numerical value indicating the number of detection targets in the image.

また、本発明の画像処理システムを、前記画像処理部による処理に、検出対象を表す検出対象画像を作成する処理が含まれ、前記教師情報及び前記出力情報に、検出対象を表す検出対象画像が含まれる構成とすることも好ましい。 Further, in the image processing system of the present invention, it is preferable that the processing by the image processing unit includes processing for creating a detection target image representing the detection target, and the teacher information and the output information include the detection target image representing the detection target.

また、本発明の画像処理プログラムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する画像処理プログラムであって、コンピュータを、有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する一又は二以上の個体情報を記憶する個体群記憶部、学習用又は検証用の画像を入力する画像入力部、出力情報を評価するための教師情報を入力する教師情報入力部、前記個体情報にもとづいて前記画像を処理し、前記出力情報を生成する画像処理部、前記出力情報と前記教師情報を比較して評価値を計算し、この評価値にもとづき前記個体情報を順位付けする評価値計算部、及び、前記個体情報の順位付け情報にもとづいて、前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部として機能させ、前記画像処理部による処理に、前記画像における検出対象を計数する処理が含まれ、前記教師情報及び前記出力情報が、前記画像における検出対象の個数を示す数値である構成としてある。 Further, the image processing program of the present invention is an image processing program for optimizing image processing for detecting a detection target from an image using genetic manipulation, which is an optimization technique that mathematically simulates the evolution of living organisms, wherein the computer comprises a population storage unit for storing one or more pieces of individual information that define the execution order of a plurality of functional units in a network that can include a cycle, an image input unit for inputting images for learning or verification, a teacher information input unit for inputting teacher information for evaluating output information, and a teacher information input unit for inputting teacher information for evaluating output information. an evaluation value calculation unit that compares the output information with the teacher information to calculate an evaluation value and ranks the individual information based on the evaluation value; and a gene operation unit that selects or changes the individual information based on the ranking information of the individual information and updates the population storage unit, and the processing by the image processing unit includes counting detection targets in the image, and It is configured to be a numerical value indicating the number of detection targets in the image.

また、本発明の画像処理プログラムを、前記画像処理部による処理に、検出対象を表す検出対象画像を作成する処理が含まれ、前記教師情報及び前記出力情報に、検出対象を表す検出対象画像が含まれる構成とすることも好ましい。 In the image processing program of the present invention, the processing by the image processing unit may include processing for creating a detection target image representing the detection target, and the teacher information and the output information may preferably include the detection target image representing the detection target.

本発明によれば、画像から検出対象を見つけ出す画像処理技術において、画像処理をより最適化することが可能な画像処理システム、及び画像処理プログラムの提供が可能となる。 Advantageous Effects of Invention According to the present invention, it is possible to provide an image processing system and an image processing program capable of further optimizing image processing in an image processing technique for finding a detection target from an image.

本発明の第一実施形態の画像処理装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an image processing apparatus according to a first embodiment of the present invention; FIG. 本発明の第一実施形態の画像処理装置による処理手順を示すフローチャートである。4 is a flow chart showing processing procedures by the image processing apparatus according to the first embodiment of the present invention; 本発明の第一実施形態の画像処理装置による処理手順における遺伝子操作の処理手順を示すフローチャートである。4 is a flow chart showing a genetic manipulation processing procedure in the processing procedure of the image processing apparatus according to the first embodiment of the present invention; 本発明の第二実施形態の画像処理装置の構成を示すブロック図である。It is a block diagram showing the configuration of the image processing apparatus of the second embodiment of the present invention. 本発明の第二実施形態の画像処理装置による処理手順を示すフローチャートである。8 is a flow chart showing a processing procedure performed by the image processing apparatus according to the second embodiment of the present invention; 実施例及び参考例で用いたノードの機能(画像処理:ノイズ除去)を示す説明図である。FIG. 4 is an explanatory diagram showing functions (image processing: noise removal) of nodes used in the example and the reference example; 実施例及び参考例で用いたノードの機能(画像処理:輝度補正、組合せ)を示す説明図である。FIG. 4 is an explanatory diagram showing functions of nodes (image processing: brightness correction, combination) used in the example and the reference example; 実施例及び参考例で用いたノードの機能(画像処理:2値化)を示す説明図である。FIG. 4 is an explanatory diagram showing functions of nodes (image processing: binarization) used in the embodiment and the reference example; 実施例及び参考例で用いたノードの機能(画像処理:エッジ検出)を示す説明図である。FIG. 4 is an explanatory diagram showing functions of nodes (image processing: edge detection) used in the embodiment and the reference example; 実施例及び参考例で用いたノードの機能(画像処理:エッジ検出、四則演算)を示す説明図である。FIG. 4 is an explanatory diagram showing functions of nodes (image processing: edge detection, four arithmetic operations) used in the example and the reference example; 実施例及び参考例で用いたノードの機能(検出対象判定)を示す説明図である。FIG. 4 is an explanatory diagram showing the function of a node (detection target determination) used in the embodiment and the reference example; 実施例及び参考例による学習とその結果を比較した説明図(No,1-4)である。It is explanatory drawing (No, 1-4) which compared the learning by an Example and a reference example, and the result. 実施例及び参考例による学習とその結果を比較した説明図(No,5-8)である。It is explanatory drawing (No, 5-8) which compared the learning by an Example and a reference example, and the result. 実施例及び参考例による検証結果を比較した説明図(No,1-3)である。FIG. 10 is an explanatory diagram (No, 1-3) comparing verification results of an example and a reference example; 実施例及び参考例による学習における正規化した評価値の遷移のグラフを示す図である。FIG. 10 is a diagram showing a transition graph of normalized evaluation values in learning according to an example and a reference example; 実施例の学習によって得られた個体情報の構造を示す図である。It is a figure which shows the structure of the individual information obtained by the learning of an Example. 実施例の学習によって得られた個体情報で用いられたノードの機能を示す図である。FIG. 10 is a diagram showing functions of nodes used in individual information obtained by learning in the example. 参考例の学習によって得られた個体情報の構造を示す図である。FIG. 10 is a diagram showing the structure of individual information obtained by learning in a reference example; 参考例の学習によって得られた個体情報で用いられたノードの機能を示す図である。FIG. 10 is a diagram showing functions of nodes used in individual information obtained by learning in a reference example;

以下、本発明の画像処理システム、及び画像処理プログラムの実施形態について詳細に説明する。ただし、本発明は、以下の実施形態、及び後述する実施例の具体的な内容に限定されるものではない。 Embodiments of an image processing system and an image processing program according to the present invention will be described in detail below. However, the present invention is not limited to the specific contents of the following embodiments and examples described later.

[第一実施形態]
まず、本発明の第一実施形態に係る画像処理システム、及び画像処理プログラムの第一実施形態について、図1~図3を参照して説明する。図1は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図であり、図2は、同画像処理装置による処理手順を示すフローチャートである。また、図3は、同画像処理装置による処理手順における遺伝子操作の処理手順を示すフローチャートである。
[First embodiment]
First, an image processing system and an image processing program according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 3. FIG. FIG. 1 is a block diagram showing the configuration of an image processing apparatus corresponding to the image processing system of this embodiment, and FIG. 2 is a flow chart showing the processing procedure of the image processing apparatus. FIG. 3 is a flow chart showing the procedure of gene manipulation in the procedure of the image processing apparatus.

本実施形態の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する。
具体的には、本実施形態の画像処理装置1は、図1に示すように、機能単位記憶部10、個体生成部11、個体群記憶部12、画像入力部13、画像記憶部14、教師情報入力部15、教師情報記憶部16、画像処理部17、出力情報記憶部18、評価値計算部19、評価結果記憶部20、及び遺伝子操作部21を備えている。
本実施形態の画像処理装置1におけるこれらの各構成は、図1に示すように一個の情報処理装置に全て備えることができる。また、これらの各構成は、複数の情報処理装置からなる画像処理システムの各装置に分散して備えてもよい。これは、後述する第二実施形態についても同様である。
The image processing system of this embodiment optimizes image processing for detecting a detection target from an image using genetic manipulation, which is an optimization technique that mathematically simulates the evolution of living things.
Specifically, as shown in FIG. 1, the image processing apparatus 1 of the present embodiment includes a functional unit storage unit 10, an individual generation unit 11, an individual group storage unit 12, an image input unit 13, an image storage unit 14, a teacher information input unit 15, a teacher information storage unit 16, an image processing unit 17, an output information storage unit 18, an evaluation value calculation unit 19, an evaluation result storage unit 20, and a gene manipulation unit 21.
All of these components in the image processing apparatus 1 of this embodiment can be provided in one information processing apparatus as shown in FIG. Also, each of these components may be distributed to each device of an image processing system comprising a plurality of information processing devices. This also applies to the second embodiment, which will be described later.

機能単位記憶部10は、ある処理を実行する機能単位であるノード(遺伝子に相当する)をノード番号ごとに記憶する。本実施形態において、このノードとして、画像処理を行うための様々なものを用いることができ、後述する実施例では、図6~図11に示すものを用いている。
また、これらのノードは、それぞれの処理の実行に用いるパラメータが存在する場合には、そのパラメータと共に機能単位記憶部10に記憶される。
The functional unit storage unit 10 stores, for each node number, a node (corresponding to a gene), which is a functional unit that executes a certain process. In this embodiment, various nodes for performing image processing can be used as this node, and the nodes shown in FIGS. 6 to 11 are used in the examples described later.
Further, these nodes are stored in the functional unit storage unit 10 together with parameters used for execution of the respective processes, if any.

さらに、ノードとして、何ら処理を実行しないものを用いてもよく、複数の処理を実行する機能単位をまとめたものを1個のノード(ノードセット)として用いてもよい。ノードとして何ら処理を実行しないものを含めて用いることにより、例えば個体情報を生成するための初期ノード数の設定値が多すぎた場合などに、実質的なノード数を減らすことができる。 Furthermore, a node that does not execute any process may be used, or a functional unit that executes a plurality of processes may be used as one node (node set). By using nodes that do not perform any processing as nodes, it is possible to reduce the actual number of nodes when, for example, the set value of the initial number of nodes for generating individual information is too large.

本明細書において、「画像処理」には、ノイズ除去のための各種フィルター処理や、輝度補正などの補正処理、2値化処理、エッジ検出処理、四則演算等の狭義の画像処理の他、これに伴って実行され得る検出対象判定処理、及び出力処理などが含まれる。 In this specification, "image processing" includes various filter processing for noise removal, correction processing such as brightness correction, binarization processing, edge detection processing, and narrowly defined image processing such as four arithmetic operations, as well as detection target determination processing that can be executed along with this, output processing, and the like.

個体生成部11は、機能単位記憶部10に記憶されているノードを用いて、複数のノードの配列からなる個体情報を生成する。このとき、個体生成部11は、複数のノードにもとづいて、複数の個体情報をランダムに生成することができる。
またこのとき、個体生成部11は、個体情報において、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義することができる。このネットワークは、向きが付いたリンクにより構成される有向ネットワークであり、フィードバックが含まれることがある。また、このネットワークには、直線構造と木構造も含まれ得る。
The individual generation unit 11 uses the nodes stored in the functional unit storage unit 10 to generate individual information consisting of an array of a plurality of nodes. At this time, the individual generation unit 11 can randomly generate a plurality of pieces of individual information based on the plurality of nodes.
At this time, in the individual information, the individual generation unit 11 can define the execution order of the plurality of nodes in a network that can include a cycle. The network is a directed network composed of oriented links and may include feedback. The network can also include linear structures and tree structures.

このような個体情報を用いれば、直線構造や木構造のみからなる個体情報を用いる場合に比較して、より柔軟な表現力を持つネットワーク構造を含めて学習を行うことができるため、最適解(実用上の最適解,実用解)を導き出す上で優位性がある。すなわち、問題に対してどの構造体が最適解になるかは人が事前に把握することができないため、機械学習の前に構造体の条件を決定することは難しい。このため、個体情報として、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義するものを使用して、幅広い条件で最適解を探索することは、真の最適解を導き出せる可能性を高める上で有効と考えられる。 Using such individual information makes it possible to perform learning including a network structure with more flexible expressive power compared to using individual information consisting only of a linear structure or a tree structure. In other words, it is difficult for humans to determine in advance which structure will be the optimal solution for the problem, and therefore it is difficult to determine the conditions of the structure prior to machine learning. For this reason, searching for optimal solutions under a wide range of conditions using individual information that defines the execution order of multiple nodes in a network that can include cycles is considered effective in increasing the possibility of deriving true optimal solutions.

個体群記憶部12は、個体生成部11によって生成された複数の個体情報からなる個体群を記憶する。この個体群として、一の世代又は複数の世代を個体群記憶部12に記憶させることができ、世代番号ごとに個体情報を個体群記憶部12に記憶させることができる。
後述する評価値計算部19は、世代ごとに個体情報を順位付けして、順位付け情報を評価結果記憶部20に記憶させることができる。
The individual group storage unit 12 stores an individual group composed of a plurality of pieces of individual information generated by the individual generation unit 11 . One generation or a plurality of generations can be stored in the population storage unit 12 as this population, and individual information can be stored in the population storage unit 12 for each generation number.
The evaluation value calculation unit 19 to be described later can rank the individual information for each generation and store the ranking information in the evaluation result storage unit 20 .

画像入力部13は、学習用又は検証用の画像を画像処理装置1に入力して、画像識別情報ごとに画像記憶部14に記憶させる。
教師情報入力部15は、画像識別情報に対応させて、出力情報を評価するための教師情報を入力し、当該画像識別情報ごとに教師情報記憶部16に記憶させる。本実施形態において、教師情報は、当該画像識別情報に対応する画像における検出対象の個数を示す数値である。
検出対象(検出対象要素)とは、画像における欠陥(クラック、キズ、汚れなど)、特定の部品、特定の柄等とすることができる。なお、検出対象が画像の全体に相当する場合もあり得る。
The image input unit 13 inputs learning or verification images to the image processing apparatus 1 and stores them in the image storage unit 14 for each image identification information.
The teacher information input unit 15 inputs teacher information for evaluating the output information in association with the image identification information, and stores the teacher information storage unit 16 for each image identification information. In this embodiment, the teacher information is a numerical value indicating the number of detection targets in the image corresponding to the image identification information.
A detection target (detection target element) can be a defect (crack, scratch, stain, etc.) in an image, a specific part, a specific pattern, or the like. Note that the detection target may correspond to the entire image.

ここで、教師情報を画像にする場合、最小二乗法による評価では、検出対象物の大きさに評価値が影響を強く受けるため、小さい検出対象がない場合よりも、大きい検出対象の形状が異なる方が、評価値が悪化し易くなる。
例えば、ある画像において三角形を検出対象とした場合に、サイズが10ピクセルの三角形が検出されなかったとする。
このとき、同じ画像におけるより大きい三角形の出力が教師画像のものよりも一回り小さくなったとすると、その差が10ピクセル以上であれば、10ピクセルの三角形が無いことより評価値が悪化することになる。このため、機械学習では小さい三角より大きい三角を教師画像に近づけた方が評価値が良くなる傾向になり、小さい三角形より大きい三角形を一致させるように進化が進み、局所解に陥り易い状態になる。これに対して、本実施形態では検出対象の大きさに拘わらず、未検出の誤差が同一になるため、局所解に陥り難くなっている。
Here, when the teacher information is an image, the evaluation value is strongly affected by the size of the detection target in the evaluation by the least squares method. Therefore, the evaluation value is more likely to deteriorate when the shape of the large detection target is different than when there is no small detection target.
For example, assume that a triangle with a size of 10 pixels is not detected when triangles are to be detected in an image.
At this time, if the output of a larger triangle in the same image is slightly smaller than that of the teacher image, if the difference is 10 pixels or more, the evaluation value will deteriorate due to the absence of a 10-pixel triangle. For this reason, in machine learning, the evaluation value tends to improve when triangles that are larger than small triangles are brought closer to the teacher image, and evolution progresses to match triangles that are larger than small triangles, resulting in a state where it is easy to fall into a local optimum. On the other hand, in the present embodiment, undetected errors are the same regardless of the size of the detection target, so that local minima are less likely to occur.

画像処理部17は、画像記憶部14から画像を入力すると共に、個体群記憶部12から個体情報を入力して、その個体情報にもとづき当該個体情報に含まれる複数のノードを順次実行する。
このとき、各ノードは、画像から得られる情報を用いて、それぞれの機能に対応する処理を実行する。また、各ノードは、その処理結果にもとづいて、処理結果に対応する次のノードを選択的に実行し得る。したがって、個体情報に含まれるノードであっても、画像処理において、必ずしも全てのノードが実行される訳ではない。勿論、個体情報における全てのノードが実行される場合はある。また、フィードバックが行われることによって、一つの個体情報において1つのみ定義されているノードが、複数回実行されることもあり得る。
The image processing unit 17 receives the image from the image storage unit 14 and the individual information from the individual group storage unit 12, and sequentially executes a plurality of nodes included in the individual information based on the individual information.
At this time, each node uses information obtained from the image to execute processing corresponding to its function. Also, each node can selectively execute the next node corresponding to the processing result based on the processing result. Therefore, even nodes included in individual information are not necessarily executed in image processing. Of course, there is a case where all nodes in individual information are executed. Moreover, a node defined only once in one individual information may be executed multiple times due to feedback.

また、ノードの機能としては、上述したように、ノイズ除去のための各種画像フィルター処理や、輝度補正などの補正処理、2値化処理、エッジ検出処理、四則演算等の狭義の画像処理がある。これらは、画像処理部17によって、主として、検出対象候補を見つけるための処理として行われる。 As described above, the functions of the node include narrowly defined image processing such as various image filter processing for noise removal, correction processing such as luminance correction, binarization processing, edge detection processing, and four arithmetic operations. These are mainly performed by the image processing unit 17 as processing for finding detection target candidates.

また、ノードの機能としての検出対象判定処理は、画像処理部17によって、画像における一定範囲の検出対象候補をラベリングしてその特徴量を計算し、閾値などにもとづいて、その特徴量を備えた検出対象候補が、正しい検出対象であるか否かを判定する処理として行われる。
なお、検出対象判定処理において、非検出対象候補をラベリングしてその特徴量を計算し、閾値などにもとづきその特徴量を備えていないことにより、検出対象でないことを判定する処理を行うこともできる。
The detection target determination process as a function of the node is performed by the image processing unit 17 by labeling the detection target candidates in a certain range in the image, calculating the feature amount, and determining whether or not the detection target candidate having the feature amount is the correct detection target based on a threshold or the like.
In the detection target determination process, it is also possible to label the non-detection target candidate, calculate its feature amount, and determine that it is not a detection target by not having the feature amount based on a threshold value or the like.

さらに、画像処理部17は、出力情報を生成して出力する。
具体的には、画像における検出対象を計数(カウント)して出力情報を生成する。そして、この出力情報を当該画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに出力情報記憶部18に記憶させることができる。
このように、本実施形態における画像処理部17によって得られる出力情報は、画像における検出対象の個数を示す数値として生成される。
Furthermore, the image processing unit 17 generates and outputs output information.
Specifically, the output information is generated by counting the detection targets in the image. Then, this output information can be stored in the output information storage unit 18 for each image identification information of the image and for each identification information of individual information.
Thus, the output information obtained by the image processing unit 17 in this embodiment is generated as a numerical value indicating the number of detection targets in the image.

なお、画像における検出対象の個数を示す数値を取得する機能を評価値計算部19に行わせることもできる。すなわち、画像処理部17により画像処理された後の画像にもとづいて、評価値計算部19が検出対象の個数を示す数値を取得し、これにもとづき評価値を計算する構成とすることも可能である。 Note that the evaluation value calculation unit 19 can also be made to acquire a numerical value indicating the number of detection targets in the image. That is, the evaluation value calculation unit 19 may acquire a numerical value indicating the number of detection targets based on the image after image processing by the image processing unit 17, and calculate the evaluation value based on this.

評価値計算部19は、出力情報記憶部18から出力情報を入力すると共に、教師情報記憶部16からその出力情報に対応する画像識別情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を当該画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに評価結果記憶部20に記憶させることができる。
このとき、評価値計算部19は、出力情報と教師情報を用いて、最小二乗法により、平均二乗誤差を評価値として算出することができる。
The evaluation value calculation unit 19 receives the output information from the output information storage unit 18 and inputs the teacher information corresponding to the image identification information corresponding to the output information from the teacher information storage unit 16 .
Then, an evaluation value is calculated by comparing the output information and the teacher information, and the obtained evaluation value can be stored in the evaluation result storage unit 20 for each image identification information of the image and for each individual identification information.
At this time, the evaluation value calculation unit 19 can use the output information and the teacher information to calculate the mean square error as the evaluation value by the method of least squares.

また、評価値計算部19は、個体群記憶部12に記憶されている全ての個体情報(又は1世代分の個体情報)につき評価値を計算し終えて評価結果記憶部20に記憶させた場合などに、これらの評価値にもとづき個体情報を順位付け(ランキング)して、得られた順位付け情報を評価結果記憶部20に記憶させることができる。 In addition, when evaluation values for all individual information (or individual information for one generation) stored in the population storage unit 12 have been calculated and stored in the evaluation result storage unit 20, the evaluation value calculation unit 19 can rank the individual information based on these evaluation values and store the obtained ranking information in the evaluation result storage unit 20.

さらに、評価値計算部19は、画像処理部17による画像処理を終了するか否かを判定するための終了判定を行うことができる。終了判定は、終了条件を満たすか否かにもとづき行うことができ、終了条件を満たす場合、画像処理部17による画像の処理を終了させて、画像処理装置1による処理を終了させることができる。そして、評価結果記憶部20に記憶された最も評価値の高い個体情報が、画像処理を行うための最適化された個体情報として得られる。 Furthermore, the evaluation value calculation unit 19 can perform termination determination for determining whether or not to terminate the image processing by the image processing unit 17 . The termination determination can be made based on whether or not the termination condition is satisfied. If the termination condition is satisfied, the image processing by the image processing unit 17 can be terminated, and the processing by the image processing apparatus 1 can be terminated. Then, the individual information with the highest evaluation value stored in the evaluation result storage unit 20 is obtained as the individual information optimized for image processing.

終了条件としては、予め設定した全ての世代の個体群について画像処理を完了した場合や、一定の世代数以上で進化が発生していない場合などを挙げることができる。
進化が発生していない場合とは、評価値が、比較対象の時点よりも高くなっていない場合である。なお、後述する実施例では、評価値として平均二乗誤差を用いているため、評価値の小さいほうが良い個体情報となる。したがって、一定の世代数について画像処理を行って評価値が小さくなっていなければ、進化していないと判定できる。
Examples of termination conditions include the case where image processing has been completed for populations of all generations set in advance, and the case where evolution has not occurred in a certain number of generations or more.
A case in which no evolution has occurred is a case in which the evaluation value has not become higher than at the point of comparison. In the embodiment described later, since the mean square error is used as the evaluation value, the smaller the evaluation value, the better the individual information. Therefore, if the image processing is performed for a certain number of generations and the evaluation value does not decrease, it can be determined that the image has not evolved.

なお、評価値計算部19からこの終了判定の機能を分離して、本実施形態の画像処理装置1において終了判定を行うための終了判定部を備えてもよい。 Note that the end determination function may be separated from the evaluation value calculation unit 19, and an end determination unit for performing end determination may be provided in the image processing apparatus 1 of the present embodiment.

遺伝子操作部21は、評価結果記憶部20における個体情報の順位付け情報にもとづいて、個体情報の選択又は変更を行って、個体群記憶部12を更新する。
具体的には、遺伝子操作部21は、評価値が高い個体情報を次世代に残すエリート個体保存部と、評価値にもとづいて、一定の確率で個体情報を次世代に残す個体選択部と、2つの個体情報の一部を相互に交換する交叉部と、選択された1つの個体情報の一部又は全部をランダムに書き換える突然変異部とを有するものとすることができる。
The gene manipulation unit 21 selects or changes the individual information based on the ranking information of the individual information in the evaluation result storage unit 20 and updates the population storage unit 12 .
Specifically, the gene manipulation unit 21 can include an elite individual storage unit that leaves individual information with a high evaluation value to the next generation, an individual selection unit that leaves individual information for the next generation with a certain probability based on the evaluation value, a crossover unit that mutually exchanges a part of two pieces of individual information, and a mutation unit that randomly rewrites part or all of the selected individual information.

エリート個体保存部は、各世代の個体群において、一番評価値の良い個体情報などを、無条件で次世代に残す処理を行うことができる。
個体選択部は、各世代の個体群において、評価値の順位の高い個体情報を高い確率で選択して、次世代に残す処理を行うことができる。
The elite individual storage unit can unconditionally leave the individual information with the best evaluation value in the population of each generation to the next generation.
The individual selection unit can perform a process of selecting individual information with a high ranking of evaluation values in a group of individuals in each generation with a high probability, and leaving the information to the next generation.

交叉部は、交叉処理として、複数の個体情報の各ノードの配列における同一(ノード番号)の並びについて、ある確率で入れ替える1様交叉を行うことができる。また、交叉部は、交叉処理として、各ノードの配列における同一の並びの1点を境として、一方の配列を相互に入れ替える1点交叉や、同一の並びの複数点を境として配列を相互に入れ替える複数点交叉を行うこともできる。交叉部は、このような交叉処理を、個体選択部により選択された個体情報に対して行うことができる。 As crossover processing, the crossover unit can perform one-way crossover in which the same (node number) sequence in the array of each node of a plurality of pieces of individual information is replaced with a certain probability. In addition, the crossover unit can perform crossover processing such as one-point crossover in which one array is exchanged with one point of the same arrangement in the array of each node as a boundary, or multiple-point crossover in which the arrays are exchanged with each other with a plurality of points of the same arrangement as a boundary. The crossover section can perform such crossover processing on the individual information selected by the individual selection section.

突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、個体情報ごとに一定の確率でその個体情報の一部を書き換えたり、その個体情報の全てを書き換えることができる。突然変異部は、このような突然変異処理を、個体選択部により選択された個体情報に対して行うことができる。また、突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、新しい個体情報を生成することもできる。 As mutation processing, the mutation section can rewrite part of the individual information or rewrite all of the individual information with a certain probability for each individual information using the nodes stored in the functional unit storage section 10.例文帳に追加The mutation section can perform such mutation processing on the individual information selected by the individual selection section. In addition, the mutating section can also generate new individual information using the nodes stored in the functional unit storage section 10 as mutation processing.

なお、同じ個体情報にもとづいて生成された同系列個体が増えると、多様性が失われて進化が袋小路(数学的に局所解に陥った状態)に入ってしまう。一方、同系列以外の個体を増やしすぎると、ランダム探索に近づき、効率的な進化が行われない。
そこで、学習初期では多様性を持たせるために、同系列以外の個体を増やすように突然変異部による処理を行い、学習中期では効率的な進化を実施するために、個体選択部により同系列を増やすことが好ましい。また、進化が止まった場合には、再度多様性を持たせるために突然変異部により同系列以外を増やすことなどを好適に行うことができる。
If the number of same-line individuals generated based on the same individual information increases, diversity will be lost and evolution will enter a dead end (a state of mathematically falling into a local optimum). On the other hand, if the number of individuals other than the same lineage is increased too much, it becomes more like a random search and efficient evolution does not occur.
Therefore, in the early stage of learning, it is preferable to increase the number of individuals other than the same lineage in order to increase diversity, and to increase the same lineage in the middle stage of learning by the individual selection section in order to carry out efficient evolution. In addition, when evolution stops, it is possible to preferably increase non-same lineages by means of mutation sites in order to restore diversity.

そして、遺伝子操作部21は、新たな世代の個体群を生成して、個体群記憶部12に記憶させる。このとき、遺伝子操作部21は、前の世代の個体群を上書きすることにより、個体群記憶部12を更新することができる。また、複数世代の個体群を世代ごとに記憶させることにより、個体群記憶部12を更新することもできる。 Then, the gene manipulation unit 21 generates a new generation population and stores it in the population storage unit 12 . At this time, the gene manipulation unit 21 can update the population storage unit 12 by overwriting the population of the previous generation. In addition, the population storage unit 12 can be updated by storing populations of multiple generations for each generation.

次に、本実施形態の画像処理装置による処理手順について、図2及び図3を参照して説明する。
まず、画像処理装置1における画像入力部13が、画像を入力する(ステップ10)。また、教師情報入力部15が、教師情報としての数値を入力する(ステップ11)。そして、個体生成部11によって、初期個体群が生成される(ステップ12)。
このとき、個体生成部11は、機能単位記憶部10からノードをランダムに選択して配列することにより個体情報を生成して、個体情報の識別情報ごとに個体群記憶部12に記憶させることができる。また、個体生成部11は、複数の個体情報からなる個体群を一つの世代として、世代番号ごとに複数の世代の個体群を個体群記憶部12に記憶させることもできる。
Next, a processing procedure by the image processing apparatus of this embodiment will be described with reference to FIGS. 2 and 3. FIG.
First, the image input section 13 in the image processing apparatus 1 inputs an image (step 10). Also, the teacher information input unit 15 inputs numerical values as teacher information (step 11). Then, an initial population of individuals is generated by the individual generation unit 11 (step 12).
At this time, the individual generation unit 11 can generate individual information by randomly selecting and arranging nodes from the functional unit storage unit 10, and can store the individual information in the individual group storage unit 12 for each identification information of the individual information. Furthermore, the individual generation unit 11 can also store a group of individuals consisting of a plurality of pieces of individual information as one generation, and store groups of individuals in a plurality of generations for each generation number in the group storage unit 12 .

次に、画像処理部17は、個体群記憶部12における個体群の世代ごとに、個体群における全ての個体情報について画像処理を実行する(ステップ13、14、15)。
このとき、画像処理部17は、個体情報ごとに出力情報として、画像における検出対象の個数を示す数値を出力して、出力情報記憶部18に記憶させる。
Next, the image processing unit 17 performs image processing on all individual information in the individual group for each generation of the individual group in the individual group storage unit 12 (steps 13, 14, 15).
At this time, the image processing unit 17 outputs a numerical value indicating the number of detection targets in the image as output information for each piece of individual information, and stores the numerical value in the output information storage unit 18 .

次に、評価値計算部19は、個体情報ごとに、出力情報と教師情報を比較して、評価値を計算する(ステップ16)。
このとき、評価値計算部19による評価値の計算において、例えば最小二乗法を用いて、評価値として平均二乗誤差を算出することができる。
また、評価値計算部19は、得られた評価値を評価結果記憶部20に個体情報ごとに記憶させる。
そして、当該世代の全ての個体情報について、画像の処理から評価値の計算及び記憶までの処理を繰り返し実行する。
Next, the evaluation value calculator 19 compares the output information and the teacher information for each piece of individual information to calculate an evaluation value (step 16).
At this time, in the calculation of the evaluation value by the evaluation value calculation unit 19, for example, the least squares method can be used to calculate the mean square error as the evaluation value.
In addition, the evaluation value calculation unit 19 stores the obtained evaluation values in the evaluation result storage unit 20 for each piece of individual information.
Then, the processing from image processing to evaluation value calculation and storage is repeatedly executed for all pieces of individual information of the generation.

次に、評価値計算部19は、評価結果記憶部20に記憶されている評価値にもとづいて、個体情報の順位付けを行う(ステップ17)。
また、評価値計算部19は、終了条件が満たされているか否かの判定処理を行う(ステップ18)。終了条件が満たされている場合、画像処理装置1による処理を終了する。
Next, the evaluation value calculation unit 19 ranks the individual information based on the evaluation values stored in the evaluation result storage unit 20 (step 17).
Further, the evaluation value calculation unit 19 performs determination processing as to whether or not the termination condition is satisfied (step 18). If the termination condition is satisfied, the processing by the image processing apparatus 1 is terminated.

終了条件が満たされていない場合、遺伝子操作部21は、遺伝子操作処理を実行する(ステップ19)。
具体的には、図3に示すように、遺伝子操作部21におけるエリート個体保存部は、最も評価値の高い個体情報を次世代の個体群の個体情報として選択する(ステップ20)。
また、遺伝子操作部21における個体選択部は、評価値の順位の高い個体情報ほど高い確率で次世代の個体群の個体情報として選択する(ステップ21)。
If the end condition is not satisfied, the gene manipulation unit 21 executes the gene manipulation process (step 19).
Specifically, as shown in FIG. 3, the elite individual storage unit in the gene manipulation unit 21 selects the individual information with the highest evaluation value as the individual information of the next-generation population (step 20).
Further, the individual selecting unit in the gene manipulation unit 21 selects the individual information having a higher evaluation value as the individual information of the population of the next generation with a higher probability (step 21).

さらに、遺伝子操作部21における交叉部は、個体選択部により選択された個体情報に対して、交叉処理を実行して、新たな個体情報を生成する(ステップ22)。
また、遺伝子操作部21における突然変異部は、個体選択部により選択された個体情報にもとづいて、またはこれらの個体情報を用いることなく、突然変異処理を行い、新たな個体情報を生成する(ステップ23)。
なお、エリート個体保存部、個体選択部、交叉部、突然変異部による各処理の順序を、各処理を実行可能な順序の範囲で入れ替えて実行してもよい。
Further, the crossover unit in the gene manipulation unit 21 performs crossover processing on the individual information selected by the individual selection unit to generate new individual information (step 22).
Also, the mutation section in the gene manipulation section 21 performs mutation processing based on the individual information selected by the individual selection section or without using such individual information to generate new individual information (step 23).
The order of each processing by the elite individual storage unit, individual selection unit, crossover unit, and mutation unit may be changed within the range of the order in which each processing can be executed.

このような本実施形態の画像処理装置によれば、画像から検出対象を見つけ出す画像処理技術において、入力画像に画像処理を行って検出対象の個数を示す出力情報を作成し、その出力情報に対して、教師情報としての数値を用いて比較することができる。このため、画像内の検出対象のサイズに拘わらず評価値を同一とすることができ、検出対象領域の割合により評価値が悪化する問題を解消することが可能である。また、従来、教師画像の生成に手間がかかっていた問題や人の過度な干渉が必要になっていた問題を解消することも可能となる。 According to the image processing apparatus of this embodiment, in the image processing technology for finding detection targets from an image, image processing is performed on an input image to create output information indicating the number of detection targets, and the output information can be compared using numerical values as teacher information. Therefore, the same evaluation value can be obtained regardless of the size of the detection target in the image, and the problem that the evaluation value deteriorates depending on the ratio of the detection target region can be solved. In addition, it is possible to solve the conventional problem that the generation of the teacher image required time and effort and the problem that excessive human intervention was required.

[第二実施形態]
次に、本発明の第二実施形態に係る画像処理システム、及び画像処理プログラムについて、図4及び図5を参照して説明する。図4は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図であり、図5は、同画像処理装置による処理手順を示すフローチャートである。
[Second embodiment]
Next, an image processing system and an image processing program according to a second embodiment of the invention will be described with reference to FIGS. 4 and 5. FIG. FIG. 4 is a block diagram showing the configuration of an image processing apparatus corresponding to the image processing system of this embodiment, and FIG. 5 is a flow chart showing the processing procedure of the image processing apparatus.

本実施形態の画像処理装置1aは、図4に示すように、機能単位記憶部10a、個体生成部11a、個体群記憶部12a、画像入力部13a、画像記憶部14a、教師情報入力部15a、教師情報記憶部16a、画像処理部17a、出力情報記憶部18a、評価値計算部19a、評価結果記憶部20a、及び遺伝子操作部21aを備えている。また、個体群記憶部12aは、親個体群記憶部121aと子個体群記憶部122aを備えている。 As shown in FIG. 4, the image processing apparatus 1a of this embodiment includes a functional unit storage unit 10a, an individual generation unit 11a, an individual group storage unit 12a, an image input unit 13a, an image storage unit 14a, a teacher information input unit 15a, a teacher information storage unit 16a, an image processing unit 17a, an output information storage unit 18a, an evaluation value calculation unit 19a, an evaluation result storage unit 20a, and a gene manipulation unit 21a. The population storage unit 12a includes a parent population storage unit 121a and a child population storage unit 122a.

本実施形態の画像処理装置1aにおける機能単位記憶部10a、画像入力部13a、画像記憶部14a、教師情報入力部15a、教師情報記憶部16a、出力情報記憶部18a、及び評価結果記憶部20aは、第一実施形態と同様のものとすることができる。また、本実施形態の画像処理装置1aにおけるその他の構成についても、以下に説明する点を除いて、第一実施形態と同様のものとすることができる。 The functional unit storage unit 10a, the image input unit 13a, the image storage unit 14a, the teacher information input unit 15a, the teacher information storage unit 16a, the output information storage unit 18a, and the evaluation result storage unit 20a in the image processing apparatus 1a of the present embodiment can be the same as those in the first embodiment. Also, other configurations of the image processing apparatus 1a of the present embodiment can be the same as those of the first embodiment except for the points described below.

個体生成部11aは、機能単位記憶部10に記憶されているノードを用いて、複数のノードの配列からなる個体情報を生成する。このとき、個体生成部11aは、第一実施形態と同様に、個体情報において、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義することができる。
また、本実施形態における個体生成部11aは、個体情報として、複数の親個体情報をランダムに生成し、これら親個体情報からなる初期の親個体群を親個体群記憶部121aに記憶させることができる。
The individual generating unit 11a uses the nodes stored in the functional unit storage unit 10 to generate individual information consisting of an array of a plurality of nodes. At this time, the individual generation unit 11a can define the execution order of a plurality of nodes in the individual information in the form of a network that can include a cycle, as in the first embodiment.
In addition, the individual generation unit 11a in this embodiment can randomly generate a plurality of pieces of parent individual information as individual information, and store an initial parent individual group made up of the parent individual information in the parent individual group storage unit 121a.

遺伝子操作部21aは、親個体群記憶部121aにおける親個体情報に対して遺伝子操作を実行する。
具体的には、まず、親個体群記憶部121aにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。
The gene manipulation unit 21a executes gene manipulation on the parent individual information in the parent individual group storage unit 121a.
Specifically, first, parent individual information for generating child individual information is randomly selected from the parent individual group in the parent individual group storage unit 121a.

遺伝子操作部21aにおけるエリート個体保存部は、選択された親個体情報と同一の子個体情報からなる子個体群を子個体群記憶部122aに記憶させることができる。
そして、遺伝子操作部21aにおける交叉部は、選択された親個体情報に対して交叉処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122aに記憶させることができる。
また、遺伝子操作部21aにおける突然変異部は、機能単位記憶部10に記憶されているノードを用いて、選択された親個体情報に対して突然変異処理を実行して、一定の確率で親個体情報の一部を書き換えたり、その全てを書き換えることによって得られた子個体情報からなる子個体群を子個体群記憶部122aに記憶させることができる。また、突然変異部は、突然変異処理として、機能単位記憶部10aに記憶されているノードを用いて、新しい個体情報を生成することもできる。
The elite individual storage unit in the gene manipulation unit 21a can store a child population consisting of the same child individual information as the selected parent individual information in the child population storage unit 122a.
Then, the crossover unit in the gene manipulation unit 21a executes crossover processing on the selected parent individual information, generates a plurality of child individual information, and stores a child population consisting of these child individual information in the child population storage unit 122a.
Further, the mutation unit in the gene manipulation unit 21a can execute mutation processing on the selected parent individual information using the nodes stored in the functional unit storage unit 10, and can store in the child population storage unit 122a a child population consisting of child individual information obtained by rewriting part of the parent individual information with a certain probability or by rewriting all of the parent individual information. In addition, the mutation section can also generate new individual information using the nodes stored in the functional unit storage section 10a as the mutation processing.

さらに、遺伝子操作部21aは、評価結果記憶部20aにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群からランダムに選択された上記の親個体情報と入れ替えることなどによって、親個体群記憶部121aにおける親個体情報を更新することができる。 Furthermore, the gene manipulation unit 21a can update the parent individual information in the parent individual group storage unit 121a by, for example, replacing the child individual information with the best evaluation value and the child individual information selected with probability with the parent individual information randomly selected from the parent individual group based on the ranking information of the child individual information in the evaluation result storage unit 20a.

画像処理部17aは、画像記憶部14aから画像を入力すると共に、子個体群記憶部122aから子個体情報を入力して、その子個体情報にもとづき当該子個体情報に含まれる複数のノードを順次実行する。そして、画像処理部17aは、画像における検出対象を計数して出力情報を生成し、この出力情報を当該画像の画像識別情報ごとで、かつ子個体情報の識別情報ごとに出力情報記憶部18aに記憶させることができる。 The image processing unit 17a receives the image from the image storage unit 14a and the child individual information from the child population storage unit 122a, and sequentially executes a plurality of nodes included in the child individual information based on the child individual information. Then, the image processing unit 17a counts the detection targets in the image to generate output information, and stores this output information in the output information storage unit 18a for each image identification information of the image and for each identification information of offspring individual information.

評価値計算部19aは、出力情報記憶部18aから出力情報を入力すると共に、教師情報記憶部16aからその出力情報に対応する画像識別情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を当該画像の画像識別情報ごとで、かつ子個体情報の識別情報ごとに評価結果記憶部20aに記憶させることができる。
The evaluation value calculation unit 19a receives the output information from the output information storage unit 18a, and also receives the teacher information corresponding to the image identification information corresponding to the output information from the teacher information storage unit 16a.
Then, the output information and the teacher information are compared to calculate an evaluation value, and the obtained evaluation value can be stored in the evaluation result storage unit 20a for each image identification information of the image and for each child individual information identification information.

また、評価値計算部19aは、個体群記憶部12aにおける子個体群記憶部122aに記憶されている全ての子個体情報(又は1世代分の子個体情報)につき評価値を計算し終えて評価結果記憶部20aに記憶させた場合などに、これらの評価値にもとづき子個体情報を順位付けして、得られた順位付け情報を評価結果記憶部20aに記憶させることができる。
さらに、評価値計算部19aは、画像処理部17aによる画像処理を終了するか否かを判定するための終了判定を行うことができる。
Further, when the evaluation value calculation unit 19a finishes calculating the evaluation values for all child individual information (or child individual information for one generation) stored in the child individual group storage unit 122a in the individual group storage unit 12a and stores them in the evaluation result storage unit 20a, the evaluation value calculation unit 19a can rank the child individual information based on these evaluation values, and store the obtained ranking information in the evaluation result storage unit 20a.
Furthermore, the evaluation value calculation unit 19a can perform end determination for determining whether or not to end the image processing by the image processing unit 17a.

次に、本実施形態の画像処理装置の処理手順について、図5を参照して説明する。
まず、画像処理装置1aにおける画像入力部13aが、画像を入力する(ステップ30)。また、教師情報入力部15aが、教師情報としての数値を入力する(ステップ31)。そして、個体生成部11aによって、初期の親個体群が生成される(ステップ32)。
Next, the processing procedure of the image processing apparatus of this embodiment will be described with reference to FIG.
First, the image input unit 13a in the image processing device 1a inputs an image (step 30). Also, the teacher information input unit 15a inputs numerical values as teacher information (step 31). Then, an initial parent population is generated by the individual generation unit 11a (step 32).

このとき、個体生成部11aは、機能単位記憶部10aからノードをランダムに選択して配列することにより親個体情報を生成して、親個体情報の識別情報ごとに個体群記憶部12aにおける親個体群記憶部121aに記憶させることができる。この親個体群記憶部121aにおける親個体群は、後述する親個体群の更新処理によって更新され、設定された世代について以下の処理が繰り返し行われる(ステップ33)。 At this time, the individual generation unit 11a can generate parent individual information by randomly selecting and arranging nodes from the functional unit storage unit 10a, and can store the parent individual information in the parent individual group storage unit 121a in the individual group storage unit 12a for each identification information of the parent individual information. The parent population in the parent population storage unit 121a is updated by a parent population update process, which will be described later, and the following process is repeatedly performed for the set generation (step 33).

遺伝子操作部21aは、親個体群記憶部121aにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。(ステップ34)。そして、選択された親個体情報に対して遺伝子操作を実行する(ステップ35)。なお、ステップ34の親個体情報の選択を、ステップ35の遺伝子操作の一部として、実行してもよい。 The gene manipulation unit 21a randomly selects parent individual information for generating child individual information from the parent individual group in the parent individual group storage unit 121a. (Step 34). Then, genetic manipulation is executed for the selected parent individual information (step 35). The selection of parent individual information in step 34 may be executed as part of the genetic manipulation in step 35 .

すなわち、遺伝子操作部21aは、ランダムに選択された親個体情報に対して交叉処理や突然変異処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122aに記憶させる。 That is, the gene manipulation unit 21a executes crossover processing and mutation processing on randomly selected parent individual information to generate a plurality of child individual information, and stores a child population consisting of these child individual information in the child population storage unit 122a.

次に、画像処理部17aは、子個体群記憶部122aにおける全ての子個体情報について画像の処理を実行する(ステップ36、37)。
このとき、画像処理部17aは、子個体情報ごとに出力情報として、画像における検出対象の個数を示す数値を出力して、出力情報記憶部18aに記憶させる。
Next, the image processing unit 17a executes image processing for all child individual information in the child individual group storage unit 122a (steps 36 and 37).
At this time, the image processing unit 17a outputs a numerical value indicating the number of detection targets in the image as output information for each child individual information, and stores the numerical value in the output information storage unit 18a.

次に、評価値計算部19aは、子個体情報ごとに、出力情報と教師情報を比較して評価値を計算し(ステップ38)、得られた評価値を評価結果記憶部20に子個体情報ごとに記憶させる。
そして、子個体群記憶部122aにおける全ての子個体情報について、画像の処理から評価値の計算及び記憶までの処理を繰り返し実行する。
Next, the evaluation value calculation unit 19a compares the output information and the teacher information for each piece of child individual information to calculate an evaluation value (step 38), and stores the obtained evaluation value in the evaluation result storage unit 20 for each piece of child individual information.
Then, for all child individual information in the child population storage unit 122a, processing from image processing to evaluation value calculation and storage is repeatedly executed.

次に、評価値計算部19aは、評価結果記憶部20aに記憶されている評価値にもとづいて、子個体情報の順位付けを行う(ステップ39)。
そして、遺伝子操作部21は、評価結果記憶部20aにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群からランダムに選択された上記の親個体情報と入れ替えることにより、個体群記憶部12における親個体群記憶部121aの親個体情報を更新する(ステップ40)。
Next, the evaluation value calculation unit 19a ranks the child individual information based on the evaluation values stored in the evaluation result storage unit 20a (step 39).
Then, based on the ranking information of the child individual information in the evaluation result storage unit 20a, the gene manipulation unit 21 replaces the child individual information with the best evaluation value and the child individual information selected with probability with the parent individual information randomly selected from the parent individual group, thereby updating the parent individual information in the parent individual group storage unit 121a in the population storage unit 12 (step 40).

また、評価値計算部19aは、終了条件が満たされているか否かの判定処理を行い(ステップ41)、終了条件が満たされている場合、画像処理装置1aによる処理を終了する。 The evaluation value calculator 19a also determines whether or not the termination condition is satisfied (step 41), and if the termination condition is satisfied, the processing by the image processing apparatus 1a is terminated.

画像処理装置1aによる処理を終了させる場合、評価値計算部19aは、最終世代における全ての個体情報につき評価値を計算し、評価値にもとづき個体情報を順位付けして、得られた順位付け情報を評価結果記憶部20aに記憶させることができる。 When the processing by the image processing device 1a is terminated, the evaluation value calculation unit 19a can calculate evaluation values for all pieces of individual information in the final generation, rank the pieces of individual information based on the evaluation values, and store the obtained ranking information in the evaluation result storage unit 20a.

このような本実施形態の画像処理装置によれば、親個体群から親を選択して子個体情報を生成する時に遺伝子操作が実行されると共に、子個体情報を親個体群における親個体情報と入れ替えることで、親個体群を更新することができる。これにより、第一実施形態に比較して、進化の多様性をより保った状態で、最適な個体情報を探すことが可能となっている。 According to the image processing apparatus of this embodiment, genetic manipulation is executed when a parent is selected from the parent population and child individual information is generated, and the parent population can be updated by replacing the child individual information with the parent individual information in the parent population. As a result, compared to the first embodiment, it is possible to search for optimal individual information while maintaining evolutionary diversity.

[第三実施形態]
次に、本発明の第三実施形態に係る画像処理システム、及び画像処理プログラムについて説明する。本実施形態の画像処理システムは、教師情報として、画像における検出対象の個数を示す数値と、画像における検出対象の画像(以下、検出対象画像)を用いる点で、第一実施形態と相違する。その他の点は、第一実施形態と同様である。
[Third embodiment]
Next, an image processing system and an image processing program according to the third embodiment of the invention will be described. The image processing system of the present embodiment differs from the first embodiment in that a numerical value indicating the number of detection targets in an image and images of detection targets in the image (hereinafter referred to as detection target images) are used as teacher information. Other points are the same as in the first embodiment.

すなわち、本実施形態の画像処理システムに相当する画像処理装置1cは、図示しないが、機能単位記憶部10c、個体生成部11c、個体群記憶部12c、画像入力部13c、画像記憶部14c、教師情報入力部15c、教師情報記憶部16c、画像処理部17c、出力情報記憶部18c、評価値計算部19c、評価結果記憶部20c、及び遺伝子操作部21cを備えている。 That is, although not shown, the image processing apparatus 1c corresponding to the image processing system of the present embodiment includes a functional unit storage unit 10c, an individual generation unit 11c, an individual group storage unit 12c, an image input unit 13c, an image storage unit 14c, a teacher information input unit 15c, a teacher information storage unit 16c, an image processing unit 17c, an output information storage unit 18c, an evaluation value calculation unit 19c, an evaluation result storage unit 20c, and a gene manipulation unit 21c.

本実施形態の画像処理装置1cにおいて、教師情報入力部15cは、画像識別情報に対応させて、出力情報を評価するための教師情報として、当該画像識別情報に対応する画像における検出対象の個数を示す数値と、同画像における検出対象画像を入力し、当該画像識別情報ごとに教師情報記憶部16cに記憶させる。 In the image processing apparatus 1c of the present embodiment, the training information input unit 15c inputs a numerical value indicating the number of detection targets in an image corresponding to the image identification information and a detection target image in the same image as training information for evaluating output information in correspondence with the image identification information, and stores them in the training information storage unit 16c for each image identification information.

また、本実施形態において、画像処理部17cは、画像における検出対象を計数し、得られた検出対象の個数を示す数値と、画像における検出対象画像とを出力情報として生成する。そして、この出力情報を当該画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに出力情報記憶部18cに記憶させることができる。
このように、本実施形態における画像処理部17cによって得られる出力情報は、画像における検出対象の個数を示す数値及び検出対象画像として生成される。
Further, in the present embodiment, the image processing unit 17c counts the detection targets in the image, and generates the obtained numerical value indicating the number of detection targets and the detection target image in the image as output information. Then, this output information can be stored in the output information storage unit 18c for each image identification information of the image and for each identification information of individual information.
Thus, the output information obtained by the image processing unit 17c in this embodiment is generated as a numerical value indicating the number of detection targets in an image and a detection target image.

評価値計算部19cは、出力情報と教師情報を用いて、検出対象要素の画像(1ピクセルごとの差)と個数に対して重み付けを行い、これらを足し合わせた数値を評価値として算出することができる。具体的には、例えば、以下の式により評価値を算出することができる。
教師画像との平均二乗誤差×重み1.0+教師個数との平均二乗誤差×重み0.1
The evaluation value calculation unit 19c can use the output information and the teacher information to weight the image (the difference for each pixel) and the number of detection target elements, and calculate the numerical value obtained by adding them together as the evaluation value. Specifically, for example, the evaluation value can be calculated by the following formula.
Mean squared error with teacher image x weight 1.0 + mean squared error with number of teachers x weight 0.1

このような本実施形態の画像処理装置によれば、画像から検出対象を見つけ出す画像処理技術において、入力画像に画像処理を行って検出対象の個数を示す数値と検出対象画像を含む出力情報を作成し、その出力情報を教師情報である検出対象の個数を示す数値及び検出対象画像と比較することができる。このため、教師情報として検出対象の個数を示す数値のみを用いる場合に比較して、より優れた個体情報を効率良く生成することが可能となる。 According to the image processing apparatus of this embodiment, in the image processing technology for finding detection targets from an image, image processing is performed on an input image to create output information including a numerical value indicating the number of detection targets and a detection target image, and the output information can be compared with the numerical value indicating the number of detection targets and the detection target image, which are teacher information. Therefore, it is possible to efficiently generate better individual information than when only numerical values indicating the number of detection targets are used as teacher information.

例えば、境界線がはっきりとしていない検出対象について、教師情報として画像のみを用いる場合、与えた教師情報の画像の境界線は人が決定した物であるため決定した人間による差違が発生し、良質な学習が行えない可能性がある。しかし、教師情報に個数を用いた場合、このような影響を受けない。そのため、教師情報として検出対象の個数と画像を組み合わせて教師情報とすることで、より良い個体情報が得られる可能性を高めることが可能である。 For example, when only an image is used as teacher information for a detection target with no clear boundary, the boundary of the given teacher information image is decided by a person, so there may be differences depending on the person who decides, and good learning may not be possible. However, when the number is used as the teacher information, such an effect does not occur. Therefore, it is possible to increase the possibility of obtaining better individual information by combining the number of detection targets and an image as teacher information.

上記実施形態の画像処理装置は、本発明の画像処理プログラムに制御されたコンピュータを用いて実現することができる。コンピュータのCPUは、画像処理プログラムにもとづいてコンピュータの各構成要素に指令を送り、画像処理装置の動作に必要となる所定の処理、例えば、個体生成処理、画像処理、評価値計算処理、遺伝子操作処理等を行わせる。このように、本発明の画像処理装置における各処理、動作は、プログラムとコンピュータとが協働した具体的手段により実現できるものである。 The image processing apparatus of the above embodiments can be realized using a computer controlled by the image processing program of the present invention. The CPU of the computer sends instructions to each component of the computer based on the image processing program to perform predetermined processing required for the operation of the image processing device, such as individual generation processing, image processing, evaluation value calculation processing, genetic manipulation processing, and the like. In this manner, each process and operation in the image processing apparatus of the present invention can be realized by concrete means in which the program and the computer work together.

プログラムは予めROM,RAM等の記録媒体に格納され、コンピュータに実装された記録媒体から当該コンピュータにプログラムを読み込ませて実行されるが、例えば通信回線を介してコンピュータに読み込ませることもできる。
また、プログラムを格納する記録媒体は、例えば半導体メモリ、磁気ディスク、光ディスク、その他任意のコンピュータで読取り可能な任意の記録手段により構成できる。
The program is stored in advance in a recording medium such as a ROM or RAM, and is executed by loading the program into the computer from the recording medium installed in the computer. Alternatively, the program can be loaded into the computer via a communication line, for example.
Also, the recording medium for storing the program can be composed of, for example, a semiconductor memory, a magnetic disk, an optical disk, or any other computer-readable recording means.

以上説明したように、本発明の実施形態に係る画像処理システム、及び画像処理プログラムによれば、画像から検出対象を見つけ出す画像処理技術において画像処理をより最適化することが可能である。 As described above, according to the image processing system and the image processing program according to the embodiments of the present invention, it is possible to further optimize the image processing in the image processing technique for finding the detection target from the image.

以下、本発明の実施形態に係る画像処理装置を用いて、画像から検出対象を検出する画像処理を最適化した実験について、図6~図19を用いて説明する。
実施例として、本発明の第二実施形態に係る画像処理装置を使用した。
また、参考例として、本発明の第二実施形態に係る画像処理装置の一部を変更したものを使用した。具体的には、参考例では教師情報として画像情報を用いるように変更した。
Experiments for optimizing image processing for detecting a detection target from an image using the image processing apparatus according to the embodiment of the present invention will be described below with reference to FIGS. 6 to 19. FIG.
As an example, an image processing apparatus according to the second embodiment of the present invention was used.
Also, as a reference example, the image processing apparatus according to the second embodiment of the present invention with a part changed was used. Specifically, the reference example is changed so that image information is used as teacher information.

また、参考例において、画像処理部は、検出対象の個数示す数値を出力情報として生成せずに、検出対象を表示する画像を出力情報として生成させ、出力情報記憶部に記憶させた。また、評価値計算部は、教師情報としての画像情報と出力情報をピクセルごとに比較して平均二乗誤差を算出し、これを評価値として評価結果記憶部に記憶させた。また、遺伝子操作は実施例と同様に行った。 In the reference example, the image processing unit did not generate the numerical value indicating the number of detection targets as output information, but generated an image displaying the detection targets as output information and stored it in the output information storage unit. Also, the evaluation value calculation unit compares the image information as the teacher information and the output information for each pixel to calculate the mean square error, which is stored in the evaluation result storage unit as the evaluation value. In addition, gene manipulation was performed in the same manner as in Examples.

ここで、評価値は、実施例では数値である出力情報と教師情報を用いて検出対象の個数の差にもとづき平均二乗誤差を計算し、参考例では画像である出力情報と教師情報を用いて1ピクセルごとの差にもとづき平均二乗誤差を計算しているため、これらをそのまま比較することはできない。そこで、これらの評価値が、0~1の間になるように、以下の式を用いて評価値の正規化を行った。

Figure 0007314711000001
Here, for the evaluation value, in the embodiment, the mean square error is calculated based on the difference in the number of detection targets using the numerical output information and the teacher information, and in the reference example, the mean square error is calculated based on the difference for each pixel using the image output information and the teacher information, so they cannot be directly compared. Therefore, the evaluation values were normalized using the following formula so that these evaluation values were between 0 and 1.
Figure 0007314711000001

機能単位記憶部に記憶させたノードを図6~図11に示す。図6に示すノードは、画像処理(ノイズ除去)を行うものであり、図7に示すノードは、画像処理(輝度補正、組合せ)を行うものであり、図8に示すノードは、画像処理(2値化)を行うものであり、図9に示すノードは、画像処理(エッジ検出)を行うものであり、図10に示すノードは、画像処理(エッジ検出、四則演算)を行うものであり、図11に示すノードは、検出対象判定を行うものである。 6 to 11 show nodes stored in the functional unit storage unit. The nodes shown in FIG. 6 perform image processing (noise removal), the nodes illustrated in FIG. 7 perform image processing (brightness correction, combination), the nodes illustrated in FIG. 8 perform image processing (binarization), the nodes illustrated in FIG. 9 perform image processing (edge detection), the nodes illustrated in FIG.

画像入力部により入力する学習用及び検証用の画像としては、様々な大きさと形状をもつ丸、三角、四角を表示したものなどを使用した。参考例では教師情報として学習用の画像から三角形を選択して表示した2値化画像を使用し、実施例では教師情報として学習用の画像における三角形の個数を示す数値を使用した。 Circles, triangles, and squares of various sizes and shapes were used as learning and verification images input by the image input unit. In the reference example, a binarized image in which triangles are selected from the learning image and displayed is used as teacher information, and in the embodiment, a numerical value indicating the number of triangles in the learning image is used as teacher information.

実施例及び参考例ともに、学習で使用した入力画像の数は8枚であり、検証で使用した入力画像の枚数は3枚である。
個体生成部により生成させる初期の親個体情報の個数を150個とし、2個の親個体情報をランダムに選択して親個体群からは削除し、これらの親個体情報に対して遺伝子操作を実行して、52個の子個体情報を生成した(親と同一個体:2、一様交叉個体:20、突然変異個体:30)。
In both the example and the reference example, the number of input images used in learning is eight, and the number of input images used in verification is three.
The initial number of pieces of parent individual information generated by the individual generation unit was set to 150, two pieces of parent individual information were randomly selected and deleted from the parent population, genetic manipulation was performed on these pieces of parent individual information, and 52 pieces of child individual information were generated (individuals identical to parent: 2, uniform crossover individuals: 20, mutant individuals: 30).

また、画像処理を行って、子個体情報の評価結果にもとづいて、評価値が一番よい子個体情報と確率で選択された子個体情報の2個の子個体情報を選択し、これらの子個体情報を親個体情報として親個体群に戻し、以上の処理を設定した世代数分繰り返し実行した。
最大の世代数を5000世代に設定し、進化がストップしたと判定された場合(正規化後の評価値が0になった場合)、処理を終了した。
Further, image processing was performed, and based on the evaluation results of the child individual information, two pieces of child individual information, the child individual information with the best evaluation value and the child individual information selected by the probability, were selected, and these child individual information were returned to the parent population as parent individual information, and the above processing was repeatedly executed for the set number of generations.
When the maximum number of generations was set to 5000 generations and it was determined that evolution had stopped (when the evaluation value after normalization became 0), the processing was terminated.

その結果を図12~図19に示す。図12及び図13は、実施例及び参考例による学習とその結果を比較した説明図であり、図14は、実施例及び参考例による検証結果を比較した説明図である。また、図15は、実施例及び参考例による学習における正規化した評価値の遷移のグラフを示す図である。さらに、図16は、実施例の学習によって得られた個体情報の構造を示す図であり、図17は、実施例の学習によって得られた個体情報で用いられたノードの機能を示す図である。また、図18は、参考例の学習によって得られた個体情報の構造を示す図であり、図19は、参考例の学習によって得られた個体情報で用いられたノードの機能を示す図である。 The results are shown in FIGS. 12 to 19. FIG. 12 and 13 are explanatory diagrams comparing the learning and the results of the examples and the reference examples, and FIG. 14 is an explanatory diagram comparing the verification results of the examples and the reference examples. FIG. 15 is a diagram showing a graph of transition of normalized evaluation values in learning according to the example and the reference example. Furthermore, FIG. 16 is a diagram showing the structure of the individual information obtained by the learning of the example, and FIG. 17 is a diagram showing the functions of the nodes used in the individual information obtained by the learning of the example. 18 is a diagram showing the structure of the individual information obtained by the learning of the reference example, and FIG. 19 is a diagram showing the functions of the nodes used in the individual information obtained by the learning of the reference example.

図12~図14において、参考例の「検出誤差」は、出力画像にある白い物体を目視で数えて、教師画像との誤差を計算した結果である。
また、「備考」の「実施例において検出対象と認識した箇所」は、参考情報として作成したものであり、画像処理部において作成された2値化画像にもとづいて、実施例の出力情報が画像の何処についてその数がカウントされたのかを確認し、そのカウントされた部分に白丸を付したものである。
「出力」に示された画像及び数値は、評価値が一番良い個体情報によるものが示されている。すなわち、これらの出力情報の出力に用いられた個体情報が、実施例及び参考例における最終的に得られた個体情報である。
In FIGS. 12 to 14, the “detection error” in the reference example is the result of visually counting white objects in the output image and calculating the error from the teacher image.
In addition, the "remarks", "places recognized as detection targets in the embodiment", is created as reference information, based on the binarized image created in the image processing unit, it is confirmed where in the image the output information of the example was counted, and the counted portions are marked with white circles.
The image and numerical value shown in "output" are those based on the individual information with the best evaluation value. That is, the individual information used to output these output information is the individual information finally obtained in the examples and reference examples.

図12及び図13に示す学習結果においては、実施例及び参考例ともに検出誤差は発生しなかった。しかしながら、評価値の推移を観察すると、図15に示すように、実施例では412世代で評価値が0となり、学習処理が終了している。これに対して、参考例では評価値は0にならず、最大学習回数(設定した最大世代数)まで世代を重ねた。これは参考例の場合、1ピクセルごとに出力画像と教師画像を比較しているため、1ピクセルでも違う箇所があると0にならないことに起因している。 In the learning results shown in FIGS. 12 and 13, no detection error occurred in both the example and the reference example. However, when observing the transition of the evaluation value, as shown in FIG. 15, in the embodiment, the evaluation value becomes 0 at the 412th generation, and the learning process is completed. On the other hand, in the reference example, the evaluation value did not become 0, and generations were repeated up to the maximum number of times of learning (set maximum number of generations). This is because in the case of the reference example, the output image and the teacher image are compared for each pixel, so even if there is a difference of even one pixel, it does not become 0.

図14に示す検証結果においては、実施例では検出誤差は発生しなかった。また、教師情報を検出対象の数としているが、「備考」に示されるように、検出した箇所は全て三角形であり、検出対象が正確に計数されていた。 In the verification results shown in FIG. 14, no detection error occurred in the example. In addition, although the teacher information is used as the number of detection targets, as shown in "Remarks", all the detected locations are triangles, and the detection targets were counted accurately.

これに対して、参考例ではサンプルNo.2に検出誤差が生じていた。出力画像を参照すると、教師画像と大幅に違うことが分かる。すなわち、3個の三角形の他、背景が1個の検出対象として認識された結果、検出誤差が1となっている。これは学習データに対して過学習が発生したことに起因していると考えられる。すなわち、学習において背景について過学習がなされて、サンプルNo.2の背景を検出対象として誤認識したと推定される。 On the other hand, in the reference example, sample No. 2 had a detection error. By referring to the output image, it can be seen that it is significantly different from the teacher image. That is, the detection error is 1 as a result of recognizing the background as one detection target in addition to the three triangles. It is considered that this is caused by over-learning for the learning data. That is, it is presumed that the background of sample No. 2 was erroneously recognized as the detection target due to over-learning of the background during learning.

また、図16~図19に示されるように、実施例の学習によれば、参考例よりも優れた個体情報が得られていると考えられ、参考例よりも少ない学習回数でこれを得ることができている。そして、実施例の学習によって得られた個体情報によれば、参考例よりも正確な画像処理を行うことが可能になっている。 Further, as shown in FIGS. 16 to 19, according to the learning of the example, it is considered that better individual information than the reference example is obtained, and it can be obtained with a smaller number of times of learning than the reference example. Further, according to the individual information obtained by learning in the example, it is possible to perform more accurate image processing than in the reference example.

本発明は、以上の実施形態及び実施例に限定されるものではなく、本発明の範囲内において、種々の変更実施が可能であることは言うまでもない。
例えば、画像処理装置における各構成を複数の情報処理装置に分散して持たせたり、ノードとして実施例で用いたもの以外のものを含めて使用したりすることができる。
また、上記の画像処理装置を画像検査用に用い、画像処理装置を、画像入力部が検査用の画像を入力し、最も評価値の高い個体情報にもとづき画像処理部によって検査用の画像を処理して得られた処理結果情報を記憶する処理結果記憶部を備えた構成とするなど適宜変更することが可能である。
さらに、第二実施形態と第三実施形態を組み合わせた構成とすることもできる。
It goes without saying that the present invention is not limited to the above embodiments and examples, and that various modifications can be made within the scope of the present invention.
For example, each configuration in the image processing apparatus can be distributed to a plurality of information processing apparatuses, or nodes other than those used in the embodiments can be used.
Further, the above image processing apparatus is used for image inspection, and the image input unit inputs an image for inspection, and the image processing unit processes the image for inspection based on the individual information with the highest evaluation value.
Furthermore, it is possible to adopt a configuration in which the second embodiment and the third embodiment are combined.

本発明は、設備や製品などの画像データにもとづき検査などを行う場合であって、画像処理が最適化された画像検査用の情報処理装置を得るために、好適に利用することが可能である。 INDUSTRIAL APPLICABILITY The present invention can be suitably used to obtain an information processing apparatus for image inspection in which image processing is optimized when inspection is performed based on image data of equipment, products, and the like.

1,1a 画像処理装置
10,10a 機能単位記憶部
11,11a 個体生成部
12,12a 個体群記憶部
121a 親個体群記憶部
122a 子個体群記憶部
13,13a 画像入力部
14,14a 画像記憶部
15,15a 教師情報入力部
16,16a 教師情報記憶部
17,17a 画像判定部
18,18a 出力情報記憶部
19,19a 評価値計算部
20,20a 評価結果記憶部
21,21a 遺伝子操作部
Reference Signs List 1, 1a image processing device 10, 10a functional unit storage unit 11, 11a individual generation unit 12, 12a population storage unit 121a parent population storage unit 122a child population storage unit 13, 13a image input unit 14, 14a image storage unit 15, 15a teacher information input unit 16, 16a teacher information storage unit 17, 17a image determination unit 18, 18a Output information storage unit 19, 19a Evaluation value calculation unit 20, 20a Evaluation result storage unit 21, 21a Gene manipulation unit

Claims (10)

生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する画像処理システムであって、
有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する一又は二以上の個体情報を記憶する個体群記憶部と、
学習用又は検証用の画像を入力する画像入力部と、
出力情報を評価するための教師情報を入力する教師情報入力部と、
前記個体情報にもとづいて前記画像を処理し、前記出力情報を生成する画像処理部と、
前記出力情報と前記教師情報を比較して評価値を計算し、この評価値にもとづき前記個体情報を順位付けする評価値計算部と、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部と、を備え、
前記画像処理部による処理に、前記画像における検出対象を計数する処理が含まれ、
前記教師情報及び前記出力情報が、前記画像における検出対象の個数を示す数値である
ことを特徴とする画像処理システム。
An image processing system that optimizes image processing for detecting a detection target from an image using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living things,
a population storage unit that stores one or more pieces of individual information that define the order of execution of a plurality of functional units in a network that can include cycles;
an image input unit for inputting an image for learning or verification;
a teacher information input unit for inputting teacher information for evaluating output information;
an image processing unit that processes the image based on the individual information and generates the output information;
an evaluation value calculation unit that compares the output information and the teacher information to calculate an evaluation value, and ranks the individual information based on the evaluation value;
a gene manipulation unit that selects or changes the individual information based on the ranking information of the individual information and updates the population storage unit;
The processing by the image processing unit includes processing for counting detection targets in the image,
The image processing system, wherein the teacher information and the output information are numerical values indicating the number of detection targets in the image.
前記画像処理部による処理に、ノイズ除去、補正処理、2値化処理、エッジ検出処理、及び四則演算処理の少なくともいずれかが含まれることを特徴とする請求項1記載の画像処理システム。 2. The image processing system according to claim 1, wherein the processing by said image processing unit includes at least one of noise removal, correction processing, binarization processing, edge detection processing, and arithmetic processing. 前記画像処理部による処理に、前記画像における一定範囲の特徴量を算出する処理、及び前記特徴量にもとづいて前記一定範囲が検出対象であるか否かを判定する処理が含まれることを特徴とする請求項1又は2記載の画像処理システム。 3. The image processing system according to claim 1 or 2, wherein the processing by the image processing unit includes processing for calculating a feature amount of a certain range in the image, and processing for determining whether or not the certain range is a detection target based on the feature amount. 前記遺伝子操作部が、
前記評価値が高い個体情報を次世代に残すエリート保存部と、
前記評価値にもとづいて、一定の確率で個体情報を次世代に残す選択部と、
2つの個体情報の一部を相互に交換する交叉処理部と、
選択された1つの個体情報の一部又は全部をランダムに書き換える突然変異部と、を有する
ことを特徴とする請求項1~3のいずれかに記載の画像処理システム。
The gene manipulation unit
an elite storage unit that leaves the individual information with the high evaluation value to the next generation;
a selection unit for leaving individual information to the next generation with a certain probability based on the evaluation value;
a crossover processing unit that mutually exchanges a part of two pieces of individual information;
4. The image processing system according to any one of claims 1 to 3, further comprising a mutation unit that randomly rewrites part or all of the selected individual information.
前記ネットワークが、機能単位と向きが付いたリンクにより構成される有向ネットワークであり、直線構造と木構造を含むことを特徴とする請求項1~4のいずれかに記載の画像処理システム。 5. The image processing system according to claim 1, wherein said network is a directed network composed of functional units and oriented links, and includes a linear structure and a tree structure. 前記画像入力部が、検査用の画像を入力し、最も評価値の高い個体情報にもとづき前記画像処理部によって前記検査用の画像を処理して得られた処理結果情報を記憶する処理結果記憶部を備えたことを特徴とする請求項1~5のいずれかに記載の画像処理システム。 The image processing system according to any one of claims 1 to 5, wherein the image input unit inputs an inspection image, and includes a processing result storage unit that stores processing result information obtained by processing the inspection image by the image processing unit based on the individual information with the highest evaluation value. 前記画像処理部による処理に、検出対象を表す検出対象画像を作成する処理が含まれ、
前記教師情報及び前記出力情報に、検出対象を表す検出対象画像が含まれる
ことを特徴とする請求項1~6のいずれかに記載の画像処理システム。
The processing by the image processing unit includes processing for creating a detection target image representing the detection target,
7. The image processing system according to claim 1, wherein said teacher information and said output information include a detection target image representing a detection target.
生物の進化を数学的に模擬した最適化手法である遺伝的操作を用いて、画像から検出対象を検出する画像処理を最適化する画像処理プログラムであって、
コンピュータを、
有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する一又は二以上の個体情報を記憶する個体群記憶部、
学習用又は検証用の画像を入力する画像入力部、
出力情報を評価するための教師情報を入力する教師情報入力部、
前記個体情報にもとづいて前記画像を処理し、前記出力情報を生成する画像処理部、
前記出力情報と前記教師情報を比較して評価値を計算し、この評価値にもとづき前記個体情報を順位付けする評価値計算部、及び、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部として機能させ、
前記画像処理部による処理に、前記画像における検出対象を計数する処理が含まれ、
前記教師情報及び前記出力情報が、前記画像における検出対象の個数を示す数値である
ことを特徴とする画像処理プログラム。
An image processing program that optimizes image processing for detecting a detection target from an image using genetic manipulation, which is an optimization method that mathematically simulates the evolution of living things,
the computer,
an individual group storage unit that stores one or more pieces of individual information that define the order of execution of a plurality of functional units in a network that can include cycles;
an image input unit for inputting images for learning or verification;
a teacher information input unit for inputting teacher information for evaluating output information;
an image processing unit that processes the image based on the individual information and generates the output information;
an evaluation value calculation unit that compares the output information and the teacher information to calculate an evaluation value and ranks the individual information based on the evaluation value;
Selecting or changing the individual information based on the ranking information of the individual information to function as a genetic manipulation unit for updating the population storage unit;
The processing by the image processing unit includes processing for counting detection targets in the image,
The image processing program, wherein the teacher information and the output information are numerical values indicating the number of detection targets in the image.
前記遺伝子操作部が、
前記評価値が高い個体情報を次世代に残すエリート保存部、
前記評価値にもとづいて、一定の確率で個体情報を次世代に残す選択部、
2つの個体情報の一部を相互に交換する交叉処理部、及び、
選択された1つの個体情報の一部又は全部をランダムに書き換える突然変異部を有する
ことを特徴とする請求項8記載の画像処理プログラム。
The gene manipulation unit
an elite storage unit that leaves the individual information with the high evaluation value to the next generation;
a selection unit for leaving individual information to the next generation with a certain probability based on the evaluation value;
A crossover processing unit that mutually exchanges a part of two pieces of individual information, and
9. The image processing program according to claim 8, comprising a mutation part that randomly rewrites part or all of the selected individual information.
前記画像処理部による処理に、検出対象を表す検出対象画像を作成する処理が含まれ、
前記教師情報及び前記出力情報に、検出対象を表す検出対象画像が含まれる
ことを特徴とする請求項8又は9記載の画像処理プログラム。
The processing by the image processing unit includes processing for creating a detection target image representing the detection target,
10. The image processing program according to claim 8, wherein the teacher information and the output information include a detection target image representing a detection target.
JP2019149261A 2018-09-03 2019-08-16 Image processing system and image processing program Active JP7314711B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018164368 2018-09-03
JP2018164368 2018-09-03

Publications (2)

Publication Number Publication Date
JP2020038637A JP2020038637A (en) 2020-03-12
JP7314711B2 true JP7314711B2 (en) 2023-07-26

Family

ID=69738130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019149261A Active JP7314711B2 (en) 2018-09-03 2019-08-16 Image processing system and image processing program

Country Status (1)

Country Link
JP (1) JP7314711B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310491A (en) 2006-05-16 2007-11-29 Shibata Kagaku Kk Detection method of parameter value of image analysis processing, detection program of parameter value of image processing, and counting method of counting objects using parameter value detected by them
JP2013050837A (en) 2011-08-31 2013-03-14 Dainippon Screen Mfg Co Ltd Classification processing generation device and classification processing generation method
JP2017162069A (en) 2016-03-08 2017-09-14 株式会社Screenホールディングス Optimization method, optimization device, program and image processing apparatus
JP2018072938A (en) 2016-10-25 2018-05-10 株式会社パスコ Number-of-targets estimation device, number-of-targets estimation method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310491A (en) 2006-05-16 2007-11-29 Shibata Kagaku Kk Detection method of parameter value of image analysis processing, detection program of parameter value of image processing, and counting method of counting objects using parameter value detected by them
JP2013050837A (en) 2011-08-31 2013-03-14 Dainippon Screen Mfg Co Ltd Classification processing generation device and classification processing generation method
JP2017162069A (en) 2016-03-08 2017-09-14 株式会社Screenホールディングス Optimization method, optimization device, program and image processing apparatus
JP2018072938A (en) 2016-10-25 2018-05-10 株式会社パスコ Number-of-targets estimation device, number-of-targets estimation method, and program

Also Published As

Publication number Publication date
JP2020038637A (en) 2020-03-12

Similar Documents

Publication Publication Date Title
US20210125101A1 (en) Machine learning device and method
CN109690576A (en) The training machine learning model in multiple machine learning tasks
US11650968B2 (en) Systems and methods for predictive early stopping in neural network training
CN111429415B (en) Method for constructing efficient detection model of product surface defects based on network collaborative pruning
CN107729241B (en) Software variation test data evolution generation method based on variant grouping
US9842279B2 (en) Data processing method for learning discriminator, and data processing apparatus therefor
CN107832789B (en) Feature weighting K nearest neighbor fault diagnosis method based on average influence value data transformation
US20180137408A1 (en) Method and system for event-based neural networks
CN112699045A (en) Software test case generation method based on multi-population genetic algorithm
JP6643905B2 (en) Machine learning method and machine learning device
Eftimov et al. Identifying practical significance through statistical comparison of meta-heuristic stochastic optimization algorithms
US20160246576A1 (en) Computer program generation
US11373285B2 (en) Image generation device, image generation method, and image generation program
JP7314711B2 (en) Image processing system and image processing program
CN109977030B (en) Method and device for testing deep random forest program
JP2007213480A (en) Automatic evolutional image classification device, filter structure generation method and program
CN116993548A (en) Incremental learning-based education training institution credit assessment method and system for LightGBM-SVM
JP2020107008A (en) Image processing system, and image processing program
JP7468088B2 (en) Image processing system and image processing program
CN111370055A (en) Intron retention prediction model establishing method and prediction method thereof
JP7247578B2 (en) Image processing system and image processing program
CN115392434A (en) Depth model reinforcement method based on graph structure variation test
JP2022089430A (en) Image processing system, and image processing program
JP7314723B2 (en) Image processing system and image processing program
JP2021051617A (en) Image processing system and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7314711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150