JP7247578B2 - Image processing system and image processing program - Google Patents

Image processing system and image processing program Download PDF

Info

Publication number
JP7247578B2
JP7247578B2 JP2018243927A JP2018243927A JP7247578B2 JP 7247578 B2 JP7247578 B2 JP 7247578B2 JP 2018243927 A JP2018243927 A JP 2018243927A JP 2018243927 A JP2018243927 A JP 2018243927A JP 7247578 B2 JP7247578 B2 JP 7247578B2
Authority
JP
Japan
Prior art keywords
image
information
image processing
unit
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018243927A
Other languages
Japanese (ja)
Other versions
JP2020107009A (en
Inventor
賢 柏原
直己 高橋
圭亨 中村
萌子 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Seikan Group Holdings Ltd
Original Assignee
Toyo Seikan Group Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Seikan Group Holdings Ltd filed Critical Toyo Seikan Group Holdings Ltd
Priority to JP2018243927A priority Critical patent/JP7247578B2/en
Publication of JP2020107009A publication Critical patent/JP2020107009A/en
Application granted granted Critical
Publication of JP7247578B2 publication Critical patent/JP7247578B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Description

本発明は、外観検査の画像処理技術に関し、特に画像から検出対象を見つけ出す画像処理を最適化する画像処理システムに関する。 The present invention relates to image processing technology for appearance inspection, and more particularly to an image processing system that optimizes image processing for finding detection targets from images.

従来、機械による外観検査の画像処理技術において、検査対象物のみの画像を入力画像として画像処理を行い、得られた出力画像を教師画像と比較することによって、画像処理を最適化する方法が行われている。
一方、人による目視外観検査では、検査対象の製品を正常な製品と比較するだけではなく、人が記憶している良品やラインに流れる前後の製品を検査対象の製品と比較するいわゆる周辺視と呼ばれる手法が用いられており、機械による外観検査の画像処理技術では、人による目視外観検査を再現することはできなかった。
Conventionally, in image processing technology for mechanical visual inspection, a method of optimizing image processing is performed by performing image processing using only an image of an inspection object as an input image, and comparing the obtained output image with a teacher image. It is
On the other hand, visual visual inspection by humans not only compares the products to be inspected with normal products, but also compares the good products that people remember and the products before and after being sent to the line with the so-called peripheral vision. A method called visual inspection by humans was not able to be reproduced with the image processing technology of visual inspection by machines.

特許第5479944号公報Japanese Patent No. 5479944 特許第4862150号公報Japanese Patent No. 4862150 特許第5011533号公報Japanese Patent No. 5011533 特開2008-15817号公報JP 2008-15817 A

ここで、画像から検出対象を見つけ出す画像処理技術として、特許文献1に記載の方法を挙げることができる。
この方法では、遺伝的プログラミング(GP)による並列型画像フィルタ自動生成システムにサイズ依存型交叉を導入して、様々なタイプの画像からクラックの抽出用画像フィルタを自動的に構築し、これを用いて損傷レベルの評価が行われている。
Here, as an image processing technique for finding a detection target from an image, the method described in Patent Document 1 can be mentioned.
In this method, size-dependent crossover is introduced into a parallel image filter automatic generation system by genetic programming (GP) to automatically construct image filters for crack extraction from various types of images. assessment of damage level is carried out.

また、このようないわゆる進化的計算を用いる技術として、特許文献2~4に記載の進化的計算システムを挙げることができる。これらの進化的計算システムによれば、それぞれのシステムにおける処理のアルゴリズムの最適化を図ることが可能になっている。
しかしながら、これらの技術においても、検査対象物のみの画像を入力画像として画像処理が行われており、人による目視外観検査のような周辺視を適用可能なものではなかった。
In addition, the evolutionary computing systems described in Patent Documents 2 to 4 can be cited as techniques using such so-called evolutionary computation. These evolutionary computing systems make it possible to optimize the processing algorithm in each system.
However, even in these techniques, image processing is performed using only an image of an object to be inspected as an input image, and it is not possible to apply peripheral vision such as visual inspection by humans.

そこで、本発明者らは、機械による外観検査の画像処理技術において、検査対象物の画像だけではなく、良品画像を併せて入力画像として画像処理を行い、得られた出力情報を教師情報と比較することにより画像処理に周辺視を適用し、進化的計算によって画像処理を最適化することを可能とした。
また、進化的計算において、遺伝的ネットワークプログラミング(GNP)の手法を採用することにより、最適化の自由度を向上させることを可能にして、本発明を完成させた。
Therefore, in the image processing technology for visual inspection by machine, the present inventors performed image processing using not only the image of the inspection object but also the image of the non-defective product as an input image, and compared the obtained output information with the teacher information. By doing so, it is possible to apply peripheral vision to image processing and optimize image processing by evolutionary computation.
In addition, in evolutionary computation, by adopting the technique of genetic network programming (GNP), it is possible to improve the degree of freedom of optimization, thereby completing the present invention.

すなわち、本発明は、外観検査の画像処理技術おいて、画像から検出対象要素を見つけ出す画像処理を最適化することが可能な画像処理システム、及び画像処理プログラムの提供を目的とする。 That is, an object of the present invention is to provide an image processing system and an image processing program capable of optimizing image processing for finding detection target elements from an image in image processing technology for visual inspection.

上記目的を達成するため、本発明の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作により、画像から検出対象を検出する画像処理を最適化する画像処理システムであって、有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する一又は二以上の個体情報を記憶する個体群記憶部と、検査対象物が表示された学習用又は検証用の検査対象画像を入力する検査対象画像入力部と、検査対象物が正しく表示された良品画像を入力する良品画像入力部と、前記個体情報及び前記良品画像にもとづいて前記検査対象画像を処理し、前記検査対象画像における検出対象要素の画像、個数、及び位置情報の少なくともいずれかを含む出力情報を生成する画像処理部と、前記出力情報を評価するための検出対象要素の情報を含む教師情報を入力する教師情報入力部と、前記出力情報と前記教師情報を比較して評価値を計算し、この評価値にもとづき前記個体情報を順位付けする評価値計算部と、前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部とを備えた構成としてある。 In order to achieve the above object, the image processing system of the present invention optimizes image processing for detecting detection targets from images by genetic manipulation, which is an optimization technique that mathematically simulates the evolution of living organisms. A population storage unit that stores one or more pieces of individual information that defines the execution order of a plurality of functional units in a network that can include a cycle, and a learning or verification use that displays an inspection object. a non-defective product image input unit for inputting a non-defective product image in which the inspection target is correctly displayed; and processing the inspection target image based on the individual information and the non-defective product image. , an image processing unit that generates output information including at least one of image, number, and position information of detection target elements in the inspection target image; and teacher information including detection target element information for evaluating the output information. an evaluation value calculation unit that compares the output information and the training information to calculate an evaluation value and ranks the individual information based on the evaluation value; and ranking the individual information. and a gene manipulation unit that selects or changes the individual information based on the information and updates the population storage unit.

また、本発明の画像処理プログラムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作により、画像から検出対象を検出する画像処理を最適化する画像処理プログラムであって、コンピュータを、有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する一又は二以上の個体情報を記憶する個体群記憶部、検査対象物が表示された学習用又は検証用の検査対象画像を入力する検査対象画像入力部、検査対象物が正しく表示された良品画像を入力する良品画像入力部、前記個体情報及び前記良品画像にもとづいて前記検査対象画像を処理し、前記検査対象画像における検出対象要素の画像、個数、及び位置情報の少なくともいずれかを含む出力情報を生成する画像処理部、前記出力情報を評価するための検出対象要素の情報を含む教師情報を入力する教師情報入力部、前記出力情報と前記教師情報を比較して評価値を計算し、この評価値にもとづき前記個体情報を順位付けする評価値計算部、及び、前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部として機能させる構成としてある。 Further, the image processing program of the present invention is an image processing program for optimizing image processing for detecting a detection target from an image by genetic manipulation, which is an optimization method that mathematically simulates the evolution of living things, wherein the computer a population storage unit that stores one or more pieces of individual information that define the execution order of a plurality of functional units in a network that can include a cycle, and an inspection object for learning or verification that displays the inspection object an inspection target image input unit for inputting an image; a non-defective product image input unit for inputting a non-defective product image in which the inspection target is correctly displayed; processing the inspection target image based on the individual information and the non-defective product image; An image processing unit that generates output information including at least one of the image, number, and position information of detection target elements in the above, and a teacher information input that inputs teacher information including information on the detection target elements for evaluating the output information an evaluation value calculation unit that compares the output information and the teacher information to calculate an evaluation value and ranks the individual information based on the evaluation value; and the individual information based on the ranking information of the individual information. is selected or changed to function as a gene manipulation unit that updates the population storage unit.

本発明によれば、外観検査の画像処理技術おいて、画像から検出対象を見つけ出す画像処理を最適化することが可能な画像処理システム、及び画像処理プログラムの提供が可能となる。 According to the present invention, it is possible to provide an image processing system and an image processing program capable of optimizing image processing for finding a detection target from an image in image processing technology for visual inspection.

本発明の第一実施形態の画像処理システム(画像処理装置)の構成を示すブロック図である。1 is a block diagram showing the configuration of an image processing system (image processing apparatus) according to a first embodiment of the present invention; FIG. 本発明の第一実施形態の画像処理システムによる処理手順を示すフローチャートである。4 is a flow chart showing a processing procedure by the image processing system according to the first embodiment of the present invention; 本発明の第一実施形態の画像処理システムによる処理手順における遺伝子操作の処理手順を示すフローチャートである。4 is a flow chart showing the processing procedure of gene manipulation in the processing procedure by the image processing system of the first embodiment of the present invention; 本発明の第四実施形態の画像処理システムの構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of an image processing system according to a fourth embodiment of the present invention; FIG. 本発明の第四実施形態の画像処理システムによる処理手順を示すフローチャートである。FIG. 12 is a flow chart showing a processing procedure by the image processing system of the fourth embodiment of the invention; FIG. 実施例及び参考例で用いたノードの機能(画像処理:ノイズ除去)を示す図である。FIG. 10 is a diagram showing the functions (image processing: noise removal) of nodes used in the example and the reference example; 実施例及び参考例で用いたノードの機能(画像処理:輝度補正、組合せ)を示す図である。FIG. 4 is a diagram showing functions of nodes (image processing: brightness correction, combination) used in the example and the reference example; 実施例及び参考例で用いたノードの機能(画像処理:2値化)を示す図である。FIG. 4 is a diagram showing the function (image processing: binarization) of a node used in the example and the reference example; 実施例及び参考例で用いたノードの機能(画像処理:エッジ検出)を示す図である。FIG. 4 is a diagram showing the functions (image processing: edge detection) of nodes used in the example and the reference example; 実施例及び参考例で用いたノードの機能(画像処理:エッジ検出、周波数フィルタ)を示す図である。FIG. 4 is a diagram showing functions of nodes (image processing: edge detection, frequency filter) used in the example and the reference example; 実施例及び参考例で用いたノードの機能(画像処理:四則演算、ファジ演算)を示す図である。It is a figure which shows the function (image processing: four arithmetic operations, fuzzy operation) of the node used by the Example and the reference example. 実施例及び参考例で用いたノードの機能(検出対象判定)を示す図である。FIG. 4 is a diagram showing the function of a node (detection target determination) used in the example and the reference example; 試験1における学習とその結果を示す図(No.1-5)である。FIG. 10 is a diagram (No. 1-5) showing learning in Test 1 and its results; 試験1における学習とその結果を示す図(No.6-10)である。FIG. 6 is a diagram (No. 6-10) showing learning and results in Test 1; 試験1における検証結果を示す図(No.1-5)である。1 is a diagram (No. 1-5) showing verification results in Test 1. FIG. 試験1における学習の評価値の遷移を表すグラフを示す図である。FIG. 10 is a diagram showing a graph representing transition of learning evaluation values in test 1; 試験1における実施例の学習によって得られた個体情報の構造を示す図である。FIG. 10 is a diagram showing the structure of individual information obtained by learning of the example in test 1; 試験1における実施例の学習によって得られた個体情報で用いられたノードの機能を示す図である。FIG. 10 is a diagram showing functions of nodes used in individual information obtained by learning in an example in Test 1; 試験1における参考例の学習によって得られた個体情報の構造を示す図である。FIG. 10 is a diagram showing the structure of individual information obtained by learning a reference example in Test 1; 試験1における参考例の学習によって得られた個体情報で用いられたノードの機能を示す図である。FIG. 10 is a diagram showing functions of nodes used in individual information obtained by learning a reference example in Test 1; 試験2における学習とその結果を示す図(No.1-5)である。FIG. 10 is a diagram (No. 1-5) showing learning in Test 2 and its results; 試験2における学習とその結果を示す図(No.6-10)である。FIG. 10 is a diagram (No. 6-10) showing learning in Test 2 and its results; 試験2における検証結果を示す図(No.1-5)である。FIG. 10 is a diagram (No. 1-5) showing verification results in Test 2; 試験2における学習の評価値の遷移を表すグラフを示す図である。FIG. 10 is a diagram showing a graph representing transition of learning evaluation values in test 2; 試験2における実施例の学習によって得られた個体情報の構造を示す図である。FIG. 10 is a diagram showing the structure of individual information obtained by learning of the example in test 2; 試験2における実施例の学習によって得られた個体情報で用いられたノードの機能を示す図である。FIG. 10 is a diagram showing functions of nodes used in individual information obtained by learning in an example in Test 2; 試験2における参考例の学習によって得られた個体情報の構造を示す図である。FIG. 10 is a diagram showing the structure of individual information obtained by learning a reference example in Test 2; 試験2における参考例の学習によって得られた個体情報で用いられたノードの機能を示す図である。FIG. 10 is a diagram showing functions of nodes used in individual information obtained by learning of a reference example in Test 2;

以下、本発明の画像処理システム、及び画像処理プログラムの実施形態について詳細に説明する。ただし、本発明は、以下の実施形態、及び後述する実施例の具体的な内容に限定されるものではない。 Embodiments of an image processing system and an image processing program according to the present invention will be described in detail below. However, the present invention is not limited to the specific contents of the following embodiments and examples described later.

[第一実施形態]
まず、本発明の第一実施形態に係る画像処理システムについて、図1~図3を参照して説明する。図1は、本実施形態の画像処理システムに相当する画像処理装置の構成を示すブロック図であり、図2は、同画像処理システムによる処理手順を示すフローチャートである。また、図3は、同画像処理システムによる処理手順における遺伝子操作の処理手順を示すフローチャートである。
[First embodiment]
First, an image processing system according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 3. FIG. FIG. 1 is a block diagram showing the configuration of an image processing apparatus corresponding to the image processing system of this embodiment, and FIG. 2 is a flow chart showing the processing procedure of the image processing system. FIG. 3 is a flow chart showing the genetic manipulation processing procedure in the processing procedure of the same image processing system.

本実施形態の画像処理システムは、生物の進化を数学的に模擬した最適化手法である遺伝的操作により、画像から検出対象を検出する画像処理を最適化する。
具体的には、本実施形態の画像処理システムに相当する画像処理装置1は、図1に示すように、機能単位記憶部10、個体生成部11、個体群記憶部12、検査対象画像入力部13、検査対象画像記憶部14、良品画像入力部15、良品画像記憶部16、教師情報入力部17、教師情報記憶部18、画像処理部19、出力情報記憶部20、評価値計算部21、評価結果記憶部22、及び遺伝子操作部23を備えている。
The image processing system of this embodiment optimizes image processing for detecting a detection target from an image by genetic manipulation, which is an optimization technique that mathematically simulates the evolution of living things.
Specifically, as shown in FIG. 1, the image processing apparatus 1 corresponding to the image processing system of this embodiment includes a functional unit storage unit 10, an individual generation unit 11, an individual group storage unit 12, and an inspection target image input unit. 13, inspection target image storage unit 14, non-defective product image input unit 15, non-defective product image storage unit 16, teacher information input unit 17, teacher information storage unit 18, image processing unit 19, output information storage unit 20, evaluation value calculation unit 21, An evaluation result storage unit 22 and a gene manipulation unit 23 are provided.

本実施形態の画像処理装置1におけるこれらの各構成は、図1に示すように一個の情報処理装置に全て備えることができる。また、これらの各構成は、複数の情報処理装置からなる画像処理システムの各装置に分散して備えてもよい。これは、後述する各実施形態についても同様である。 All of these components in the image processing apparatus 1 of this embodiment can be provided in one information processing apparatus as shown in FIG. Also, each of these components may be distributed to each device of an image processing system comprising a plurality of information processing devices. This also applies to each embodiment described later.

機能単位記憶部10は、ある処理を実行する機能単位であるノード(遺伝子に相当する)をノード番号ごとに記憶する。本実施形態において、このノードとして、画像処理を行うための様々なものを用いることができ、後述する実施例では、図6~図12に示すものを用いている。
また、これらのノードは、それぞれの処理の実行に用いるパラメータが存在する場合には、そのパラメータと共に機能単位記憶部10に記憶される。
The functional unit storage unit 10 stores, for each node number, a node (corresponding to a gene), which is a functional unit that executes a certain process. In this embodiment, various nodes for performing image processing can be used as this node, and the nodes shown in FIGS. 6 to 12 are used in the examples described later.
Further, these nodes are stored in the functional unit storage unit 10 together with parameters used for execution of the respective processes, if any.

さらに、ノードとして、何ら処理を実行しないものを用いてもよく、複数の処理を実行する機能単位をまとめたものを1個のノード(ノードセット)として用いてもよい。ノードとして何ら処理を実行しないものを含めて用いることにより、例えば個体情報を生成するための初期ノード数の設定値が多すぎた場合などに、実質的なノード数を減らすことができる。 Furthermore, a node that does not execute any process may be used, or a functional unit that executes a plurality of processes may be used as one node (node set). By using nodes that do not perform any processing as nodes, it is possible to reduce the actual number of nodes when, for example, the set value of the initial number of nodes for generating individual information is too large.

本明細書において、「画像処理」には、ノイズ除去処理のための各種フィルタ処理や、輝度補正などの補正処理、2値化処理、エッジ検出処理、周波数フィルタ処理、四則演算処理、ファジ演算処理等の狭義の画像処理の他、これに伴って実行され得る検出対象の判定処理、及び出力処理などが含まれる。 In this specification, "image processing" includes various filter processing for noise removal processing, correction processing such as brightness correction, binarization processing, edge detection processing, frequency filter processing, four arithmetic operations, and fuzzy operations. In addition to image processing in a narrow sense, such as image processing, detection target determination processing, output processing, and the like that can be executed in conjunction with this processing are included.

個体生成部11は、機能単位記憶部10に記憶されているノードを用いて、複数のノードの配列からなる個体情報を生成する。このとき、個体生成部11は、複数のノードにもとづいて、複数の個体情報をランダムに生成することができる。
またこのとき、個体生成部11は、個体情報において、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義することができる。このネットワークは、向きが付いたリンクにより構成される有向ネットワークであり、フィードバックが含まれることがある。また、このネットワークには、直線構造と木構造も含まれ得る。
The individual generation unit 11 uses the nodes stored in the functional unit storage unit 10 to generate individual information consisting of an array of a plurality of nodes. At this time, the individual generation unit 11 can randomly generate a plurality of pieces of individual information based on the plurality of nodes.
At this time, in the individual information, the individual generation unit 11 can define the execution order of the plurality of nodes in a network that can include a cycle. The network is a directed network composed of oriented links and may include feedback. The network can also include linear structures and tree structures.

このような個体情報を用いれば、直線構造や木構造のみからなる個体情報を用いる場合に比較して、より柔軟な表現力を持つネットワーク構造を含めて学習を行うことができるため、最適解(実用上の最適解,実用解)を導き出す上で優位性がある。すなわち、問題に対してどの構造体が最適解になるかは人が事前に把握することができないため、機械学習の前に構造体の条件を決定することは難しい。このため、個体情報として、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義するものを使用して、幅広い条件で最適解を探索することは、真の最適解を導き出せる可能性を高める上で有効と考えられる。 By using such individual information, it is possible to perform learning including a network structure with more flexible expressive power than when using individual information consisting only of a linear structure or a tree structure. It is superior in deriving practical optimal solutions and practical solutions). In other words, it is difficult for humans to determine in advance which structure will be the optimal solution for the problem, and therefore it is difficult to determine the conditions of the structure prior to machine learning. For this reason, searching for the optimal solution under a wide range of conditions using individual information that defines the execution order of multiple nodes in a network that can include cycles may lead to the possibility of deriving the true optimal solution. It is considered to be effective in increasing

個体群記憶部12は、個体生成部11によって生成された複数の個体情報からなる個体群を記憶する。この個体群として、一の世代又は複数の世代を個体群記憶部12に記憶させることができ、世代番号ごとに個体情報を個体群記憶部12に記憶させることができる。
後述する評価値計算部21は、世代ごとに個体情報を順位付けして、順位付け情報を評価結果記憶部22に記憶させることができる。
The individual group storage unit 12 stores an individual group composed of a plurality of pieces of individual information generated by the individual generation unit 11 . One generation or a plurality of generations can be stored in the population storage unit 12 as this population, and individual information can be stored in the population storage unit 12 for each generation number.
The evaluation value calculation unit 21 , which will be described later, can rank the individual information for each generation and store the ranking information in the evaluation result storage unit 22 .

検査対象画像入力部13は、検査対象物が表示された学習用又は検証用の検査対象画像を画像処理装置1に入力して、画像識別情報ごとに検査対象画像記憶部14に記憶させる。
良品画像入力部15は、検査対象物が正しく表示された良品画像を画像処理装置1に入力して、画像識別情報ごとに良品画像記憶部16に記憶させる。
The inspection target image input unit 13 inputs the inspection target image for learning or verification in which the inspection target is displayed to the image processing apparatus 1, and stores the inspection target image storage unit 14 for each image identification information.
The non-defective product image input unit 15 inputs the non-defective product image in which the inspection object is correctly displayed to the image processing apparatus 1, and stores the non-defective product image storage unit 16 for each image identification information.

ここで、良品画像とは、正常な検査対象物を事前に撮影して得られた画像であり、人による目視外観検査において、人が記憶している良品や、ラインに流れる検査対象物の前後の製品を模擬するものである。
本実施形態の画像処理システムでは、このように良品画像を検査対象画像と共に入力して画像処理を行うことで、周辺視を再現することが可能になっている。
Here, a good product image is an image obtained by photographing a normal inspection object in advance. It simulates the product of
In the image processing system of the present embodiment, peripheral vision can be reproduced by inputting a non-defective product image together with an image to be inspected and performing image processing.

教師情報入力部17は、画像識別情報に対応させて、出力情報を評価するための教師情報として、当該画像識別情報に対応する検査対象画像における検出対象要素の画像を入力し、当該画像識別情報ごとに教師情報記憶部18に記憶させる。
ここで、検出対象要素とは、検査対象画像における欠陥(クラック、キズ、汚れなど)、特定の部品、特定の柄等とすることができる。なお、検出対象要素が検査対象画像の全体に相当する場合もあり得る。
The teacher information input unit 17 inputs the image of the detection target element in the inspection target image corresponding to the image identification information as teacher information for evaluating the output information in association with the image identification information. is stored in the teacher information storage unit 18 every time.
Here, the detection target element can be a defect (crack, scratch, stain, etc.) in the image to be inspected, a specific part, a specific pattern, or the like. Note that the detection target element may correspond to the entire inspection target image.

画像処理部19は、検査対象画像記憶部14から検査対象画像を入力すると共に、良品画像記憶部16から良品画像を入力する。そして、個体群記憶部12から個体情報を入力し、その個体情報にもとづき当該個体情報に含まれる複数のノードを順次実行することによって、検査対象画像に対して画像処理を行う。
これにより、ノードの実行において良品画像が用いられることによって、検査対象画像に対する画像処理の最適化を、周辺視を模擬したより優れたものにすることが可能となっている。
The image processing unit 19 receives the image to be inspected from the image storage unit 14 to be inspected and also inputs the non-defective product image from the non-defective product image storage unit 16 . Then, individual information is input from the individual group storage unit 12, and image processing is performed on the image to be inspected by sequentially executing a plurality of nodes included in the individual information based on the individual information.
This allows the optimization of image processing for the image under test to be better than simulated peripheral vision by using the good image in the execution of the node.

このとき、各ノードは、画像から得られる情報を用いて、それぞれの機能に対応する処理を実行する。また、各ノードは、その処理結果にもとづいて、処理結果に対応する次のノードを選択的に実行し得る。したがって、個体情報に含まれるノードであっても、画像処理において、必ずしも全てのノードが実行される訳ではない。勿論、個体情報における全てのノードが実行される場合はある。また、フィードバックが行われることによって、一つの個体情報において1つのみ定義されているノードが、複数回実行されることもあり得る。 At this time, each node uses information obtained from the image to execute processing corresponding to each function. Also, each node can selectively execute the next node corresponding to the processing result based on the processing result. Therefore, even nodes included in individual information are not necessarily executed in image processing. Of course, there is a case where all nodes in individual information are executed. Moreover, a node defined only once in one individual information may be executed multiple times due to feedback.

また、ノードの機能としては、上述したように、ノイズ除去処理のための各種画像フィルタ処理や、輝度補正などの補正処理、2値化処理、エッジ検出処理、周波数フィルタ処理、四則演算処理、ファジ演算処理等の狭義の画像処理がある。これらは、画像処理部19によって、主として、検出対象要素の候補(検出対象候補)を見つけるための処理として行われる。 As described above, the node functions include various image filtering processes for noise removal, correction processes such as luminance correction, binarization, edge detection, frequency filtering, four arithmetic operations, fuzzy There is narrowly defined image processing such as arithmetic processing. These are mainly performed by the image processing unit 19 as processing for finding candidates for detection target elements (detection target candidates).

また、ノードの機能としての検出対象の判定処理は、画像処理部19によって、画像における一定範囲の検出対象要素の候補をラベリングしてその特徴量を計算し、閾値などにもとづいて、その特徴量を備えた検出対象要素の候補が、正しい検出対象要素であるか否かを判定する処理として行われる。
なお、検出対象の判定処理において、非検出対象要素の候補をラベリングしてその特徴量を計算し、閾値などにもとづきその特徴量を備えていないことにより、検出対象要素でないことを判定する処理を行うこともできる。
In addition, the detection target determination processing as a function of the node is performed by labeling candidate detection target elements in a certain range in the image by the image processing unit 19, calculating the feature amount, and calculating the feature amount based on a threshold value. is a correct detection target element.
In addition, in the detection target determination process, a process of labeling a candidate of a non-detection target element, calculating its feature amount, and determining that it is not a detection target element by not having the feature amount based on a threshold value or the like. can also be done.

さらに、画像処理部19は、出力情報を生成して出力する。
具体的には、検査対象画像における検出対象要素の画像を出力情報として生成する。そして、この出力情報を当該検査対象画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに出力情報記憶部20に記憶させることができる。
このように、本実施形態における画像処理部19によって得られる出力情報は、検査対象画像における検出対象要素の画像として生成される。
Furthermore, the image processing unit 19 generates and outputs output information.
Specifically, the image of the detection target element in the inspection target image is generated as the output information. Then, this output information can be stored in the output information storage unit 20 for each image identification information of the image to be inspected and for each identification information of individual information.
Thus, the output information obtained by the image processing unit 19 in this embodiment is generated as the image of the detection target element in the inspection target image.

評価値計算部21は、出力情報記憶部20から出力情報を入力すると共に、教師情報記憶部18からその出力情報に対応する画像識別情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を当該検査対象画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに評価結果記憶部22に記憶させることができる。
このとき、評価値計算部21は、出力情報と教師情報を用いて、検査対象要素の画像の輝度を1ピクセルごとに比較し、最小二乗法により、平均二乗誤差を評価値として算出することができる。
The evaluation value calculation unit 21 receives the output information from the output information storage unit 20 and inputs the teacher information corresponding to the image identification information corresponding to the output information from the teacher information storage unit 18 .
Then, the output information and the teacher information are compared to calculate an evaluation value, and the obtained evaluation value is stored in the evaluation result storage unit 22 for each image identification information of the inspection target image and for each individual identification information. be able to.
At this time, the evaluation value calculation unit 21 can use the output information and the teacher information to compare the brightness of the image of the inspection target element for each pixel, and calculate the mean square error as the evaluation value by the least squares method. can.

また、評価値計算部21は、個体群記憶部12に記憶されている全ての個体情報(又は1世代分の個体情報)につき評価値を計算し終えて評価結果記憶部22に記憶させた場合などに、これらの評価値にもとづき個体情報を順位付け(ランキング)して、得られた順位付け情報を評価結果記憶部22に記憶させることができる。 Also, when the evaluation value calculation unit 21 has finished calculating evaluation values for all the individual information (or individual information for one generation) stored in the population storage unit 12 and stored in the evaluation result storage unit 22 For example, the individual information can be ranked based on these evaluation values, and the obtained ranking information can be stored in the evaluation result storage unit 22 .

さらに、評価値計算部21は、画像処理部19による画像処理を終了するか否かを判定するための終了判定を行うことができる。終了判定は、終了条件を満たすか否かにもとづき行うことができ、終了条件を満たす場合、画像処理部19による画像の処理を終了させて、画像処理装置1による処理を終了させることができる。そして、評価結果記憶部22に記憶された最も評価値の高い個体情報が、画像処理を行うための最適化された個体情報として得られる。 Furthermore, the evaluation value calculation unit 21 can perform end determination for determining whether or not the image processing by the image processing unit 19 is to end. The termination determination can be made based on whether or not the termination condition is satisfied. If the termination condition is satisfied, the image processing by the image processing unit 19 can be terminated, and the processing by the image processing apparatus 1 can be terminated. Then, the individual information with the highest evaluation value stored in the evaluation result storage unit 22 is obtained as the individual information optimized for image processing.

終了条件としては、予め設定した全ての世代の個体群について画像処理を完了した場合や、一定の世代数以上で進化が発生していない場合などを挙げることができる。
進化が発生していない場合とは、評価値が、比較対象の時点よりも高くなっていない場合である。なお、後述する実施例では、評価値として平均二乗誤差を用いているため、評価値の小さいほうが良い個体情報となる。したがって、一定の世代数について画像処理を行って評価値が小さくなっていなければ、進化していないと判定できる。
Examples of termination conditions include the case where image processing has been completed for populations of all generations set in advance, and the case where evolution has not occurred in a certain number of generations or more.
A case in which no evolution has occurred is a case in which the evaluation value has not become higher than at the point of comparison. In the embodiment described later, since the mean square error is used as the evaluation value, the smaller the evaluation value, the better the individual information. Therefore, if the image processing is performed for a certain number of generations and the evaluation value does not decrease, it can be determined that the image has not evolved.

なお、評価値計算部21からこの終了判定の機能を分離して、本実施形態の画像処理装置1において終了判定を行うための終了判定部を備えてもよい。 Note that the end determination function may be separated from the evaluation value calculation unit 21 and an end determination unit for performing end determination may be provided in the image processing apparatus 1 of the present embodiment.

遺伝子操作部23は、評価結果記憶部22における個体情報の順位付け情報にもとづいて、個体情報の選択又は変更を行って、個体群記憶部12を更新する。
具体的には、遺伝子操作部23は、評価値が高い個体情報を次世代に残すエリート個体保存部と、評価値にもとづいて、一定の確率で個体情報を次世代に残す個体選択部と、2つの個体情報の一部を相互に交換する交叉部と、選択された1つの個体情報の一部又は全部をランダムに書き換える突然変異部とを有するものとすることができる。
The gene manipulation unit 23 selects or changes individual information based on the ranking information of the individual information in the evaluation result storage unit 22 and updates the population storage unit 12 .
Specifically, the gene manipulation unit 23 includes an elite individual storage unit that leaves individual information with a high evaluation value to the next generation, an individual selection unit that leaves individual information to the next generation with a certain probability based on the evaluation value, It can have a crossover part that mutually exchanges a part of two pieces of individual information, and a mutation part that randomly rewrites part or all of the selected piece of individual information.

エリート個体保存部は、各世代の個体群において、一番評価値の良い個体情報などを、無条件で次世代に残す処理を行うことができる。
個体選択部は、各世代の個体群において、評価値の順位の高い個体情報を高い確率で選択して、次世代に残す処理を行うことができる。
The elite individual storage unit can unconditionally leave the individual information with the best evaluation value in the population of each generation to the next generation.
The individual selection unit can perform a process of selecting individual information with a high ranking of evaluation values in a group of individuals in each generation with a high probability, and leaving the information to the next generation.

交叉部は、交叉処理として、複数の個体情報の各ノードの配列における同一(ノード番号)の並びについて、ある確率で入れ替える1様交叉を行うことができる。また、交叉部は、交叉処理として、各ノードの配列における同一の並びの1点を境として、一方の配列を相互に入れ替える1点交叉や、同一の並びの複数点を境として配列を相互に入れ替える複数点交叉を行うこともできる。交叉部は、このような交叉処理を、個体選択部により選択された個体情報に対して行うことができる。 As crossover processing, the crossover unit can perform one-way crossover in which the same (node number) sequence in the array of each node of a plurality of pieces of individual information is replaced with a certain probability. In addition, the crossover section performs crossover processing such as one-point crossover in which one array is exchanged with one point of the same arrangement in the array of each node as a boundary, or an array is mutually exchanged with a plurality of points in the same arrangement as a boundary. It is also possible to perform multi-point crossovers with permutations. The crossover section can perform such crossover processing on the individual information selected by the individual selection section.

突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、個体情報ごとに一定の確率でその個体情報の一部を書き換えたり、その個体情報の全てを書き換えることができる。突然変異部は、このような突然変異処理を、個体選択部により選択された個体情報に対して行うことができる。また、突然変異部は、突然変異処理として、機能単位記憶部10に記憶されているノードを用いて、新しい個体情報を生成することもできる。 As mutation processing, the mutation unit rewrites part of the individual information or rewrites all of the individual information with a certain probability for each individual information using the nodes stored in the functional unit storage unit 10. be able to. The mutation section can perform such mutation processing on the individual information selected by the individual selection section. In addition, the mutating section can also generate new individual information using the nodes stored in the functional unit storage section 10 as mutation processing.

なお、同じ個体情報にもとづいて生成された同系列個体が増えると、多様性が失われて進化が袋小路(数学的に局所解に陥った状態)に入ってしまう。一方、同系列以外の個体を増やしすぎると、ランダム探索に近づき、効率的な進化が行われない。
そこで、学習初期では多様性を持たせるために、同系列以外の個体を増やすように突然変異部による処理を行い、学習中期では効率的な進化を実施するために、個体選択部により同系列を増やすことが好ましい。また、進化が止まった場合には、再度多様性を持たせるために突然変異部により同系列以外を増やすことなどを好適に行うことができる。
If the number of same-line individuals generated based on the same individual information increases, diversity will be lost and evolution will enter a dead end (a state of mathematically falling into a local optimum). On the other hand, if the number of individuals other than the same lineage is increased too much, it becomes closer to random search and efficient evolution does not occur.
Therefore, in the early stage of learning, the mutation unit processes to increase the number of individuals other than the same lineage in order to provide diversity. preferably increased. Moreover, when evolution has stopped, it is possible to preferably increase non-same lineages by means of a mutation site in order to restore diversity.

そして、遺伝子操作部23は、新たな世代の個体群を生成して、個体群記憶部12に記憶させる。このとき、遺伝子操作部23は、前の世代の個体群を上書きすることにより、個体群記憶部12を更新することができる。また、複数世代の個体群を世代ごとに記憶させることにより、個体群記憶部12を更新することもできる。 Then, the gene manipulation unit 23 generates a new generation population and stores it in the population storage unit 12 . At this time, the gene manipulation unit 23 can update the population storage unit 12 by overwriting the population of the previous generation. In addition, the population storage unit 12 can be updated by storing populations of multiple generations for each generation.

本実施形態の画像処理システムにおいて、検査対象画像入力部13が検査用の画像を入力し、最も評価値の高い個体情報及び良品画像にもとづき画像処理部19によって検査用の画像を処理して得られた処理結果情報を記憶する処理結果記憶部(図示しない)を備えた構成とすることも好ましい。
処理結果情報としては、例えば、検出対象要素の画像、個数を示す数値、検出対象として認識された位置、検出対象要素の範囲外において検出対象として認識された数等を用いることができる。
In the image processing system of this embodiment, the inspection image input unit 13 inputs an inspection image, and the image processing unit 19 processes the inspection image based on the individual information with the highest evaluation value and the non-defective product image. It is also preferable to have a configuration including a processing result storage unit (not shown) for storing the obtained processing result information.
As the processing result information, for example, an image of the detection target element, a numerical value indicating the number, the position recognized as the detection target, the number recognized as the detection target outside the range of the detection target element, and the like can be used.

また、このような構成において、検査対象画像入力部13が、検査対象物を撮影して得られた画像をリアルタイムで検査用の画像として入力すると共に、良品画像入力部15が、検査対象物と同一種類の他の検査対象物を撮影して得られた画像をリアルタイムで良品画像として入力する構成とすることも好ましい。
検査対象物と同一種類の他の検査対象物としては、例えばラインに流れる検査対象物の前後の製品などを用いることができる。
In such a configuration, the inspection object image input unit 13 inputs an image obtained by photographing the inspection object as an image for inspection in real time, and the non-defective product image input unit 15 inputs the image of the inspection object. It is also preferable to adopt a configuration in which an image obtained by photographing another inspection object of the same type is input in real time as a non-defective product image.
As other inspection objects of the same type as the inspection object, for example, products before and after the inspection object flowing through the line can be used.

本実施形態をこのような構成にすれば、製品の検査時において、ラインに流れる検査対象物の前後の製品を良品画像として用いることができ、画像処理システムにおいて周辺視を好適に再現することが可能である。 With this configuration of the present embodiment, when inspecting a product, it is possible to use the products before and after the inspection object flowing on the line as non-defective product images, and the image processing system can preferably reproduce peripheral vision. It is possible.

次に、本実施形態の画像処理システムによる処理手順について、図2及び図3を参照して説明する。
まず、画像処理装置1における検査対象画像入力部13が、検査対象画像を入力して検査対象画像記憶部14に記憶させる(ステップ10)。また、良品画像入力部15が、良品画像を入力して、良品画像記憶部16に記憶させる(ステップ11)。さらに、教師情報入力部17が、教師情報としての検出対象要素の画像を入力して、教師情報記憶部18に記憶させる(ステップ12)。そして、個体生成部11によって、初期個体群が生成され、個体群記憶部12に記憶される(ステップ13)。なお、これらのステップの順番は入れ替えてもよい。
Next, a processing procedure by the image processing system of this embodiment will be described with reference to FIGS. 2 and 3. FIG.
First, the inspection target image input unit 13 in the image processing apparatus 1 inputs an inspection target image and stores it in the inspection target image storage unit 14 (step 10). Also, the non-defective product image input unit 15 inputs a non-defective product image and stores it in the non-defective product image storage unit 16 (step 11). Further, the teacher information input unit 17 inputs an image of the element to be detected as teacher information and stores it in the teacher information storage unit 18 (step 12). Then, an initial population of individuals is generated by the individual generation unit 11 and stored in the population storage unit 12 (step 13). Note that the order of these steps may be changed.

このとき、個体生成部11は、機能単位記憶部10からノードをランダムに選択して配列することにより個体情報を生成して、個体情報の識別情報ごとに個体群記憶部12に記憶させることができる。また、個体生成部11は、複数の個体情報からなる個体群を一つの世代として、世代番号ごとに複数の世代の個体群を個体群記憶部12に記憶させることもできる。 At this time, the individual generation unit 11 can generate individual information by randomly selecting and arranging nodes from the functional unit storage unit 10, and store the individual information in the individual group storage unit 12 for each identification information of the individual information. can. Furthermore, the individual generation unit 11 can also store a group of individuals consisting of a plurality of pieces of individual information as one generation, and store groups of individuals in a plurality of generations for each generation number in the group storage unit 12 .

次に、画像処理部19は、個体群記憶部12における個体群の世代ごとに、個体群における全ての個体情報について画像処理を実行する(ステップ14、15、16)。
このとき、画像処理部19は、個体情報ごとに出力情報として、検査対象画像における検出対象要素の画像を出力して、出力情報記憶部20に記憶させる。
Next, the image processing unit 19 performs image processing on all individual information in the individual group for each generation of the individual group in the individual group storage unit 12 (steps 14, 15 and 16).
At this time, the image processing unit 19 outputs the image of the detection target element in the inspection target image as output information for each piece of individual information, and stores the image in the output information storage unit 20 .

次に、評価値計算部21は、個体情報ごとに、出力情報と教師情報を比較して、評価値を計算する(ステップ17)。
このとき、評価値計算部21による評価値の計算において、例えば最小二乗法を用いて、評価値として平均二乗誤差を算出することができる。
また、評価値計算部21は、得られた評価値を評価結果記憶部22に個体情報ごとに記憶させる。
そして、当該世代の全ての個体情報について、画像の処理から評価値の計算及び記憶までの処理を繰り返し実行する。
Next, the evaluation value calculator 21 compares the output information and the teacher information for each piece of individual information to calculate an evaluation value (step 17).
At this time, in the calculation of the evaluation value by the evaluation value calculation unit 21, for example, the least squares method can be used to calculate the mean square error as the evaluation value.
In addition, the evaluation value calculation unit 21 stores the obtained evaluation values in the evaluation result storage unit 22 for each piece of individual information.
Then, the processing from image processing to evaluation value calculation and storage is repeatedly executed for all pieces of individual information of the generation.

次に、評価値計算部21は、評価結果記憶部22に記憶されている評価値にもとづいて、個体情報の順位付けを行う(ステップ18)。
また、評価値計算部21は、終了条件が満たされているか否かの判定処理を行う(ステップ19)。終了条件が満たされている場合、画像処理装置1による処理を終了する。
Next, the evaluation value calculation unit 21 ranks the individual information based on the evaluation values stored in the evaluation result storage unit 22 (step 18).
Also, the evaluation value calculation unit 21 performs determination processing as to whether or not the termination condition is satisfied (step 19). If the termination condition is satisfied, the processing by the image processing apparatus 1 is terminated.

終了条件が満たされていない場合、遺伝子操作部23は、遺伝子操作処理を実行する(ステップ20)。
具体的には、図3に示すように、遺伝子操作部23におけるエリート個体保存部は、最も評価値の高い個体情報を次世代の個体群の個体情報として選択する(ステップ30)。
また、遺伝子操作部23における個体選択部は、評価値の順位の高い個体情報ほど高い確率で次世代の個体群の個体情報として選択する(ステップ31)。
If the termination condition is not satisfied, the gene manipulation unit 23 executes the gene manipulation process (step 20).
Specifically, as shown in FIG. 3, the elite individual storage unit in the gene manipulation unit 23 selects the individual information with the highest evaluation value as the individual information of the next-generation population (step 30).
Further, the individual selecting unit in the gene manipulation unit 23 selects the individual information having the higher rank of the evaluation value as the individual information of the population of the next generation with a higher probability (step 31).

さらに、遺伝子操作部23における交叉部は、個体選択部により選択された個体情報に対して、交叉処理を実行して、新たな個体情報を生成する(ステップ32)。
また、遺伝子操作部23における突然変異部は、個体選択部により選択された個体情報にもとづいて、またはこれらの個体情報を用いることなく、突然変異処理を行い、新たな個体情報を生成する(ステップ33)。
なお、エリート個体保存部、個体選択部、交叉部、突然変異部による各処理の順序を、各処理を実行可能な順序の範囲で入れ替えて実行してもよい。
Further, the crossover unit in the gene manipulation unit 23 performs crossover processing on the individual information selected by the individual selection unit to generate new individual information (step 32).
Further, the mutation section in the gene manipulation section 23 performs mutation processing based on the individual information selected by the individual selection section or without using such individual information to generate new individual information (step 33).
The order of each processing by the elite individual storage unit, individual selection unit, crossover unit, and mutation unit may be changed within the range of the order in which each processing can be executed.

このような本実施形態の画像処理装置によれば、外観検査の画像処理技術において、検査対象物の画像だけではなく、良品画像を併せて入力画像として画像処理を行い、得られた出力情報を教師情報と比較することにより画像処理に周辺視を適用し、進化的計算によって画像処理を最適化することができる。
また、進化的計算において、遺伝的ネットワークプログラミング(GNP)の手法を採用することにより、最適化の自由度を向上させることが可能になっている。
According to the image processing apparatus of the present embodiment, in the image processing technique for appearance inspection, not only the image of the inspection object but also the non-defective product image is processed as an input image, and the obtained output information is processed. Peripheral vision can be applied to image processing by comparison with teacher information, and image processing can be optimized by evolutionary computation.
In addition, in evolutionary computation, it is possible to improve the degree of freedom of optimization by adopting the method of genetic network programming (GNP).

[第二実施形態]
次に、本発明の第二実施形態に係る画像処理システムについて説明する。本実施形態の画像処理システムは、教師情報として、検査対象画像における検出対象要素の個数を示す数値を用いる点で、第一実施形態と相違する。その他の点は、第一実施形態と同様である。
[Second embodiment]
Next, an image processing system according to a second embodiment of the invention will be described. The image processing system of this embodiment differs from that of the first embodiment in that a numerical value indicating the number of detection target elements in an inspection target image is used as teacher information. Other points are the same as in the first embodiment.

すなわち、本実施形態の画像処理システムに相当する画像処理装置1aは、図示しないが、機能単位記憶部10a、個体生成部11a、個体群記憶部12a、検査対象画像入力部13a、検査対象画像記憶部14a、良品画像入力部15a、良品画像記憶部16a、教師情報入力部17a、教師情報記憶部18a、画像処理部19a、出力情報記憶部20a、評価値計算部21a、評価結果記憶部22a、及び遺伝子操作部23aを備えており、これらは以下の点を除いて、第一実施形態において対応する各構成と同様の機能を備えている。 That is, although not shown, the image processing apparatus 1a corresponding to the image processing system of this embodiment includes a functional unit storage unit 10a, an individual generation unit 11a, an individual group storage unit 12a, an inspection target image input unit 13a, and an inspection target image storage unit. unit 14a, non-defective product image input unit 15a, non-defective product image storage unit 16a, teacher information input unit 17a, teacher information storage unit 18a, image processing unit 19a, output information storage unit 20a, evaluation value calculation unit 21a, evaluation result storage unit 22a, and a gene manipulation unit 23a, which have the same functions as the corresponding components in the first embodiment except for the following points.

本実施形態の画像処理装置1aにおいて、教師情報入力部17aは、画像識別情報に対応させて、出力情報を評価するための教師情報として、当該画像識別情報に対応する検査対象画像における検出対象要素の個数を示す数値を入力し、当該画像識別情報ごとに教師情報記憶部18aに記憶させる。 In the image processing apparatus 1a of the present embodiment, the teacher information input unit 17a inputs the detection target element in the inspection target image corresponding to the image identification information as teacher information for evaluating the output information in association with the image identification information. is input, and stored in the teacher information storage unit 18a for each image identification information.

また、画像処理部19aは、検査対象画像記憶部14aから検査対象画像を入力すると共に、良品画像記憶部16aから良品画像を入力する。そして、個体群記憶部12aから個体情報を入力し、その個体情報にもとづき当該個体情報に含まれる複数のノードを順次実行することによって、検査対象画像に対して画像処理を行う。 In addition, the image processing unit 19a receives the inspection target image from the inspection target image storage unit 14a and inputs the non-defective product image from the non-defective product image storage unit 16a. Then, individual information is input from the individual group storage unit 12a, and image processing is performed on the image to be inspected by sequentially executing a plurality of nodes included in the individual information based on the individual information.

本実施形態において、画像処理部19aは、検査対象画像における検出対象要素の個数を示す数値を出力情報として生成する。そして、この出力情報を当該画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに出力情報記憶部20aに記憶させることができる。
このように、本実施形態における画像処理部19aによって得られる出力情報は、検査対象画像における検出対象要素の個数を示す数値として生成される。
In this embodiment, the image processing unit 19a generates, as output information, a numerical value indicating the number of detection target elements in the inspection target image. Then, this output information can be stored in the output information storage unit 20a for each image identification information of the image and for each identification information of individual information.
Thus, the output information obtained by the image processing unit 19a in this embodiment is generated as a numerical value indicating the number of detection target elements in the inspection target image.

評価値計算部21aは、出力情報記憶部20aから出力情報を入力すると共に、教師情報記憶部18aからその出力情報に対応する画像識別情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を当該検査対象画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに評価結果記憶部22aに記憶させることができる。
The evaluation value calculation unit 21a receives the output information from the output information storage unit 20a, and also receives the teacher information corresponding to the image identification information corresponding to the output information from the teacher information storage unit 18a.
Then, the output information and the teacher information are compared to calculate an evaluation value, and the obtained evaluation value is stored in the evaluation result storage unit 22a for each image identification information of the inspection target image and for each individual information identification information. be able to.

ここで、教師情報を画像にする場合、最小二乗法による評価では、検出対象要素の大きさに評価値が影響を強く受けるため、小さい検出対象要素がない場合よりも、大きい検出対象要素の形状が異なる方が、評価値が悪化し易くなる。
例えば、ある画像において三角形を検出対象要素とした場合に、サイズが10ピクセルの三角形が検出されなかったとする。
このとき、同じ画像におけるより大きい三角形の出力が教師画像のものよりも一回り小さくなったとすると、その差が10ピクセル以上であれば、10ピクセルの三角形が無いことより評価値が悪化することになる。このため、機械学習では小さい三角より大きい三角を教師画像に近づけた方が評価値が良くなる傾向になり、小さい三角形より大きい三角形を一致させるように進化が進み、局所解に陥り易い状態になる。これに対して、本実施形態では検出対象要素の大きさに拘わらず、未検出の誤差が同一になるため、局所解に陥り難くなっている。
Here, when the teacher information is an image, in the evaluation by the least squares method, the evaluation value is strongly affected by the size of the detection target element. is different, the evaluation value tends to deteriorate.
For example, assume that a triangle with a size of 10 pixels is not detected when a triangle is a detection target element in an image.
At this time, if the output of a larger triangle in the same image is slightly smaller than that of the teacher image, if the difference is 10 pixels or more, the evaluation value will deteriorate due to the absence of a 10-pixel triangle. Become. For this reason, in machine learning, the evaluation value tends to improve when triangles that are larger than small triangles are brought closer to the teacher image. . On the other hand, in this embodiment, the undetected error is the same regardless of the size of the detection target element, so that it is difficult to fall into local minima.

このような本実施形態の画像処理システムによれば、画像処理に周辺視を適用することができることに加えて、検査対象画像に画像処理を行って検出対象要素の個数を示す出力情報を作成し、その出力情報を教師情報としての数値と比較することができる。このため、検出対象要素のサイズに拘わらず評価値を同一とすることができ、検出対象要素領域の割合により評価値が悪化する問題を解消することが可能である。 According to the image processing system of this embodiment, in addition to being able to apply peripheral vision to image processing, image processing is performed on an inspection target image to create output information indicating the number of detection target elements. , the output information can be compared with numerical values as teacher information. Therefore, the same evaluation value can be obtained regardless of the size of the detection target element, and the problem that the evaluation value deteriorates depending on the ratio of the detection target element region can be solved.

[第三実施形態]
次に、本発明の第三実施形態に係る画像処理システムについて説明する。本実施形態の画像処理システムは、教師情報として、検査対象画像における検出対象要素の位置情報を用いる点で、第一実施形態と相違する。その他の点は、第一実施形態と同様である。
[Third Embodiment]
Next, an image processing system according to a third embodiment of the invention will be described. The image processing system of this embodiment differs from that of the first embodiment in that the position information of the detection target element in the inspection target image is used as the teacher information. Other points are the same as in the first embodiment.

すなわち、本実施形態の画像処理システムに相当する画像処理装置1bは、図示しないが、機能単位記憶部10b、個体生成部11b、個体群記憶部12b、検査対象画像入力部13b、検査対象画像記憶部14b、良品画像入力部15b、良品画像記憶部16b、教師情報入力部17b、教師情報記憶部18b、画像処理部19b、出力情報記憶部20b、評価値計算部21b、評価結果記憶部22b、及び遺伝子操作部23bを備えており、これらは以下の点を除いて、第一実施形態において対応する各構成と同様の機能を備えている。 That is, although not shown, the image processing apparatus 1b corresponding to the image processing system of this embodiment includes a functional unit storage unit 10b, an individual generation unit 11b, an individual group storage unit 12b, an inspection target image input unit 13b, and an inspection target image storage unit. unit 14b, non-defective product image input unit 15b, non-defective product image storage unit 16b, teacher information input unit 17b, teacher information storage unit 18b, image processing unit 19b, output information storage unit 20b, evaluation value calculation unit 21b, evaluation result storage unit 22b, and a gene manipulation unit 23b, which have the same functions as the corresponding components in the first embodiment except for the following points.

本実施形態の画像処理装置1bにおいて、教師情報入力部17bは、画像識別情報に対応させて、出力情報を評価するための教師情報として、当該画像識別情報に対応する検査対象画像における検出対象要素の位置情報を入力し、当該画像識別情報ごとに教師情報記憶部18bに記憶させる。
この位置情報としては、検出対象要素の範囲(検出対象要素が画像内に占めている領域を表す座標)、又は検出対象要素の重心を用いることが好ましい。
検出対象要素の重心としては、検出対象要素自身の重心のほか、検出対象要素の外接矩形の重心や、検出対象要素の内接円の重心などを用いてもよい。
In the image processing apparatus 1b of the present embodiment, the teacher information input unit 17b inputs the detection target element in the inspection target image corresponding to the image identification information as teacher information for evaluating the output information in association with the image identification information. , and stored in the teacher information storage unit 18b for each image identification information.
As this position information, it is preferable to use the range of the detection target element (coordinates representing the area occupied by the detection target element in the image) or the center of gravity of the detection target element.
As the center of gravity of the detection target element, the center of gravity of the detection target element itself, the center of gravity of the circumscribed rectangle of the detection target element, the center of gravity of the inscribed circle of the detection target element, or the like may be used.

また、画像処理部19bは、検査対象画像記憶部14bから検査対象画像を入力すると共に、良品画像記憶部16bから良品画像を入力する。そして、個体群記憶部12bから個体情報を入力し、その個体情報にもとづき当該個体情報に含まれる複数のノードを順次実行することによって、検査対象画像に対して画像処理を行う。 Further, the image processing unit 19b receives the inspection target image from the inspection target image storage unit 14b and also inputs the non-defective product image from the non-defective product image storage unit 16b. Then, individual information is input from the individual group storage unit 12b, and image processing is performed on the image to be inspected by sequentially executing a plurality of nodes included in the individual information based on the individual information.

本実施形態において、画像処理部19bは、検査対象画像における検出対象要素の範囲や重心などの位置情報を出力情報として生成する。そして、この出力情報を当該検査対象画像の画像識別情報ごとで、かつ個体情報の識別情報ごとに出力情報記憶部20bに記憶させることができる。
このように、本実施形態における画像処理部19bによって得られる出力情報は、検査対象画像における検出対象要素の位置情報として生成される。
In this embodiment, the image processing unit 19b generates position information such as the range and the center of gravity of the detection target element in the inspection target image as output information. Then, this output information can be stored in the output information storage unit 20b for each image identification information of the image to be inspected and for each identification information of individual information.
Thus, the output information obtained by the image processing unit 19b in this embodiment is generated as the position information of the detection target element in the inspection target image.

本実施形態において、出力情報の検出対象要素の位置情報は、教師情報と同様に、検出対象要素の範囲、又は検出対象要素の重心を用いることが好ましいが、教師情報と出力情報の位置情報の種類は同一である必要はなく、例えば教師情報に範囲を用い、出力情報に重心を用いるというように、異なる種類の位置情報を用いてもよい。 In this embodiment, it is preferable to use the range of the detection target element or the center of gravity of the detection target element for the position information of the detection target element of the output information, as with the teacher information. The types do not need to be the same, and different types of position information may be used, for example, using the range as teacher information and using the center of gravity as output information.

なお、本実施形態でも、教師情報を検出対象要素の画像にする場合に比べて、検出対象要素の大きさに拘わらず、未検出の誤差が同一になるため、局所解に陥り難くなっている。 In this embodiment as well, compared to the case where the image of the detection target element is used as the teacher information, the undetected error is the same regardless of the size of the detection target element, so it is less likely to fall into a local solution. .

本実施形態では、画像における検出対象要素の位置情報にもとづいて、評価値を例えば以下の基準で算出することができる。

Figure 0007247578000001
In this embodiment, the evaluation value can be calculated based on the following criteria, for example, based on the position information of the detection target element in the image.
Figure 0007247578000001

ここで、nはサンプル数であり、画像数である。検出対象要素の位置情報から得られるスコアであるScoreAは、出力情報における検出対象要素の位置情報である重心が、教師情報における当該検出対象要素の範囲内に存在していない検出対象要素(重心が、教師情報における当該検出対象要素の範囲外に存在する検出対象要素)の数に対する平均二乗誤差である。また、ScoreBは、出力情報における検出対象要素の位置情報である重心が、教師情報における検出対象要素の範囲内に存在していない検出対象要素がある場合の、当該教師情報の数に対する平均二乗誤差である。また、wは重み付け情報であり、ScoreBの重要度を変更可能にするものである。 where n is the number of samples and the number of images. ScoreA, which is the score obtained from the position information of the detection target element, is a detection target element whose center of gravity, which is the position information of the detection target element in the output information, does not exist within the range of the detection target element in the teacher information. , is the mean square error with respect to the number of detection target elements existing outside the range of the detection target element in the teacher information. In addition, ScoreB is the mean square error for the number of relevant teacher information when there is a target element whose center of gravity, which is the position information of the target element in the output information, does not exist within the range of the target element in the teacher information. is. Also, w is weighting information, which makes it possible to change the importance of ScoreB.

例えば、ある画像に対応する教師画像において、検出対象要素1の位置情報(教師範囲1)と検出対象要素2の位置情報(教師範囲2)が存在したとする。また、この画像に対して画像処理部19bによる画像処理で2値化及びラベリングが行われた結果、検出対象要素が2つ見つかり、それぞれの重心を示す検出対象要素の位置情報(1)と検出対象要素の位置情報(2)を含む出力情報が得られたとする。 For example, in a teacher image corresponding to a certain image, it is assumed that position information of detection target element 1 (teaching range 1) and position information of detection target element 2 (teaching range 2) exist. As a result of binarization and labeling of this image by image processing by the image processing unit 19b, two detection target elements are found. Assume that the output information including the position information (2) of the target element is obtained.

そして、検出対象要素の位置情報(1)が教師範囲1内に存在し、検出対象要素の位置情報(2)が教師範囲2外に存在しており、教師範囲2内には重心が存在していなかったとする。
この場合、仮にw=5とすると、検出対象要素の位置情報(1)についての評価値は0であり、検出対象要素の位置情報(2)についての評価値は(0-1)+5×(1-0)=6となり、この出力画像及び個体情報についての評価値は6と算出される。
The position information (1) of the detection target element exists within the teacher range 1, the position information (2) of the detection target element exists outside the teacher range 2, and the center of gravity exists within the teacher range 2. Suppose it was not.
In this case, if w=5, the evaluation value for position information (1) of the detection target element is 0, and the evaluation value for position information (2) of the detection target element is (0−1) 2 +5× (1−0) 2 =6, and an evaluation value of 6 is calculated for this output image and individual information.

なお、上記のScoreAとScoreBを画像処理部19bにより算出させて、これらを出力情報記憶部20bに記憶させ、評価値計算部21bがこれらを用いて評価値を計算する構成とすることもできる。
また、画像における検出対象要素の範囲や重心などの位置情報を取得する機能を評価値計算部21bに行わせることもできる。すなわち、画像処理部19bにより画像処理された後の画像にもとづいて、評価値計算部21bが位置情報を取得し、これにもとづき評価値を計算する構成とすることも可能である。
Note that the above ScoreA and ScoreB may be calculated by the image processing unit 19b, stored in the output information storage unit 20b, and the evaluation value calculation unit 21b may use them to calculate the evaluation value.
Also, the evaluation value calculation unit 21b can be made to perform the function of acquiring the position information such as the range and the center of gravity of the detection target element in the image. That is, the evaluation value calculation unit 21b may acquire position information based on the image after image processing by the image processing unit 19b, and may calculate the evaluation value based on this.

このような本実施形態の画像処理システムによれば、画像処理に周辺視を適用することができることに加えて、検査対象画像に画像処理を行って検出対象要素の位置情報を示す出力情報を作成し、その出力情報を教師情報である位置情報と比較することができる。このため、検出対象要素のサイズに拘わらず評価値を同一とすることができ、検出対象要素領域の割合により評価値が悪化する問題を解消することが可能である。 According to such an image processing system of the present embodiment, in addition to being able to apply peripheral vision to image processing, image processing is performed on an image to be inspected to create output information indicating position information of elements to be detected. Then, the output information can be compared with position information, which is teacher information. Therefore, the same evaluation value can be obtained regardless of the size of the detection target element, and the problem that the evaluation value deteriorates depending on the ratio of the detection target element region can be solved.

[第四実施形態]
次に、本発明の第四実施形態に係る画像処理システムについて、図4及び図5を参照して説明する。図4は、本実施形態の画像処理システムに対応する画像処理装置の構成を示すブロック図であり、図5は、同画像処理システムによる処理手順を示すフローチャートである。
[Fourth embodiment]
Next, an image processing system according to a fourth embodiment of the invention will be described with reference to FIGS. 4 and 5. FIG. FIG. 4 is a block diagram showing the configuration of an image processing apparatus corresponding to the image processing system of this embodiment, and FIG. 5 is a flow chart showing the processing procedure of the image processing system.

本実施形態の画像処理システムに相当する画像処理装置1cは、図4に示すように、機能単位記憶部10c、個体生成部11c、個体群記憶部12c、検査対象画像入力部13c、検査対象画像記憶部14c、良品画像入力部15c、良品画像記憶部16c、教師情報入力部17c、教師情報記憶部18c、画像処理部19c、出力情報記憶部20c、評価値計算部21c、評価結果記憶部22c、及び遺伝子操作部23cを備えている。また、個体群記憶部12cは、親個体群記憶部121cと子個体群記憶部122cを備えている。 As shown in FIG. 4, the image processing apparatus 1c corresponding to the image processing system of this embodiment includes a functional unit storage unit 10c, an individual generation unit 11c, an individual group storage unit 12c, an inspection target image input unit 13c, and an inspection target image. Storage unit 14c, good product image input unit 15c, good product image storage unit 16c, teacher information input unit 17c, teacher information storage unit 18c, image processing unit 19c, output information storage unit 20c, evaluation value calculation unit 21c, evaluation result storage unit 22c , and a gene manipulation unit 23c. The population storage unit 12c also includes a parent population storage unit 121c and a child population storage unit 122c.

本実施形態の画像処理装置1cにおける機能単位記憶部10c、検査対象画像入力部13c、検査対象画像記憶部14c、良品画像入力部15c、良品画像記憶部16c、教師情報入力部17c、教師情報記憶部18c、出力情報記憶部20c、及び評価結果記憶部22cは、第一実施形態と同様のものとすることができる。また、本実施形態の画像処理装置1cにおけるその他の構成についても、以下に説明する点を除いて、第一実施形態と同様のものとすることができる。 Functional unit storage unit 10c, inspection target image input unit 13c, inspection target image storage unit 14c, non-defective product image input unit 15c, non-defective product image storage unit 16c, teacher information input unit 17c, and teacher information storage in image processing apparatus 1c of this embodiment The unit 18c, the output information storage unit 20c, and the evaluation result storage unit 22c can be the same as those in the first embodiment. Also, other configurations of the image processing apparatus 1c of the present embodiment can be the same as those of the first embodiment except for the points described below.

個体生成部11cは、機能単位記憶部10に記憶されているノードを用いて、複数のノードの配列からなる個体情報を生成する。このとき、個体生成部11cは、第一実施形態と同様に、個体情報において、有閉路を含み得るネットワーク状に複数のノードの実行順序を定義することができる。
また、本実施形態における個体生成部11cは、個体情報として、複数の親個体情報をランダムに生成し、これら親個体情報からなる初期の親個体群を親個体群記憶部121cに記憶させることができる。
The individual generating unit 11c uses the nodes stored in the functional unit storage unit 10 to generate individual information consisting of an array of a plurality of nodes. At this time, as in the first embodiment, the individual generation unit 11c can define the execution order of a plurality of nodes in the individual information in the form of a network that can include a cycle.
Further, the individual generation unit 11c in the present embodiment can randomly generate a plurality of pieces of parent individual information as individual information, and store an initial parent individual group made up of the parent individual information in the parent individual group storage unit 121c. can.

遺伝子操作部23cは、親個体群記憶部121cにおける親個体情報に対して遺伝子操作を実行する。
具体的には、まず、親個体群記憶部121cにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。
The gene manipulation unit 23c executes gene manipulation on the parent individual information in the parent individual group storage unit 121c.
Specifically, first, parent individual information for generating child individual information is randomly selected from the parent individual group in the parent individual group storage unit 121c.

遺伝子操作部23cにおけるエリート個体保存部は、選択された親個体情報と同一の子個体情報からなる子個体群を子個体群記憶部122cに記憶させることができる。
そして、遺伝子操作部23cにおける交叉部は、選択された親個体情報に対して交叉処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122cに記憶させることができる。
また、遺伝子操作部23cにおける突然変異部は、機能単位記憶部10に記憶されているノードを用いて、選択された親個体情報に対して突然変異処理を実行して、一定の確率で親個体情報の一部を書き換えたり、その全てを書き換えることによって得られた子個体情報からなる子個体群を子個体群記憶部122cに記憶させることができる。また、突然変異部は、突然変異処理として、機能単位記憶部10cに記憶されているノードを用いて、新しい個体情報を生成することもできる。
The elite individual storage unit in the gene manipulation unit 23c can store a child population consisting of child individual information identical to the selected parent individual information in the child population storage unit 122c.
Then, the crossover unit in the gene operation unit 23c performs crossover processing on the selected parent individual information, generates a plurality of child individual information, and stores a child population consisting of these child individual information. It can be stored in the unit 122c.
In addition, the mutation unit in the gene manipulation unit 23c uses the nodes stored in the functional unit storage unit 10 to execute mutation processing on the selected parent individual information, and the parent individual with a certain probability. A child population consisting of child individual information obtained by rewriting a part of the information or by rewriting all of the information can be stored in the child population storage unit 122c. Further, the mutating section can also generate new individual information using the nodes stored in the functional unit storage section 10c as mutation processing.

さらに、遺伝子操作部23cは、評価結果記憶部22cにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群からランダムに選択された上記の親個体情報と入れ替えることなどによって、親個体群記憶部121cにおける親個体情報を更新することができる。 Furthermore, based on the ranking information of the child individual information in the evaluation result storage unit 22c, the gene manipulation unit 23c randomly selects the child individual information with the best evaluation value and the child individual information selected with probability from the parent population. It is possible to update the parent individual information in the parent individual group storage unit 121c by replacing it with the above parent individual information selected by the parent individual group storage unit 121c.

検査対象画像入力部13cは、検査対象物が表示された学習用又は検証用の検査対象画像を画像処理装置1cに入力して、画像識別情報ごとに検査対象画像記憶部14cに記憶させる。
良品画像入力部15cは、検査対象物が正しく表示された良品画像を画像処理装置1cに入力して、画像識別情報ごとに良品画像記憶部16cに記憶させる。
教師情報入力部17cは、画像識別情報に対応させて、出力情報を評価するための教師情報として、当該画像識別情報に対応する検査対象画像における検出対象要素の画像を入力し、当該画像識別情報ごとに教師情報記憶部18cに記憶させる。
The inspection target image input unit 13c inputs the inspection target image for learning or verification in which the inspection target is displayed to the image processing device 1c, and stores the inspection target image storage unit 14c for each image identification information.
The non-defective product image input unit 15c inputs the non-defective product image in which the inspection object is correctly displayed to the image processing device 1c, and stores the non-defective product image in the non-defective product image storage unit 16c for each image identification information.
The teacher information input unit 17c inputs the image of the detection target element in the inspection target image corresponding to the image identification information as teacher information for evaluating the output information in association with the image identification information. is stored in the teacher information storage unit 18c every time.

画像処理部19cは、検査対象画像記憶部14cから検出対象要画像を入力すると共に、良品画像記憶部16cから良品画像を入力し、子個体群記憶部122cから子個体情報を入力して、その子個体情報にもとづき当該子個体情報に含まれる複数のノードを順次実行することによって、検査対象画像に対して画像処理を行う。これにより、ノードの実行において良品画像が用いられることによって、検査対象画像に対する画像処理の最適化を、周辺視を模擬したより優れたものにすることが可能になっている。 The image processing unit 19c receives the detection target image from the inspection target image storage unit 14c, the non-defective product image from the non-defective product image storage unit 16c, and the child individual information from the child population storage unit 122c. Image processing is performed on the image to be inspected by sequentially executing a plurality of nodes included in the child individual information based on the individual information. This allows the optimization of the image processing for the image under test to be better than simulated peripheral vision by using the good image in the execution of the node.

そして、画像処理部19cは、検査対象画像における検出対象要素の画像を作成して出力情報を生成し、この出力情報を当該画像の画像識別情報ごとで、かつ子個体情報の識別情報ごとに出力情報記憶部20cに記憶させることができる。 Then, the image processing unit 19c creates an image of the detection target element in the inspection target image, generates output information, and outputs this output information for each image identification information of the image and for each identification information of child individual information. It can be stored in the storage unit 20c.

評価値計算部21cは、出力情報記憶部20cから出力情報を入力すると共に、教師情報記憶部18cからその出力情報に対応する画像識別情報に対応する教師情報を入力する。
そして、出力情報と教師情報を比較して評価値を計算し、得られた評価値を当該画像の画像識別情報ごとで、かつ子個体情報の識別情報ごとに評価結果記憶部22cに記憶させることができる。
The evaluation value calculation unit 21c receives the output information from the output information storage unit 20c, and also receives the teacher information corresponding to the image identification information corresponding to the output information from the teacher information storage unit 18c.
Then, the evaluation value is calculated by comparing the output information and the teacher information, and the obtained evaluation value is stored in the evaluation result storage unit 22c for each image identification information of the image and for each child individual information identification information. can.

また、評価値計算部21cは、個体群記憶部12cにおける子個体群記憶部122cに記憶されている全ての子個体情報(又は1世代分の子個体情報)につき評価値を計算し終えて評価結果記憶部22cに記憶させた場合などに、これらの評価値にもとづき子個体情報を順位付けして、得られた順位付け情報を評価結果記憶部22cに記憶させることができる。
さらに、評価値計算部21cは、画像処理部19cによる画像処理を終了するか否かを判定するための終了判定を行うことができる。
Also, the evaluation value calculation unit 21c finishes calculating the evaluation values for all child individual information (or child individual information for one generation) stored in the child population storage unit 122c in the individual population storage unit 12c, and performs evaluation. When stored in the result storage unit 22c, the child individual information can be ranked based on these evaluation values, and the obtained ranking information can be stored in the evaluation result storage unit 22c.
Furthermore, the evaluation value calculation unit 21c can perform end determination for determining whether or not to end the image processing by the image processing unit 19c.

次に、本実施形態の画像処理システムの処理手順について、図5を参照して説明する。
まず、画像処理装置1cにおける検査対象画像入力部13cが、検査対象画像を入力して、検査対象画像記憶部14cに記憶させる(ステップ40)。また、良品画像入力部15cが、良品画像を入力して、良品画像記憶部16cに記憶させる(ステップ41)さらに、教師情報入力部17cが、教師情報としての検出対象要素の画像を入力して、教師情報記憶部18cに記憶させる(ステップ42)。そして、個体生成部11cによって、初期の親個体群が生成され、親個体群記憶部121cに記憶される(ステップ43)。
Next, the processing procedure of the image processing system of this embodiment will be described with reference to FIG.
First, the inspection target image input unit 13c in the image processing device 1c inputs the inspection target image and stores it in the inspection target image storage unit 14c (step 40). Also, the non-defective product image input unit 15c inputs a non-defective product image and stores it in the non-defective product image storage unit 16c (step 41). , is stored in the teacher information storage unit 18c (step 42). Then, an initial parent population is generated by the individual generation unit 11c and stored in the parent population storage unit 121c (step 43).

このとき、個体生成部11cは、機能単位記憶部10cからノードをランダムに選択して配列することにより親個体情報を生成して、親個体情報の識別情報ごとに個体群記憶部12cにおける親個体群記憶部121cに記憶させることができる。この親個体群記憶部121cにおける親個体群は、後述する親個体群の更新処理によって更新され、設定された世代について以下の処理が繰り返し行われる(ステップ44)。 At this time, the individual generation unit 11c generates parent individual information by randomly selecting and arranging nodes from the functional unit storage unit 10c, and generates parent individual information in the individual group storage unit 12c for each identification information of the parent individual information. It can be stored in the group storage unit 121c. The parent population in the parent population storage unit 121c is updated by a parent population update process, which will be described later, and the following process is repeatedly performed for the set generation (step 44).

遺伝子操作部23cは、親個体群記憶部121cにおける親個体群からランダムに、子個体情報を生成する親個体情報を選択する。(ステップ45)。そして、選択された親個体情報に対して遺伝子操作を実行する(ステップ46)。なお、ステップ45の親個体情報の選択を、ステップ46の遺伝子操作の一部として、実行してもよい。 The gene manipulation unit 23c randomly selects parent individual information for generating child individual information from the parent individual group in the parent individual group storage unit 121c. (Step 45). Then, genetic manipulation is executed for the selected parent individual information (step 46). The selection of parent individual information in step 45 may be executed as part of the genetic manipulation in step 46 .

すなわち、遺伝子操作部23cは、ランダムに選択された親個体情報に対してエリート保存、交叉処理や突然変異処理を実行して、複数の子個体情報を生成し、これら子個体情報からなる子個体群を子個体群記憶部122cに記憶させる。 That is, the gene manipulation unit 23c executes elite storage, crossover processing, and mutation processing on the randomly selected parent individual information, generates a plurality of child individual information, and generates a plurality of child individual information. The group is stored in the child population storage unit 122c.

次に、画像処理部19cは、子個体群記憶部122cにおける全ての子個体情報について画像の処理を実行する(ステップ47、48)。
このとき、画像処理部19cは、子個体情報ごとに出力情報として、検査対象画像における検出対象要素の画像を出力して、出力情報記憶部20cに記憶させる。
Next, the image processing unit 19c executes image processing for all child individual information in the child individual group storage unit 122c (steps 47 and 48).
At this time, the image processing unit 19c outputs the image of the detection target element in the inspection target image as output information for each child individual information, and stores the image in the output information storage unit 20c.

次に、評価値計算部21cは、子個体情報ごとに、出力情報と教師情報を比較して評価値を計算し(ステップ49)、得られた評価値を評価結果記憶部22に子個体情報ごとに記憶させる。
そして、子個体群記憶部122cにおける全ての子個体情報について、画像の処理から評価値の計算及び記憶までの処理を繰り返し実行する。
Next, the evaluation value calculation unit 21c compares the output information and the teacher information for each child individual information to calculate an evaluation value (step 49), and stores the obtained evaluation value in the evaluation result storage unit 22. memorize each.
Then, for all child individual information in the child population storage unit 122c, processing from image processing to evaluation value calculation and storage is repeatedly executed.

次に、評価値計算部21cは、評価結果記憶部22cに記憶されている評価値にもとづいて、子個体情報の順位付けを行う(ステップ50)。
そして、遺伝子操作部23は、評価結果記憶部22cにおける子個体情報の順位付け情報にもとづいて、一番評価値の良い子個体情報及び確率で選択された子個体情報を、親個体群からランダムに選択された上記の親個体情報と入れ替えることにより、個体群記憶部12における親個体群記憶部121cの親個体情報を更新する(ステップ51)。
Next, the evaluation value calculation unit 21c ranks the child individual information based on the evaluation values stored in the evaluation result storage unit 22c (step 50).
Based on the ranking information of the child individual information in the evaluation result storage unit 22c, the gene manipulation unit 23 randomly selects the child individual information with the best evaluation value and the child individual information selected with probability from the parent population. The parent individual information in the parent individual group storage unit 121c in the individual group storage unit 12 is updated by replacing it with the parent individual information selected in (step 51).

また、評価値計算部21cは、終了条件が満たされているか否かの判定処理を行い(ステップ52)、終了条件が満たされている場合、画像処理装置1cによる処理を終了する。 The evaluation value calculation unit 21c also determines whether or not the termination condition is satisfied (step 52), and if the termination condition is satisfied, the processing by the image processing device 1c is terminated.

画像処理装置1cによる処理を終了させる場合、評価値計算部21cは、最終世代における全ての親個体情報につき評価値を計算し、評価値にもとづき個体情報を順位付けして、得られた順位付け情報を評価結果記憶部22cに記憶させることができる。 When the processing by the image processing device 1c is terminated, the evaluation value calculation unit 21c calculates evaluation values for all parent individual information in the final generation, ranks the individual information based on the evaluation values, and ranks the obtained rankings. Information can be stored in the evaluation result storage unit 22c.

このような本実施形態の画像処理装置によれば、親個体群から親を選択して子個体情報を生成する時に遺伝子操作が実行されると共に、子個体情報を親個体群における親個体情報と入れ替えることで、親個体群を更新することができる。これにより、第一実施形態に比較して、進化の多様性をより保った状態で、最適な個体情報を探すことが可能となっている。 According to the image processing apparatus of this embodiment, genetic manipulation is executed when a parent is selected from the parent population and child individual information is generated, and the child individual information is used as the parent individual information in the parent population. By exchanging, the parent population can be updated. As a result, compared to the first embodiment, it is possible to search for optimal individual information while maintaining evolutionary diversity.

また、本発明の第一実施形態に係る画像処理システムに、第二実施形態の構成を組み合わせて、画像処理システムにおいて周辺視の再現を可能にすると共に、教師情報として、検査対象画像における検出対象要素の画像と個数を示す数値を用いる構成とすることも好ましい。
また、本発明の第一実施形態に係る画像処理システムに、第三実施形態の構成を組み合わせて、画像処理システムにおいて周辺視の再現を可能にすると共に、教師情報として、検査対象画像における検出対象要素の画像と位置情報を用いる構成とすることも好ましい。
Further, by combining the configuration of the second embodiment with the image processing system according to the first embodiment of the present invention, it is possible to reproduce the peripheral vision in the image processing system, and the detection target in the inspection target image is used as teacher information. It is also preferable to employ a configuration using an image of the element and a numerical value indicating the number of elements.
In addition, by combining the configuration of the third embodiment with the image processing system according to the first embodiment of the present invention, it is possible to reproduce peripheral vision in the image processing system, and as teacher information, the detection target in the inspection target image It is also preferable to use the image of the element and the positional information.

このような本実施形態の画像処理システムによれば、例えば、検出対象要素として太い線と細い線が混在し、その周囲に細かな点のノイズが存在している場合、教師情報として検出対象要素の画像のみを用いる場合には、細い線が消去されてしまう可能性があるが、教師情報として個数や位置情報を用いる場合、このような影響を受けない。一方、検出対象要素が複雑な形状を有しており、その形状を検出することが重要な場合、教師情報として個数や位置情報を用いる場合は、その形状を検出することができない可能性がある。しかし、教師情報として検出対象要素の画像を用いる場合には、このような影響を受けない。そのため、教師情報として検出対象要素の個数や位置情報と画像を組み合わせて教師情報とすることで、より良い個体情報が得られる可能性を高めることが可能である。 According to such an image processing system of the present embodiment, for example, when a thick line and a thin line are mixed as detection target elements and fine point noise exists around them, the detection target element When using only the image of , there is a possibility that the fine lines are erased, but when using the number and position information as the teacher information, such an effect is not caused. On the other hand, if the detection target element has a complicated shape and it is important to detect the shape, it may not be possible to detect the shape if the number or position information is used as teacher information. . However, when an image of a detection target element is used as teacher information, such an influence does not occur. Therefore, it is possible to increase the possibility of obtaining better individual information by combining the number and position information of detection target elements and an image as teacher information.

また、本発明の第二実施形態に係る画像処理システムに、第三実施形態の構成を組み合わせて、画像処理システムにおいて周辺視の再現を可能にすると共に、教師情報として、検査対象画像における検出対象要素の個数を示す数値と位置情報を用いる構成とすることも好ましい。
このような本実施形態の画像処理装置によれば、例えば、検出対象要素の周囲にノイズなどの非検出対象要素が存在する場合、教師情報として位置情報のみを用いる場合には、検出対象要素と同時に周囲の非検出対象要素も抽出してしまう可能性があるが、教師情報として個数を用いる場合、このような影響を受けない。一方、検出対象要素に細い部分と太い部分が混在する場合、教師情報として個数を用いる場合は、その細い箇所が検出されなかった場合、太い部分が検出され評価値が大きく悪化する。しかし、教師情報として位置情報を用いる場合には、このような影響を受けない。そのため、教師情報として検出対象要素の位置情報と個数を組み合わせて教師情報とすることで、より良い個体情報が得られる可能性を高めることが可能である。
Further, by combining the configuration of the third embodiment with the image processing system according to the second embodiment of the present invention, it is possible to reproduce the peripheral vision in the image processing system, and the detection target in the inspection target image is used as teacher information. It is also preferable to use a numerical value indicating the number of elements and position information.
According to the image processing apparatus of this embodiment, for example, when non-detection target elements such as noise exist around the detection target element, when only position information is used as teacher information, the detection target element and Although there is a possibility that the surrounding non-detection target elements are also extracted at the same time, such an influence does not occur when the number is used as teacher information. On the other hand, when thin portions and thick portions are mixed in the detection target element, and when the number is used as teacher information, if the thin portions are not detected, the thick portions are detected and the evaluation value greatly deteriorates. However, when position information is used as teacher information, there is no such influence. Therefore, it is possible to increase the possibility of obtaining better individual information by combining position information and the number of detection target elements as teacher information.

また、本発明の第一実施形態に係る画像処理システムに、第二実施形態及び第三実施形態の構成を組み合わせて、画像処理システムにおいて周辺視の再現を可能にすると共に、教師情報として、検査対象画像における検出対象要素の画像、個数を示す数値、及び位置情報を用いる構成とすることも好ましい。
このような本実施形態の画像処理装置によれば、例えば、境界線がはっきりとしていない検出対象要素について、教師情報として画像のみを用いる場合、与えた教師情報の画像の境界線は人が決定した物であるため決定した人間による差違が発生し、良質な学習が行えない可能性がある。しかし、教師情報に位置情報や個数を用いた場合、このような影響を受けない。そのため、教師情報として検出対象要素の位置情報と個数と画像を組み合わせて教師情報とすることで、より良い個体情報が得られる可能性を高めることが可能である。
Further, by combining the configurations of the second embodiment and the third embodiment with the image processing system according to the first embodiment of the present invention, it is possible to reproduce peripheral vision in the image processing system, and as teacher information, an examination It is also preferable to use the image of the detection target element in the target image, the numerical value indicating the number, and the position information.
According to such an image processing apparatus of the present embodiment, for example, when only an image is used as teacher information for a detection target element whose border is not clear, the border of the image of the given teacher information is determined by a person. Since it is an object, there is a possibility that a difference will occur due to the decision made by the person, and that high-quality learning will not be possible. However, if the position information or the number is used as the teacher information, such an influence will not occur. Therefore, it is possible to increase the possibility of obtaining better individual information by combining the position information, the number, and the image of the detection target element as teacher information.

さらに、本発明の第四実施形態に係る画像処理システムに、第二実施形態又は第三実施形態の構成を組み合わせて、教師情報を検出対象要素の個数を示す数値又は位置情報に変更して、進化の多様性をより保った状態で、最適な個体情報を探すことを可能にすることも好ましい。 Furthermore, by combining the configuration of the second embodiment or the third embodiment with the image processing system according to the fourth embodiment of the present invention, the teacher information is changed to a numerical value or position information indicating the number of detection target elements, It is also desirable to be able to search for optimal individual information while preserving evolutionary diversity.

(試験1)
以下、本発明の実施形態に係る画像処理システムを用いて、画像から検出対象を検出する画像処理を最適化した試験について、図6~図20を用いて説明する。
実施例1として、本発明の第四実施形態に係る画像処理システムを使用して、検査対象画像内の欠陥を模擬した検出対象要素を検出するアルゴリズムの自動生成(個体情報の最適化)を行った。
また、参考例1として、実施例1の画像処理システムの一部を変更したものを使用した。具体的には、参考例1では良品画像記憶部16cにおける良品画像を画像処理部19cによる画像処理に用いず、検査対象画像のみを用いてアルゴリズムの自動生成を行った。
(Test 1)
A test in which image processing for detecting a detection target from an image is optimized using the image processing system according to the embodiment of the present invention will be described below with reference to FIGS. 6 to 20. FIG.
As Example 1, an image processing system according to the fourth embodiment of the present invention is used to automatically generate an algorithm (optimization of individual information) for detecting detection target elements simulating defects in an image to be inspected. rice field.
As Reference Example 1, the image processing system of Example 1 with a part changed was used. Specifically, in Reference Example 1, the algorithm is automatically generated using only the image to be inspected without using the non-defective product image in the non-defective product image storage unit 16c for image processing by the image processing unit 19c.

機能単位記憶部に記憶させたノードを図6~図12に示す。図6に示すノードは、画像処理(ノイズ除去)を行うものであり、図7に示すノードは、画像処理(輝度補正、組合せ)を行うものであり、図8に示すノードは、画像処理(2値化)を行うものであり、図9に示すノードは、画像処理(エッジ検出)を行うものであり、図10に示すノードは、画像処理(エッジ検出、周波数フィルタ)を行うものであり、図11に示すノードは、画像処理(四則演算、ファジ演算)を行うものであり、図12に示すノードは、検出対象の判定処理を行うものである。 6 to 12 show nodes stored in the functional unit storage unit. The nodes shown in FIG. 6 perform image processing (noise removal), the nodes illustrated in FIG. 7 perform image processing (brightness correction, combination), and the nodes illustrated in FIG. 8 perform image processing ( The nodes shown in FIG. 9 are for image processing (edge detection), and the nodes shown in FIG. 10 are for image processing (edge detection, frequency filtering). , the nodes shown in FIG. 11 perform image processing (four arithmetic operations, fuzzy operations), and the nodes shown in FIG. 12 perform detection target determination processing.

実施例1で設定したノードは、入力ノードが2個、処理ノードが5個、出力ノードが1個の合計8ノードである。参考例1で設定したノードは、入力ノードが1個、処理ノードが5個、出力ノードが1個の合計7ノードである。入力ノードは検査対象画像又は良品画像を入力するものであり、出力ノードは検出対象要素の画像を出力するものである。処理ノードの5個は、個体生成部11cにより機能単位記憶部10cからランダムに選択されるノード数を示す。 The nodes set in the first embodiment are 2 input nodes, 5 processing nodes, and 1 output node, for a total of 8 nodes. The nodes set in Reference Example 1 are a total of 7 nodes, including 1 input node, 5 processing nodes, and 1 output node. An input node is for inputting an image to be inspected or a non-defective product image, and an output node is for outputting an image of an element to be detected. The five processing nodes indicate the number of nodes randomly selected from the functional unit storage section 10c by the individual generation section 11c.

検査対象画像入力部により入力する検査対象物を表示する学習用の画像、及び検証用の画像は、背景を0~255の輝度を1ピクセルごとにランダムに与えた画像(背景画像)に、検出対象要素を記載し、さらにノイズを与えた画像である。
良品画像入力部により入力する検査対象物を正しく表示する良品画像は、上記の背景画像を良品模擬画像として使用した。
なお、実施例1及び参考例1において、これらの画像の入力処理以外の設定は同一である。
The learning image displaying the inspection target input by the inspection target image input unit and the verification image are detected as an image (background image) in which the background is randomly given a luminance of 0 to 255 for each pixel. It is an image in which the target element is described and noise is added.
A non-defective product image correctly displaying the inspection object input by the non-defective product image input unit uses the above background image as a non-defective product simulation image.
In the first embodiment and the first reference example, settings other than the image input processing are the same.

実施例1及び参考例1ともに、学習で使用した入力画像の数は10枚であり、検証で使用した入力画像の枚数は5枚である。 In both Example 1 and Reference Example 1, the number of input images used in learning was ten, and the number of input images used in verification was five.

評価値は、実施例1及び参考例1共に、画像である出力情報と教師情報を用いて、1ピクセルごとの差にもとづき最小二乗法により、平均二乗誤差を計算した。 For both Example 1 and Reference Example 1, the mean square error was calculated by the least squares method based on the difference for each pixel using the output information and the teacher information which are images.

個体生成部により生成させる初期の親個体情報の個数を100個とし、2個の親個体情報をランダムに選択して親個体群からは削除し、これらの親個体情報に対して遺伝子操作を実行して、72個の子個体情報を生成した(親と同一個体:2、一様交叉個体:20、突然変異個体:50)。 The initial number of pieces of parent individual information generated by the individual generation unit is set to 100, two pieces of parent individual information are randomly selected and deleted from the parent individual group, and genetic manipulation is performed on these pieces of parent individual information. As a result, information on 72 offspring individuals was generated (individuals identical to the parent: 2, uniform crossover individuals: 20, mutant individuals: 50).

また、画像処理を行って、子個体情報の評価結果にもとづき評価値が一番よい子個体情報と確率で選択された子個体情報の2個の子個体情報を選択し、これらの子個体情報を親個体情報として親個体群に戻し、以上の処理を設定した世代数分繰り返し実行した。
最大の世代数を10000世代に設定し、進化がストップしたと判定された場合(評価値が0になった場合)、処理を終了した。
Further, image processing is performed to select two pieces of child individual information, the child individual information with the best evaluation value based on the evaluation result of the child individual information and the child individual information selected by the probability, and select these child individual information. was returned to the parent population as parent individual information, and the above processing was repeated for the set number of generations.
When the maximum number of generations was set to 10000 generations and it was determined that evolution had stopped (when the evaluation value became 0), the processing was terminated.

その結果を図13~図20に示す。図13及び図14は、試験1における学習とその結果を示す図であり、図15は、試験1における検証結果を示す図である。また、試験1における検証結果の評価値を表1に示す。

Figure 0007247578000002
The results are shown in FIGS. 13 to 20. FIG. 13 and 14 are diagrams showing learning and its results in Test 1, and FIG. 15 is a diagram showing verification results in Test 1. FIG. Table 1 shows the evaluation values of the verification results in Test 1.
Figure 0007247578000002

また、図16は、試験1における学習の評価値の遷移を表すグラフを示す図である。
さらに、図17は、実施例1の学習によって得られた個体情報の構造を示す図であり、図18は、実施例1の学習によって得られた個体情報で用いられたノードの機能を示す図である。また、図19は、参考例1の学習によって得られた個体情報の構造を示す図であり、図20は、参考例1の学習によって得られた個体情報で用いられたノードの機能を示す図である。なお、個体情報の構造における四角の囲みはノードセットを示し、それぞれが1個の処理ノードである。
FIG. 16 is a diagram showing a graph representing the transition of the learning evaluation value in Test 1. In FIG.
Furthermore, FIG. 17 is a diagram showing the structure of the individual information obtained by the learning of Example 1, and FIG. 18 is a diagram showing the functions of the nodes used in the individual information obtained by the learning of Example 1. is. 19 is a diagram showing the structure of the individual information obtained by the learning of Reference Example 1, and FIG. 20 is a diagram showing the functions of the nodes used in the individual information obtained by the learning of Reference Example 1. is. Note that squares in the individual information structure indicate node sets, each of which is one processing node.

図13~図15において、「出力結果」に示された画像は、評価値が一番良い個体情報によるものが示されている。すなわち、これらの出力情報の出力に用いられた個体情報が、各実施例1及び参考例1において最終的に得られた(最適化された)個体情報である。
なお、図14のNo.9の実施例1及び参考例1における検査対象画像において、検出対象要素が見え難いため、その輪郭を白色で明示することによって示している。これは試験2における図22のNo.9についても同様である。
In FIGS. 13 to 15, the image shown in "output result" is based on the individual information with the best evaluation value. That is, the individual information used to output these output information is the individual information finally obtained (optimized) in each of the first example and the first reference example.
In the image to be inspected in Example 1 and Reference Example 1 of No. 9 in FIG. 14, since the detection target element is difficult to see, the outline thereof is clearly shown in white. This also applies to No. 9 in FIG. 22 in Test 2.

まず、図16を参照して進化の推移を確認すると、最終的に評価値は、実施例1の方が良い結果となった。また、実施例1は5000世代付近で、参考例1は6000世代付近で進化が頭打ちしていることから、実施例1の方が効率的に進化したと推測される。
これは、実施例1では良品画像を模擬した背景画像を入力画像に加えているため、機械学習が使用できる情報量が多くなったことが要因と推測される。
また、実際に、図17を参照すると、実施例1では、早い段階で検査対象画像と背景画像を比較する処理を実施している(同図の2d)。また、実施例1は参考例1と比較して簡単な構造が得られている。これは前述したように背景画像を有効に使用できていることに起因すると推測される。
First, referring to FIG. 16 to confirm the transition of evolution, the final evaluation value of Example 1 was better. In addition, since the evolution peaked out around 5000 generations in Example 1 and around 6000 generations in Reference Example 1, it is presumed that Example 1 evolved more efficiently.
The reason for this is presumed to be that, in Example 1, a background image simulating a non-defective product image is added to the input image, so that the amount of information that can be used by machine learning increases.
Also, actually referring to FIG. 17, in the first embodiment, the process of comparing the inspection target image and the background image is performed at an early stage (2d in the figure). In addition, in Example 1, a simpler structure than in Reference Example 1 is obtained. It is presumed that this is due to the effective use of the background image as described above.

さらに、図15に示す検証結果において、参考例1はサンプルNo.4、5においてノイズに反応している。これに対して、実施例1は総じて参考例1よりも良い評価値が得られている(表1)。したがって、本実施形態の画像処理システムによれば、未知のデータに対しても検出対象要素の検出が可能であることが示唆される。 Furthermore, in the verification results shown in FIG. 15, Samples Nos. 4 and 5 in Reference Example 1 respond to noise. On the other hand, Example 1 generally obtained better evaluation values than Reference Example 1 (Table 1). Therefore, according to the image processing system of this embodiment, it is suggested that detection target elements can be detected even for unknown data.

ここで、一般に、学習で用いた画像に対して性能が良くても、その結果を実場面で使用すること(=未知のデータを学習結果に適用すること)に対して性能が良いかは不明であり、学習結果の性能が良くて、実際に使うと性能が悪い「過学習」と言われる現象がある(言い換えるとロバスト性が無いとも言える)。このため、本試験では、学習で用いない検証用の画像を用意して学習結果を評価することにより、未知データに対する性能評価(交差検証)としている。
本試験によれば、実施例1の方が、参考例1に比較して学習結果と検証結果の差が少ないことから、本実施形態の画像処理システムによれば、未知のデータに対しても検出対象要素の検出が可能であることが示唆されると考えられる。
Here, in general, even if the performance is good for the images used in learning, it is unclear whether the performance is good for using the results in real situations (= applying unknown data to the learning results). , and there is a phenomenon called "overfitting" in which the performance of the learning result is good, but the performance is poor when actually used (in other words, it can be said that there is no robustness). Therefore, in this test, performance evaluation (cross-validation) for unknown data is performed by preparing verification images that are not used in learning and evaluating the learning results.
According to this test, the difference between the learning result and the verification result is smaller in Example 1 than in Reference Example 1. Therefore, according to the image processing system of this embodiment, even for unknown data It is considered that it is suggested that detection of the detection target element is possible.

また、実施例1では検査対象画像と良品画像の差分が採られた結果、得られた個体情報(アルゴリズム)が優れたものになったと考えられる。また、このような差分を採った画像処理は、検査対象物が複数品種存在していたとしても、それらの違いがキャンセルされていると言え、複数品種間を一気に検査することも可能である。
このように、本実施形態の画像処理システムは、適用範囲が広く、また汎用性が高いため、例えば、デザイン違いのガラスや缶の模様、ライン替えなどが生じた場合に、画像処理のアルゴリズムを生成し直すことなく適用することが可能である。
Further, in Example 1, it is considered that the obtained individual information (algorithm) was excellent as a result of taking the difference between the image to be inspected and the non-defective product image. In addition, even if there are multiple types of objects to be inspected, it can be said that the image processing that takes such differences cancels out the differences between them, and it is possible to inspect multiple types at once.
As described above, the image processing system of the present embodiment has a wide range of application and high versatility. It can be applied without regenerating.

(試験2)
次に、本発明の実施形態に係る画像処理システムを用いて、画像から検出対象を検出する画像処理を最適化した実験について、図21~図28を用いて説明する。
実施例2として、本発明の第四実施形態に第二実施形態の構成を組み合わせた画像処理システムを使用して、検査対象画像内の欠陥を模擬した検出対象要素を検出するアルゴリズムの自動生成(個体情報の最適化)を行った。すなわち、試験1では教師情報として、検出対象要素の画像のみを用いたが、本試験では、教師情報として、検出対象要素の画像と個数を示す数値を併せて使用した。
(Test 2)
Next, using the image processing system according to the embodiment of the present invention, an experiment for optimizing image processing for detecting a detection target from an image will be described with reference to FIGS. 21 to 28. FIG.
As Example 2, an image processing system that combines the configuration of the second embodiment with the fourth embodiment of the present invention is used to automatically generate an algorithm for detecting detection target elements simulating defects in an inspection target image ( Optimization of individual information) was performed. That is, in test 1, only the image of the detection target element was used as the teacher information, but in this test, the image of the detection target element and the numerical value indicating the number were used together as the teacher information.

また、参考例2として、実施例2の画像処理システムの一部を変更したものを使用した。具体的には、参考例2では良品画像記憶部16cにおける良品画像を画像処理部19cによる画像処理に用いず、検査対象画像のみを用いてアルゴリズムの自動生成を行った。 As Reference Example 2, the image processing system of Example 2 with a part changed was used. Specifically, in Reference Example 2, the algorithm is automatically generated using only the image to be inspected without using the non-defective product image in the non-defective product image storage unit 16c for the image processing by the image processing unit 19c.

機能単位記憶部に記憶させたノードは、試験1と同様である。
実施例2で設定したノードは、入力ノードが2個、処理ノードが5個、出力ノードが1個の合計8ノードである。参考例2で設定したノードは、入力ノードが1個、処理ノードが5個、出力ノードが1個の合計7ノードである。入力ノードは検査対象画像又は良品画像を入力するものであり、出力ノードは検出対象要素の画像と個数を示す数値を出力するものである。処理ノードの5個は、個体生成部11cにより機能単位記憶部10cからランダムに選択されるノード数を示す。
The nodes stored in the functional unit storage are the same as in Test 1.
The nodes set in the second embodiment are eight nodes in total, including two input nodes, five processing nodes, and one output node. The nodes set in Reference Example 2 are a total of 7 nodes, including 1 input node, 5 processing nodes, and 1 output node. An input node is for inputting an image to be inspected or a non-defective product image, and an output node is for outputting an image and a numerical value indicating the number of elements to be detected. The five processing nodes indicate the number of nodes randomly selected from the functional unit storage section 10c by the individual generation section 11c.

検査対象画像入力部により入力する検査対象物を表示する学習用の画像、及び検証用の画像は、背景を0~255の輝度を1ピクセルごとにランダムに与えた画像(背景画像)に、検出対象要素を記載し、さらにノイズを与えた画像である。
良品画像入力部により入力する検査対象物を正しく表示する良品画像は、上記の背景画像を良品模擬画像として使用した。
なお、実施例2及び参考例2において、これらの画像の入力処理以外の設定は同一である。
The learning image displaying the inspection target input by the inspection target image input unit and the verification image are detected as an image (background image) in which the background is randomly given a luminance of 0 to 255 for each pixel. It is an image in which the target element is described and noise is added.
A non-defective product image correctly displaying the inspection object input by the non-defective product image input unit uses the above background image as a non-defective product simulation image.
In the second embodiment and the second reference example, settings other than the image input processing are the same.

実施例2及び参考例2ともに、学習で使用した入力画像の数は10枚であり、検証で使用した入力画像の枚数は5枚である。 In both Example 2 and Reference Example 2, the number of input images used in learning was 10, and the number of input images used in verification was 5.

評価値は、実施例2及び参考例2共に、出力情報と教師情報を用いて、検出対象要素の画像(1ピクセルごとの差)と個数に対して重み付けを行い、これらを足し合わせた数値を使用した。具体的には、以下の式により算出した。
教師画像との平均二乗誤差×重み1.0+教師個数との平均二乗誤差×重み0.1
In both Example 2 and Reference Example 2, the output information and the teacher information are used to weight the image (difference for each pixel) and the number of elements to be detected, and the sum of these values is obtained. used. Specifically, it was calculated by the following formula.
Mean squared error with teacher image x weight 1.0 + mean squared error with number of teachers x weight 0.1

個体生成部により生成させる初期の親個体情報の個数を100個とし、2個の親個体情報をランダムに選択して親個体群からは削除し、これらの親個体情報に対して遺伝子操作を実行して、72個の子個体情報を生成した(親と同一個体:2、一様交叉個体:20、突然変異個体:50)。 The initial number of pieces of parent individual information generated by the individual generation unit is set to 100, two pieces of parent individual information are randomly selected and deleted from the parent individual group, and genetic manipulation is performed on these pieces of parent individual information. As a result, information on 72 offspring individuals was generated (individuals identical to the parent: 2, uniform crossover individuals: 20, mutant individuals: 50).

また、画像処理を行って、子個体情報の評価結果にもとづき評価値が一番よい子個体情報と確率で選択された子個体情報の2個の子個体情報を選択し、これらの子個体情報を親個体情報として親個体群に戻し、以上の処理を設定した世代数分繰り返し実行した。
最大の世代数を10000世代に設定し、進化がストップしたと判定された場合(評価値が0になった場合)、処理を終了した。
Further, image processing is performed to select two pieces of child individual information, the child individual information with the best evaluation value based on the evaluation result of the child individual information and the child individual information selected by the probability, and select these child individual information. was returned to the parent population as parent individual information, and the above processing was repeated for the set number of generations.
When the maximum number of generations was set to 10000 generations and it was determined that evolution had stopped (when the evaluation value became 0), the processing was terminated.

その結果を図21~図28に示す。図21及び図22は、試験2における学習とその結果を示す図であり、図23は、試験2における検証結果を示す図である。また、試験2における検証結果の評価値を表2に示す。

Figure 0007247578000003
The results are shown in FIGS. 21 to 28. FIG. 21 and 22 are diagrams showing learning and results in test 2, and FIG. 23 is a diagram showing verification results in test 2. FIG. Table 2 shows the evaluation values of the verification results in Test 2.
Figure 0007247578000003

また、図24は、試験2における学習の評価値の遷移を表すグラフを示す図である。
さらに、図25は、実施例2の学習によって得られた個体情報の構造を示す図であり、図26は、実施例2の学習によって得られた個体情報で用いられたノードの機能を示す図である。また、図27は、参考例2の学習によって得られた個体情報の構造を示す図であり、図28は、参考例2の学習によって得られた個体情報で用いられたノードの機能を示す図である。なお、個体情報の構造における四角の囲みはノードセットを示し、それぞれが1個の処理ノードである。
FIG. 24 is a diagram showing a graph representing the transition of learning evaluation values in test 2. In FIG.
Furthermore, FIG. 25 is a diagram showing the structure of individual information obtained by learning in Example 2, and FIG. 26 is a diagram showing the functions of nodes used in the individual information obtained by learning in Example 2. is. 27 is a diagram showing the structure of the individual information obtained by the learning of Reference Example 2, and FIG. 28 is a diagram showing the functions of the nodes used in the individual information obtained by the learning of Reference Example 2. is. Note that squares in the individual information structure indicate node sets, each of which is one processing node.

図21~図23において、「出力結果」に示された画像は、評価値が一番良い個体情報によるものが示されている。すなわち、これらの出力情報の出力に用いられた個体情報が、各実施例2及び参考例2において最終的に得られた(最適化された)個体情報である。 In FIGS. 21 to 23, the image shown in "output result" is based on the individual information with the best evaluation value. That is, the individual information used to output these output information is the individual information finally obtained (optimized) in each of Example 2 and Reference Example 2.

まず、図24を参照して進化の推移を確認すると、最終的に評価値は、実施例2の方が良い結果となった。また、実施例2は500世代付近で、参考例2は3800世代付近で進化が頭打ちしていることから、試験1と同様に、実施例2の方が効率的に進化したと推測される。 First, referring to FIG. 24 to confirm the transition of evolution, the final evaluation value of Example 2 was better. In addition, since the evolution peaked out around 500 generations in Example 2 and around 3800 generations in Reference Example 2, it is presumed that Example 2 evolved more efficiently as in Test 1.

さらに、図23に示す検証結果において、参考例2はサンプルNo.1においてノイズに反応しており、No.5においては一部の特徴点(検出対象要素)を検出できていなかった。これに対して、実施例2は全サンプルにおいて参考例2よりも良い評価値が得られている(表2)。したがって、本実施形態の画像処理システムによれば、未知のデータに対しても検出対象要素の検出が可能であることが示唆される。 Furthermore, in the verification results shown in FIG. 23, in Reference Example 2, sample No. 1 responded to noise, and sample No. 5 failed to detect some feature points (detection target elements). On the other hand, Example 2 obtained better evaluation values than Reference Example 2 in all samples (Table 2). Therefore, according to the image processing system of this embodiment, it is suggested that detection target elements can be detected even for unknown data.

ここで、試験1と試験2を比較すると、試験1では参考例2の学習用の画像No.7、9と検証用の画像のNo.4、5と、実施例2の学習用のNo.7において、出力画像にノイズが除去できておらずに出力されている。
これは、教師情報が検出対象要素の画像だけの場合、そのノイズの箇所を除去すると、検出対象要素の境界付近も併せて除去されてしまい、評価値が悪化するため、ノイズを除去するか、又は検出対象要素の境界付近を残すかというトレードオフの関係が生まれ、その結果として機械学習はノイズを除去するノード構造を生成できなかったと考えられる。
Here, when Test 1 and Test 2 are compared, in Test 1, images Nos. 7 and 9 for learning in Reference Example 2, Nos. 4 and 5 for verification images, and No. 5 for learning in Example 2 are used. In 7, the output image is output without noise being removed.
This is because if the teacher information is only the image of the detection target element, removing the noise part will also remove the vicinity of the detection target element boundary, and the evaluation value will deteriorate. Alternatively, there is a trade-off relationship of whether to leave the vicinity of the boundary of the detection target element, and as a result, it is considered that machine learning could not generate a node structure that removes noise.

これに対し、試験2では、教師情報として検出対象要素の個数を示す数値を補助的に用いたことで、ノイズなどの検出対象要素以外が検出された場合、明確に評価値を悪化させるものの、検出対象要素の境界付近が多少削られても評価値を悪化させることがない。このため、機械学習はノイズを除去するノード構造を生成できたと考えられる。 On the other hand, in Test 2, by using a numerical value indicating the number of detection target elements as teacher information, when elements other than detection target elements such as noise are detected, the evaluation value clearly worsens, but Even if the vicinity of the boundary of the element to be detected is scraped to some extent, the evaluation value is not deteriorated. Therefore, machine learning could generate a node structure that removes noise.

さらに、試験2では、教師情報として検出対象要素の個数を示す数値を補助的に用いたことで、試験1に比べて進化が収束する速度が圧倒的に早くなっている。これは、初期の世代においては、ノイズが多い画像を出力する構造と、検出対象要素の付近を大まかに捉えている構造があると推測される。
教師情報として検出対象要素の画像のみを用い、個数を示す数値を用いない場合、機械学習は両方の構造を追いながら進化している二兎を追っている状態だと推測される一方で、教師情報として検出対象要素の個数を加えることで、ノイズが多い画像の評価値を悪化されるため、探索領域が制限されることにより進化が早く進んだと推測される。
Furthermore, in Test 2, the speed at which the evolution converges is overwhelmingly faster than in Test 1, because numerical values indicating the number of elements to be detected are used as teacher information. It is speculated that the early generation has a structure that outputs an image with a lot of noise and a structure that roughly captures the vicinity of the detection target element.
When only the image of the detection target element is used as teacher information and the number indicating the number is not used, it is presumed that machine learning is chasing two rabbits that are evolving while following both structures. By adding the number of elements to be detected, the evaluation value of an image with a lot of noise deteriorates.

上記実施形態の画像処理システムは、本発明の画像処理プログラムに制御されたコンピュータを用いて実現することができる。画像処理システムにおけるコンピュータのCPUは、画像処理プログラムにもとづいてコンピュータの各構成要素に指令を送り、画像処理システムの動作に必要となる所定の処理、例えば、個体生成処理、画像処理、評価値計算処理、遺伝子操作処理等を行わせる。このように、本発明の画像処理システムにおける各処理、動作は、プログラムとコンピュータとが協働した具体的手段により実現できるものである。 The image processing system of the above embodiments can be realized using a computer controlled by the image processing program of the present invention. The CPU of the computer in the image processing system sends instructions to each component of the computer based on the image processing program, and performs predetermined processing required for the operation of the image processing system, such as individual generation processing, image processing, and evaluation value calculation. Processing, genetic manipulation processing, etc. are performed. As described above, each processing and operation in the image processing system of the present invention can be realized by concrete means in which the program and the computer work together.

プログラムは予めROM,RAM等の記録媒体に格納され、コンピュータに実装された記録媒体から当該コンピュータにプログラムを読み込ませて実行されるが、例えば通信回線を介してコンピュータに読み込ませることもできる。
また、プログラムを格納する記録媒体は、例えば半導体メモリ、磁気ディスク、光ディスク、その他任意のコンピュータで読取り可能な任意の記録手段により構成できる。
The program is stored in advance in a recording medium such as ROM, RAM, etc., and is executed by loading the program into the computer from the recording medium installed in the computer.
Also, the recording medium for storing the program can be composed of, for example, a semiconductor memory, a magnetic disk, an optical disk, or any other computer-readable recording means.

以上説明したように、本発明の実施形態に係る画像処理システム、及び画像処理プログラムによれば、画像から検出対象を見つけ出す画像処理技術において画像処理をより最適化することが可能である。 As described above, according to the image processing system and the image processing program according to the embodiments of the present invention, it is possible to further optimize the image processing in the image processing technique for finding the detection target from the image.

本発明は、以上の実施形態及び実施例に限定されるものではなく、本発明の範囲内において、種々の変更実施が可能であることは言うまでもない。
例えば、画像処理装置における各構成を複数の情報処理装置に分散して持たせたり、ノードとして実施例で用いたもの以外のものを含めて使用したりすることができる。
また、実施例では検出対象要素として画像内の欠陥を模擬した検出対象要素を用いたが、検出対象要素は画像であれば特に限定されず、例えば機械部品や細胞の画像、3Dキャドなどの立体画像等を対象とすることもできる。
It goes without saying that the present invention is not limited to the above embodiments and examples, and that various modifications can be made within the scope of the present invention.
For example, each configuration in the image processing apparatus can be distributed to a plurality of information processing apparatuses, or nodes other than those used in the embodiments can be used.
Further, in the embodiment, detection target elements simulating defects in an image are used as detection target elements, but the detection target elements are not particularly limited as long as they are images. An image or the like can also be targeted.

本発明は、設備や製品などの画像データにもとづき検査などを行う場合であって、画像処理が最適化された画像検査用の情報処理装置を得るために、好適に利用することが可能である。 INDUSTRIAL APPLICABILITY The present invention can be suitably used to obtain an information processing apparatus for image inspection in which image processing is optimized when inspection is performed based on image data of equipment, products, etc. .

1,1c 画像処理装置
10,10c 機能単位記憶部
11,11c 個体生成部
12,12c 個体群記憶部
121c 親個体群記憶部
122c 子個体群記憶部
13,13c 検査対象画像入力部
14,14c 検査対象画像記憶部
15,15c 良品画像入力部
16,16c 良品画像記憶部
17,17c 教師情報入力部
18,18c 教師情報記憶部
19,19c 画像処理部
20,20c 出力情報記憶部
21,21c 評価値計算部
22,22c 評価結果記憶部
23,23c 遺伝子操作部
1, 1c image processing device 10, 10c functional unit storage unit 11, 11c individual generation unit 12, 12c population storage unit 121c parent population storage unit 122c child population storage unit 13, 13c inspection target image input unit 14, 14c inspection Target image storage units 15, 15c Non-defective product image input units 16, 16c Non-defective product image storage units 17, 17c Teacher information input units 18, 18c Teacher information storage units 19, 19c Image processing units 20, 20c Output information storage units 21, 21c Evaluation values Calculation unit 22, 22c Evaluation result storage unit 23, 23c Gene manipulation unit

Claims (9)

生物の進化を数学的に模擬した最適化手法である遺伝的操作により、画像から検出対象を検出する画像処理を最適化する画像処理システムであって、
有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する一又は二以上の個体情報を記憶する個体群記憶部と、
検査対象物が表示された学習用又は検証用の検査対象画像を入力する検査対象画像入力部と、
検査対象物が正しく表示された良品画像を入力する良品画像入力部と、
前記個体情報及び前記良品画像にもとづいて前記検査対象画像を処理し、前記検査対象画像における検出対象要素の画像、個数、及び位置情報の少なくともいずれかを含む出力情報を生成する画像処理部と、
前記出力情報を評価するための検出対象要素の情報を含む教師情報を入力する教師情報入力部と、
前記出力情報と前記教師情報を比較して評価値を計算し、この評価値にもとづき前記個体情報を順位付けする評価値計算部と、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部と、を備え、
前記検査対象画像入力部が、検査対象物を撮影して得られた画像をリアルタイムで検査用の画像として入力し、
前記良品画像入力部が、検査対象物と同一種類の他の検査対象物を撮影して得られた画像をリアルタイムで前記良品画像として入力する
ことを特徴とする画像処理システム。
An image processing system that optimizes image processing for detecting a detection target from an image by genetic manipulation, which is an optimization method that mathematically simulates the evolution of living things,
a population storage unit that stores one or more pieces of individual information that define the order of execution of a plurality of functional units in a network that can include cycles;
an inspection target image input unit for inputting an inspection target image for learning or verification in which an inspection target is displayed;
a non-defective product image input unit for inputting a non-defective product image in which the inspection object is correctly displayed;
an image processing unit that processes the inspection target image based on the individual information and the non-defective product image, and generates output information including at least one of image, number, and position information of detection target elements in the inspection target image;
a teacher information input unit for inputting teacher information including information on detection target elements for evaluating the output information;
an evaluation value calculation unit that compares the output information and the teacher information to calculate an evaluation value, and ranks the individual information based on the evaluation value;
a gene manipulation unit that selects or changes the individual information based on the ranking information of the individual information and updates the population storage unit ;
The inspection target image input unit inputs an image obtained by photographing the inspection target in real time as an inspection image,
The non-defective product image input unit inputs in real time an image obtained by photographing another inspection object of the same type as the inspection object as the non-defective product image.
An image processing system characterized by:
前記画像処理部による処理に、前記検査対象画像における検出対象要素の画像を作成する処理が含まれ、
前記教師情報及び前記出力情報に、前記検査対象画像における検出対象要素の画像が含まれる
ことを特徴とする請求項1記載の画像処理システム。
The processing by the image processing unit includes processing for creating an image of a detection target element in the inspection target image,
2. The image processing system according to claim 1, wherein said teacher information and said output information include an image of a detection target element in said inspection target image.
前記画像処理部による処理に、前記検査対象画像における検出対象要素を計数する処理が含まれ、
前記教師情報及び前記出力情報に、前記検査対象画像における検出対象要素の個数を示す数値が含まれる
ことを特徴とする請求項1又は2記載の画像処理システム。
The processing by the image processing unit includes processing for counting detection target elements in the inspection target image,
3. The image processing system according to claim 1, wherein the teacher information and the output information include numerical values indicating the number of detection target elements in the inspection target image.
前記画像処理部による処理に、前記検査対象画像における検出対象要素の位置情報を取得する処理が含まれ、
前記教師情報及び前記出力情報が、前記検査対象画像における検出対象要素の位置情報である
ことを特徴とする請求項1~3のいずれかに記載の画像処理システム。
The processing by the image processing unit includes processing for acquiring position information of the detection target element in the inspection target image,
4. The image processing system according to claim 1, wherein said teacher information and said output information are position information of detection target elements in said inspection target image.
前記画像処理部による処理に、前記画像における一定範囲の特徴量を算出する処理、及び前記特徴量にもとづいて前記一定範囲が検出対象要素であるか否かを判定する処理が含まれることを特徴とする請求項1~4のいずれかに記載の画像処理システム。 The processing by the image processing unit includes processing for calculating a feature amount of a certain range in the image, and processing for determining whether or not the certain range is an element to be detected based on the feature amount. The image processing system according to any one of claims 1 to 4, wherein: 前記遺伝子操作部が、
前記評価値が高い個体情報を次世代に残すエリート保存部と、
前記評価値にもとづいて、一定の確率で個体情報を次世代に残す選択部と、
2つの個体情報の一部を相互に交換する交叉処理部と、
選択された1つの個体情報の一部又は全部をランダムに書き換える突然変異部と、を有する
ことを特徴とする請求項1~5のいずれかに記載の画像処理システム。
The gene manipulation unit
an elite storage unit that leaves the individual information with the high evaluation value to the next generation;
a selection unit for leaving individual information to the next generation with a certain probability based on the evaluation value;
a crossover processing unit that mutually exchanges a part of two pieces of individual information;
6. The image processing system according to any one of claims 1 to 5, further comprising a mutation unit that randomly rewrites part or all of the selected individual information.
前記ネットワークが、機能単位と向きが付いたリンクにより構成される有向ネットワークであり、直線構造と木構造を含むことを特徴とする請求項1~6のいずれかに記載の画像処理システム。 7. The image processing system according to any one of claims 1 to 6, wherein said network is a directed network composed of functional units and oriented links, and includes a linear structure and a tree structure. 前記検査対象画像入力部が、検査用の画像を入力し、最も評価値の高い個体情報及び前記良品画像にもとづき前記画像処理部によって前記検査用の画像を処理して得られた処理結果情報を記憶する処理結果記憶部を備えたことを特徴とする請求項1~7のいずれかに記載の画像処理システム。 The inspection target image input unit inputs an inspection image, and outputs processing result information obtained by processing the inspection image by the image processing unit based on the individual information with the highest evaluation value and the non-defective product image. 8. The image processing system according to any one of claims 1 to 7, further comprising a processing result storage unit for storing. 生物の進化を数学的に模擬した最適化手法である遺伝的操作により、画像から検出対象を検出する画像処理を最適化する画像処理プログラムであって、
コンピュータを、
有閉路を含み得るネットワーク状に複数の機能単位の実行順序を定義する一又は二以上の個体情報を記憶する個体群記憶部、
検査対象物が表示された学習用又は検証用の検査対象画像を入力する検査対象画像入力部、
検査対象物が正しく表示された良品画像を入力する良品画像入力部、
前記個体情報及び前記良品画像にもとづいて前記検査対象画像を処理し、前記検査対象画像における検出対象要素の画像、個数、及び位置情報の少なくともいずれかを含む出力情報を生成する画像処理部、
前記出力情報を評価するための検出対象要素の情報を含む教師情報を入力する教師情報入力部、
前記出力情報と前記教師情報を比較して評価値を計算し、この評価値にもとづき前記個体情報を順位付けする評価値計算部、及び、
前記個体情報の順位付け情報にもとづき前記個体情報の選択又は変更を行って、前記個体群記憶部を更新する遺伝子操作部として機能させ
前記検査対象画像入力部に、検査対象物を撮影して得られた画像をリアルタイムで前記検査用の画像として入力させ、
前記良品画像入力部に、検査対象物と同一種類の他の検査対象物を撮影して得られた画像をリアルタイムで前記良品画像として入力させる
ことを特徴とする画像処理プログラム。
An image processing program that optimizes image processing for detecting a detection target from an image by genetic manipulation, which is an optimization method that mathematically simulates biological evolution,
the computer,
an individual group storage unit that stores one or more pieces of individual information that define the order of execution of a plurality of functional units in a network that can include cycles;
an inspection target image input unit for inputting an inspection target image for learning or verification in which an inspection target is displayed;
a non-defective product image input unit for inputting a non-defective product image in which the inspection object is correctly displayed;
an image processing unit that processes the image to be inspected based on the individual information and the non-defective product image, and generates output information including at least one of image, number, and position information of elements to be detected in the image to be inspected;
a teacher information input unit for inputting teacher information including information on detection target elements for evaluating the output information;
an evaluation value calculation unit that compares the output information and the teacher information to calculate an evaluation value and ranks the individual information based on the evaluation value;
Selecting or changing the individual information based on the ranking information of the individual information to function as a genetic manipulation unit for updating the population storage unit ;
causing the inspection target image input unit to input an image obtained by photographing the inspection target in real time as the inspection image;
The non-defective product image input unit is caused to input in real time, as the non-defective product image, an image obtained by photographing another inspection object of the same type as the inspection object.
An image processing program characterized by:
JP2018243927A 2018-12-27 2018-12-27 Image processing system and image processing program Active JP7247578B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018243927A JP7247578B2 (en) 2018-12-27 2018-12-27 Image processing system and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018243927A JP7247578B2 (en) 2018-12-27 2018-12-27 Image processing system and image processing program

Publications (2)

Publication Number Publication Date
JP2020107009A JP2020107009A (en) 2020-07-09
JP7247578B2 true JP7247578B2 (en) 2023-03-29

Family

ID=71450816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018243927A Active JP7247578B2 (en) 2018-12-27 2018-12-27 Image processing system and image processing program

Country Status (1)

Country Link
JP (1) JP7247578B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366929A (en) 2001-06-11 2002-12-20 Printing Bureau Ministry Of Finance Method and device for extracting failure and defect of printed matter
JP2004239870A (en) 2003-02-10 2004-08-26 Seiko Epson Corp Spatial filter, method and program for generating the same, and method and apparatus for inspecting screen defect
JP2007102458A (en) 2005-10-04 2007-04-19 Yamaguchi Univ Method for automatically drawing notice portion by image processing, device therefor and recording medium recording program
JP2010032511A (en) 2008-06-30 2010-02-12 Denro Corp Method and device for diagnosing coating degradation
JP2015011641A (en) 2013-07-02 2015-01-19 富士通株式会社 Apparatus and method of creating image processing filter
JP2017010475A (en) 2015-06-26 2017-01-12 富士通株式会社 Program generation device, program generation method, and generated program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366929A (en) 2001-06-11 2002-12-20 Printing Bureau Ministry Of Finance Method and device for extracting failure and defect of printed matter
JP2004239870A (en) 2003-02-10 2004-08-26 Seiko Epson Corp Spatial filter, method and program for generating the same, and method and apparatus for inspecting screen defect
JP2007102458A (en) 2005-10-04 2007-04-19 Yamaguchi Univ Method for automatically drawing notice portion by image processing, device therefor and recording medium recording program
JP2010032511A (en) 2008-06-30 2010-02-12 Denro Corp Method and device for diagnosing coating degradation
JP2015011641A (en) 2013-07-02 2015-01-19 富士通株式会社 Apparatus and method of creating image processing filter
JP2017010475A (en) 2015-06-26 2017-01-12 富士通株式会社 Program generation device, program generation method, and generated program

Also Published As

Publication number Publication date
JP2020107009A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
JP6693938B2 (en) Appearance inspection device
CN107220618B (en) Face detection method and device, computer readable storage medium and equipment
CN109919934B (en) Liquid crystal panel defect detection method based on multi-source domain deep transfer learning
JP2018190140A (en) Learning apparatus, learning method, and learning program
CN109685097A (en) A kind of image detecting method and device based on GAN
Alruwais et al. Hybrid mutation moth flame optimization with deep learning-based smart fabric defect detection
Pinville et al. How to promote generalisation in evolutionary robotics: the progab approach
CN115730947A (en) Bank customer loss prediction method and device
JP7247578B2 (en) Image processing system and image processing program
CN116777861B (en) Marking quality detection method and system for laser engraving machine
JP6177649B2 (en) Data processing apparatus, length measurement system, defect inspection system, image tracking system, and data processing method
CN111144497B (en) Image significance prediction method under multitasking depth network based on aesthetic analysis
CN111370055A (en) Intron retention prediction model establishing method and prediction method thereof
JP2020107008A (en) Image processing system, and image processing program
JP7314711B2 (en) Image processing system and image processing program
JP7468088B2 (en) Image processing system and image processing program
JP2020071552A (en) Determination device and determination method
JP2022089430A (en) Image processing system, and image processing program
JP7206892B2 (en) Image inspection device, learning method for image inspection, and image inspection program
JP2021051617A (en) Image processing system and image processing program
JP7314723B2 (en) Image processing system and image processing program
Usharani et al. An efficient approach for automatic crack detection using deep learning
Hult et al. Inspecting product quality with computer vision techniques: Comparing traditional image processingmethodswith deep learning methodson small datasets in finding surface defects
JP2020177508A (en) Prediction system, prediction method, and prediction program
Kadavy et al. Boundary Strategies For Firefly Algorithm Analysed Using CEC'17 Benchmark.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7247578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150