JP2008299687A - Image processing/constructing method - Google Patents

Image processing/constructing method Download PDF

Info

Publication number
JP2008299687A
JP2008299687A JP2007146454A JP2007146454A JP2008299687A JP 2008299687 A JP2008299687 A JP 2008299687A JP 2007146454 A JP2007146454 A JP 2007146454A JP 2007146454 A JP2007146454 A JP 2007146454A JP 2008299687 A JP2008299687 A JP 2008299687A
Authority
JP
Japan
Prior art keywords
image
image processing
sensory evaluation
evaluation
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007146454A
Other languages
Japanese (ja)
Inventor
Toshio Uji
俊男 宇治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Printing Bureau
Original Assignee
National Printing Bureau
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Printing Bureau filed Critical National Printing Bureau
Priority to JP2007146454A priority Critical patent/JP2008299687A/en
Publication of JP2008299687A publication Critical patent/JP2008299687A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing/constructing method to perform a process approximate to sensory evaluation by visual observation and to automatically construct image processing only by setting a program through image processing by genetic programming. <P>SOLUTION: In the image processing/constructing method for obtaining an image processing solution approximate to a sensory evaluation value, a sample paper sheet with a variable density pattern is prepared, a subject performs sensory evaluation by visual observation to the sample paper sheet, the evaluation result where opinions of the subjects are in agreement is defined as an evaluation value, the sample paper sheet is received as a transmitted image using an imaging device, the image received for each paper sheet and the evaluation value by the sensory evaluation are paired to be input into the program, the solution is searched using the genetic programming so that the feature quantity obtained by performing a tree structure image processing and the evaluation value by the sensory evaluation may become closer based on a processing program in which image filters are combined in the shape of a tree, and finally obtaining the image processing in the tree structure approximate to a human sensory evaluation. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理構築方法に関するものであり、特に遺伝的プログラミングを用いた官能評価に近似する近似解を得るための方法である。   The present invention relates to an image processing construction method, and in particular, a method for obtaining an approximate solution approximating sensory evaluation using genetic programming.

近年、生物の進化の仕組みを模した最適化手法の一つとして、遺伝的アルゴリズムや遺伝的プログラミングの研究が盛んに行われ、これらの進化論的手法を用いた研究から、木構造状画像変換自動生成法(Automatic Construction of Tree-structural Image Transformation)(以下「ACTIT」という。)が提案されている。   In recent years, research on genetic algorithms and genetic programming has been actively conducted as one of the optimization methods imitating the mechanism of evolution of living organisms. From research using these evolutionary methods, tree-structured image conversion automatic A generation method (Automatic Construction of Tree-structural Image Transformation) (hereinafter referred to as “ACTIT”) has been proposed.

このACTITは、画像処理のために、元の画像である原画像と画像処理後の理想的な処理結果である目標画像を与えると、原画像を画像処理した出力画像がどの程度目標画像に近似しているかを、あらかじめ用意した色々な画像処理フィルタを木構造状に組み合わせて構築し、出力画像と目標画像が近いほど所望の画像処理であるという定義を行うものである(例えば、非特許文献1参照)。   This ACTIT gives an original image that is an original image and a target image that is an ideal processing result after image processing for image processing. To what extent the output image obtained by image processing of the original image approximates the target image. It is constructed by combining various image processing filters prepared in advance in a tree structure, and the desired image processing is defined as the output image and the target image are closer (for example, non-patent literature) 1).

また、人間の神経回路網の動作を計算機で模倣している人工的な神経回路網であるニューラルネットワークは、データの入力部と出力部との間に一層又は複数層の中間層を配置し、これらの各層を複数の素子によって構成するとともに、入出力部と各中間層をデータの入出力系によってネットワーク状に接続している。このニューラルネットワークは、非線形成分を持っているために種々のデータに対して非常に高度の近似能力があるので、任意の閾値を持ったユニットを複数結合することで、その結合係数を変化させることにより近似値を求めるものである。   In addition, a neural network that is an artificial neural network that imitates the operation of a human neural network with a computer, arranges one or more intermediate layers between the data input part and the output part, Each of these layers is constituted by a plurality of elements, and the input / output unit and each intermediate layer are connected in a network by a data input / output system. Since this neural network has a nonlinear component, it has a very high degree of approximation capability for various data, so it is possible to change the coupling coefficient by combining multiple units with arbitrary threshold values. To obtain an approximate value.

しかし、ACTITにおいては、原画像に対して出力画像を人間がある程度想定して目標画像を作成する必要があり、官能評価や品質評価等の原画像に対して、差がある部分を想定できない問題に対しては目標画像を作ることができないため、対応ができないという問題があった。   However, in ACTIT, it is necessary for a human to create a target image by assuming an output image to some extent with respect to the original image, and there is a problem that a difference portion cannot be assumed for the original image such as sensory evaluation and quality evaluation. However, there is a problem that the target image cannot be made because the target image cannot be made.

また、ニューラルネットワークの方法で画像処理を構築した場合、ユニット間の結合係数で画像処理が表現されるため、人間がその画像処理のアルゴリズムを理解することが困難であり、調整も難しいという問題があった。   Also, when image processing is constructed using the neural network method, the image processing is expressed by the coupling coefficient between units, so that it is difficult for humans to understand the image processing algorithm and adjustment is difficult. there were.

青木紳也、他1名、「木構造状画像変換の自動構築法ACTIT」、映像情報メディア学会誌、社団法人映像情報メディア学会、1999年、第53巻、第6号、p.888〜894Shinya Aoki and 1 other, "ACTIT, an automatic construction method for tree-structured image conversion", The Journal of the Institute of Image Information and Television Engineers, The Institute of Image Information and Television Engineers, 1999, Vol. 53, No. 6, p.888-894

前述した木構造画像変換の自動構築方法では画像処置後の目標をある程度人間が想定して目標画像を設定する必要がある。   In the above-described automatic construction method for tree structure image conversion, it is necessary for a human to assume a target after image processing to some extent and set a target image.

また、遺伝的プログラミングの進化に用いる適応度の算出を入力画像と出力画像を比較していたアルゴリズムでは、官能評価等による画像処理後の画像を、人間が想定することのできない問題に対して対応できない。また、処理後の画像から順位付けを行った画像の違いがどこにあるか確認することができない。また、官能評価による官能評価順及び製造条件の違いによる順位付けを確認することができない。   In addition, the algorithm that compares the input image with the output image to calculate the fitness used for the evolution of genetic programming addresses the problem that humans cannot assume the image after image processing by sensory evaluation etc. Can not. Further, it is impossible to confirm where the difference between the images that have been ranked from the processed images is. Further, it is not possible to confirm the ranking based on the sensory evaluation order and the difference in manufacturing conditions.

本発明は、上記問題を解決するためにかんがみなされたものであり、人では作製が困難な画像処理を自動構築すること、また、処理後の画像から順位付けを行った画像の違いがどこにあるか確認することを可能とするために、ニューラルネットワークより画像処理を認識しやすいACTITを改良するもので、従来は遺伝的プログラミングの進化に用いる適応度の算出を入力画像と出力画像を比較していたアルゴリズムから、出力画像から得られる特徴量の差を人間が指定した目標に合うように分類を行うアルゴリズムへと改良することであり、プログラムを設定するだけで画像処理を自動構築することができ、順位付けを行うための核となる画像処理を見い出すことができる、画像処理構築方法を提供することを目的とする。   The present invention has been considered in order to solve the above problems, and automatically constructs image processing that is difficult to produce by humans, and where is the difference in images that have been ranked from the processed images In order to make it possible to check whether the image processing is easier to recognize than a neural network, the ACTIT is improved. Conventionally, the fitness calculation used for the evolution of genetic programming is compared between the input image and the output image. This is an improvement to the algorithm that classifies the difference in the feature value obtained from the output image so that it matches the target specified by the human, and image processing can be automatically constructed simply by setting a program. An object of the present invention is to provide an image processing construction method capable of finding out the core image processing for ranking.

請求項1記載の本発明の係る画像処理構築方法は、官能評価に近似する近似解を探索するための画像処理構築方法であって、複数の濃淡模様を付与した基材に対して官能評価を行い、少なくとも2種類以上の評価水準に区分し、区分された水準ごとに一定枚数を抽出してサンプルとし、サンプルに対して官能評価による評価値を決定し、サンプルの濃淡模様を撮像装置により透過画像又は反射画像として取り込み、官能評価による評価値と取り込んだ透過画像又は反射画像とを対にして記憶装置に記憶し、取り込んだ透過画像又は反射画像に対して画像フィルタを木構造状に組み合わせた処理プログラムにより画像処理し、画像処理した各画像から一つ以上の特徴量を抽出し、抽出した特徴量に対して、官能評価による評価値に近似するような近似解を探索することを特徴としている。   The image processing construction method of the present invention according to claim 1 is an image processing construction method for searching for an approximate solution that approximates sensory evaluation, wherein sensory evaluation is performed on a substrate provided with a plurality of shade patterns. And classify at least two types of evaluation levels, extract a certain number of samples for each of the divided levels, determine the evaluation value by sensory evaluation for the sample, and transmit the shade pattern of the sample with the imaging device Captured as an image or reflection image, and stored in the storage device a pair of evaluation values obtained by sensory evaluation and the acquired transmission image or reflection image, and combined the image filter with a tree structure for the acquired transmission image or reflection image Image processing is performed by a processing program, and one or more feature quantities are extracted from each processed image, and the extracted feature quantities are approximated to evaluation values by sensory evaluation It is characterized by searching the approximate solution.

また、請求項2記載の発明は、請求項1の画像処理構築方法において、処理プログラムによる探索方法を、遺伝的プログラミングの進化的計算法で行う画像処理構築方法である。   The invention according to claim 2 is the image processing construction method according to claim 1, wherein the search method by the processing program is performed by an evolutionary calculation method of genetic programming.

また、請求項3記載の発明は、請求項2の遺伝的プログラミングの進化的計算を用いて、近似解の探索を複数回実行することにより、中心となる画像処理を選択する画像処理構築方法である。   The invention according to claim 3 is an image processing construction method for selecting a central image processing by executing an approximate solution search a plurality of times using the evolutionary calculation of genetic programming according to claim 2. is there.

また、請求項4記載の発明は、請求項1乃至請求項4のいずれかに記載の画像処理構築方法から成る印刷条件に基づいた印刷物の位置ずれ検査又は印刷汚染の検出への利用である。   According to a fourth aspect of the present invention, there is provided use of a printed matter misalignment inspection or print contamination detection based on a printing condition comprising the image processing construction method according to any one of the first to fourth aspects.

また、請求項5記載の発明は、請求項1乃至請求項4のいずれかに記載の画像処理構築方法を用いて、サンプルがカラーである場合に、取り込む透過画像又は反射画像をRGB、HSV又はYIQの色成分に分解し、木構造状に組み合わせた処理プログラムの各入力画像に、各色性分の画像として入力することを特徴とする画像処理構築方法である。   Further, the invention described in claim 5 uses the image processing construction method according to any one of claims 1 to 4 to convert a captured transmission image or reflection image into RGB, HSV, or a sample when the sample is in color. An image processing construction method characterized in that an image for each color is input to each input image of a processing program that is decomposed into YIQ color components and combined in a tree structure.

本発明の画像処理構築方法によれば、官能評価を行った濃淡模様を付与した基材に対して、人が作製及び発案することが困難な画像処理を自動作成することが可能になる。また、従来手法であるACTITは、処理後の画像を想定して目標画像を人が作成していたが、本発明では目標画像が必要なく、評価値の指定だけで画像処理の自動作製が可能となり、画像処理後の画像を人が想定することのできない問題に対しても対応できるようになった。   According to the image processing construction method of the present invention, it is possible to automatically create image processing that is difficult for a person to create and invent on a base material provided with a shading pattern subjected to sensory evaluation. In addition, ACTIT, which is a conventional method, created a target image by assuming a post-processing image. In the present invention, however, a target image is not necessary, and image processing can be automatically created simply by specifying an evaluation value. Thus, it is possible to cope with a problem that a person cannot expect an image after image processing.

さらに、本発明の画像処理の作製を複数回行うことにより、順位付けを行うための中心となる画像処理を見い出すことが可能である。   Furthermore, by performing the image processing of the present invention a plurality of times, it is possible to find a central image processing for ranking.

以下に、本発明の画像処理構築方法に係る実施の形態1について、遺伝的プログラミングを用いた画像処理構築方法について、図面を用いて説明する。
本発明は以下に述べる実施のための最良の形態に限定されるものではなく、特許請求の範囲記載における技術的思想の範囲内であれば、他の種々の形態が実施可能である。
Hereinafter, an image processing construction method using genetic programming will be described with reference to the drawings for the first embodiment of the image processing construction method of the present invention.
The present invention is not limited to the best mode for carrying out the invention described below, and various other modes can be implemented within the scope of the technical idea described in the claims.

(実施の形態1)
本実施の形態において、画像処理構築方法の対象物である基材に付与した濃淡模様とは、紙自体の繊維密度の粗密によって画像を現出するすき入れ模様をいう。また、撮像装置で取り込む入力画像としては透過画像を用いるが、透過画像に限定されるものでなく、反射画像でもよい。撮像装置としては、CCDカメラ又はイメージスキャナ等が考えられるが、これに限定されない。
(Embodiment 1)
In the present embodiment, the shading pattern imparted to the base material, which is the object of the image processing construction method, refers to a wetting pattern in which an image appears by the density of the fiber density of the paper itself. In addition, a transmission image is used as an input image captured by the imaging apparatus. As the imaging device, a CCD camera or an image scanner can be considered, but the imaging device is not limited to this.

図1は、本実施の形態1の人による官能評価値に近似する画像処理解を得るための画像処理構築方法に係る全体の流れを示した図である。評価用サンプル101として、すき入れ模様を付与した用紙(以下「サンプル用紙」という。)を100枚用意する。3人の被験者が100枚のサンプル用紙に対して目視による官能評価102を行い、品質順に5水準に分類する。被験者は、評価する際の専門の知識や能力を持った専門パネルである。   FIG. 1 is a diagram showing an overall flow of an image processing construction method for obtaining an image processing solution that approximates a sensory evaluation value by a person according to the first embodiment. As the evaluation sample 101, 100 sheets of paper (hereinafter referred to as “sample sheets”) to which a cut-in pattern is applied are prepared. Three test subjects perform visual sensory evaluation 102 on 100 sample sheets, and classify them into 5 levels in order of quality. The test subject is a specialized panel with specialized knowledge and ability to evaluate.

3人の被験者がそれぞれ5水準に分類した評価結果に対して、3人の被験者の意見が一致した評価結果を評価値103とし、以後の検査においては、3人の被験者の意見が一致したサンプル用紙を使用する。本実施の形態1では、各水準ごとに4枚抽出し、5水準で20枚用意した。本実施の形態においては、被験者の評価が一致したサンプル用紙を用いたが、これに限定されるものでなく被験者の評価の平均値を用いても良い。   For the evaluation results classified by the three subjects into 5 levels, the evaluation result in which the opinions of the three subjects agree is set as the evaluation value 103, and in the subsequent examinations, the samples in which the opinions of the three subjects agree Use paper. In the first embodiment, four sheets are extracted for each level, and 20 sheets are prepared for five levels. In the present embodiment, the sample paper with the same evaluation by the subject is used, but the present invention is not limited to this, and an average value of the evaluation of the subject may be used.

被験者により官能評価されて抽出された5水準20枚のサンプル用紙を、カメラやスキャナ等の撮像装置を用いて透過画像104として取り込む。20枚のサンプル用紙に対して、サンプル用紙ごとに取り込んだ画像104と官能評価による評価値103とを対にしてプログラム(装置)に入力する。入力が完了すると、コンピュータ(装置)が処理を行い、画像処理生成部105で目視による官能評価に近似した画像処理の自動構築を行う。サンプル用紙ごとに取り込んだ入力画像から、画像フィルタを木構造状に組み合わせた処理プログラムに基づいて木構造状画像処理を行って得られる特徴量と、官能評価による評価値とが近似するように遺伝的プログラミングを用いて解の探索を行い、最終的に人の官能評価と近似した木構造状の画像処理106を得ることができる。   Twenty five-level sample sheets extracted by sensory evaluation by a subject are captured as a transmission image 104 using an imaging device such as a camera or a scanner. For 20 sample sheets, the image 104 captured for each sample sheet and the sensory evaluation value 103 are paired and input to a program (apparatus). When the input is completed, the computer (apparatus) performs processing, and the image processing generation unit 105 automatically constructs image processing that approximates visual sensory evaluation. Genetic features are obtained so that the feature value obtained by performing tree-structured image processing based on a processing program that combines image filters into a tree structure from the input image captured for each sample sheet approximates the evaluation value based on sensory evaluation. It is possible to search for a solution using genetic programming and finally obtain a tree-structured image processing 106 that approximates human sensory evaluation.

本実施の形態1の画像処理構築方法における、サンプル用紙ごとに取り込んだ入力画像から木構造状画像処理を行って得られる特徴量の求め方の一例としての処理プログラムの構造について説明する。   A structure of a processing program as an example of how to obtain a feature amount obtained by performing tree-structured image processing from an input image captured for each sample sheet in the image processing construction method according to the first embodiment will be described.

図2に示すような木構造状の画像処理106の模式図を用いて説明する。
処理プログラムは、表1に示す各種画像フィルタを木構造状に組み合わせたプログラムである。木構造に入力する画像は、同一のサンプル用紙の透過画像104に対して、各画像処理フィルタによる画像処理を施し、出力画像を形成するように構成されている。本実施の形態で用いる画像処理フィルタFnは、1入力1出力(フィルタF8、F5、F3、F2)と2入力1出力(フィルタF6、F4、F1)の画像処理フィルタを用いた。入力画像1〜4は同じ画像で、一つの木構造の画像処理には1度に1枚分のサンプル用紙の画像を入力して行い、本実施の形態1では、サンプル用紙を20枚用意したので、20枚分、20回の画像処理を行う。同じ画像処理(木構造画像処理)を別の用紙サンプル(20枚)で処理すると異なる特徴量(20個の特徴量)が得られるので、その特徴量が官能評価の順になるように探索する。
A description will be given using a schematic diagram of the image processing 106 having a tree structure as shown in FIG.
The processing program is a program in which various image filters shown in Table 1 are combined in a tree structure. The image input to the tree structure is configured such that the transmission image 104 of the same sample paper is subjected to image processing by each image processing filter to form an output image. As the image processing filter Fn used in the present embodiment, an image processing filter having one input and one output (filters F8, F5, F3, and F2) and two inputs and one output (filters F6, F4, and F1) is used. The input images 1 to 4 are the same image, and an image of one sample sheet is input at a time for image processing of one tree structure. In the first embodiment, 20 sample sheets are prepared. Therefore, image processing is performed 20 times for 20 sheets. When the same image processing (tree structure image processing) is processed with another paper sample (20 sheets), different feature amounts (20 feature amounts) are obtained, so that the feature amounts are searched in order of sensory evaluation.

木構造のノード(節)となる画像フィルタには表1に示すようなものを用いた。表1は、画像処理フィルタの種類と詳細な画像処理内容を示すものである。画像処理フィルタは、既知の汎用的な画像処理フィルタであり、目的に応じて削除したり、内部パラメータ等を変更したり、目的に応じて機能が特化された画像処理フィルタを追加することも可能である。   An image filter as shown in Table 1 was used as a tree structure node. Table 1 shows the types of image processing filters and detailed image processing contents. An image processing filter is a known general-purpose image processing filter. It can be deleted according to the purpose, internal parameters can be changed, or an image processing filter whose function is specialized according to the purpose can be added. Is possible.

Figure 2008299687
Figure 2008299687

本実施の形態1で用いるサンプル用紙は、グレー階調で256×256画素のすき入れ模様を付与した用紙の透過画像を用いた。また、本実施の形態1では、入力画像は、すべて同じグレー階調の画像を用いたが、サンプルの色味に差が大きい場合、カラー画像を色空間における光の三原色RGBやNTSC(National Television Standard Committee)が用いている表色系のYIQ等の色味成分に分解し、例えば、入力画像1には赤成分の画像、入力画像2には青成分の画像、入力画像3には緑成分の画像のように入力し、近似解の探索を行うことも可能である。   As the sample paper used in the first embodiment, a transmission image of a paper provided with a 256 × 256 pixel penetration pattern in gray gradation is used. In the first embodiment, the same gray gradation image is used for all the input images. However, when there is a large difference in the color of the sample, the color image is converted into the three primary colors RGB or NTSC (National Television) of light in the color space. For example, the input image 1 has a red component image, the input image 2 has a blue component image, and the input image 3 has a green component. It is also possible to search for an approximate solution by inputting as in the image.

画像処理する複数の入力画像(1、2、・・・n)201に対して、各種画像フィルタ(表1)を木構造状に組み合わせたプログラム202であり、入力された複数の入力画像に対して各画像フィルタによる画像処理を施し、出力画像203を形成し、更に出力画像に対して特定の画像処理を行い特徴量204を算出する。すなわち、入力画像1は、画像処理フィルタF3に入力し、処理されて出力され、当該出力画像は、フィルタF2に入力される。入力画像2と入力画像3とを2入力1出力の画像処理フィルタF6に入力し、処理されて一つの画像として出力され、当該出力画像がフィルタF5に入力される。入力画像4は、画像処理フィルタF8に入力されて処理され、当該出力画像と画像処理フィルタF5から出力された画像は、フィルタF4に入力されて処理される。F2から出力された画像とF4から出力された画像がフィルタF1に入力されて処理され、最終的に四つの入力画像が一つとなって出力された出力画像203に対し、特定の画像処理を行い、特徴量204を算出するものである。   A program 202 in which various image filters (Table 1) are combined in a tree structure for a plurality of input images (1, 2,..., N) 201 to be image-processed. Then, image processing by each image filter is performed to form an output image 203, and specific image processing is performed on the output image to calculate a feature amount 204. That is, the input image 1 is input to the image processing filter F3, processed and output, and the output image is input to the filter F2. The input image 2 and the input image 3 are input to the 2-input 1-output image processing filter F6, processed and output as one image, and the output image is input to the filter F5. The input image 4 is input to the image processing filter F8 and processed, and the output image and the image output from the image processing filter F5 are input to the filter F4 and processed. The image output from F2 and the image output from F4 are input to the filter F1 and processed, and finally, specific output processing is performed on the output image 203 output by combining the four input images. The feature amount 204 is calculated.

出力画像203は、木構造の画像処理を適用して得られる画像である。特徴量204は、出力画像203の画像から更に特定の画像処理を行って特徴量を算出する処理である。本実施の形態1では、出力画像203に対して入力画像の平均値で2値化を行い、2値化面積率を特徴量として算出した。また、本実施の形態1では、2値化面積率だけを用いたが、他の特徴量又は複数の特徴量を算出しても良い。   The output image 203 is an image obtained by applying tree-structured image processing. The feature amount 204 is a process of calculating a feature amount by further performing specific image processing from the image of the output image 203. In the first embodiment, the output image 203 is binarized using the average value of the input images, and the binarized area ratio is calculated as a feature amount. In the first embodiment, only the binarized area ratio is used, but other feature quantities or a plurality of feature quantities may be calculated.

画像処理フィルタFnの数は、本実施の形態1ではコンピュータの処理能力などの制限もあり、12〜15個のフィルタの組み合わせになるようにプログラム内のパラメータで制限したが、この条件に限るものではない。   In the first embodiment, the number of image processing filters Fn is limited by the parameters in the program so as to be a combination of 12 to 15 filters due to the limitation of the processing capability of the computer and the like. is not.

図3は、本実施の形態1の画像処理構築方法における画像処理プログラムによる画像処理を、遺伝的プログラミングで行うための処理フローを示す図である。
木構造画像処理の処理プログラムで遺伝的プログラミングの手法を用いて自動的に形成するように構成されている。
FIG. 3 is a diagram showing a processing flow for performing image processing by the image processing program in the image processing construction method of the first embodiment by genetic programming.
A tree structure image processing program is configured to automatically form using a genetic programming technique.

処理フローにおいて、初期個体群の生成及び適応度の評価301では、遺伝的プログラミングにおいて個体と呼ばれる木構造状画像処理を複数ランダムに作成し、適応度を算出する。本実施の形態1における個体数は、200〜500とした。適応度とは、遺伝的プログラミングにおいて目標にどのぐらい近いかの度合いを表し、適応度が目標に近い個体ほど次の世代に生き残る確率が高くなる。本実施の形態1における適応度は、数1に示すように官能評価の順位に対して画像から得られる特徴量の差を算出した。分類の方法は、クラスタリング等、他の方法を用いても良い。   In the processing flow, in the initial population generation and fitness evaluation 301, a plurality of tree-structured image processes called individuals in genetic programming are created at random, and the fitness is calculated. The number of individuals in the first embodiment is 200 to 500. The fitness indicates the degree of closeness to the goal in genetic programming, and the individual whose fitness is closer to the goal is more likely to survive in the next generation. As for the fitness in the first embodiment, the difference in the feature amount obtained from the image with respect to the ranking of the sensory evaluation is calculated as shown in Equation 1. As a classification method, other methods such as clustering may be used.

Figure 2008299687
Figure 2008299687

親集合の選択302では、個体集団の中から二つの個体を選択し、交叉及び突然変異3030では、交叉及び突然変異の操作を行う。交叉は、選択した二つの個体の木構造中のノードをランダムに選択し、切り取り、互いの個体に交換する作業を行う。突然変異の操作では、個体ごとに一定の割合でノードが他の画像処理フィルタへの変異、他の画像処理フィルタの挿入及び選択した画像処理フィルタの削除等を行う。   In parent set selection 302, two individuals are selected from the individual population, and in crossover and mutation 3030, crossover and mutation operations are performed. Crossover is performed by randomly selecting nodes in the tree structure of two selected individuals, cutting them, and exchanging them with each other. In the mutation operation, a node performs a change to another image processing filter, insertion of another image processing filter, deletion of the selected image processing filter, and the like at a certain rate for each individual.

適応度の評価及び次世代の固体の選択304では、交叉及び突然変異を行った個体に対して適応度(数1)を算出し、最も適応度が高いものを選択するエリート選択又は最も高い適応度の個体を選択するトーナメント選択などを行い、次の世代に残る個体を選択する。本実施の形態1ではトーナメント選択を用いて処理した。   In the fitness evaluation and next generation solid selection 304, the fitness (Equation 1) is calculated for the individuals that have undergone crossover and mutation, and the elite selection or the highest adaptation that selects the highest fitness is selected. A tournament selection for selecting an individual is performed, and an individual remaining in the next generation is selected. In this Embodiment 1, it processed using the tournament selection.

終了条件305では、全個体中で最も高い適応度を持つ個体を選択し、その適応度が目的とする適応度であるかを判定し、適応度が十分でない場合は処理302に戻り、十分な適応度が得られた場合や適応度の変化が少なくなった場合には終了となる。本実施の形態1における最適化の終了条件は、世代数5,000〜10,000世代で適応度が変化しなくなった場合を終了条件とした。   In the end condition 305, an individual having the highest fitness is selected from all individuals, and it is determined whether the fitness is the target fitness. If the fitness is not sufficient, the process returns to the process 302, and sufficient The process ends when the fitness level is obtained or when the change in the fitness level decreases. The termination condition for optimization in the first embodiment is the termination condition when the fitness does not change between generations 5,000 to 10,000.

図4は、探索の結果得られた木構造状画像処理の例をLISP等で表現されているS式で記述したものである。ここで、LIST Processorは、リスト処理用プログラム言語であり、LISPではS式と呼ばれる記号列を使用して表現し、リストの両側を括弧で挟んで扱うプログラミング用語であり、( )はリストの境界を示す。
図4の401に示す(Max(Sbl(Lap(Dke(Max(Bav(Sbl(Mea(Mea(Mea(Rng(Sbl(Grd(入力画像))))))))))))))で得られる画像は、サンプル用紙の入力画像を一次微分、Sobel、range、平均値、平均値、平均値、Sobel、入力画像の平均値による2値化、最大値、DarkEdge、Laplacian、Sobel及び最大値の画像処理フィルタを順に適用し、処理することを意味する。
FIG. 4 describes an example of the tree-structured image processing obtained as a result of the search by using an S expression expressed in LISP or the like. Here, LIST Processor is a programming language for list processing. In LISP, it is expressed using a symbol string called S-expression, and both sides of the list are handled in parentheses. () Is a list boundary. Indicates.
(Max (Sbl (Lap (Dke (Max (Bav (Sbl (Mea (Mea (Mea (Rng (Sbl (Grd (input image)))))))))))) shown in 401 of FIG. The obtained image is the first derivative of the input image on the sample paper, Sobel, range, average value, average value, average value, Sobel, binarization by the average value of the input image, maximum value, DarkEdge, Laplacian, Sobel and maximum value The image processing filters are sequentially applied and processed.

本実施の形態1で用いたサンプル用紙以外の用紙、すなわち3人の被験者の意見が一致したサンプル用紙以外の用紙のうち、40枚を抽出してサンプル用紙として用意し、図4の401に示す遺伝的プログラミングで得られた画像処理を適用したところ、40枚中32枚が官能評価と画像処理の評価が一致した。また、例えば、官能評価が3で画像処理の評価が2又は4というように評価が近いサンプル用紙は6枚あり、自動生成した画像処理は官能評価の近似ができていることがわかる。   Of the papers other than the sample papers used in the first embodiment, that is, the papers other than the sample papers with which the three subjects agree, 40 sheets are extracted and prepared as sample papers, which are shown by 401 in FIG. When image processing obtained by genetic programming was applied, sensory evaluation and image processing evaluation were consistent for 32 out of 40 images. Further, for example, there are six sample sheets with similar evaluations such as sensory evaluation of 3 and image processing evaluation of 2 or 4, and it can be seen that the automatically generated image processing can approximate sensory evaluation.

さらに、本実施の形態1における官能評価の近似解の探索を複数回実行すると、その都度異なる画像処理が作成される。遺伝的アルゴリズム(プログラミング)は、確率変数(乱数)を使用するので、問題にもよるが、探索を最初から実行する度に結果が毎回異なる場合がある。本発明も、探索を最初から実行する度に結果が異なる場合が多いが、何回も実行を重ねることにより、同じ処理をしているところを見つけることができる。この同じ処理をするところ、つまり中心となる処理を見つけることで、検査対象とする対象物の画像処理の特徴が何であるのかを理解することが可能となる。   Furthermore, when the search for the approximate solution for sensory evaluation in the first embodiment is executed a plurality of times, different image processing is created each time. Since the genetic algorithm (programming) uses a random variable (random number), depending on the problem, the result may be different every time the search is executed from the beginning. In the present invention, the result is often different every time the search is executed from the beginning. However, by repeatedly executing the search, it is possible to find a place where the same processing is performed. By performing this same process, that is, by finding a central process, it is possible to understand what the image processing characteristics of the object to be inspected are.

図4の401、402及び403は、図3の近似解の探索を3回実行した結果である。作製される画像処理は異なるが、三つの画像処理において(Sbl(Grd(入力画像)))の共通部分がある。これは入力画像を一次微分し、ソベルフィルタを適用する処理である。このように複数回近似解探索を行うことにより、官能評価を近似するために中心となる処理を得ることもできる。
本実施の形態において、官能評価の近似は、ソベルフィルタなどの一般的な画像処理フィルタを用いることで近似できることが検証された。
401, 402, and 403 in FIG. 4 are the results of executing the approximate solution search in FIG. 3 three times. Although the image processing to be produced is different, there is a common part of (Sbl (Grd (input image))) in the three image processing. This is a process for first-order differentiation of an input image and applying a Sobel filter. By performing the approximate solution search a plurality of times in this way, a central process for approximating the sensory evaluation can be obtained.
In the present embodiment, it was verified that approximation of sensory evaluation can be approximated by using a general image processing filter such as a Sobel filter.

このように、図3の処理を複数回行うことにより、共通の画像処理が出現することがあるので、この処理を官能評価の近似の中心となる処理と考えることができる。このようにして得た処理の使い方として、本実施の形態においては、エッジ抽出が中心となっていることが分かるので、本手法の画像処理フィルタに別のエッジ処理を追加し、探索することも考えられる。   As described above, since the common image processing may appear by performing the processing of FIG. 3 a plurality of times, this processing can be considered as the processing that is the center of approximation of sensory evaluation. As the usage of the processing obtained in this way, in this embodiment, it can be seen that edge extraction is the center, so another edge processing can be added to the image processing filter of this method and searched. Conceivable.

また、一つの特殊なエッジ処理フィルタで官能評価を近似できる可能性も考えられ、また別の考えとして、得た処理だけを用いて他の画像処理による特徴量と多次元ベクトル化する方法もある。このように、使い方は色々考えられるが、本手法は、エッジに特徴があることを自動的に計算で得られることが特徴となっている。   In addition, there is a possibility that sensory evaluation can be approximated with one special edge processing filter. As another idea, there is a method of using only the obtained processing and multi-dimensional vectorization with the feature amount by other image processing. . In this way, there are various ways to use it, but this method is characterized in that it is possible to automatically obtain that there is a feature in the edge.

印刷物の良否を判定する場合には、印刷物の汚れ、かすれ、印刷物の濃度及び色変化等の判定が必要になる。そこで、本発明の画像処理構築方法に係る実施の形態2として、色味の差のある印刷物の画像処理について説明する。   When determining the quality of a printed material, it is necessary to determine whether the printed material is dirty or blurred, the density or color change of the printed material, and the like. Therefore, as a second embodiment of the image processing construction method of the present invention, image processing of a printed matter having a color difference will be described.

(実施の形態2)
サンプル用紙としては、色味の差が大きい印刷物を用意する。
サンプル用紙をスキャナで入力画像として取り込み、取り込んだカラー画像をRGB又はYIQ等の色味成分に分解して画像を複数用意する。実施の形態1では、図2の201の入力画像がすべて同じ画像であったが、本実施の形態2では図2の201で入力画像1がR成分、入力画像2がY成分のように入力画像を特徴の異なる別の画像に割り振ることで、色味等の差を考慮する画像処理の作製が可能である。
(Embodiment 2)
As sample paper, a printed material with a large difference in color is prepared.
Sample paper is captured as an input image by a scanner, and the captured color image is decomposed into color components such as RGB or YIQ to prepare a plurality of images. In the first embodiment, the input images 201 in FIG. 2 are all the same image. However, in the second embodiment, the input image 1 is an R component and the input image 2 is a Y component in 201 in FIG. By assigning an image to another image with different characteristics, it is possible to create an image process that takes into account differences in color and the like.

(実施の形態3)
次に、本発明の画像処理構築方法に係る実施の形態3として、異物の検査などにも用いることが可能である。例えば、印刷における汚れや異物の有無を検出したい場合、正常な印刷物と汚れ等の異常のある印刷物とを分類し、実施の形態1のすき入れを付与した用紙の透過画像(又は反射画像)と官能評価の結果のように、画像と評価値(異物の有り無し)をセットにして計算することにより、異物を捕らえることのできる画像処理を自動構築することが可能になる。
(Embodiment 3)
Next, the third embodiment of the image processing construction method according to the present invention can be used for inspection of foreign matter. For example, when it is desired to detect the presence or absence of dirt or foreign matter in printing, a normal printed matter and a printed matter having an abnormality such as a stain are classified, and a transmission image (or a reflection image) of the paper to which the clearance of Embodiment 1 is applied As a result of sensory evaluation, it is possible to automatically construct an image process capable of catching foreign matter by calculating an image and an evaluation value (with or without foreign matter) as a set.

本実施の形態3において、印刷条件による印刷物の違いに関しての画像処理の自動構築を説明する。例えば、印圧や湿度等の印刷条件の違いにより印刷物の位置ずれが発生する場合がある。この場合において印刷物の位置が正常な印刷物と位置ずれのある印刷物を区分けし(図1の102)、位置のずれ量を図1の103に示す評価値として設定する。図1の104に示す撮像装置から画像として取り込みを行う。印刷位置が正しいものと位置ずれの量をセットにして図1の105に示す探索を行うことにより、印刷物の位置ずれを検出することができる画像処理を自動構築できる。   In the third embodiment, automatic construction of image processing regarding a difference in printed matter depending on printing conditions will be described. For example, there may be a case where the position of the printed material is shifted due to a difference in printing conditions such as printing pressure and humidity. In this case, the printed matter whose position is normal is separated from the printed matter having a positional deviation (102 in FIG. 1), and the positional deviation amount is set as an evaluation value indicated by 103 in FIG. Capture is performed as an image from the imaging apparatus 104 shown in FIG. By performing the search shown in 105 of FIG. 1 with the correct print position and the amount of displacement as a set, image processing that can detect the displacement of the printed matter can be automatically constructed.

(実施の形態4)
次に、本発明の画像処理構築方法に係る実施の形態4として、印刷物の汚染の例として、油汚れの抽出に用いる場合を説明する。判定の対象としてはこれに限定されるものでなく、印刷インキによる汚れ等も含まれる。基本的な構成は実施の形態1と同様である。評価用サンプル101は、油汚れのない印刷物と油汚れの濃さや大きさの異なる10枚の印刷物(以下「サンプル用紙」という。)とを用意する。3人の被験者が油汚れの程度により、正損の判定を図1の102に示す官能評価により行う。正損の判定は被験者の合意によって判定を行った。また、被験者は、評価する際の専門の知識や能力を持った専門パネルである。
(Embodiment 4)
Next, as a fourth embodiment of the image processing construction method according to the present invention, a case where it is used for extraction of oil stains will be described as an example of contamination of printed matter. The determination target is not limited to this, and includes stains caused by printing ink. The basic configuration is the same as in the first embodiment. The evaluation sample 101 is prepared with a printed matter free from oil stains and 10 printed matter (hereinafter referred to as “sample paper”) having different levels and sizes of oil stains. Three test subjects make a judgment of damage based on the degree of oil contamination by the sensory evaluation indicated by 102 in FIG. The judgment of damage was made based on the subject's agreement. The subject is a specialized panel with specialized knowledge and ability for evaluation.

本実施の形態4では、油汚れの濃さにより正損の判定を行ったが、油汚れが許されない場合には、油汚れのないサンプル用紙又は油汚れのあるサンプル用紙で分類を行うことも可能である。   In the fourth embodiment, the damage is determined based on the density of the oil stain. However, when the oil stain is not allowed, the sample paper without oil stain or the sample paper with oil stain may be classified. Is possible.

3人の被験者が分類した正損結果のある10枚のサンプル用紙を、カメラやスキャナ等の撮像装置を用いて512×512画素のカラー画像104として取り込む。油汚れは、淡いものから濃いものまで正損の判定内容に色味成分の影響があることから、カラーの情報を活用するために、カラー画像を色空間における色相(hue)、彩度(saturation value)及び明度(value)(以下「HSV」という。)に色分解した。   Ten sample sheets with the result of damage classified by three subjects are captured as a 512 × 512 pixel color image 104 using an imaging device such as a camera or a scanner. Oil stains are affected by the hue component in the contents of judgment of damage from light to dark, so in order to make use of color information, color images are converted into hues and hues in the color space. value) and lightness (value) (hereinafter referred to as “HSV”).

本実施の形態ではカラー画像をHSVに分解したが、これに限らず色成分への分解であればRGBやYIQ等に分解しても良い。RGBカラー画像表現は、様々な目的のために特に有用な多くの他のカラー座標があり、そのうちの一つは、カラー画像からの色相、強度及び彩度の分離を容易とするHSVは、人間が色を知覚する方法と類似しているので現実的である。   In the present embodiment, the color image is decomposed into HSV. However, the color image is not limited to this, and may be decomposed into RGB, YIQ, or the like as long as it is decomposed into color components. The RGB color image representation has many other color coordinates that are particularly useful for various purposes, one of which is HSV, which facilitates the separation of hue, intensity and saturation from a color image. It is realistic because it is similar to the method of perceiving color.

10枚のサンプル用紙に対して、図2の201に示す入力画像1にはH分、入力画像2にはS成分、入力画像3にはV成分を割り当て、正損の評価値103と対にして図1の105に示すプログラム(装置)に入力する。入力が完了すると、コンピュータ(装置)が実施の形態1と同様に処理を行い、画像処理生成部105で油汚れの程度を抽出し、正損の判別を行う画像処理の自動構築を行う。   For 10 sample sheets, H is assigned to the input image 1 indicated by 201 in FIG. 2, the S component is assigned to the input image 2, and the V component is assigned to the input image 3. To the program (apparatus) 105 shown in FIG. When the input is completed, the computer (apparatus) performs the same processing as in the first embodiment, and the image processing generation unit 105 extracts the degree of oil stains and automatically constructs image processing for determining whether the damage is correct or not.

サンプル用紙ごとに取り込んだ入力画像から、画像フィルタを木構造状に組み合わせた処理プログラムに基づいて木構造状画像処理を行って得られる特徴量と、官能評価による正損の評価値とが近くなるように、遺伝的プログラミングを用いて解の探索を行い、最終的に油汚れの正損判定を行う木構造状の画像処理106を得ることができる。   The feature value obtained by performing tree-structured image processing based on a processing program in which image filters are combined in a tree structure from the input image captured for each sample sheet is close to the evaluation value of the impairment by sensory evaluation As described above, it is possible to obtain a tree-structured image processing 106 that searches for a solution using genetic programming and finally determines whether or not oil stains are correct.

本実施の形態4では、画像処理フィルタFnの数は、近似解の探索が非常に難しいため、最大80個のフィルタの組み合わせになるようにプログラム内のパラメータで制限した。本実施の形態4における個体数は100〜200とした。適応度の算出方法などのパラメータは、実施の形態1と同じである。   In Embodiment 4, the number of image processing filters Fn is limited by parameters in the program so that a maximum of 80 filters can be combined because it is very difficult to search for an approximate solution. The number of individuals in the fourth embodiment is 100 to 200. Parameters such as the fitness calculation method are the same as those in the first embodiment.

本実施の形態4で用いたサンプル用紙以外の用紙、すなわち3人の被験者の合意により正損の分類を行ったサンプル用紙以外の用紙10枚をサンプル用紙として用意し、図4の401に示す遺伝的プログラミングで得られた画像処理を適用したところ、10枚すべてにおいて官能評価による正損の判定と画像処理による正損の判定が一致した。   A sheet other than the sample sheet used in the fourth embodiment, that is, ten sheets other than the sample sheet classified as good or bad by the agreement of the three subjects is prepared as a sample sheet. When the image processing obtained by dynamic programming was applied, the judgment of the damage by the sensory evaluation and the judgment of the damage by the image processing coincided in all 10 sheets.

本実施形態における全体の流れ図である。It is the whole flowchart in this embodiment. 木構造状の画像処理の模式図である。It is a schematic diagram of image processing of a tree structure. 遺伝的プログラミングの処理フロー図である。It is a processing flowchart of genetic programming. LISPのS式で記述した木構造状画像処理の例である。It is an example of the tree-structure-like image processing described by the S expression of LISP.

Claims (5)

官能評価に近似する近似解を探索するための画像処理構築方法であって、
複数の濃淡模様を付与した基材に対して官能評価を行い、少なくとも2種類以上の評価水準に区分し、
前記区分された水準ごとに一定枚数を抽出してサンプルとし、
前記サンプルに対して官能評価による評価値を決定し、
前記サンプルの濃淡模様を撮像装置により透過画像又は反射画像として取り込み、
前記官能評価による評価値と前記取り込んだ透過画像又は反射画像とを対にして記憶装置に記憶し、
前記取り込んだ透過画像又は反射画像に対して画像フィルタを木構造状に組み合わせた処理プログラムにより画像処理し、
前記画像処理した各画像から一つ以上の特徴量を抽出し、
前記抽出した特徴量に対して、前記官能評価による評価値に近似するような近似解を進化的計算法により探索することを特徴とする画像処理構築方法。
An image processing construction method for searching for an approximate solution approximating sensory evaluation,
Perform a sensory evaluation on a substrate with multiple shade patterns, and classify it into at least two types of evaluation levels.
A sample is extracted by extracting a certain number for each of the divided levels,
Determine the evaluation value by sensory evaluation for the sample,
The shade pattern of the sample is captured as a transmission image or a reflection image by an imaging device,
Store the evaluation value by the sensory evaluation and the captured transmission image or reflection image as a pair in a storage device,
Image processing by a processing program combining an image filter in a tree structure with respect to the captured transmission image or reflection image,
Extracting one or more feature quantities from each image processed image;
An image processing construction method characterized by searching for an approximate solution that approximates the evaluation value by the sensory evaluation for the extracted feature amount by an evolutionary calculation method.
前記処理プログラムによる近似解の探索方法は、遺伝的プログラミングである請求項1記載の画像処理構築方法。 The image processing construction method according to claim 1, wherein the approximate solution search method by the processing program is genetic programming. 前記遺伝的プログラミングを用いて近似解の探索を複数回実行することにより、中心となる画像処理を選択する請求項2記載の画像処理構築方法。 The image processing construction method according to claim 2, wherein the central image processing is selected by executing an approximate solution search a plurality of times using the genetic programming. 請求項1、2又は3記載の画像処理構築方法から成る印刷条件に基づいた印刷物の位置ずれ検査又は印刷汚染の検出への利用。 Use of the image processing construction method according to claim 1, 2 or 3 for inspection of misalignment of printed matter based on printing conditions or detection of printing contamination. 前記サンプルがカラーである場合に、前記取り込む透過画像又は反射画像をRGB、HSV又はYIQの色成分に分解し、木構造状に組み合わせた前記処理プログラムの各入力画像に、各色性分の画像として入力することを特徴とする請求項1、2、3又は4記載の画像処理構築方法。 When the sample is color, the captured transmission image or reflection image is decomposed into RGB, HSV, or YIQ color components, and each input image of the processing program combined in a tree structure is used as an image for each color. 5. The image processing construction method according to claim 1, 2, 3 or 4, wherein the input is performed.
JP2007146454A 2007-06-01 2007-06-01 Image processing/constructing method Pending JP2008299687A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007146454A JP2008299687A (en) 2007-06-01 2007-06-01 Image processing/constructing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007146454A JP2008299687A (en) 2007-06-01 2007-06-01 Image processing/constructing method

Publications (1)

Publication Number Publication Date
JP2008299687A true JP2008299687A (en) 2008-12-11

Family

ID=40173137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007146454A Pending JP2008299687A (en) 2007-06-01 2007-06-01 Image processing/constructing method

Country Status (1)

Country Link
JP (1) JP2008299687A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11182650B2 (en) 2017-03-24 2021-11-23 Fujitsu Limited Information processing apparatus to generate a next generation image processing program in genetic programming, control method, and non-transitory computer-readable storage medium for storage program
US11222267B2 (en) 2018-12-20 2022-01-11 Fujitsu Limited Image inspection apparatus, image inspection learning method, and non-transitory computer-readable storage medium for storing image inspection program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11182650B2 (en) 2017-03-24 2021-11-23 Fujitsu Limited Information processing apparatus to generate a next generation image processing program in genetic programming, control method, and non-transitory computer-readable storage medium for storage program
US11222267B2 (en) 2018-12-20 2022-01-11 Fujitsu Limited Image inspection apparatus, image inspection learning method, and non-transitory computer-readable storage medium for storing image inspection program

Similar Documents

Publication Publication Date Title
Omid et al. An expert egg grading system based on machine vision and artificial intelligence techniques
JP5764238B2 (en) Steel pipe internal corrosion analysis apparatus and steel pipe internal corrosion analysis method
CN113808138B (en) Artificial intelligence-based wire and cable surface defect detection method
CN109781733A (en) Flaw detection apparatus, defect detecting method and computer readable storage medium
CN108492294B (en) Method and device for evaluating harmony degree of image colors
CN113095438A (en) Wafer defect classification method and device, system, electronic equipment and storage medium thereof
Valenzuela et al. Quality assessment of lettuce using artificial neural network
JPWO2019151393A1 (en) Food inspection system, food inspection program, food inspection method and food production method
US10726535B2 (en) Automatically generating image datasets for use in image recognition and detection
Jing et al. The fabric defect detection based on CIE L* a* b* color space using 2-D Gabor filter
JP6137288B2 (en) Erythema classification of psoriasis based on random forest
KR20170127269A (en) Method and apparatus for detecting and classifying surface defect of image
JP2002366929A (en) Method and device for extracting failure and defect of printed matter
JP2008299687A (en) Image processing/constructing method
JP7415286B2 (en) Color filter inspection equipment, inspection equipment, color filter inspection method and inspection method
Zaouali et al. Objective evaluation of multidirectional fabric wrinkling using image analysis
JP4171806B2 (en) A method for determining the grade of fruits and vegetables.
JP7404817B2 (en) Learning device, detection device, learning method, and learning program
Ciobanu et al. Iris identification based on optimized lab histograms applied to iris partitions
JP5211810B2 (en) Acupuncture learning device, acupuncture learning method, and computer program
JP2004362440A (en) Character string extracting processor from printed matter
JP7291389B2 (en) Object identification method, information processing device, information processing program, and lighting device
Hernandez et al. Classification of color textures with random field models and neural networks
CA2997335C (en) Automatically generating image datasets for use in image recognition and detection
JP2009265082A (en) Flaw learning apparatus, flaw learning method, and computer program