JP2008287378A - Image identification learning device and printed matter identification device using same - Google Patents

Image identification learning device and printed matter identification device using same Download PDF

Info

Publication number
JP2008287378A
JP2008287378A JP2007129997A JP2007129997A JP2008287378A JP 2008287378 A JP2008287378 A JP 2008287378A JP 2007129997 A JP2007129997 A JP 2007129997A JP 2007129997 A JP2007129997 A JP 2007129997A JP 2008287378 A JP2008287378 A JP 2008287378A
Authority
JP
Japan
Prior art keywords
image
learning
outputting
identification
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007129997A
Other languages
Japanese (ja)
Inventor
Kosuke Yanai
孝介 柳井
Hirotaka Nagayoshi
洋登 永吉
Yutaka Sako
裕 酒匂
Nobuaki Fujimura
宣昭 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Omron Terminal Solutions Corp
Original Assignee
Hitachi Omron Terminal Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Omron Terminal Solutions Corp filed Critical Hitachi Omron Terminal Solutions Corp
Priority to JP2007129997A priority Critical patent/JP2008287378A/en
Publication of JP2008287378A publication Critical patent/JP2008287378A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve a cost problem in collecting a number of learning samples, that a performance of an identification device depends on the quality and number of the learning samples, many learning samples are necessary for image identification of a pattern identification device, and it requires cost. <P>SOLUTION: An image identification learning device for generating a learning sample having various patterns from a less learning samples when an image identification device conducts learning, includes an input means for receiving an input image, and an input means for inputting a parameter that indicates a degree of change in an object or a parameter that indicates an imaging system, uses a means for combining images when the object changes in quantity by a change of a stored image model or images when a photographed image changes by a change of the imaging system to generate a number of images for learning from a less images for learning, and learns the image identification device by the generated images for learning. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は,画像識別機の画像識別学習装置及びそれを用いた印刷物識別装置に関する。   The present invention relates to an image identification learning device of an image classifier and a printed material identification device using the same.

画像識別のためのパタン識別機を学習する際には,多数の学習サンプルが必要となる。学習サンプルの質および数が識別機の性能を決める大きな要因になるが,多数の学習サンプルを収集するためには高いコストがかかる。そのため少数の実際に収集した学習サンプルから,多様なバリエーションを持つ学習用サンプルを人工的に生成する手法が望まれる。   When learning a pattern classifier for image identification, a large number of learning samples are required. The quality and number of learning samples are the major factors that determine the performance of a classifier, but it is expensive to collect a large number of learning samples. Therefore, a technique for artificially generating learning samples having various variations from a small number of actually collected learning samples is desired.

多数の学習サンプルが必要となる原因として,同一対象の劣化・変形が挙げられる。識別対象が劣化・変形する可能性がある場合,劣化・変形した対象のサンプルも識別機の学習に必要となる。従って学習サンプルとして劣化・変形がないものしか入手できない場合,シミュレーションにより劣化・変形したサンプルを人工的に生成する手法は極めて有効である。   The reason for requiring a large number of learning samples is deterioration and deformation of the same object. If there is a possibility that the identification target is deteriorated or deformed, the sample of the deteriorated or deformed target is also necessary for learning the classifier. Therefore, when only learning samples that are not deteriorated or deformed are available, a technique for artificially generating deteriorated or deformed samples by simulation is extremely effective.

また多数の学習サンプルが必要となるもう一つの要因として,撮像系ばらつきがある。撮像機の違いや撮影条件の違いにより,識別対象の画像の輝度や画像における対象の位置などが変化するため,複数の撮像機や撮影条件で対象を撮影し,識別機を学習する必要がある。従って,擬似的に撮像機ばらつきや撮影条件ばらつきをシミュレーションすることにより,学習用サンプル画像数を低減することができる。   Another factor that requires a large number of learning samples is imaging system variation. Because the brightness of the image to be identified and the position of the object in the image change depending on the difference in the image pickup device and the shooting conditions, it is necessary to photograph the object with multiple image pickup devices and shooting conditions to learn the discriminator. . Therefore, the number of learning sample images can be reduced by simulating the variation of the imaging device and the variation of the imaging conditions.

学習サンプルを人工的に生成する手法の例として,特表2006-501554と特開平10-63789がある。   Examples of techniques for artificially generating learning samples include Japanese translations 2006-501554 and Japanese Patent Laid-Open No. 10-63789.

特表2006-501554には,送付物のアドレスラベル読取機を最適化するために,住所や文字などのデジタル情報から学習サンプルを生成する手法が示されている。しかしながら文字の組み合わせやレイアウトの1パターンに対し,対象の品質や状態,印刷状況,撮像系の状態などに対するバリエーションを生成しない。   Special table 2006-501554 describes a method for generating learning samples from digital information such as addresses and characters in order to optimize the address label reader of the delivery. However, no variation is generated for the quality and state of the object, the printing state, the state of the imaging system, etc., for one pattern of character combination or layout.

また特開平10-63789には,学習パタンにノイズを加え,パタン劣化に対してロバストな識別関数を学習データから学習する手法が示されている。しかしながら文字画像の読取時または印刷時におけるパタンの欠損・損傷を表現することを目的としており,対象物体の経年劣化・状態変化などの質的変化を表現するものではない。   Japanese Patent Laid-Open No. 10-63789 discloses a method for learning a discriminant function that is robust against pattern deterioration from learning data by adding noise to the learning pattern. However, it is intended to express pattern loss / damage during character image reading or printing, and does not represent qualitative changes such as aging and state changes of the target object.

特表2006-501554Special table 2006-501554 特開平10-63789JP 10-63789 A

本発明は,多くの学習サンプル数を必要とする画像識別機に対して,少数の学習サンプルから学習を可能とする学習装置を提供するものである。   The present invention provides a learning apparatus that enables learning from a small number of learning samples for an image classifier that requires a large number of learning samples.

本発明は,画像識別機の学習において,
少数の学習サンプルから多様なバリエーションを持つ学習用サンプルを生成することを目的とし,入力画像を受け付ける入力手段と,対象の変化度合いを表すパラメタまたは撮像系を表すパラメタを入力する入力手段を備え,内蔵する画像変化モデルにより,上記対象が質的に変化したときの画像または撮像系の変化により撮影画像が変化したときの画像を合成する手段を用いて,少数の学習用画像から多数の学習用画像を生成し,生成された学習用画像を用いて画像識別機を学習する。
In the learning of the image classifier, the present invention
For the purpose of generating learning samples with various variations from a small number of learning samples, it has an input means for receiving an input image, and an input means for inputting a parameter representing the degree of change of an object or a parameter representing an imaging system, Use the built-in image change model to synthesize a large number of learning images from a small number of learning images by using a means to synthesize the images when the target changes qualitatively or when the captured image changes due to changes in the imaging system. An image is generated, and the image classifier is learned using the generated learning image.

上記構成により,本発明は,少数のサンプル画像から多様なバリエーションの画像を生成できるので,サンプル画像の数が少ないときでも,画像識別機の学習が可能となる。また劣化や変形,汚れの付着,撮像系のばらつきなどを予測して画像を生成するので,これらの影響により識別対象の画像が変化した場合でも,正しく識別することが可能となる。   With the above configuration, the present invention can generate various variations of images from a small number of sample images, so that the image classifier can learn even when the number of sample images is small. Further, since an image is generated by predicting deterioration, deformation, adhesion of dirt, variation in imaging system, etc., it is possible to correctly identify even if the image to be identified changes due to these effects.

以下,本発明の実施例1を図面を用いて説明する。学習用画像の出力はプログラムにより行う。   Embodiment 1 of the present invention will be described below with reference to the drawings. The learning image is output by a program.

図1は本発明における画像識別機学習装置のデータの流れを示したものである。本発明は画像変化モデル102を内部に備え,これは補助記憶207に保持されている。画像変化モデル102は識別対象の解析および撮像系の解析により事前に得られる。   FIG. 1 shows the data flow of the image classifier learning apparatus according to the present invention. The present invention includes an image change model 102 therein, which is held in the auxiliary memory 207. The image change model 102 is obtained in advance by analysis of an identification target and analysis of an imaging system.

本発明を利用するときは,まず画像変化モデル用パラメタ101を決定する。次に少数のサンプル画像を用意し,これを入力用画像100として,画像変化モデル用パラメタ101とともに画像変化モデル102に入力する。画像変化モデル102から多数の学習用画像103が得られる。1枚の入力用画像につき1枚以上の学習用画像を出力するので,学習用サンプル画像の枚数を増やすことが可能となる。続いて得られた学習用画像103と識別機学習プログラム用パラメタ105を,識別機学習プログラム104に入力し,識別機を学習して学習結果106を出力する。   When using the present invention, first the image change model parameter 101 is determined. Next, a small number of sample images are prepared and input to the image change model 102 together with the image change model parameters 101 as input images 100. A large number of learning images 103 are obtained from the image change model 102. Since one or more learning images are output for each input image, the number of learning sample images can be increased. Subsequently, the obtained learning image 103 and classifier learning program parameter 105 are input to the classifier learning program 104, the classifier is learned, and a learning result 106 is output.

図2は本発明における画像識別機学習装置のブロック図であり,200はバス,201は本発明の画像出力プログラムにより生成される識別機学習用画像の基となる画像を入力する画像入力装置,202は本発明の画像出力プログラムのパラメタおよび画像識別機学習装置のパラメタを入力する例えばキーボードなどのパラメタ入力装置,203は本発明の画像出力プログラムにより生成した識別機学習用画像を出力する画像出力装置,204は本発明により画像識別機を学習したときの出力結果を出力する学習結果出力装置,205はCPU,206は主記憶,207はプログラムやデータなどを格納する例えばフラッシュメモリやHDDなどの補助記憶である。   FIG. 2 is a block diagram of an image discriminator learning device according to the present invention, in which 200 is a bus, 201 is an image input device for inputting an image serving as a basis of an image for discriminator learning generated by the image output program of the present invention, 202 is a parameter input device such as a keyboard for inputting the parameters of the image output program of the present invention and the parameters of the image discriminator learning device, and 203 is an image output for outputting the discriminator learning image generated by the image output program of the present invention. 204, a learning result output device for outputting an output result when learning an image discriminator according to the present invention, 205, a CPU, 206, a main memory, 207 for storing programs and data, such as a flash memory or HDD Auxiliary memory.

本発明の動作を,図3のフローチャートを用いて説明する。まず入力画像100から学習用画像103を合成し(300),続いて画像識別機を学習する(301)。   The operation of the present invention will be described with reference to the flowchart of FIG. First, the learning image 103 is synthesized from the input image 100 (300), and then the image classifier is learned (301).

学習用画像の合成(300)の詳細を図4を用いて説明する。まず画像入力装置201により,学習用画像の基となる画像を取得する(400)。次にパラメタ入力装置202により画像変化モデル用パラメタを取得する(401)。画像変化モデル用パラメタとは,例えば劣化度分布モデルパラメタ,変形度分布モデルパラメタ,汚れ度分布モデルパラメタ,落書き度分布モデルパラメタ,物理的損傷度分布モデルパラメタなどである。これらのパラメタの詳細については後述する。続く402から407まではループ処理となっており,すべての入力画像に対して繰り返し実行する。   Details of the synthesis (300) of the learning image will be described with reference to FIG. First, an image serving as a basis for a learning image is acquired by the image input device 201 (400). Next, parameters for the image change model are acquired by the parameter input device 202 (401). The image change model parameters are, for example, a deterioration degree distribution model parameter, a deformation degree distribution model parameter, a dirt degree distribution model parameter, a graffiti degree distribution model parameter, a physical damage degree distribution model parameter, and the like. Details of these parameters will be described later. The subsequent steps 402 to 407 are a loop process, and are repeatedly executed for all input images.

ループA内において,403から406まではループ処理となっており,1つの入力画像に対しn回繰り返し実行する。nは入力1画像あたりの生成する学習用画像数を表している。ループB内では,まず入力画像に対して対象の質的変化をシミュレーションし(404),続いて撮像系の変化をシミュレーションする(405)。   In the loop A, the processing from 403 to 406 is a loop process, and is repeatedly executed n times for one input image. n represents the number of learning images generated per input image. In the loop B, first, a qualitative change of an object is simulated with respect to an input image (404), and then a change of an imaging system is simulated (405).

対象の質的変化のシミュレーション(404)は,図5に示すように,まず経年劣化などにより対象の全体的な色が変化したときの画像を生成し(500),次に対象の大きさや形が変形したときの画像を生成し(501),対象にしみなどの汚れが付着したときの画像を生成し(502),対象に落書きがなされたときの画像を生成し(503),対象が破れや穴,しわ,へこみなどの物理的破損をしたときの画像を生成する(504)。   As shown in FIG. 5, the simulation (404) of the qualitative change of the object first generates an image when the overall color of the object changes due to aging (500), and then the size and shape of the object. Is generated (501), an image when a stain such as a stain is attached to the target is generated (502), an image when a graffiti is made on the target is generated (503), and the target is An image when a physical breakage such as a tear, a hole, a wrinkle, or a dent is generated is generated (504).

図5の処理は直列に起こるが,それぞれの処理のパラメタに依っては,処理がなされないこともある。例えばあるパラメタでは,変形処理と汚れ処理は行われるが,その他の処理が行われない。   Although the processing of FIG. 5 occurs in series, depending on the parameters of each processing, the processing may not be performed. For example, for some parameters, deformation processing and dirt processing are performed, but other processing is not performed.

撮像系の変化のシミュレーション(405)は,図6に示すように,まずセンサ出力のばらつきなどの撮像機ばらつきに関する処理を行い(600),その後に対象の位置や光源の変化などの撮像条件ばらつきに関する処理を行う(601)。   As shown in FIG. 6, the imaging system change simulation (405) first performs processing related to imaging device variations such as sensor output variations (600), and thereafter changes in imaging conditions such as changes in target position and light source. (601).

図5における対象画像の全体的な色を変化させる処理(500)の詳細を図7を用いて説明する。まず画像変化モデル用パラメタのうち劣化度分布モデルパラメタを使って,劣化度分布を決定する(700)。ここで劣化度とは対象の経年劣化を抽象化した量であり,劣化度分布とは各劣化度の生起確率を示す確率分布である。劣化度分布モデルパラメタを決定すると,劣化度分布が一意に決まるようになっている。以下,分布のモデルパラメタとは,分布を一意に決めるようなパラメタのことを指す。   Details of the process (500) for changing the overall color of the target image in FIG. 5 will be described with reference to FIG. First, the degradation degree distribution is determined using the degradation degree distribution model parameter among the image change model parameters (700). Here, the degree of deterioration is an amount obtained by abstracting the aging deterioration of the target, and the degree of deterioration distribution is a probability distribution indicating the occurrence probability of each degree of deterioration. When the deterioration degree distribution model parameter is determined, the deterioration degree distribution is uniquely determined. Hereinafter, the distribution model parameter refers to a parameter that uniquely determines the distribution.

例えば,正規分布のモデルパラメタは平均と分散である。次に劣化度分布に従って劣化度をランダムに決定し(701),劣化度に従って対象画像の輝度を変化させる(702)。例えば,座標(x,y)の画素値ベクトルをI(x,y)とし,劣化度をrとすると,I(x,y)をI(x,y)+F(I(x,y),r)と変化させる。ここでFは劣化度がrで画素値がI(x,y)のときの画素値の変動分を表す。Fは事前の識別対象の解析により得られる。   For example, the normal distribution model parameters are mean and variance. Next, the deterioration degree is randomly determined according to the deterioration degree distribution (701), and the luminance of the target image is changed according to the deterioration degree (702). For example, if the pixel value vector at the coordinates (x, y) is I (x, y) and the degree of deterioration is r, I (x, y) is I (x, y) + F (I (x, y) , r). Here, F represents the variation of the pixel value when the degree of deterioration is r and the pixel value is I (x, y). F is obtained by analyzing the identification object in advance.

例えば,まず識別対象を劣化度合い別に見た目で分類し,劣化度ごと,輝度値ごとに基準となる対象画像からどれだけ輝度が変化するかを調べる。得られたデータを線形回帰することによりFが得られる。続いて,2次元平面上にランダムな輝度を持つ有限個の点を配置し,それらの点の間を滑らかに補完することにより図14に例として示すような画像を作成し,これを対象画像に足しこむ(703)。この処理により,対象の劣化により生じるランダムな色むらを表現する。   For example, first, the identification target is classified according to the degree of deterioration, and it is examined how much the luminance changes from the reference target image for each degree of deterioration and for each luminance value. F is obtained by performing linear regression on the obtained data. Subsequently, a finite number of points having random luminance are arranged on a two-dimensional plane, and an image as shown in FIG. 14 is created by smoothly interpolating between the points. Add (703). By this processing, random color unevenness caused by the deterioration of the object is expressed.

図5における変形処理(501)の詳細を図8を用いて説明する。まず画像変化モデル用パラメタのうち変形度分布モデルパラメタを使って,変形度分布を決定する(800)。ここで変形度とは大きさと歪みの変化を抽象化した量であり,変形度分布とは各変形度の生起確率を示す確率分布である。変形度分布モデルパラメタを決定すると,変形度分布が一意に決まるようになっている。次に変形度分布に従って変形度をランダムに決定し(801),続いて変形度に従って対象画像の大きさ,歪みを変化させる。   Details of the transformation process (501) in FIG. 5 will be described with reference to FIG. First, the deformation distribution is determined using the deformation distribution model parameter among the image change model parameters (800). Here, the degree of deformation is an amount obtained by abstracting changes in size and distortion, and the degree of deformation distribution is a probability distribution indicating the occurrence probability of each degree of deformation. When the deformation distribution model parameter is determined, the deformation distribution is uniquely determined. Next, the degree of deformation is randomly determined according to the degree of distribution (801), and then the size and distortion of the target image are changed according to the degree of deformation.

図5における汚れ処理(502)の詳細を図9を用いて説明する。まず画像変化モデル用パラメタのうち汚れ度分布モデルパラメタを使って,汚れ度分布を決定する(900)。ここで汚れ度とはしみや油汚れなどの色,大きさを抽象化した量であり,汚れ度分布とは各汚れ度の生起確率を示す確率分布である。汚れ度分布モデルパラメタを決定すると,汚れ度分布が一意に決まるようになっている。次に汚れ度分布に従って汚れ度をランダムに決定する(901)。続いて汚れを付着させる場所を決定し(902),汚れの形を決定し(903),汚れ度に従って汚れの大きさ,色を決定する(904)。   Details of the stain processing (502) in FIG. 5 will be described with reference to FIG. First, the contamination distribution is determined using the contamination distribution model parameter among the image change model parameters (900). Here, the degree of contamination is an amount obtained by abstracting the color and size of stains and oil stains, and the degree of contamination distribution is a probability distribution indicating the occurrence probability of each degree of contamination. When the contamination degree distribution model parameter is determined, the contamination degree distribution is uniquely determined. Next, the degree of dirt is determined at random according to the degree of dirt distribution (901). Subsequently, a place where dirt is to be adhered is determined (902), the shape of the dirt is determined (903), and the size and color of the dirt are determined according to the degree of dirt (904).

汚れを付着させる場所は,事前に対象画像を解析することにより,汚れの付着位置に関する確率分布を調べ,それに従って場所を決める。汚れの形に関しては,事前に対象に付着している汚れの形を調べてデータベース化しておき,データベースの中からランダムに形を選択する。また汚れの大きさ,色は,画像変化モデルにより汚れ度rの関数として,Size(r),Color(r)のように表されている。Size(r),Color(r)に関しては,事前の対象画像の解析により得られる。   The location where the dirt is to be deposited is determined by examining the probability distribution regarding the location where the dirt is deposited by analyzing the target image in advance. Regarding the shape of dirt, the shape of dirt adhering to the object is examined in advance to create a database, and the shape is randomly selected from the database. Also, the size and color of the dirt are expressed as Size (r) and Color (r) as a function of the degree of dirt r by the image change model. Size (r) and Color (r) can be obtained by analyzing the target image in advance.

例えば,汚れが付着している識別対象を集め,それらを汚れ度合い別に見た目で分類し,大きさ,色に関するデータを収集する。得られたデータを線形回帰することにより,Size(r),Color(r)が得られる。続いて汚れ画像を発生させ,それを対象画像と合成することにより,汚れつきの対象画像を生成する(905)。   For example, identification objects to which dirt is attached are collected, classified according to the degree of dirt, and data on size and color is collected. Size (r) and Color (r) are obtained by performing linear regression on the obtained data. Subsequently, a dirty image is generated and synthesized with the target image, thereby generating a dirty target image (905).

図5における落書き処理(503)の詳細を図10を用いて説明する。まず画像変化モデル用パラメタのうち落書き度分布モデルパラメタを使って,落書き度分布を決定する(1000)。ここで落書き度とは対象に書かれた落書きの長さを表す量であり,落書き度分布とは各落書き度の生起確率を示す確率分布である。落書き度は落書きの長さLと等価な量であるが,便宜上,値がスケーリングされている。   Details of the graffiti process (503) in FIG. 5 will be described with reference to FIG. First, the graffiti distribution is determined using the graffiti distribution model parameter among the image change model parameters (1000). Here, the graffiti degree is a quantity representing the length of the graffiti written on the object, and the graffiti degree distribution is a probability distribution indicating the occurrence probability of each graffiti degree. The graffiti degree is an amount equivalent to the length L of the graffiti, but the value is scaled for convenience.

落書き度分布モデルパラメタを決定すると,落書き度分布が一意に決まるようになっている。次に落書き度分布に従って落書き度をランダムに決定する(1001)。続いて落書きの場所を決定し(1002),落書き度から落書きの長さLを決定する(1003)。例えば,汚れを付着させる場所は,事前に対象画像を解析することにより,落書きの位置に関する確率分布を調べ,それに従って場所を決める。続く1004から1006まではループ処理となっている。ループC内では,ランダムな方向に線分を伸ばしていくことにより落書きを生成していく(1005)。落書きの長さがL以上になるとループを終了する。生成された落書き画像と対象画像を合成し(1007),落書き処理は終了する。   When the graffiti degree distribution model parameter is determined, the graffiti degree distribution is uniquely determined. Next, the graffiti degree is determined at random according to the graffiti degree distribution (1001). Subsequently, the location of the graffiti is determined (1002), and the length L of the graffiti is determined from the degree of graffiti (1003). For example, the place where the dirt is attached is analyzed in advance by examining the target image, and the probability distribution regarding the graffiti position is examined, and the place is determined accordingly. The subsequent steps 1004 to 1006 are loop processing. In the loop C, a graffiti is generated by extending a line segment in a random direction (1005). The loop ends when the length of the graffiti exceeds L. The generated graffiti image and the target image are combined (1007), and the graffiti process ends.

図5における物理的損傷処理(504)の詳細を図11を用いて説明する。まず物理的損傷の種類を決定し(1100),画像変化モデル用パラメタから物理的損傷度分布を決定する。ここで物理的損傷度とは対象の物理的損傷の度合いを抽象化した量であり,物理的損傷度分布とは各物理的損傷度の生起確率を表す確率分布である。物理的損傷度分布モデルパラメタを決定すると物理的損傷度分布が一意に決まるようになっている。   Details of the physical damage processing (504) in FIG. 5 will be described with reference to FIG. First, the type of physical damage is determined (1100), and the physical damage degree distribution is determined from the image change model parameters. Here, the physical damage degree is an amount obtained by abstracting the degree of physical damage of a target, and the physical damage degree distribution is a probability distribution representing the occurrence probability of each physical damage degree. When the physical damage degree distribution model parameter is determined, the physical damage degree distribution is uniquely determined.

次に物理的損傷度分布に従って物理的損傷度をランダムに決定し(1102),物理的損傷の場所を決定する(1103)。続いて物理的損傷画像を生成し,これを対象画像と合成する(1104)。ここで物理的損傷の種類,物理的損傷度に対応する物理的損傷の画像,物理的損傷の場所に関する確率分布は,事前に対象画像を解析することにより得られる。   Next, the physical damage degree is randomly determined according to the physical damage degree distribution (1102), and the location of the physical damage is determined (1103). Subsequently, a physical damage image is generated and combined with the target image (1104). Here, the type of physical damage, the physical damage image corresponding to the physical damage level, and the probability distribution regarding the location of the physical damage can be obtained by analyzing the target image in advance.

例えば,物理的損傷がある識別対象を集め,どの程度の頻度でどの種類の物理的損傷があるかを調べる。また物理的損傷の種類それぞれに対して,どの場所にどの割合でその損傷が起こりやすいかを調べる。   For example, identification objects having physical damage are collected, and how often and what kind of physical damage is detected. Also, for each type of physical damage, examine where and where the damage is likely to occur.

さらに,物理的損傷の種類それぞれに対して,損傷度合い別に見た目で分類し,物理的損傷画像をデータベース化しておく。物理的損傷画像を生成する際は,物理的損傷の種類と物理的損傷度に従って,データベースの中からランダムに画像を選ぶ。   Furthermore, each physical damage type is classified according to the degree of damage, and the physical damage images are stored in a database. When generating a physical damage image, an image is randomly selected from the database according to the type of physical damage and the degree of physical damage.

図6における撮像機ばらつき処理(600)の詳細を図12を用いて説明する。撮像機ばらつき処理では,仮想的に異なる撮像機で対象画像が撮影されたものと仮定して,そのときに得られる画像に近い画像を出力する。まず仮想的な撮像機種を決定し(1200),撮像機の違いによる輝度の変動分を算出し(1201),これを対象画像に足しこむ(1202)。異なる機種を用いた場合,どの程度輝度が変動するかを事前に調べておく。   Details of the imaging device variation processing (600) in FIG. 6 will be described with reference to FIG. In the imaging device variation processing, it is assumed that the target image is taken by a virtually different imaging device, and an image close to the image obtained at that time is output. First, a virtual imaging model is determined (1200), a luminance variation due to a difference between imaging machines is calculated (1201), and this is added to the target image (1202). If different models are used, check in advance how much the brightness varies.

図6における撮像条件ばらつき処理(601)の詳細を図13を用いて説明する。撮像条件ばらつき処理では,仮想的に光源や対象物体の位置などが異なる撮像条件で対象画像が撮影されたものと仮定して,そのときに得られる画像に近い画像を出力する。まず仮想的な撮影条件を決定し(1300),光源の変化による輝度変動を算出し(1301),対象の位置ずれによる画像における位置変動を算出する(1302)。続いて算出された値に基づいて画像を合成する(1303)。光源の変化によりどのくらい輝度が変動するか,対象の位置が画像の中で何ピクセル変動するかは,事前に複数回,同一機種で対象を撮影して調べておく。   Details of the imaging condition variation process (601) in FIG. 6 will be described with reference to FIG. In the imaging condition variation processing, it is assumed that the target image has been captured under imaging conditions in which the light source and the position of the target object are virtually different, and an image close to the image obtained at that time is output. First, a virtual photographing condition is determined (1300), a luminance variation due to a change in the light source is calculated (1301), and a positional variation in the image due to a positional shift of the target is calculated (1302). Subsequently, an image is synthesized based on the calculated value (1303). To determine how much the luminance changes due to changes in the light source and how many pixels the target position fluctuates in the image, the subject is imaged multiple times in advance and examined.

以下,本発明の実施例2を説明する。実施例1では学習用画像を生成する装置と画像識別機を学習する装置がパッケージ化されていたが,学習用画像を生成する装置単独で本発明を実施することも可能である。学習用画像生成装置単独で実施する場合のブロック図を図15に示す。   Embodiment 2 of the present invention will be described below. In the first embodiment, the learning image generating device and the image discriminator learning device are packaged. However, the present invention can also be implemented by a learning image generating device alone. FIG. 15 shows a block diagram in the case where the learning image generating apparatus alone is implemented.

1500はバス,1501は本発明の画像出力プログラムにより生成される識別機学習用画像の基となる画像を入力する画像入力装置,1502は本発明の画像出力プログラムのパラメタおよび画像識別機学習装置のパラメタを入力する例えばキーボードなどのパラメタ入力装置,1503は本発明の画像出力プログラムにより生成した識別機学習用画像を出力する画像出力装置,1504はCPU,1505は主記憶,1506はプログラムやデータなどを格納する例えばフラッシュメモリやHDDなどの補助記憶である。   1500 is a bus, 1501 is an image input device for inputting an image as a basis of an image for classifier learning generated by the image output program of the present invention, 1502 is a parameter of the image output program of the present invention, and an image classifier learning device. For example, a parameter input device such as a keyboard for inputting parameters, 1503 an image output device for outputting a classifier learning image generated by the image output program of the present invention, 1504 a CPU, 1505 a main memory, 1506 a program or data, etc. For example, an auxiliary storage such as a flash memory or HDD.

以下,本発明の実施例3を説明する。実施例1の画像識別学習装置は印刷物識別機の学習に適用することが可能である。実施例1の画像識別学習装置を印刷物識別機に適応したときのブロック図を図16に示す。   Embodiment 3 of the present invention will be described below. The image identification learning device according to the first embodiment can be applied to learning of a printed material classifier. FIG. 16 shows a block diagram when the image identification learning apparatus of the first embodiment is applied to a printed matter classifier.

1600は実施例1の画像識別機学習装置であり,1601は印刷物識別装置である。まず印刷物識別装置1601により印刷物の画像を読み取り,それを画像識別機学習装置1600に渡す。画像識別機学習装置1600では,学習用画像のサンプル数を増やし,識別機の学習を行い,結果を印刷物識別装置1601に返す。   Reference numeral 1600 denotes an image classifier learning apparatus according to the first embodiment, and reference numeral 1601 denotes a printed matter identification apparatus. First, an image of a printed material is read by the printed material identification device 1601 and transferred to the image classifier learning device 1600. The image discriminator learning device 1600 increases the number of learning image samples, learns the discriminator, and returns the result to the printed matter discriminating device 1601.

本発明は,印刷物識別,顔認証,危険物検知などを行う装置の学習に適する。   The present invention is suitable for learning of a device that performs printed matter identification, face authentication, dangerous material detection, and the like.

画像識別機学習装置のデータの流れData flow of image classifier learning device 画像識別機学習装置のブロック図Block diagram of image classifier learning device 画像識別機学習のフローチャートImage classifier learning flowchart 入力画像から学習用画像を合成する処理のフローチャートFlow chart of processing for synthesizing learning image from input image 対象の質的変化の処理のフローチャートFlow chart of processing of qualitative change 撮像系変化の処理のフローチャートFlow chart of imaging system change processing 対象画像の全体的な色変化処理のフローチャートFlow chart of overall color change processing of target image 変形処理のフローチャートFlow chart of deformation process 汚れ処理のフローチャートDirt processing flowchart 落書き処理のフローチャートDoodle processing flowchart 物理的損傷処理のフローチャートPhysical damage process flowchart 撮像機ばらつき処理のフローチャートFlow chart of imaging device variation processing 撮影条件ばらつき処理のフローチャートFlow chart of shooting condition variation processing ランダムノイズの平滑化画像Random noise smoothed image 画像識別機学習用画像出力装置のブロック図Block diagram of image output device for learning image classifier 画像識別機学習装置付き印刷物識別装置のブロック図Block diagram of printed matter identification device with image identifier learning device

符号の説明Explanation of symbols

100 バス,101 画像入力装置,102 パラメタ入力装置,103 画像出力装置,104 学習結果出力装置,105 CPU,106 主記憶,107 補助記憶,1500 バス,1501 画像入力装置,1502 パラメタ入力装置,1503 画像出力装置, 1504 CPU,1505 主記憶,1506 補助記憶,1600 画像識別機学習装置, 1601 印刷物識別装置。 100 bus, 101 image input device, 102 parameter input device, 103 image output device, 104 learning result output device, 105 CPU, 106 main memory, 107 auxiliary memory, 1500 bus, 1501 image input device, 1502 parameter input device, 1503 image Output device, 1504 CPU, 1505 main memory, 1506 auxiliary memory, 1600 image classifier learning device, 1601 printed matter identification device.

Claims (6)

識別対象の画像が入力される入力部と、前記識別対象の画像に変化度合いを表すパラメタを適用して学習用画像を出力する手段と、前記学習用画像から画像識別機を学習する手段とを備え、
前記変化度合いを表すパラメタを適用して学習用画像を出力する手段は、上記識別対象の画像が劣化した画像を出力する手段,上記識別対象の画像が変形した画像を出力する手段,上記識別対象の画像に汚れが付着した画像を出力する手段,上記識別対象の画像に落書きがなされた画像を出力する手段,上記識別対象の画像が物理的に損傷した画像を出力する手段とを備えることを特徴とする画像識別学習装置。
An input unit for inputting an image to be identified; means for outputting a learning image by applying a parameter representing a degree of change to the image to be identified; and means for learning an image classifier from the learning image Prepared,
The means for outputting the learning image by applying the parameter representing the degree of change includes means for outputting an image in which the image to be identified is deteriorated, means for outputting an image in which the image to be identified is deformed, and the identification object Means for outputting an image in which dirt is attached to the image, a means for outputting an image in which a graffiti is made on the identification target image, and a means for outputting an image in which the identification target image is physically damaged. A characteristic image identification learning apparatus.
識別対象の画像が入力される入力部と、識別対象の画像に撮像系を表すパラメタを適用して学習用画像を出力する手段と、前記学習用画像から画像識別機を学習する手段とを備え、
前記撮像系を表すパラメタを適用して学習用画像を出力する手段は、上記識別対象を異なる撮像系で撮影した画像を出力する手段,又は上記識別対象を異なる撮影条件で撮影した画像を出力する手段をとを備えることを特徴とする画像識別学習装置。
An input unit for inputting an image to be identified, means for outputting a learning image by applying a parameter representing an imaging system to the image to be identified, and means for learning an image classifier from the learning image ,
The means for outputting the learning image by applying the parameter representing the imaging system outputs the image obtained by photographing the identification target with a different imaging system, or outputs the image obtained by photographing the identification target under different photographing conditions. An image identification learning device comprising: means.
前記識別対象が劣化したときの画像を出力する手段は、乱数により濃淡を決定した画像を平滑化したものを,識別対象画像に足し合わせた画像を出力することにより,1つの入力画像から,多様なバリエーションを持つ複数の画像を出力する手段であることを特徴とする請求項1記載の画像識別学習装置   The means for outputting an image when the identification target is deteriorated is obtained by outputting an image obtained by adding a smoothed image determined by randomness to the identification target image and outputting various images from one input image. 2. The image identification learning apparatus according to claim 1, wherein the image identification learning apparatus is a means for outputting a plurality of images having various variations. 各画素において,輝度値または周囲の画像パタンに依存して輝度値の変化量を決めることにより,変化させた画像を出力する手段を備えることを特徴とする請求項1又は2に記載の画像識別学習装置。   3. The image identification according to claim 1, further comprising means for outputting a changed image by determining a change amount of the luminance value depending on the luminance value or a surrounding image pattern in each pixel. Learning device. 前記識別対象の画像に落書きなされた画像を出力する手段は、ランダムな方向に線分または曲線を延ばすことにより,落書き画像を生成する手段であることを特徴とする請求項1記載の画像識別学習装置。   2. The image identification learning according to claim 1, wherein the means for outputting the image that is made a graffiti on the image to be identified is a means for generating a graffiti image by extending a line segment or a curve in a random direction. apparatus. 請求項1又は2に記載の画像識別学習装置を備えることを特徴とする印刷物識別装置。   A printed matter identification apparatus comprising the image identification learning device according to claim 1.
JP2007129997A 2007-05-16 2007-05-16 Image identification learning device and printed matter identification device using same Pending JP2008287378A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007129997A JP2008287378A (en) 2007-05-16 2007-05-16 Image identification learning device and printed matter identification device using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007129997A JP2008287378A (en) 2007-05-16 2007-05-16 Image identification learning device and printed matter identification device using same

Publications (1)

Publication Number Publication Date
JP2008287378A true JP2008287378A (en) 2008-11-27

Family

ID=40147056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007129997A Pending JP2008287378A (en) 2007-05-16 2007-05-16 Image identification learning device and printed matter identification device using same

Country Status (1)

Country Link
JP (1) JP2008287378A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8873839B2 (en) 2009-10-16 2014-10-28 Canon Kabushiki Kaisha Apparatus of learning recognition dictionary, and method of learning recognition dictionary
WO2015083199A1 (en) * 2013-12-04 2015-06-11 J Tech Solutions, Inc. Computer device and method executed by the computer device
JP2017174350A (en) * 2016-03-25 2017-09-28 本田技研工業株式会社 Teacher data generation method
WO2017168898A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Information processing apparatus
JP2018116589A (en) * 2017-01-20 2018-07-26 Kddi株式会社 State identification device, program and method using changed image group of object image
JP2018153872A (en) * 2017-03-15 2018-10-04 ファナック株式会社 Cleaning process optimization apparatus and machine learning apparatus
WO2019021855A1 (en) * 2017-07-27 2019-01-31 三菱日立パワーシステムズ株式会社 Model learning device, method for learned model generation, program, learned model, monitoring device, and monitoring method
JP2019111637A (en) * 2017-12-26 2019-07-11 ファナック株式会社 Chip removal device and information processing device
WO2020022024A1 (en) * 2018-07-25 2020-01-30 富士フイルム株式会社 Machine learning model generation device, method, program, inspection device, inspection method, and print device
JP2023033639A (en) * 2018-07-31 2023-03-10 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP7451392B2 (en) 2020-12-28 2024-03-18 住友重機械工業株式会社 Image processing device, image processing method, image processing program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8873839B2 (en) 2009-10-16 2014-10-28 Canon Kabushiki Kaisha Apparatus of learning recognition dictionary, and method of learning recognition dictionary
WO2015083199A1 (en) * 2013-12-04 2015-06-11 J Tech Solutions, Inc. Computer device and method executed by the computer device
US10311317B2 (en) 2016-03-25 2019-06-04 Honda Motor Co., Ltd. Teacher data generation method
JP2017174350A (en) * 2016-03-25 2017-09-28 本田技研工業株式会社 Teacher data generation method
WO2017168898A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Information processing apparatus
JP2018116589A (en) * 2017-01-20 2018-07-26 Kddi株式会社 State identification device, program and method using changed image group of object image
JP2018153872A (en) * 2017-03-15 2018-10-04 ファナック株式会社 Cleaning process optimization apparatus and machine learning apparatus
US10754312B2 (en) 2017-03-15 2020-08-25 Fanuc Corporation Cleaning process optimization device and machine learning device
KR102395357B1 (en) * 2017-07-27 2022-05-06 미츠비시 파워 가부시키가이샤 Model training device, method for generating a trained model, a program, a trained model, a monitoring device, and a monitoring method
WO2019021855A1 (en) * 2017-07-27 2019-01-31 三菱日立パワーシステムズ株式会社 Model learning device, method for learned model generation, program, learned model, monitoring device, and monitoring method
US11416705B2 (en) 2017-07-27 2022-08-16 Mitsubishi Heavy Industries, Ltd. Model learning device, method for learned model generation, program, learned model, monitoring device, and monitoring method
KR20200017521A (en) * 2017-07-27 2020-02-18 미츠비시 히타치 파워 시스템즈 가부시키가이샤 Model training device, generation method of learning completion model, program, training completion model, monitoring device, and monitoring method
JP2019028591A (en) * 2017-07-27 2019-02-21 三菱日立パワーシステムズ株式会社 Model learning device, generation method of learnt model, program, learnt model, monitoring device, and monitoring method
US10962960B2 (en) 2017-12-26 2021-03-30 Fanuc Corporation Chip removal apparatus and information processing apparatus
JP2019111637A (en) * 2017-12-26 2019-07-11 ファナック株式会社 Chip removal device and information processing device
JPWO2020022024A1 (en) * 2018-07-25 2021-08-02 富士フイルム株式会社 Machine learning model generators, methods, programs, inspection equipment and inspection methods, and printing equipment
JP7110349B2 (en) 2018-07-25 2022-08-01 富士フイルム株式会社 Machine learning model generation device, method, program, inspection device and method, and printing device
WO2020022024A1 (en) * 2018-07-25 2020-01-30 富士フイルム株式会社 Machine learning model generation device, method, program, inspection device, inspection method, and print device
US11820132B2 (en) 2018-07-25 2023-11-21 Fujifilm Corporation Machine learning model generation device, machine learning model generation method, program, inspection device, inspection method, and printing device
JP2023033639A (en) * 2018-07-31 2023-03-10 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP7463575B2 (en) 2018-07-31 2024-04-08 キヤノン株式会社 Information processing device, information processing method, and program
JP7451392B2 (en) 2020-12-28 2024-03-18 住友重機械工業株式会社 Image processing device, image processing method, image processing program

Similar Documents

Publication Publication Date Title
JP2008287378A (en) Image identification learning device and printed matter identification device using same
CN107392218B (en) Vehicle loss assessment method and device based on image and electronic equipment
JP6792842B2 (en) Visual inspection equipment, conversion data generation equipment, and programs
CN107403424B (en) Vehicle loss assessment method and device based on image and electronic equipment
JP6868119B2 (en) Holographic anti-counterfeit code inspection method and equipment
CN107316047A (en) Image processing apparatus, image processing method and storage medium
CN110569864A (en) vehicle loss image generation method and device based on GAN network
JP7054436B2 (en) Detection system, information processing device, evaluation method and program
CN103778621B (en) The recognition methods of foreign objects fragment
CN111325717B (en) Mobile phone defect position identification method and equipment
CN112598627A (en) Method, system, electronic device and medium for detecting image defects
CN109934873B (en) Method, device and equipment for acquiring marked image
CN113505781B (en) Target detection method, target detection device, electronic equipment and readable storage medium
CN112258507B (en) Target object detection method and device of internet data center and electronic equipment
TW201606854A (en) Automatic calibration sample selection for die-to-database photomask inspection
CN113066088A (en) Detection method, detection device and storage medium in industrial detection
JP5111055B2 (en) Image processing apparatus, image processing method, and computer program
TWI672639B (en) Object recognition system and method using simulated object images
AU2011253913A1 (en) Band-based patch selection with a dynamic grid
CN112287905A (en) Vehicle damage identification method, device, equipment and storage medium
CN110309074B (en) Test method and device
CN111709951B (en) Target detection network training method and system, network, device and medium
CN115374517A (en) Testing method and device for wiring software, electronic equipment and storage medium
CN109035220A (en) Image detection method and device for target object
JP4771887B2 (en) Passive and interactive immediate image recognition methods