JPH10340348A - Image aligning method, facsimile character recognizing method and recording medium - Google Patents

Image aligning method, facsimile character recognizing method and recording medium

Info

Publication number
JPH10340348A
JPH10340348A JP9150675A JP15067597A JPH10340348A JP H10340348 A JPH10340348 A JP H10340348A JP 9150675 A JP9150675 A JP 9150675A JP 15067597 A JP15067597 A JP 15067597A JP H10340348 A JPH10340348 A JP H10340348A
Authority
JP
Japan
Prior art keywords
correspondence
image
function
coordinates
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9150675A
Other languages
Japanese (ja)
Other versions
JP3781324B2 (en
Inventor
Kenji Fukumizu
健次 福水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP15067597A priority Critical patent/JP3781324B2/en
Publication of JPH10340348A publication Critical patent/JPH10340348A/en
Application granted granted Critical
Publication of JP3781324B2 publication Critical patent/JP3781324B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To highly precisely exclude erroneous correspondence from a correspondent coordinate. SOLUTION: Based on the matching distance of correspondent coordinate acquisition part 1, a right correspondence probability calculation part 2 applies right correspondence probability to each correspondent coordinate and stores it in a storage part 3. A parameter estimation part 4 models the generation distribution of coordinate correspondence while using right and wrong correspondence mixed models and finds the parameter of model function through tolerance estimation, and a wrong correspondence exclusion part 5 excludes coordinate data having wrong correspondence probability higher than a prescribed threshold value and calculates the parameter again while using the remaining correspondent coordinates.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ある画像と、それ
にアフィン的な変換を施された画像との座標の対応をと
る画像位置合わせ方法、ファックス文字認識方法および
記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image registration method, a facsimile character recognition method, and a recording medium for associating a certain image with an affine-transformed image.

【0002】[0002]

【従来の技術】画像処理においては、位置や拡大率など
の異なるほぼ同一の内容の2つの画像間で、座標の対応
をとる技術が用いられる。例えば、ファックス文字認識
装置(FAXOCR装置)の前処理では、FAXで送信
された画像を原画像と比較することにより、認識対象と
なる領域を特定することが必要になる。そこで、送信さ
れた帳票画像とあらかじめ用意された参照画像との座標
対応を取る画像位置合わせの技術が重要となる。画像の
変換を推定するためにはまず、送信された処理対象画像
のある点が計算機内にあらかじめ保持された参照画像の
どの点に対応づけられているかを計算機が自動的に知る
必要がある。
2. Description of the Related Art In image processing, a technique is used for coordinating coordinates between two images having substantially the same contents, such as different positions and enlargement ratios. For example, in pre-processing of a fax character recognition device (FAXOCR device), it is necessary to specify an area to be recognized by comparing an image transmitted by FAX with an original image. Therefore, an image alignment technique for obtaining a coordinate correspondence between the transmitted form image and a reference image prepared in advance is important. In order to estimate the conversion of the image, the computer first needs to automatically know which point of the transmitted image to be processed is associated with which point of the reference image stored in advance in the computer.

【0003】FAXOCR装置における従来の位置合わ
せ方法としては、特定の形状で特定の位置に印字された
タイミングマークを利用した手法が用いられていた(例
えば、特開平4−261259号公報を参照)。
As a conventional alignment method in a FAXOCR apparatus, a method using a timing mark printed in a specific shape at a specific position has been used (for example, see Japanese Patent Application Laid-Open No. 4-261259).

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記し
たタイミングマークを用いた方法では、タイミングマー
クを印字した新たな帳票の作成に要するコストがかかる
などの問題がある。そこで、これを解決するために、本
出願人は先に、処理対象画像と参照画像とに共通する複
数のパターンを抽出し、抽出されたパターンに関し、該
参照画像と該処理対象画像の対応した同一パターンを検
出し、該対応したパターンの相互の位置関係を求め、該
位置関係に基づき該処理対象画像と該参照画像との位置
合わせのための補正式を決定する画像処理方法を提案し
た(特願平8−54308号)。この方法では、抽出パ
ターンをタイミングマークの代わりに用いている。
However, the above-described method using the timing mark has a problem in that the cost required to create a new form on which the timing mark is printed is high. Therefore, in order to solve this, the present applicant first extracts a plurality of patterns common to the processing target image and the reference image, and, with respect to the extracted pattern, associates the reference image with the processing target image. An image processing method has been proposed in which the same pattern is detected, the mutual positional relationship between the corresponding patterns is determined, and a correction formula for aligning the processing target image with the reference image is determined based on the positional relationship ( Japanese Patent Application No. 8-54308). In this method, an extraction pattern is used instead of a timing mark.

【0005】ところで、参照画像と処理対象画像とのパ
ターンマッチングによって座標の対応をとる方法では、
マッチングの誤りのために誤った対応点データが含まれ
る可能性がある。そのために、正しい対応点を多く残し
ながら誤った対応点をすべて取り除くことが重要な課題
となり、これまでに、本出願人によってパターンの対応
の誤りを削除する手法が提案されているが(特願平8−
240154号)、誤対応が完全に除去されない場合も
あり、より精度の高い方法が求められていた。
By the way, in a method of associating coordinates by pattern matching between a reference image and an image to be processed,
Incorrect matching point data may be included due to a matching error. Therefore, it is important to remove all erroneous corresponding points while leaving many correct corresponding points, and the applicant has proposed a method for removing errors in pattern correspondence (Japanese Patent Application Hei 8-
240154), the erroneous correspondence may not be completely removed, and a more accurate method has been demanded.

【0006】本発明の目的は、対応する座標から誤対応
を高精度に削除する画像位置合わせ方法、ファックス文
字認識方法および記録媒体を提供することにある。
An object of the present invention is to provide an image registration method, a fax character recognition method, and a recording medium for deleting an incorrect correspondence from corresponding coordinates with high accuracy.

【0007】[0007]

【課題を解決するための手段】前記目的を達成するため
に、請求項1記載の発明では、参照画像と、該参照画像
に対して所定の幾何学的変換が施されて得られた処理対
象画像との座標対応をとる画像位置合わせ方法であっ
て、前記参照画像から抽出されたパターンの座標と、画
像マッチングにより抽出された処理対象画像中の同一パ
ターンの座標との対応を基に変換関数のパラメータを計
算するとき、パターンのマッチング距離を基に対応の正
しさを表す確率を算出し、該確率値と、対応座標から算
出される変換関数からの外れ度合いとを用いて、誤対応
であると判定された対応を削除し、前記変換関数のパラ
メータを再計算することを特徴としている。
In order to achieve the above object, according to the first aspect of the present invention, a reference image and a processing target obtained by subjecting the reference image to a predetermined geometric transformation are provided. An image registration method for associating coordinates with an image, wherein a conversion function is based on a correspondence between coordinates of a pattern extracted from the reference image and coordinates of the same pattern in a processing target image extracted by image matching. When calculating the parameters of, the probability representing the correctness of the corresponding is calculated based on the matching distance of the pattern, using the probability value and the degree of deviation from the transformation function calculated from the corresponding coordinates, the wrong correspondence It is characterized in that the correspondence determined to be present is deleted and the parameters of the conversion function are recalculated.

【0008】請求項2記載の発明では、前記座標の対応
の発生分布を、正しい対応を発生させる分布と誤った対
応を発生させる分布の2つの混合モデルとしてモデル化
し、正しい対応から発生する確率を、前記パターンマッ
チングに基づく対応の正しさを表す確率を用いて表した
とき、その尤度を最大化する変換関数のパラメータを求
め、該パラメータを用いて各対応に対して誤った対応の
分布の尤度の比率を求め、該比率が所定の閾値よりも高
い対応を誤対応であると判定することを特徴としてい
る。
According to the invention described in claim 2, the occurrence distribution of the correspondence of the coordinates is modeled as two mixed models of a distribution that produces a correct correspondence and a distribution that produces an erroneous correspondence, and the probability of occurrence from the correct correspondence is calculated. When expressed using a probability representing the correctness of the correspondence based on the pattern matching, a parameter of a conversion function that maximizes the likelihood is obtained, and a distribution of an erroneous correspondence for each correspondence is determined using the parameter. It is characterized in that a likelihood ratio is obtained, and a response whose ratio is higher than a predetermined threshold value is determined to be a false response.

【0009】請求項3記載の発明では、前記尤度を最大
化する変換関数のパラメータを求めるとき、正しい対応
であるか誤った対応であるかを示す変数を隠れ変数とし
て用い、EM法による逐次的計算を行うことを特徴とし
ている。
According to the third aspect of the present invention, when a parameter of the conversion function that maximizes the likelihood is obtained, a variable indicating whether the correspondence is correct or erroneous is used as a hidden variable, and a sequential EM method is used. It is characterized by performing statistical calculations.

【0010】請求項4記載の発明では、前記EM法によ
る逐次的計算を行う際の初期パラメー夕は、大きな残差
を持ったデータの寄与度が小さくなるように重みをつけ
るロバスト推定法により求めることを特徴としている。
According to the fourth aspect of the present invention, the initial parameters for performing the sequential calculation by the EM method are obtained by a robust estimation method that weights the data having a large residual so that the degree of contribution becomes small. It is characterized by:

【0011】請求項5記載の発明では、前記変換関数を
アフィン変換部分と非線形部分に分け、前記アフィン変
換による変換関数のパラメータ推定を行った後、残差の
大きさが所定の閾値を越えた場合に非線形関数系を用い
た残差部分の追加推定を行うことを特徴としている。
In the invention according to claim 5, the transform function is divided into an affine transform portion and a non-linear portion, and after the parameter of the transform function is estimated by the affine transform, the magnitude of the residual exceeds a predetermined threshold. In this case, additional estimation of the residual portion using a nonlinear function system is performed.

【0012】請求項6記載の発明では、前記非線形関数
系として、多層パーセプトロンモデルを用いることを特
徴としている。
According to a sixth aspect of the present invention, a multi-layer perceptron model is used as the nonlinear function system.

【0013】請求項7記載の発明では、請求項1乃至6
記載の方法を用いて、ファクシミリから受信した処理対
象画像と、予め保持された参照画像との座標の対応をと
り、前記参照画像で指定された領域に対応する前記処理
対象画像中の領域を、文字認識することを特徴としてい
る。
According to the seventh aspect of the present invention, the first to sixth aspects are provided.
Using the method described, the processing target image received from the facsimile, take the correspondence of the coordinates of the reference image held in advance, the area in the processing target image corresponding to the area specified in the reference image, It is characterized by character recognition.

【0014】請求項8記載の発明では、参照画像と、該
参照画像に対して所定の幾何学的変換が施されて得られ
た処理対象画像との座標対応をとるために、前記参照画
像から抽出されたパターンの座標と、画像マッチングに
より抽出された処理対象画像中の同一パターンの座標と
の対応を基に変換関数のパラメータを計算する機能と、
パターンのマッチング距離を基に対応の正しさを表す確
率を算出する機能と、該確率値と、対応座標から算出さ
れる変換関数からの外れ度合いとを用いて、誤対応であ
ると判定された対応を削除する機能と、前記変換関数の
パラメータを再計算する機能をコンピュータに実現させ
るためのプログラムを記録したコンピュータ読み取り可
能な記録媒体であることを特徴としている。
According to the invention described in claim 8, in order to establish a coordinate correspondence between the reference image and the processing target image obtained by performing a predetermined geometric transformation on the reference image, the reference image is obtained from the reference image. A function of calculating a parameter of a conversion function based on the correspondence between the coordinates of the extracted pattern and the coordinates of the same pattern in the processing target image extracted by the image matching,
Using the function of calculating the probability indicating the correctness of the correspondence based on the matching distance of the pattern and the probability value and the degree of deviation from the conversion function calculated from the corresponding coordinates, it was determined that the correspondence was incorrect. It is a computer-readable recording medium in which a program for causing a computer to realize a function of deleting the correspondence and a function of recalculating the parameters of the conversion function is recorded.

【0015】[0015]

【発明の実施の形態】以下、本発明の一実施例を図面を
用いて具体的に説明する。本発明の画像位置合わせ方法
は、様々な装置、システムに適用できるが、ここではF
AXOCR装置を一例にして説明する。前述したよう
に、FAXOCR装置は、ファクシミリにより送られて
きた帳票の画像を取り込み、この入力画像(処理対象画
像)と同種帳票の参照画像とを位置合わせした後、入力
画像中の必要な記載事項(これは、参照画像で予め指定
された領域に対応するもの)を切り出し、文字認識処理
を行ってデータとして出力するものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be specifically described below with reference to the drawings. The image registration method of the present invention can be applied to various devices and systems.
An AXOCR device will be described as an example. As described above, the FAXOCR device captures the image of the form sent by facsimile, aligns the input image (image to be processed) with the reference image of the same type of form, and then describes necessary items in the input image. (This corresponds to an area previously specified in the reference image), is subjected to character recognition processing, and is output as data.

【0016】このFAXOCR装置は、画像入力部と、
画像位置合わせ部と、認識処理部とに大きく分けられ
る。本発明は画像位置合わせ部に係るものであるが、本
発明では、前掲した出願(特願平8−54308号)の
手法を一部用いる。すなわち、画像位置合わせ部は、入
力画像メモリと、パターン抽出部と、同一パターン抽出
部と、参照画像パターンメモリと、対応点検出部からな
り、パターン抽出部は入力画像から所定の大きさのパタ
ーンを抽出し、同一パターン抽出部は、抽出された入力
パターンと同一のパターンを参照画像パターンメモリか
ら見つけ、対応点検出部では、入力画像と参照画像の対
応した同一パターンの座標を検出する。
This FAXOCR device comprises an image input unit,
It is roughly divided into an image alignment unit and a recognition processing unit. The present invention relates to an image registration unit, but in the present invention, a part of the method of the above-mentioned application (Japanese Patent Application No. 8-54308) is used. That is, the image registration unit includes an input image memory, a pattern extraction unit, an identical pattern extraction unit, a reference image pattern memory, and a corresponding point detection unit, and the pattern extraction unit extracts a pattern of a predetermined size from the input image. The same pattern extraction unit finds the same pattern as the extracted input pattern from the reference image pattern memory, and the corresponding point detection unit detects the coordinates of the same pattern corresponding to the input image and the reference image.

【0017】〈実施例1〉図1は、本発明の実施例1の
構成を示す。本発明の画像位置合わせ部は、対応座標取
得部1と、正対応確率算出部2と、対応格納部3と、混
合モデルパラメータ推定部4と、誤対応削除部5からな
る。また、図2は、本発明の処理フローチャートを示
す。
Embodiment 1 FIG. 1 shows the structure of Embodiment 1 of the present invention. The image registration unit of the present invention includes a correspondence coordinate acquisition unit 1, a correct correspondence probability calculation unit 2, a correspondence storage unit 3, a mixed model parameter estimation unit 4, and a wrong correspondence deletion unit 5. FIG. 2 shows a processing flowchart of the present invention.

【0018】まず、対応座標取得部1は、2つの画像間
の座標の対応をとるためのデータとして、対応している
と想定される、参照画像と処理対象画像の座標の組
First, the corresponding coordinate acquisition unit 1 sets, as data for associating coordinates between two images, a set of coordinates of a reference image and an image to be processed, which are assumed to correspond.

【0019】[0019]

【数1】 (Equation 1)

【0020】を取得する。ここでIs obtained. here

【0021】[0021]

【数2】 (Equation 2)

【0022】は参照画像の座標を表す2次元ベクトルで
あり、
Is a two-dimensional vector representing the coordinates of the reference image,

【0023】[0023]

【数3】 (Equation 3)

【0024】は処理対象画像の座標を表す2次元ベクト
ルである。この座標の組の取得のために、前述した出願
の方法を用いることができる。
Is a two-dimensional vector representing the coordinates of the image to be processed. For obtaining the set of coordinates, the method of the above-mentioned application can be used.

【0025】この対応を作成する際には、パターンマッ
チングが行われるので、これら対応にそれぞれマッチン
グ距離d1,,,,,dNが計算されている。このマッチ
ング距離に基づいて、正対応確率算出部2は、各対応に
正対応確率p1,,,,pNを付与する。これらの確率
は、それぞれの対応が正しい確率をマッチングの距離に
基づいて算出したものである。座標の対応と正対応確率
の組
When this correspondence is created, pattern matching is performed, and matching distances d 1, ..., D N are calculated for each of these correspondences. Based on this matching distance, positive correspondence probability calculation portion 2, to impart a positive correspondence probability p 1 ,,,, p N each corresponding. These probabilities are obtained by calculating the probabilities that each correspondence is correct based on the matching distance. A set of coordinate correspondence and correct correspondence probability

【0026】[0026]

【数4】 (Equation 4)

【0027】は対応格納部3に記憶され、変換関数のパ
ラメータ計算に用いられる。
Are stored in the correspondence storage unit 3 and are used for calculating the parameters of the conversion function.

【0028】正対応確率の求め方の一例として、あらか
じめ作成した表によるものがあげられる。この方法は、
多数の参照画像と処理対象画像のパターンの例に対し
て、マッチング距離とその対応の正誤の組を与え、マッ
チング距離dを持つ対応が正しい対応である確率p
(d)を p(d)=(マッチング距離dで正しい対応の個数)/(マッチング距離が dである対応の個数) (1) により計算し、適当な粗さに量子化したdに対してp
(d)を与える正対応確率テーブルをもつものである。
As an example of a method of obtaining the correct correspondence probability, there is a method using a table prepared in advance. This method
Given a set of matching distances and the correctness of the correspondences for many examples of patterns of reference images and processing target images, the probability p that a correspondence having a matching distance d is a correct correspondence is given.
(D) is calculated by p (d) = (the number of correct correspondences with the matching distance d) / (the number of corresponding correspondences with the matching distance d) (1), and d is quantized to an appropriate roughness. p
It has a correct correspondence probability table giving (d).

【0029】変換関数を求めるためには、パラメータθ
を持った関数の族f(x;θ)を用いて、データに当て
はまるθを計算するというパラメトリック推定法を用い
る。例えば、FAXOCRのオリジナル画像と受信画像
との間の変換を求める際には、その変換が拡大縮小、回
転などに起因することを考慮して、f(x;θ)をアフ
ィン変換 f(x;θ)=Ax+b (2) (θ=(A,b))に設定するとよい。ここでAは2×
2行列であり、bは2次元ベクトルである。
To find the conversion function, the parameter θ
Is used to calculate θ that applies to data using a family of functions f (x; θ) having For example, when a conversion between an original image of FAX OCR and a received image is obtained, f (x; θ) is converted to an affine transformation f (x; θ) = Ax + b (2) (θ = (A, b)). Where A is 2 ×
Is a two matrix, and b is a two-dimensional vector.

【0030】また、本実施例では、正しい対応を発生さ
せる分布と、誤った対応を発生させる分布を、平均が同
一で分散が異なる2つの分布によってモデル化し、それ
ぞれの発生頻度をマッチング距離に基づく正対応確率に
よって定めることを特徴としている。特に計算を簡単に
する目的からは、この2つの分布を正規分布に設定する
と都合がよい。このため、以降では正規分布の場合のみ
を説明する。
Further, in this embodiment, a distribution that produces a correct correspondence and a distribution that produces an erroneous correspondence are modeled by two distributions having the same average and different variances, and the occurrence frequency of each is based on the matching distance. It is characterized by being determined by the correct correspondence probability. Particularly for the purpose of simplifying the calculation, it is convenient to set these two distributions as normal distributions. Therefore, only the case of the normal distribution will be described below.

【0031】対応(x,y)がマッチング距離dを持つ
とき、それを発生させる確率モデルを
When the correspondence (x, y) has the matching distance d, the probability model that generates it is

【0032】[0032]

【数5】 (Equation 5)

【0033】で定める。σ,τはそれぞれ正対応、誤対
応の誤差分布の分散を表し、σ<<τであると考える。
これらの分散はあらかじめ問題に対する知識によってあ
る定数に設定しておくものとし、パラメータ推定部4に
おいてデータから推定するパラメータはθのみとする。
パラメータθを求める基準として最尤推定を用いる。
Is determined. σ and τ represent the variances of the error distribution of the correct correspondence and the incorrect correspondence, respectively, and it is considered that σ << τ.
These variances are set in advance to certain constants depending on the knowledge about the problem, and the parameter estimating unit 4 estimates only the parameter θ from the data.
Maximum likelihood estimation is used as a criterion for obtaining the parameter θ.

【0034】推定量Estimated amount

【0035】[0035]

【数6】 (Equation 6)

【0036】が得られた後に(ステップ101)、誤っ
た対応だと考えられるものを除外する処理を、誤対応削
除部5で行う。各対応
After the data is obtained (step 101), a process for removing what is considered to be an erroneous correspondence is performed by the erroneous correspondence deletion unit 5. Each correspondence

【0037】[0037]

【数7】 (Equation 7)

【0038】に対し、誤った対応の分布の尤度の比率On the other hand, the ratio of the likelihood of the distribution of the incorrect correspondence

【0039】[0039]

【数8】 (Equation 8)

【0040】を計算する(ステップ102、103)。
false(ν)は対応
Is calculated (steps 102 and 103).
P false (ν) corresponds

【0041】[0041]

【数9】 (Equation 9)

【0042】が誤っている確率を表している。Represents the probability of being erroneous.

【0043】Pfalse(n)がある閾値Dth以上の時に
(ステップ104)、そのデータは誤っているとして削
除する(ステップ105)。こうして、すべての対応に
対して処理が終了した後(ステップ106、107)、
残った対応に対してパラメータの再計算を行い最終的な
結果を得る(ステップ108)。このパラメータの計算
としては、通常の最小2乗誤差推定量を用いればよい。
When P false (n) is equal to or greater than a certain threshold value D th (step 104), the data is determined to be incorrect and is deleted (step 105). After the processing is completed for all the responses (steps 106 and 107),
The parameters are recalculated for the remaining correspondences to obtain a final result (step 108). For the calculation of this parameter, an ordinary least-square error estimation amount may be used.

【0044】次に、混合モデルの最尤推定量の求め方に
ついて説明する。対応格納部に記憶された座標の対応と
正対応確率の組
Next, a method of obtaining the maximum likelihood estimator of the mixed model will be described. A set of the correspondence of the coordinates stored in the correspondence storage unit and the correct correspondence probability

【0045】[0045]

【数10】 (Equation 10)

【0046】に対し、最尤推定によりθを求めるため
に、逐次的なパラメータ更新手法であるEM法を用い
る。
On the other hand, in order to obtain θ by the maximum likelihood estimation, the EM method which is a sequential parameter updating method is used.

【0047】EMアルゴリズムは、観測されない隠れ変
数がある場合に、最尤推定量を得ることを目的とした逐
次的手法である。ここで、その一般的な方法を簡単に説
明する。パラメータθを持った、変数(v,u)上の確
率密度関数の族{p(v,u;θ)}を考える。確率変
数vは観測可能な変数であり、その標本を取得すること
ができるが、変数uは隠れ変数と呼ばれ、パラメータθ
の推定にあたってその標本を採取することができないと
仮定する。すべての変数が観測できれば対数尤度
The EM algorithm is a sequential method for obtaining a maximum likelihood estimator when there are hidden variables that are not observed. Here, the general method will be briefly described. Consider a family of probability density functions {p (v, u; θ)} on variable (v, u) with parameter θ. The random variable v is an observable variable and its sample can be obtained, but the variable u is called a hidden variable and the parameter θ
Assume that the sample cannot be taken in estimating. Log likelihood if all variables can be observed

【0048】[0048]

【数11】 [Equation 11]

【0049】を最大化すればよいが、隠れ変数がある場
合には、
It is sufficient to maximize

【0050】[0050]

【数12】 (Equation 12)

【0051】を用いることができないため、逐次的な手
法として、現在得られているパラメータを
Since it is not possible to use the parameters obtained as a sequential method,

【0052】[0052]

【数13】 (Equation 13)

【0053】とするとき、隠れ変数uについてThen, for the hidden variable u,

【0054】[0054]

【数14】 [Equation 14]

【0055】が与えられた時の条件付き平均をとったThe conditional average when given

【0056】[0056]

【数15】 (Equation 15)

【0057】を最大にするθを新たなThe value of θ that maximizes

【0058】[0058]

【数16】 (Equation 16)

【0059】とする。条件付き平均値を計算する過程を
Eステップ、対数尤度を計算する過程をMステップと呼
ぶ。EMアルゴリズムはこの2つのステップの繰返しに
より尤度の最大化をはかる。
It is assumed that The process of calculating the conditional average is called E step, and the process of calculating log likelihood is called M step. The EM algorithm seeks to maximize the likelihood by repeating these two steps.

【0060】EMアルゴリズムを本発明に適用する場合
には、以下のようにモデル化を行う。すなわち、得られ
た対応(x,y,d)に対し、これが正しい対応である
か誤った対応であるかを示すラベルuを隠れ変数として
導入する。uは2次元の変数であり、(1,0)か
(0,1)かの何れかの値をとる。隠れ変数も含めた統
計モデルは、
When the EM algorithm is applied to the present invention, modeling is performed as follows. That is, for the obtained correspondence (x, y, d), a label u indicating whether this is a correct correspondence or an incorrect correspondence is introduced as a hidden variable. u is a two-dimensional variable, and takes any value of (1, 0) or (0, 1). Statistical models including hidden variables are

【0061】[0061]

【数17】 [Equation 17]

【0062】となる。このモデルに対する周辺分布p
(y|x,d;θ)は(3)式と一致しているため、上
式に対する最尤推定ができれば、(3)式に対する最尤
推定にもなっている。このモデルに対して上で述べたE
Mアルゴリズムの一般的な枠組を適用すると、隠れ変数
に関する期待値は
Is obtained. Marginal distribution p for this model
Since (y | x, d; θ) matches the equation (3), if the maximum likelihood estimation for the above equation can be performed, it is also the maximum likelihood estimation for the equation (3). E described above for this model
Applying the general framework of the M algorithm, the expected value for the hidden variables is

【0063】[0063]

【数18】 (Equation 18)

【0064】で計算される。ここで、Is calculated. here,

【0065】[0065]

【数19】 [Equation 19]

【0066】は以下のように定められている。Is defined as follows.

【0067】[0067]

【数20】 (Equation 20)

【0068】ここで表記を簡単にするため、Here, in order to simplify the notation,

【0069】[0069]

【数21】 (Equation 21)

【0070】とおいた。従って、この最大化は以下の
(6)式の重み付き2乗誤差最小化により解くことがで
きる。
[0070] Therefore, this maximization can be solved by minimizing the weighted square error of the following equation (6).

【0071】このEM手法は、図3のような手順で実行
される。まず、パラメータθの初期化を行い、初期パラ
メータをθ(0)とおく(ステップ201)。第tステ
ップ目には推定量θ(t−1)が得られているとして、
各対応
This EM method is executed in a procedure as shown in FIG. First, the parameter θ is initialized, and the initial parameter is set to θ (0) (step 201). Assuming that the estimated amount θ (t−1) is obtained at the t-th step,
Each correspondence

【0072】[0072]

【数22】 (Equation 22)

【0073】に対して上記For the above

【0074】[0074]

【数23】 (Equation 23)

【0075】を計算する(ステップ202、203)。Is calculated (steps 202 and 203).

【0076】第tステップの推定量Estimated amount of the t-th step

【0077】[0077]

【数24】 (Equation 24)

【0078】はIs

【0079】[0079]

【数25】 (Equation 25)

【0080】の解として求められる。特にf(x;θ)
がアフィン変換の場合には、
Is obtained as the solution of Especially f (x; θ)
Is an affine transformation,

【0081】[0081]

【数26】 (Equation 26)

【0082】と書くことにしてTo write

【0083】[0083]

【数27】 [Equation 27]

【0084】により計算される(ステップ204)。こ
れらの計算が終了判定条件を満すまで繰り返され(ステ
ップ205、206)、最終的な推定量
Is calculated (step 204). These calculations are repeated until the end determination condition is satisfied (steps 205 and 206), and the final estimator

【0085】[0085]

【数28】 [Equation 28]

【0086】が得られる(ステップ207)。終了判定
条件には処理フローに示すように、繰返しの回数を用い
てもよいし、推定量の変化量が一定の閾値以内であれば
終了としてもよい。
Is obtained (step 207). As shown in the processing flow, the number of repetitions may be used as the termination determination condition, or the termination may be performed if the amount of change in the estimated amount is within a certain threshold.

【0087】次に、EM法の繰返し計算を行う際の初期
値の決定方法について説明する。EM法などのような繰
返し演算では、初期値によって最終的な結果が大きな影
響を受けやすい。そのため、ある程度よい初期値から演
算を始めた方がよい。そこで、本発明では、ロバスト推
定としてよく知られたW推定量を用いる。W推定量の計
算は、図4に示されたような処理フローで行われる。
Next, a description will be given of a method of determining an initial value when performing the repeated calculation of the EM method. In an iterative operation such as the EM method, the final result is easily affected by the initial value. Therefore, it is better to start the calculation from a good initial value. Therefore, in the present invention, a W estimation amount well known as robust estimation is used. The calculation of the W estimation amount is performed according to a processing flow as shown in FIG.

【0088】まず、適当な重み関数ρ(u)を定める。
これは大きな残差を持ったデータの寄与を小さくするた
めの関数であり、例えば
First, an appropriate weight function ρ (u) is determined.
This is a function to reduce the contribution of data with large residuals, for example

【0089】[0089]

【数29】 (Equation 29)

【0090】などを用いる。And the like.

【0091】まず重みの初期値First, the initial value of the weight

【0092】[0092]

【数30】 [Equation 30]

【0093】を、例えばすべて同一の値のように、適当
な値で初期化する(ステップ301)。第(t−1)段
の重みが決まっているとき、第t段の推定値としては、
重みつき2乗誤差
Are initialized with appropriate values, for example, all having the same value (step 301). When the weight of the (t−1) th stage is determined, the estimated value of the tth stage is:
Weighted squared error

【0094】[0094]

【数31】 (Equation 31)

【0095】を最小にする推定量を計算する。アフィン
変換の場合には
Calculate an estimator that minimizes In the case of affine transformation

【0096】[0096]

【数32】 (Equation 32)

【0097】によって得られる(ステップ302、30
3)。この推定量を用いて、あらたな重みを
(Steps 302 and 30)
3). Using this estimator, new weights

【0098】[0098]

【数33】 [Equation 33]

【0099】によって計算する(ステップ304)。こ
の計算を繰返し行う(ステップ305、306)。最終
的にステップ307で得られた推定量が、図3のステッ
プ201の初期パラメータとなる。
Is calculated (step 304). This calculation is repeated (steps 305 and 306). The estimation amount finally obtained in step 307 becomes the initial parameter in step 201 in FIG.

【0100】さらに、本実施例では、画像の変換に非線
形性が存在する場合にも有効性を持つ。まず、上記した
本発明の方法でアフィン変換による推定を行った後、非
線形用データとして、アフィン変換による残差
Further, the present embodiment is effective even when there is nonlinearity in image conversion. First, after performing estimation by the affine transformation by the method of the present invention described above, the residual by the affine transformation is obtained as nonlinear data.

【0101】[0101]

【数34】 (Equation 34)

【0102】を算出する。このとき平均2乗残差Is calculated. Then the mean square residual

【0103】[0103]

【数35】 (Equation 35)

【0104】がある閾値以上であると、非線形変換によ
る残差補償を行う。そのために、非線形関数系
If the threshold value is equal to or larger than a certain threshold value, residual compensation by nonlinear conversion is performed. Therefore, a nonlinear function system

【0105】[0105]

【数36】 [Equation 36]

【0106】を用意し、データPrepare the data

【0107】[0107]

【数37】 (37)

【0108】を用いて2乗誤差最小基準により最適なパ
ラメータωを求める。非線形関数系としては、多項式系
などのようなものも用いることができるが、本実施例で
は特に多層パーセプトロンモデルを用いる。ここでは中
間素子をH個持つ3層パーセブトロンモデルを説明す
る。このモデルはパラメータ
The optimum parameter ω is determined by using the squared error minimum criterion. As the nonlinear function system, a system such as a polynomial system can be used, but in this embodiment, a multilayer perceptron model is particularly used. Here, a three-layer percebutron model having H intermediate elements will be described. This model has parameters

【0109】[0109]

【数38】 (38)

【0110】に対し、In contrast,

【0111】[0111]

【数39】 [Equation 39]

【0112】という関数系で定義される非線形モデルで
ある。ここでs(t)はシグモイド関数と呼ばれ
This is a non-linear model defined by a functional system. Where s (t) is called the sigmoid function

【0113】[0113]

【数40】 (Equation 40)

【0114】という形である。シグモイド関数は局所的
な伸び縮みを表現できるので、3層パーセプトロンによ
る非線形補償は、ファクシミリ画像でしばしば見受けら
れる、ある方向(特にスキャン方向)への局所的な伸び
縮みをよくモデル化できると考えられる。
This is the form. Since the sigmoid function can express local expansion and contraction, nonlinear compensation by the three-layer perceptron is considered to be able to model the local expansion and contraction in a certain direction (especially the scanning direction) often seen in facsimile images. .

【0115】3層パーセプトロンのパラメータを最適化
するには、公知の技術であるエラーバックプロパゲーシ
ョンが用いられる。こうして得られたパラメータを
To optimize the parameters of the three-layer perceptron, error back propagation, which is a known technique, is used. The parameters obtained in this way are

【0116】[0116]

【数41】 [Equation 41]

【0117】とすると、画像の変換を計算する際には、Then, when calculating the transformation of the image,

【0118】[0118]

【数42】 (Equation 42)

【0119】によって変換先を計算する。The destination is calculated by the following.

【0120】〈実施例2〉本発明は上記した実施例に限
定されず、ソフトウェアによっても実現することができ
る。本発明をソフトウェアによって実現する場合には、
図5に示すように、CPU、ROM、RAM、表示装
置、ハードディスク、キーボード、CD−ROMドライ
ブ、スキャナなどからなるコンピュータシステムを用意
し、CD−ROMなどのコンピュータ読み取り可能な記
録媒体には、本発明の画像位置合わせ機能、文字認識機
能を実現するプログラムが記録されている。また、FA
Xなどから入力された帳票などの画像は一時的にハード
ディスクなどに格納される。そして、該プログラムが起
動されると、一時保存された画像データが読み込まれ
て、画像位置合わせ処理を実行すると共に、帳票画像の
特定領域を文字認識し、その認識結果をディスプレイな
どに出力する。
<Embodiment 2> The present invention is not limited to the above-described embodiment, but can be realized by software. When the present invention is realized by software,
As shown in FIG. 5, a computer system including a CPU, a ROM, a RAM, a display device, a hard disk, a keyboard, a CD-ROM drive, a scanner, and the like is prepared, and a computer-readable recording medium such as a CD-ROM includes A program for realizing the image alignment function and the character recognition function of the invention is recorded. Also, FA
An image such as a form input from X or the like is temporarily stored on a hard disk or the like. When the program is started, the temporarily stored image data is read, the image registration process is executed, a specific area of the form image is recognized by a character, and the recognition result is output to a display or the like.

【0121】[0121]

【発明の効果】以上、説明したように、本発明によれ
ば、FAXOCRなどの画像位置合わせにおいて、ロバ
スト(頑健)で誤りの少ない変換関数のパラメータ推定
を行うことが可能となる。その結果、FAXOCRにお
ける認識領域の特定精度が向上し、ひいては文字認識の
認識率が向上する。
As described above, according to the present invention, it is possible to perform robust (robust) parameter estimation of a conversion function with few errors in image registration such as FAXOCR. As a result, the accuracy of specifying a recognition area in FAXOCR is improved, and the recognition rate of character recognition is improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1の構成を示す。FIG. 1 shows a configuration of a first exemplary embodiment of the present invention.

【図2】本発明の処理フローチャートを示す。FIG. 2 shows a processing flowchart of the present invention.

【図3】EM法によるパラメータ計算のフローチャート
を示す。
FIG. 3 shows a flowchart of parameter calculation by the EM method.

【図4】W推定量の計算を行うフローチャートを示す。FIG. 4 shows a flowchart for calculating a W estimation amount.

【図5】本発明をソフトウェアによって実現する場合の
実施例2の構成例を示す。
FIG. 5 shows a configuration example of a second embodiment when the present invention is realized by software.

【符号の説明】[Explanation of symbols]

1 対応座標取得部 2 正対応確率算出部 3 対応格納部 4 混合モデルパラメータ推定部 5 誤対応削除部 1 Correspondence coordinate acquisition unit 2 Correct correspondence probability calculation unit 3 Correspondence storage unit 4 Mixed model parameter estimation unit 5 Erroneous correspondence deletion unit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 参照画像と、該参照画像に対して所定の
幾何学的変換が施されて得られた処理対象画像との座標
対応をとる画像位置合わせ方法であって、前記参照画像
から抽出されたパターンの座標と、画像マッチングによ
り抽出された処理対象画像中の同一パターンの座標との
対応を基に変換関数のパラメータを計算するとき、パタ
ーンのマッチング距離を基に対応の正しさを表す確率を
算出し、該確率値と、対応座標から算出される変換関数
からの外れ度合いとを用いて、誤対応であると判定され
た対応を削除し、前記変換関数のパラメータを再計算す
ることを特徴とする画像位置合わせ方法。
1. An image registration method for obtaining a coordinate correspondence between a reference image and a processing target image obtained by performing a predetermined geometric transformation on the reference image, the method comprising extracting the reference image from the reference image. When calculating the parameters of the conversion function based on the correspondence between the coordinates of the extracted pattern and the coordinates of the same pattern in the processing target image extracted by the image matching, it indicates the correctness of the correspondence based on the matching distance of the pattern Calculating the probability, using the probability value and the degree of deviation from the conversion function calculated from the corresponding coordinates, deleting the correspondence determined to be incorrect, and recalculating the parameters of the conversion function. An image alignment method characterized by the following.
【請求項2】 前記座標の対応の発生分布を、正しい対
応を発生させる分布と誤った対応を発生させる分布の2
つの混合モデルとしてモデル化し、正しい対応から発生
する確率を、前記パターンマッチングに基づく対応の正
しさを表す確率を用いて表したとき、その尤度を最大化
する変換関数のパラメータを求め、該パラメータを用い
て各対応に対して誤った対応の分布の尤度の比率を求
め、該比率が所定の閾値よりも高い対応を誤対応である
と判定することを特徴とする請求項1記載の画像位置合
わせ方法。
2. A distribution of occurrence of the correspondence of the coordinates is defined as a distribution that generates a correct correspondence and a distribution that generates an erroneous correspondence.
When the model is modeled as one mixed model, and the probability of occurrence from a correct correspondence is expressed by using a probability indicating the correctness of the correspondence based on the pattern matching, a parameter of a conversion function that maximizes the likelihood is obtained. 2. The image according to claim 1, wherein the ratio of the likelihood of the distribution of the erroneous correspondence is obtained for each correspondence, and the correspondence having the ratio higher than a predetermined threshold value is determined to be the erroneous correspondence. Alignment method.
【請求項3】 前記尤度を最大化する変換関数のパラメ
ータを求めるとき、正しい対応であるか誤った対応であ
るかを示す変数を隠れ変数として用い、EM法による逐
次的計算を行うことを特徴とする請求項2記載の画像位
置合わせ方法。
3. When obtaining a parameter of a conversion function for maximizing the likelihood, performing a sequential calculation by the EM method using a variable indicating whether the correspondence is correct or incorrect as a hidden variable. 3. The method according to claim 2, further comprising the steps of:
【請求項4】 前記EM法による逐次的計算を行う際の
初期パラメー夕は、大きな残差を持ったデータの寄与度
が小さくなるように重みをつけるロバスト推定法により
求めることを特徴とする請求項3記載の画像位置合わせ
方法。
4. The method according to claim 1, wherein an initial parameter for performing the sequential calculation by the EM method is obtained by a robust estimation method that weights the data having a large residual so that the contribution is small. Item 3. The image alignment method according to Item 3.
【請求項5】 前記変換関数をアフィン変換部分と非線
形部分に分け、前記アフィン変換による変換関数のパラ
メータ推定を行った後、残差の大きさが所定の閾値を越
えた場合に非線形関数系を用いた残差部分の追加推定を
行うことを特徴とする請求項1記載の画像位置合わせ方
法。
5. After dividing the transformation function into an affine transformation part and a non-linear part and estimating the parameters of the transformation function by the affine transformation, when the magnitude of the residual exceeds a predetermined threshold, a nonlinear function system is formed. 2. The image registration method according to claim 1, wherein additional estimation of the used residual portion is performed.
【請求項6】 前記非線形関数系として、多層パーセプ
トロンモデルを用いることを特徴とする請求項5記載の
画像位置合わせ方法。
6. The image registration method according to claim 5, wherein a multilayer perceptron model is used as the nonlinear function system.
【請求項7】 請求項1乃至6記載の方法を用いて、フ
ァクシミリから受信した処理対象画像と、予め保持され
た参照画像との座標の対応をとり、前記参照画像で指定
された領域に対応する前記処理対象画像中の領域を、文
字認識することを特徴とするファックス文字認識方法。
7. A method according to claim 1, wherein coordinates of an image to be processed received from a facsimile and a reference image stored in advance are associated with each other to correspond to an area designated by said reference image. A facsimile character recognition method, wherein character recognition is performed on an area in the image to be processed.
【請求項8】 参照画像と、該参照画像に対して所定の
幾何学的変換が施されて得られた処理対象画像との座標
対応をとるために、前記参照画像から抽出されたパター
ンの座標と、画像マッチングにより抽出された処理対象
画像中の同一パターンの座標との対応を基に変換関数の
パラメータを計算する機能と、パターンのマッチング距
離を基に対応の正しさを表す確率を算出する機能と、該
確率値と、対応座標から算出される変換関数からの外れ
度合いとを用いて、誤対応であると判定された対応を削
除する機能と、前記変換関数のパラメータを再計算する
機能をコンピュータに実現させるためのプログラムを記
録したコンピュータ読み取り可能な記録媒体。
8. A coordinate of a pattern extracted from the reference image in order to establish a coordinate correspondence between the reference image and a processing target image obtained by performing a predetermined geometric transformation on the reference image. And a function of calculating a parameter of a conversion function based on the correspondence with the coordinates of the same pattern in the processing target image extracted by the image matching, and calculating a probability indicating the correctness of the correspondence based on the matching distance of the pattern. Using the function, the probability value, and the degree of deviation from the conversion function calculated from the corresponding coordinates, a function of deleting the correspondence determined to be an erroneous correspondence, and a function of recalculating the parameters of the conversion function Computer-readable recording medium on which a program for causing a computer to realize the above is recorded.
JP15067597A 1997-06-09 1997-06-09 Image alignment method, fax character recognition method, and recording medium Expired - Fee Related JP3781324B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15067597A JP3781324B2 (en) 1997-06-09 1997-06-09 Image alignment method, fax character recognition method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15067597A JP3781324B2 (en) 1997-06-09 1997-06-09 Image alignment method, fax character recognition method, and recording medium

Publications (2)

Publication Number Publication Date
JPH10340348A true JPH10340348A (en) 1998-12-22
JP3781324B2 JP3781324B2 (en) 2006-05-31

Family

ID=15502023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15067597A Expired - Fee Related JP3781324B2 (en) 1997-06-09 1997-06-09 Image alignment method, fax character recognition method, and recording medium

Country Status (1)

Country Link
JP (1) JP3781324B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004508856A (en) * 2000-09-15 2004-03-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image registration system and method using likelihood maximization
EP1848193A2 (en) 2006-03-31 2007-10-24 Ricoh Company, Ltd. Misalignment detecting apparatus, misalignment detecting method, and computer program product
CN109597028A (en) * 2018-11-05 2019-04-09 宁波大学 Robust positioning method based on arrival time under the conditions of a kind of mixing sighting distance non line of sight
CN114216485A (en) * 2022-02-23 2022-03-22 广州骏天科技有限公司 Image calibration method for aerial surveying and mapping of unmanned aerial vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06290264A (en) * 1993-03-31 1994-10-18 Nec Software Ltd Automatic distortion correction system for image data
JPH0997326A (en) * 1995-09-29 1997-04-08 Canon Inc Device and method for image composition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06290264A (en) * 1993-03-31 1994-10-18 Nec Software Ltd Automatic distortion correction system for image data
JPH0997326A (en) * 1995-09-29 1997-04-08 Canon Inc Device and method for image composition

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004508856A (en) * 2000-09-15 2004-03-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image registration system and method using likelihood maximization
JP4917733B2 (en) * 2000-09-15 2012-04-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image registration system and method using likelihood maximization
EP1848193A2 (en) 2006-03-31 2007-10-24 Ricoh Company, Ltd. Misalignment detecting apparatus, misalignment detecting method, and computer program product
CN109597028A (en) * 2018-11-05 2019-04-09 宁波大学 Robust positioning method based on arrival time under the conditions of a kind of mixing sighting distance non line of sight
CN109597028B (en) * 2018-11-05 2022-11-29 宁波大学 Robust positioning method based on arrival time under mixed-line-of-sight and non-line-of-sight conditions
CN114216485A (en) * 2022-02-23 2022-03-22 广州骏天科技有限公司 Image calibration method for aerial surveying and mapping of unmanned aerial vehicle
CN114216485B (en) * 2022-02-23 2022-04-29 广州骏天科技有限公司 Image calibration method for aerial surveying and mapping of unmanned aerial vehicle

Also Published As

Publication number Publication date
JP3781324B2 (en) 2006-05-31

Similar Documents

Publication Publication Date Title
EP2479726B1 (en) Image comparison system and image comparison method
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
US7352919B2 (en) Method and system of generating a high-resolution image from a set of low-resolution images
US8803950B2 (en) Three-dimensional face capturing apparatus and method and computer-readable medium thereof
KR100479777B1 (en) Pattern collation device and pattern collating method thereof
JP2002516440A (en) Image recognition and correlation system
JP3099771B2 (en) Character recognition method and apparatus, and recording medium storing character recognition program
US8238619B2 (en) Method of extracting ridge line and valley line from three-dimensional point data
JPH04306067A (en) Method and system for identifying image region
JP3781324B2 (en) Image alignment method, fax character recognition method, and recording medium
JP4133246B2 (en) Image deformation information generation apparatus, image deformation information generation method, and image deformation information generation program
JP2007140729A (en) Method and device detecting position and attitude of article
CN113705430B (en) Form detection method, device, equipment and storage medium based on detection model
JP3895473B2 (en) Entry information extraction method and machine-readable recording medium recording a program for causing a computer to execute the entry information extraction method
JP4116179B2 (en) Image processing method, image processing apparatus, and recording medium
Amankwah Image registration by automatic subimage selection and maximization of combined mutual information and spatial information
JP2017138742A (en) Image processing apparatus, image processing method, and program
JP2006012196A (en) Deformation estimation method, deformation estimation device and deformation estimation program
JP4094359B2 (en) Image processing apparatus, image processing method, and program causing computer to execute the method
CN117853321A (en) Remote sensing image automatic registration method and device based on deep learning
Kovalenko et al. Correction of the interpolation effect in modeling the process of estimating image spatial deformations
Gou et al. Robust digital fingerprinting for curves
JP2023110523A (en) Information processing device, image capturing device, method, and program
JP4669949B2 (en) Moving object region extraction method
JP2004062271A (en) Picture processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060303

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100317

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110317

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120317

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees