JP2010093673A - Image processing apparatus, program and system - Google Patents

Image processing apparatus, program and system Download PDF

Info

Publication number
JP2010093673A
JP2010093673A JP2008263514A JP2008263514A JP2010093673A JP 2010093673 A JP2010093673 A JP 2010093673A JP 2008263514 A JP2008263514 A JP 2008263514A JP 2008263514 A JP2008263514 A JP 2008263514A JP 2010093673 A JP2010093673 A JP 2010093673A
Authority
JP
Japan
Prior art keywords
document
comparison
correction
input document
original document
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008263514A
Other languages
Japanese (ja)
Inventor
Hitoshi Okamoto
仁 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2008263514A priority Critical patent/JP2010093673A/en
Publication of JP2010093673A publication Critical patent/JP2010093673A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, program and system capable of correcting position deviation of an input document with respect to an original document even if there is eccentricity in distribution of comparison targets in the document. <P>SOLUTION: An image processing apparatus 1 includes: a reference region extraction means 30 for extracting reference regions respectively from an original document 20 and an input document 40; a reference region selection means 32 for selecting the reference region to be used on the basis of distribution of the reference regions extracted from the original document 20 and the input document 40; a reference region corresponding means 33 for letting the reference region selected form the original document 20 corresponding to the reference region selected from the input document 40; a correction coefficient calculation means 34 for calculating a correction coefficient of a correction operation expression to be applied for correcting a position of the input document 40 by comparing a position of the reference region selected from the original document 20 with a position of the reference region selected form the input document 40; and a conversion means 35 for performing correction conversion on the position of the input document on the basis of the correction coefficient and the correction operation expression. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置、プログラム及びシステムに関する。   The present invention relates to an image processing apparatus, a program, and a system.

原本文書と入力文書とをパターンマッチングし、対応が取れた比較対象の濃度重心から位置ずれを検出する画像処理装置が知られている(例えば、特許文献1参照)。   There is known an image processing apparatus that performs pattern matching between an original document and an input document, and detects a positional deviation from a density density centroid to be compared (for example, see Patent Document 1).

この特許文献1の画像処理装置は、原本文書と光学走査等により読み込まれた入力文書とから文字や図形等の比較対象を検出し、対応させる比較対象を選択した後、それぞれの比較対象の濃度重心を求めてそれらの重心のずれを検出し、重心のずれに応じた補正式を求めることで、補正式によって入力文書から補正文書を生成し、入力文書の原本文書に対する位置ずれを補正することができる。
特開平9−245173号公報
The image processing apparatus of Patent Document 1 detects a comparison target such as a character or a figure from an original document and an input document read by optical scanning or the like, selects a corresponding comparison target, and then compares the density of each comparison target. By calculating the center of gravity, detecting the deviation of the center of gravity, and obtaining a correction formula corresponding to the deviation of the center of gravity, generating a corrected document from the input document by the correction formula, and correcting the positional deviation of the input document with respect to the original document Can do.
Japanese Patent Laid-Open No. 9-245173

本発明の目的は、文書中の比較対象の分布に偏りがある場合でも、入力文書の位置ずれを補正することができる画像処理装置、プログラム及びシステムを提供することにある。   An object of the present invention is to provide an image processing apparatus, a program, and a system that can correct a positional deviation of an input document even when the distribution of comparison targets in the document is biased.

本発明の一態様は、上記目的を達成するため、以下の画像処理装置、プログラム及びシステムを提供する。   In order to achieve the above object, one embodiment of the present invention provides the following image processing apparatus, program, and system.

[1]原本文書及び入力文書からそれぞれ比較対象を抽出する比較対象抽出手段と、前記原本文書及び前記入力文書から抽出された前記比較対象の位置の分布に基づいて、使用する比較対象を選択する比較対象選択手段と、前記原本文書から選択された前記比較対象と前記入力文書から選択された前記比較対象とを対応づける対応比較対象対応手段と、前記原本文書から選択された前記比較対象の位置と前記入力文書から選択された前記比較対象の位置とを比較して、前記入力文書の位置補正に適用する補正演算式の補正係数を算出する補正係数算出手段と、前記補正係数及び前記補正演算式に基づいて前記入力文書の位置の補正変換を実行する変換手段とを有する画像処理装置。 [1] Comparison target extraction means for extracting a comparison target from the original document and the input document, and a comparison target to be used is selected based on the distribution of the positions of the comparison target extracted from the original document and the input document. A comparison object selection means, a corresponding comparison object correspondence means for associating the comparison object selected from the original document with the comparison object selected from the input document, and a position of the comparison object selected from the original document And a correction coefficient calculating means for calculating a correction coefficient of a correction calculation formula to be applied to position correction of the input document by comparing the comparison target position selected from the input document and the correction document and the correction calculation An image processing apparatus comprising: conversion means for performing correction conversion of the position of the input document based on an expression.

[2]原本文書及び入力文書からそれぞれ比較対象を抽出する比較対象抽出手段と、前記原本文書の前記比較対象と前記入力文書の前記比較対象とを対応づける対応比較対象対応手段と、前記原本文書及び前記入力文書において対応づけられた前記比較対象の位置の分布に基づいて、使用する比較対象を選択する比較対象選択手段と、前記原本文書から選択された前記比較対象の位置と前記入力文書から選択された前記比較対象の位置とを比較して、前記入力文書の位置補正に適用する補正演算式の補正係数を算出する補正係数算出手段と、前記補正係数及び前記補正演算式に基づいて前記入力文書の位置の補正変換を実行する変換手段とを有する画像処理装置。 [2] Comparison object extraction means for extracting comparison objects from the original document and the input document, correspondence comparison object handling means for associating the comparison object of the original document with the comparison object of the input document, and the original document And comparison object selection means for selecting a comparison object to be used based on the distribution of the comparison object position associated with the input document, the comparison object position selected from the original document, and the input document A correction coefficient calculating means for comparing the selected position to be compared and calculating a correction coefficient of a correction calculation formula to be applied to position correction of the input document; and based on the correction coefficient and the correction calculation formula An image processing apparatus having conversion means for performing correction conversion of the position of an input document.

[3]原本文書及び入力文書からそれぞれ比較対象を抽出する比較対象抽出手段と、前記原本文書の前記比較対象と前記入力文書の前記比較対象とを対応づける対応比較対象対応手段と、前記原本文書及び前記入力文書において対応づけられた前記比較対象の位置の分布に基づいて、前記原本文書及び前記入力文書において対応づけられた前記比較対象の位置を比較して、前記入力文書の位置補正に適用する補正演算式の補正係数を算出する補正係数算出手段と、前記補正係数及び前記補正演算式に基づいて前記入力文書の位置の補正変換を実行する変換手段とを有する画像処理装置。 [3] Comparison object extraction means for extracting comparison objects from the original document and the input document, correspondence comparison object correspondence means for associating the comparison object of the original document with the comparison object of the input document, and the original document And comparing the position of the comparison object associated with the original document and the input document based on the distribution of the position of the comparison object associated with the input document, and applying the comparison to the position of the input document An image processing apparatus comprising: a correction coefficient calculation unit that calculates a correction coefficient of a correction calculation formula to be performed; and a conversion unit that executes correction conversion of the position of the input document based on the correction coefficient and the correction calculation formula.

[4]前記比較対象選択手段は、前記原本文書及び前記入力文書を複数の分割領域に分割し、各分割領域に含まれる前記比較対象の数が予め定められた数以下になるように前記使用する比較対象を選択する前記[1]又は[2]に記載の画像処理装置。 [4] The comparison target selecting unit divides the original document and the input document into a plurality of divided regions, and uses the comparison document so that the number of the comparison targets included in each divided region is equal to or less than a predetermined number. The image processing apparatus according to [1] or [2], wherein a comparison target to be selected is selected.

[5]前記比較対象選択手段は、前記原本文書及び前記入力文書を複数の分割領域に分割し、各分割領域に含まれる前記比較対象の数が予め定められた分布関数に一致するように前記使用する比較対象を選択する前記[1]又は[2]に記載の画像処理装置。 [5] The comparison target selecting unit divides the original document and the input document into a plurality of divided regions, and the number of the comparison targets included in each divided region matches the predetermined distribution function. The image processing apparatus according to [1] or [2], wherein a comparison target to be used is selected.

[6]原本文書及び入力文書からそれぞれ比較対象を抽出する比較対象抽出ステップと、前記原本文書及び前記入力文書から抽出された前記比較対象の分布に基づいて、使用する比較対象を選択する比較対象選択ステップと、前記原本文書から選択された前記比較対象と前記入力文書から選択された前記比較対象とを対応づける比較対象対応ステップと、前記原本文書から選択された前記比較対象の位置と前記入力文書から選択された前記比較対象の位置とを比較して、前記入力文書の位置補正に適用する補正演算式の補正係数を算出する補正係数算出ステップと、前記補正係数及び前記補正演算式に基づいて前記入力文書の位置の補正変換を実行する変換ステップとを有する画像処理プログラム。 [6] A comparison target extraction step for extracting a comparison target from the original document and the input document, and a comparison target for selecting a comparison target to be used based on the distribution of the comparison target extracted from the original document and the input document A selection step, a comparison object correspondence step for associating the comparison object selected from the original document with the comparison object selected from the input document, the position of the comparison object selected from the original document and the input A correction coefficient calculating step of comparing the position of the comparison target selected from the document and calculating a correction coefficient of a correction calculation expression applied to position correction of the input document; and based on the correction coefficient and the correction calculation expression A conversion step of performing correction conversion of the position of the input document.

[7]紙文書を光学走査して読み取ることで入力文書を入力する画像情報入力手段を備えた端末装置と、前記入力文書に対応した原本文書及び前記入力文書からそれぞれ比較対象を抽出する比較対象抽出手段と、前記原本文書及び前記入力文書から抽出された前記比較対象の位置の分布に基づいて、使用する比較対象を選択する比較対象選択手段と、前記原本文書から選択された前記比較対象と前記入力文書から選択された前記比較対象とを対応づける比較対象対応手段と、前記原本文書から選択された前記比較対象の位置と前記入力文書から選択された前記比較対象の位置とを比較して、前記第2の文書の位置補正に適用する補正演算式の補正係数を算出する補正係数算出手段と、前記補正係数及び前記補正演算式に基づいて前記入力文書の位置の補正変換を実行する変換手段とを有する画像処理システム。 [7] A terminal device provided with image information input means for inputting an input document by optically scanning and reading a paper document, and an original document corresponding to the input document and a comparison object for extracting comparison objects from the input document, respectively Extraction means; comparison object selection means for selecting a comparison object to be used based on a distribution of positions of the comparison objects extracted from the original document and the input document; and the comparison object selected from the original document A comparison object corresponding means for associating the comparison object selected from the input document with the position of the comparison object selected from the original document and the position of the comparison object selected from the input document; Correction coefficient calculation means for calculating a correction coefficient of a correction calculation formula applied to position correction of the second document, and the input document based on the correction coefficient and the correction calculation formula The image processing system and a conversion means for performing a correction conversion position.

請求項1、6又は7に係る発明によれば、文書中の比較対象の分布に偏りがある場合にも、原本文書に対する入力文書の位置ずれを補正することができる。   According to the first, sixth, or seventh aspect of the invention, it is possible to correct the positional deviation of the input document relative to the original document even when the comparison target distribution in the document is biased.

請求項2に係る発明によれば、より正確な文書の位置ずれ補正を実行できる。   According to the second aspect of the present invention, more accurate document misalignment correction can be performed.

請求項3に係る発明によれば、文書中の比較対象の分布に偏りがある場合にも、原本文書に対する入力文書の位置ずれを補正することができる。   According to the third aspect of the present invention, it is possible to correct the positional deviation of the input document with respect to the original document even when the comparison target distribution in the document is biased.

請求項4に係る発明によれば、文書中の比較対象の分布が一様になるように使用する比較対象を選択できる。   According to the invention which concerns on Claim 4, the comparison object used can be selected so that distribution of the comparison object in a document may become uniform.

請求項5に係る発明によれば、文書中の比較対象の分布が予め定められた分布関数に一致するように使用する比較対象を選択できる。   According to the invention which concerns on Claim 5, the comparison object used can be selected so that distribution of the comparison object in a document may correspond to a predetermined distribution function.

(画像処理装置の構成)
図1は、本発明の第1の実施の形態に係る画像処理装置の構成例を示すブロック図である。
(Configuration of image processing apparatus)
FIG. 1 is a block diagram showing a configuration example of an image processing apparatus according to the first embodiment of the present invention.

画像処理装置1は、HDD(Hard Disc Drive)等の不揮発性メモリである記憶部2と、CPU(Central Processing Unit)等の情報処理手段及びインターフェース回路等を含む制御部3と、紙文書を光学走査して読み取ることで入力文書40を入力する画像情報入力手段4と、紙面に印刷することで出力文書を出力したり、ディスプレイに表示することで出力文書を出力したりする画像情報出力手段5とを有する。また、画像処理装置1のソフトウェアは、図示しない操作部において利用者によって操作される。ここで、原本文書20は、入力文書40の原本である文書である。また、ここで文書とは、図面、自然画像や図形などの画像情報、表計算のシート、ワープロ文書等の文字や画像を含む情報であり、ビットマップデータの状態でいるものとする。なお、画像処理装置1とネットワークを介して接続された端末装置に画像情報入力手段4及び画像情報出力手段5を設けて、画像処理装置1と端末装置とで画像処理システムを構成してもよい。また、記憶部2は、他のサーバ装置に設けてもよく、端末装置は複数設置してもよい。   The image processing apparatus 1 includes a storage unit 2 that is a nonvolatile memory such as an HDD (Hard Disc Drive), a control unit 3 that includes information processing means such as a CPU (Central Processing Unit), an interface circuit, and the like, and optically converts a paper document. The image information input means 4 for inputting the input document 40 by scanning and reading, and the image information output means 5 for outputting the output document by printing on paper or outputting the output document by displaying on the display. And have. The software of the image processing apparatus 1 is operated by a user in an operation unit (not shown). Here, the original document 20 is a document that is an original of the input document 40. Here, the document is information including characters and images such as drawings, image information such as natural images and figures, spreadsheet sheets, word processor documents, and the like, and is in the state of bitmap data. The image processing apparatus 1 and the terminal device may constitute an image processing system by providing the image information input means 4 and the image information output means 5 in a terminal device connected to the image processing device 1 via a network. . The storage unit 2 may be provided in another server device, and a plurality of terminal devices may be installed.

記憶部2は、原本文書20と入力文書40とを対応づけるための画像処理プログラム2Aと、入力文書40のオリジナルの文書である原本文書20と、原本文書20と入力文書40との位置を比較する際に用いる比較対象の1つとしての基準点のリストである基準点リスト21とを有する。原本文書20は、画像情報出力手段5によって紙面に印刷された出力文書として出力され、例えば、利用者によって文字や図形等を書き込まれた後、画像情報入力手段4によって読み取られて入力文書40となる。   The storage unit 2 compares the positions of the image processing program 2A for associating the original document 20 with the input document 40, the original document 20 that is the original document of the input document 40, and the original document 20 and the input document 40. And a reference point list 21 that is a list of reference points as one of the comparison targets used in the process. The original document 20 is output as an output document printed on paper by the image information output unit 5. For example, after the user writes characters, graphics, and the like, the original document 20 is read by the image information input unit 4 and the input document 40. Become.

制御部3は、原本文書20及び入力文書40から比較対象の1つとしての基準領域を抽出する基準領域抽出手段30と、基準領域抽出手段30によって抽出された基準領域の特徴量を算出する特徴量算出手段31と、基準領域抽出手段30が抽出した基準領域を取捨選択して使用する基準領域を選択する基準領域選択手段32と、原本文書20と入力文書40との間で一致する基準領域を対応づける基準領域対応手段33と、原本文書20と入力文書40との間で基準領域の位置ずれを算出してそれに基づき補正係数を算出する補正係数算出手段34と、補正係数算出手段34が算出した補正係数を用いて入力文書40の位置補正変換を実施する変換手段35と、原本文書20と入力文書40との差分を抽出する差分抽出手段36とを有する。なお、制御部3は、記憶部に記憶された画像処理プログラム2Aを実行することにより以上の手段として機能する。   The control unit 3 extracts a reference area as a comparison target from the original document 20 and the input document 40, and calculates a feature amount of the reference area extracted by the reference area extraction means 30. A reference area that matches between the original document 20 and the input document 40, a quantity calculation means 31, a reference area selection means 32 for selecting a reference area to be used by selecting the reference area extracted by the reference area extraction means 30 A reference area correspondence means 33, a correction coefficient calculation means 34 for calculating a positional deviation of the reference area between the original document 20 and the input document 40, and a correction coefficient based on the reference area, and a correction coefficient calculation means 34. A conversion unit 35 that performs position correction conversion of the input document 40 using the calculated correction coefficient, and a difference extraction unit 36 that extracts a difference between the original document 20 and the input document 40 are included.The control unit 3 functions as the above means by executing the image processing program 2A stored in the storage unit.

図2は、本発明の第1の実施の形態に係る画像処理装置の構成例を示すブロック図である。   FIG. 2 is a block diagram showing a configuration example of the image processing apparatus according to the first embodiment of the present invention.

基準領域選択手段32は、基準領域から交差点や独立点等の比較対象の1つとしての基準点を抽出してリストを作成する基準点リスト作成手段32Aと、原本文書20及び入力文書40における基準点の分布を算出する基準点分布算出手段32Bと、後述する分割領域において使用する基準点の数を算出する基準点数算出手段32Cと、使用する基準点を選択する基準点取捨選択手段32Dとを有する。   The reference region selection unit 32 extracts a reference point as one of comparison targets such as an intersection or an independent point from the reference region and generates a list, and a reference point list generation unit 32A and a reference in the original document 20 and the input document 40. Reference point distribution calculation means 32B for calculating the distribution of points, reference point number calculation means 32C for calculating the number of reference points used in the divided areas described later, and reference point selection means 32D for selecting the reference points to be used Have.

図3は、本発明の第1の実施の形態に係る基準点リストの内容例を示す概略図である。   FIG. 3 is a schematic diagram showing an example of the contents of a reference point list according to the first embodiment of the present invention.

基準点リスト21Aは、基準点を識別するために記号や数字等で示される基準点と、基準点の位置を座標によって示される位置とから構成される。   The reference point list 21 </ b> A includes a reference point indicated by a symbol, a number, or the like for identifying the reference point, and a position indicated by the coordinates of the reference point.

図4は、本発明の第1の実施の形態に係る原本文書及び入力文書の構成例を示す概略図である。   FIG. 4 is a schematic diagram showing a configuration example of an original document and an input document according to the first embodiment of the present invention.

原本文書20は、それぞれ原本文書20上に配置された文字列21aと21bとを有する。入力文書40は、文字列21aと21bに対応した文字列41aと41bと、利用者によって書き込まれた文字や図形等の書き込み42とを有する。   The original document 20 has character strings 21a and 21b arranged on the original document 20, respectively. The input document 40 includes character strings 41a and 41b corresponding to the character strings 21a and 21b, and writing 42 such as characters and figures written by the user.

図5(a)〜(c)は、本発明の第1の実施の形態における原本文書の構成例を示す概略図である。なお、ここで原本文書と入力文書とは略同一の構成を有するため、代表して原本文書について説明する。   FIGS. 5A to 5C are schematic diagrams showing an example of the configuration of an original document according to the first embodiment of the present invention. Here, since the original document and the input document have substantially the same configuration, the original document will be described as a representative.

図5(a)に示すように、原本文書20は、基準領域抽出手段30によって分割された複数の分割領域200a〜200fを有する。   As shown in FIG. 5A, the original document 20 has a plurality of divided areas 200 a to 200 f divided by the reference area extracting unit 30.

図5(b)に示すように、分割領域hは、例えば、文字210a〜210fをそれぞれ含むように基準領域抽出手段30によって抽出された基準領域201a〜201fを有する。なお、分割領域200a〜200gも同様の構成を有する。   As shown in FIG. 5B, the divided area h includes reference areas 201a to 201f extracted by the reference area extracting unit 30 so as to include characters 210a to 210f, for example. The divided regions 200a to 200g have the same configuration.

図5(c)に示すように、基準領域201aは、文字210aをさらに分割した、連結されたまとまりを含む連結領域202a〜202cを有する。また、それぞれの連結領域202a〜202cは、交差点や独立点等の基準点203a〜203cを有する。   As shown in FIG. 5C, the reference area 201a includes connected areas 202a to 202c that include a connected group obtained by further dividing the character 210a. Moreover, each connection area | region 202a-202c has reference points 203a-203c, such as an intersection and an independent point.

(動作)
以下に、本発明の実施の形態における画像処理装置及び画像処理プログラムの動作を各図を参照しつつ説明する。
(Operation)
The operations of the image processing apparatus and the image processing program according to the embodiment of the present invention will be described below with reference to the drawings.

図6は、本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートである。   FIG. 6 is a flowchart showing an operation example of the image processing apparatus according to the first embodiment of the present invention.

まず、基準領域抽出手段30は、原本文書20及び入力文書40をそれぞれ、例えば、グレースケールに単色化し、白と黒に二値化する(S101)。次に、原本文書20及び入力文書40からそれぞれ文字や図形等を含む基準領域を抽出する(S102)。なお、以下のS105までは、原本文書20及び入力文書40それぞれに対して動作を実行するものとする。   First, the reference area extracting unit 30 converts each of the original document 20 and the input document 40 into, for example, a gray scale and binarizes into white and black (S101). Next, reference regions including characters, graphics, etc. are extracted from the original document 20 and the input document 40 (S102). It is assumed that the operations are executed for the original document 20 and the input document 40 until S105 below.

次に、基準領域選択手段32は、使用する基準領域を基準領域の分布に基づいて取捨選択する(S103)。なお、S103の動作の詳細については後述する。   Next, the reference area selection unit 32 selects a reference area to be used based on the distribution of the reference area (S103). Details of the operation of S103 will be described later.

次に、特徴量算出手段31は、使用する基準領域の特徴量を算出する(S104)。なお、特徴量としては、基準領域内に含まれる連結領域の重心、面積、連結領域を細線化した線長及び連結領域の外接矩形の幅、高さ等を算出する。   Next, the feature amount calculation means 31 calculates the feature amount of the reference area to be used (S104). As the feature amount, the center of gravity and area of the connected region included in the reference region, the line length obtained by thinning the connected region, the width and height of the circumscribed rectangle of the connected region, and the like are calculated.

次に、基準領域対応手段33は、算出された特徴量に基づいて原本文書20の基準領域と入力文書40の基準領域とを対応づける(S105)。対応づけの際は、それぞれの基準領域の特徴量の差が一定の値以下となるものを選ぶ。   Next, the reference area correspondence unit 33 associates the reference area of the original document 20 with the reference area of the input document 40 based on the calculated feature amount (S105). When associating, the one in which the difference between the feature amounts of the respective reference areas is a certain value or less is selected.

次に、補正係数算出手段34は、対応づけられた基準領域の位置ずれが最小となるような補正係数を算出し(S106)、算出した補正係数に基づいて入力文書40をアフィン変換する(S107)。   Next, the correction coefficient calculation unit 34 calculates a correction coefficient that minimizes the positional deviation of the associated reference area (S106), and affine-transforms the input document 40 based on the calculated correction coefficient (S107). ).

なお、アフィン変換は、入力文書40の座標(x,y)を原本文書20の座標(X,Y)に変換するための処理であって、
X=ax+by+c
Y=dx+ey+f
と表されて、a〜fがアフィン変換係数であり、上述した補正係数である。
The affine transformation is a process for converting the coordinates (x, y) of the input document 40 into the coordinates (X, Y) of the original document 20,
X = ax + by + c
Y = dx + ey + f
Where a to f are affine transformation coefficients, which are the correction coefficients described above.

基準点(x,y)、(x,y)、…(x,y)に対して、基準点(X,Y)、(X,Y)、…(X,Y)があるとき、それぞれの誤差の二乗の総和は、

Figure 2010093673

Figure 2010093673

と表されて、これらをそれぞれa〜fで偏微分して得られた式は誤差の勾配を表すので、それらが0となる場合が誤差の最小値となる。これらの連立一次方程式を解いてアフィン変換係数a〜fを求める。 For the reference points (x 1 , y 1 ), (x 2 , y 2 ),... (X n , y n ), the reference points (X 1 , Y 1 ), (X 2 , Y 2 ),. X n , Y n ), the sum of the squares of the respective errors is
Figure 2010093673

Figure 2010093673

Since the equations obtained by partial differentiation of these with a to f represent the gradient of the error, the minimum value of the error is when they are zero. These simultaneous linear equations are solved to obtain affine transformation coefficients a to f.

図7は、本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図6のステップS103を詳細に説明したものである。   FIG. 7 is a flowchart showing an operation example of the image processing apparatus according to the first embodiment of the present invention, which describes step S103 in FIG. 6 in detail.

基準領域選択手段32の基準点リスト作成手段32Aは、各基準領域から基準点の座標を抽出して基準点リスト21Aを作成する(S301)。次に、基準点分布算出手段32Bは、基準点リスト21Aに基づいて基準点の分布を算出し(S302)、分布に応じて各分割領域において使用する基準点の数を決定する(S303)。次に、決定した基準点の数だけ基準点を取捨選択する(S304)。   The reference point list creation means 32A of the reference area selection means 32 extracts the reference point coordinates from each reference area and creates the reference point list 21A (S301). Next, the reference point distribution calculating unit 32B calculates the distribution of the reference points based on the reference point list 21A (S302), and determines the number of reference points to be used in each divided region according to the distribution (S303). Next, as many reference points as the determined reference points are selected (S304).

図8Aは、本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS302を詳細に説明したものである。   FIG. 8A is a flowchart showing an example of the operation of the image processing apparatus according to the first embodiment of the present invention, and describes step S302 of FIG. 7 in detail.

基準点分布算出手段32Bは、各分割領域をm×n個のブロック領域に分割し(S401)、ブロック領域ごとに基準点の数を計数して分布を算出する(S402)。   The reference point distribution calculating unit 32B divides each divided area into m × n block areas (S401), and calculates the distribution by counting the number of reference points for each block area (S402).

図8Bは、本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS302を詳細に説明した他の例である。   FIG. 8B is a flowchart showing an operation example of the image processing apparatus according to the first embodiment of the present invention, which is another example in which step S302 of FIG. 7 is described in detail.

基準点分布算出手段32Bは、基準点をX方向及びY方向に投影し(S403)、所定区間ごとに基準点の数を計数して分布を算出する(S404)。   The reference point distribution calculation unit 32B projects the reference points in the X direction and the Y direction (S403), and calculates the distribution by counting the number of reference points for each predetermined section (S404).

図9Aは、本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS303を詳細に説明したものである。   FIG. 9A is a flowchart showing an example of the operation of the image processing apparatus according to the first embodiment of the present invention, and describes step S303 in FIG. 7 in detail.

基準点数算出手段32Cは、ステップS302において算出した分布に応じて予め定められた固定値を基準点数に決定し(S501)、ステップS304において固定値以下となるように基準点を取捨選択する。   The reference point number calculation means 32C determines a fixed value determined in advance according to the distribution calculated in step S302 as the reference point number (S501), and selects the reference point so as to be equal to or less than the fixed value in step S304.

図9Bは、本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS303を詳細に説明した他の例である。   FIG. 9B is a flowchart showing an operation example of the image processing apparatus according to the first embodiment of the present invention, which is another example in which step S303 in FIG. 7 is described in detail.

基準点数算出手段32Cは、分割領域毎の基準点の数から基準点の最大値、最小値、平均値、中央値及び偏差等の統計量を算出し(S502)、統計量に基づき正規分布やガウシアン等の予め定められた分布を決定して、その分布に基づき各分割領域の基準点の数を決定する(S503)。   The reference point number calculation means 32C calculates statistics such as the maximum value, minimum value, average value, median value, and deviation of the reference points from the number of reference points for each divided region (S502). A predetermined distribution such as Gaussian is determined, and the number of reference points of each divided region is determined based on the distribution (S503).

図9Cは、本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS303を詳細に説明した他の例である。   FIG. 9C is a flowchart showing an operation example of the image processing apparatus according to the first embodiment of the present invention, which is another example illustrating step S303 in FIG. 7 in detail.

基準点数算出手段32Cは、分割領域あたりの基準点の数の最小値が予め定められた値より小さい場合には(S504;No)、図9Aに示す方法を用い(S505)、分割領域あたりの基準点の数の最小値が予め定められた値以上の場合には(S504;Yes)、図9Bに示す方法を用いる(S506)。   When the minimum value of the number of reference points per divided area is smaller than a predetermined value (S504; No), the reference point number calculating means 32C uses the method shown in FIG. 9A (S505). When the minimum value of the number of reference points is equal to or greater than a predetermined value (S504; Yes), the method shown in FIG. 9B is used (S506).

図10Aは、本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS304を詳細に説明した一例である。   FIG. 10A is a flowchart showing an operation example of the image processing apparatus according to the first embodiment of the present invention, and is an example in which step S304 of FIG. 7 is described in detail.

基準点取捨選択手段32Dは、ステップS303において決定した予め定められた個数より分割領域中の基準点数が少ない場合(S601;No)、基準点すべてを使用する基準点とし、予め定められた個数より分割領域中の基準点数が多い場合(S601;Yes)、原本文書20及び入力文書40の両方の基準点リストから基準点を削除する(互いに対応していない基準点は、一方の基準点リストから基準点を削除する)(S602)。   When the number of reference points in the divided area is smaller than the predetermined number determined in step S303 (S601; No), the reference point selection unit 32D sets all the reference points as reference points and uses the predetermined number. When the number of reference points in the divided area is large (S601; Yes), the reference points are deleted from the reference point lists of both the original document 20 and the input document 40 (reference points that do not correspond to each other are deleted from one reference point list. The reference point is deleted) (S602).

図10Bは、本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS304を詳細に説明した他の例である。   FIG. 10B is a flowchart showing an operation example of the image processing apparatus according to the first embodiment of the present invention, which is another example in which step S304 of FIG. 7 is described in detail.

基準点取捨選択手段32Dは、分割領域をさらにブロック領域に分割し(S603)、例えば、それぞれのブロック領域に対して均一に基準点が分布するように、ブロック領域毎の割り当て基準数を算出する(S604)。   The reference point sorting and selection unit 32D further divides the divided area into block areas (S603), and calculates the allocation reference number for each block area so that, for example, the reference points are uniformly distributed for each block area. (S604).

次に、基準点取捨選択手段32Dは、ステップS604において決定した予め定められた個数よりブロック領域中の基準点数が少ない場合(S605;No)、基準点すべてを使用する基準点とし、予め定められた個数よりブロック領域中の基準点数が多い場合(S605;Yes)、原本文書20及び入力文書40の両方の基準点リストから基準点を削除する(互いに対応していない基準点は、一方の基準点リストから基準点を削除する)(S606)。   Next, when the number of reference points in the block area is smaller than the predetermined number determined in step S604 (S605; No), the reference point selection means 32D is determined in advance as a reference point that uses all the reference points. If the number of reference points in the block area is larger than the determined number (S605; Yes), the reference points are deleted from the reference point lists of both the original document 20 and the input document 40 (one of the reference points that do not correspond to each other) The reference point is deleted from the point list) (S606).

[第2の実施の形態]
図11は、本発明の第2の実施の形態に係る基準点リストの内容例を示す概略図である。
[Second Embodiment]
FIG. 11 is a schematic diagram showing an example of the contents of a reference point list according to the second embodiment of the present invention.

基準点リスト21Bは、基準点を識別するために記号や数字等で示される基準点と、基準点を含む連結領域の重心、面積、連結領域を細線化した線長及び連結領域の外接矩形の幅、高さ等である特徴量と、基準点の位置を座標によって示される位置とから構成される。   The reference point list 21B includes a reference point indicated by a symbol or a number to identify the reference point, a center of gravity of the connected area including the reference point, an area, a line length obtained by thinning the connected area, and a circumscribed rectangle of the connected area. A feature amount such as a width and a height, and a position indicated by coordinates of the position of the reference point are configured.

図12は、本発明の第2の実施の形態に係る画像処理装置の動作例を示すフローチャートである。   FIG. 12 is a flowchart showing an operation example of the image processing apparatus according to the second embodiment of the present invention.

まず、基準領域抽出手段30は、原本文書20及び入力文書40をそれぞれ、例えば、グレースケールに単色化し、白と黒に二値化する(S201)。次に、原本文書20及び入力文書40からそれぞれ文字や図形等を含む基準領域を抽出する(S202)。なお、以下のS205までは、原本文書20及び入力文書40それぞれに対して動作を実行するものとする。   First, the reference area extracting unit 30 converts each of the original document 20 and the input document 40 into, for example, a gray scale and binarizes into white and black (S201). Next, reference regions including characters, graphics, etc. are extracted from the original document 20 and the input document 40 (S202). It is assumed that the operations are executed on the original document 20 and the input document 40 until S205 below.

次に、特徴量算出手段31は、基準領域の特徴量を算出する(S203)。次に、基準領域対応手段33は、算出された特徴量に基づいて原本文書20の基準領域と入力文書40の基準領域とを対応づける(S204)。対応づけの際は、それぞれの基準領域の特徴量の差が一定の値以下となるものを選ぶ。   Next, the feature amount calculation means 31 calculates the feature amount of the reference area (S203). Next, the reference area correspondence unit 33 associates the reference area of the original document 20 with the reference area of the input document 40 based on the calculated feature amount (S204). When associating, the one in which the difference between the feature amounts of the respective reference areas is a certain value or less is selected.

次に、基準領域選択手段32は、基準領域を基準領域の分布に基づいて取捨選択する(S205)。なお、S205の動作の詳細については、前述した図7〜図10Bの動作を適用する。   Next, the reference area selection unit 32 selects the reference area based on the distribution of the reference area (S205). Note that the details of the operation of S205 apply the operations of FIGS. 7 to 10B described above.

次に、補正係数算出手段34は、対応づけられた基準領域の位置ずれが最小となるような補正係数を算出し(S206)、算出した補正係数に基づいて入力文書40をアフィン変換する(S207)。   Next, the correction coefficient calculation unit 34 calculates a correction coefficient that minimizes the positional deviation of the associated reference area (S206), and affine-transforms the input document 40 based on the calculated correction coefficient (S207). ).

[第3の実施の形態]
図13は、本発明の第3の実施の形態に係る基準点リストの内容例を示す概略図である。
[Third Embodiment]
FIG. 13 is a schematic diagram showing an example of the contents of a reference point list according to the third embodiment of the present invention.

基準点リスト21Cは、基準点リスト21Bにおいて説明した基準点と、特徴量と、位置とに加えて、アフィン変換に用いる補正係数に乗じる重み付け係数とから構成される。   The reference point list 21 </ b> C includes the reference points described in the reference point list 21 </ b> B, feature amounts, and positions, and weighting coefficients that are multiplied by correction coefficients used for affine transformation.

図14は、本発明の第3の実施の形態に係る画像処理装置の動作例を示すフローチャートである。   FIG. 14 is a flowchart showing an operation example of the image processing apparatus according to the third embodiment of the present invention.

まず、基準領域抽出手段30は、原本文書20及び入力文書40をそれぞれ、例えば、グレースケールに単色化し、白と黒に二値化する(S701)。次に、原本文書20及び入力文書40からそれぞれ文字や図形等を含む基準領域を抽出する(S702)。なお、以下のS704までは、原本文書20及び入力文書40それぞれに対して動作を実行するものとする。   First, the reference area extracting unit 30 converts each of the original document 20 and the input document 40 into, for example, a gray scale and binarizes into white and black (S701). Next, reference regions including characters, figures, etc. are extracted from the original document 20 and the input document 40 (S702). It is assumed that the operations are executed for the original document 20 and the input document 40 until S704 below.

次に、特徴量算出手段31は、基準領域の特徴量を算出する(S703)。次に、基準領域対応手段33は、算出された特徴量に基づいて原本文書20の基準領域と入力文書40の基準領域とを対応づける(S704)。対応づけの際は、それぞれの基準領域の特徴量の差が一定の値以下となるものを選ぶ。   Next, the feature amount calculation unit 31 calculates the feature amount of the reference region (S703). Next, the reference area correspondence unit 33 associates the reference area of the original document 20 with the reference area of the input document 40 based on the calculated feature amount (S704). When associating, the one in which the difference between the feature amounts of the respective reference areas is a certain value or less is selected.

次に、補正係数算出手段34は、基準領域を基準領域の分布に基づいて重み付け係数を算出する(S705)。なお、S705の動作の詳細については後述する。   Next, the correction coefficient calculation unit 34 calculates a weighting coefficient for the reference area based on the distribution of the reference area (S705). Details of the operation in S705 will be described later.

次に、補正係数算出手段34は、算出した重み付け係数wを乗じたアフィン変換の式、

Figure 2010093673

Figure 2010093673

から対応づけられた基準領域の位置ずれが最小となるような補正係数を算出し(S706)、得られた補正係数に基づいて入力文書40をアフィン変換する(S707)。なお、ここで、重み付け係数wを0又は1のいずれかから選択し、第1の実施の形態又は第2の実施の形態における方法と同一の方法を実施してもよい。 Next, the correction coefficient calculation means 34 is an affine transformation formula obtained by multiplying the calculated weighting coefficient w i .
Figure 2010093673

Figure 2010093673

A correction coefficient that minimizes the positional deviation of the reference region associated with the input document 40 is calculated (S706), and the input document 40 is affine transformed based on the obtained correction coefficient (S707). Here, the weighting coefficient w i may be selected from either 0 or 1, and the same method as the method in the first embodiment or the second embodiment may be performed.

図15は、本発明の第3の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図14のステップS705を詳細に説明したものである。   FIG. 15 is a flowchart showing an operation example of the image processing apparatus according to the third embodiment of the present invention, and describes step S705 in FIG. 14 in detail.

補正係数算出手段34は、分割領域毎に基準点リストを作成し(S801)、基準点の分布を算出する(S802)。基準点の数が多い分割領域に含まれる基準点に関しては、補正係数に乗じる重み付け係数を小さくし、基準点の数が少ない分割領域に含まれる基準点に関しては、補正係数に乗じる重み付け係数を大きくするように、各基準点の原本文書20と入力文書40との位置ずれの二乗に重み付けを付与する(S803)。なお、重み付けは、分布に対して乗じることによって分布が一様になるような係数や、分布に対して乗じることによって分布が予め定められた分布になるような係数を算出する。   The correction coefficient calculation unit 34 creates a reference point list for each divided region (S801), and calculates a distribution of reference points (S802). For the reference points included in the divided areas with a large number of reference points, the weighting coefficient to be multiplied by the correction coefficient is reduced, and for the reference points included in the divided areas with a small number of reference points, the weighting coefficient to be multiplied by the correction coefficient is increased. As described above, a weight is assigned to the square of the positional deviation between the original document 20 and the input document 40 at each reference point (S803). The weighting calculates a coefficient that makes the distribution uniform by multiplying the distribution, and a coefficient that makes the distribution become a predetermined distribution by multiplying the distribution.

図16は、本発明の第3の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図15のステップS803を詳細に説明したものである。   FIG. 16 is a flowchart showing an operation example of the image processing apparatus according to the third embodiment of the present invention, and describes step S803 in FIG. 15 in detail.

補正係数算出手段34は、上述のように分割領域内の基準点の数から重み付け係数を算出し(S901)、基準点リスト21Cに重み付け係数を追加する(S902)。基準点リストのすべての基準点に対して重み付け係数を追加すると処理を終了する(S903)。   The correction coefficient calculation means 34 calculates a weighting coefficient from the number of reference points in the divided area as described above (S901), and adds the weighting coefficient to the reference point list 21C (S902). When a weighting coefficient is added to all the reference points in the reference point list, the process ends (S903).

[他の実施の形態]
なお、本発明は、上記実施の形態に限定されず、本発明の趣旨を逸脱しない範囲で種々な変形が可能である。
[Other embodiments]
The present invention is not limited to the above embodiment, and various modifications can be made without departing from the spirit of the present invention.

また、上記実施の形態で使用される基準領域抽出手段30、特徴量算出手段31、基準領域選択手段32、基準領域対応手段33、補正係数算出手段34、変換手段35及び差分抽出手段36は、CD−ROM等の記憶媒体から装置内の記憶部に読み込んでも良く、インターネット等のネットワークに接続されているサーバ装置等から装置内の記憶部にダウンロードしてもよい。また、上記実施の形態で使用される手段の一部又は全部をASIC等のハードウェアによって実現してもよい。   In addition, the reference area extraction means 30, the feature amount calculation means 31, the reference area selection means 32, the reference area correspondence means 33, the correction coefficient calculation means 34, the conversion means 35, and the difference extraction means 36 used in the above embodiment are: It may be read from a storage medium such as a CD-ROM into a storage unit in the apparatus, or may be downloaded from a server apparatus connected to a network such as the Internet to the storage unit in the apparatus. Moreover, you may implement | achieve part or all of the means used by the said embodiment by hardware, such as ASIC.

本発明の第1の実施の形態に係る画像処理装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image processing device according to a first embodiment of the present invention. 本発明の第1の実施の形態に係る画像処理装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image processing device according to a first embodiment of the present invention. 本発明の第1の実施の形態に係る基準点リストの内容例を示す概略図である。It is the schematic which shows the example of the content of the reference point list which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る原本文書及び入力文書の構成例を示す概略図である。It is the schematic which shows the structural example of the original document and input document which concern on the 1st Embodiment of this invention. (a)〜(c)は、本発明の第1の実施の形態における原本文書の構成例を示す概略図である。(A)-(c) is the schematic which shows the structural example of the original document in the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートである。3 is a flowchart showing an operation example of the image processing apparatus according to the first embodiment of the present invention. 本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図6のステップS103を詳細に説明したものである。It is a flowchart which shows the operation example of the image processing apparatus which concerns on the 1st Embodiment of this invention, and demonstrated step S103 of FIG. 6 in detail. 本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS302を詳細に説明したものである。7 is a flowchart illustrating an operation example of the image processing apparatus according to the first exemplary embodiment of the present invention, and illustrates step S302 in FIG. 7 in detail. 本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS302を詳細に説明した他の例である。It is a flowchart which shows the operation example of the image processing apparatus which concerns on the 1st Embodiment of this invention, and is the other example which demonstrated step S302 of FIG. 7 in detail. 本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS303を詳細に説明したものである。7 is a flowchart illustrating an operation example of the image processing apparatus according to the first exemplary embodiment of the present invention, and illustrates step S303 in FIG. 7 in detail. 本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS303を詳細に説明した他の例である。It is a flowchart which shows the operation example of the image processing apparatus which concerns on the 1st Embodiment of this invention, and is the other example which demonstrated step S303 of FIG. 7 in detail. 本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS303を詳細に説明した他の例である。It is a flowchart which shows the operation example of the image processing apparatus which concerns on the 1st Embodiment of this invention, and is the other example which demonstrated step S303 of FIG. 7 in detail. 本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS304を詳細に説明した一例である。It is a flowchart which shows the operation example of the image processing apparatus which concerns on the 1st Embodiment of this invention, and is an example which demonstrated step S304 of FIG. 7 in detail. 本発明の第1の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図7のステップS304を詳細に説明した他の例である。It is a flowchart which shows the operation example of the image processing apparatus which concerns on the 1st Embodiment of this invention, and is the other example which demonstrated step S304 of FIG. 7 in detail. 本発明の第2の実施の形態に係る基準点リストの内容例を示す概略図である。It is the schematic which shows the example of the content of the reference point list which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る画像処理装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る基準点リストの内容例を示す概略図である。It is the schematic which shows the example of the content of the reference point list which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る画像処理装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the image processing apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図14のステップS705を詳細に説明したものである。It is a flowchart which shows the operation example of the image processing apparatus which concerns on the 3rd Embodiment of this invention, and demonstrated step S705 of FIG. 14 in detail. 本発明の第3の実施の形態に係る画像処理装置の動作例を示すフローチャートであり、図15のステップS803を詳細に説明したものである。It is a flowchart which shows the operation example of the image processing apparatus which concerns on the 3rd Embodiment of this invention, and demonstrated step S803 of FIG. 15 in detail.

符号の説明Explanation of symbols

1…画像処理装置、2…記憶部、2A…画像処理プログラム、3…制御部、4…画像情報入力手段、5…画像情報出力手段、20…原本文書、21a、21b…文字列、21…基準点リスト、21A〜21C…基準点リスト、30…基準領域抽出手段、31…特徴量算出手段、32…基準領域選択手段、32A…基準点リスト作成手段、32B…基準点分布算出手段、32C…基準点数算出手段、32D…基準点取捨選択手段、33…基準領域対応手段、34…補正係数算出手段、35…変換手段、36…差分抽出手段、40…入力文書、41a、41b…文字列、42…書き込み、200a-200f…分割領域、201a-201f…基準領域、202a-202c…連結領域、203a-203c…基準点、210a-210f…文字 DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 2 ... Memory | storage part, 2A ... Image processing program, 3 ... Control part, 4 ... Image information input means, 5 ... Image information output means, 20 ... Original document, 21a, 21b ... Character string, 21 ... Reference point list, 21A to 21C ... reference point list, 30 ... reference area extraction means, 31 ... feature amount calculation means, 32 ... reference area selection means, 32A ... reference point list creation means, 32B ... reference point distribution calculation means, 32C ... Reference point calculation means, 32D... Reference point selection and selection means, 33... Reference area correspondence means, 34... Correction coefficient calculation means, 35... Conversion means, 36 ... Difference extraction means, 40 ... Input document, 41a, 41b. , 42 ... write, 200a-200f ... divided area, 201a-201f ... reference area, 202a-202c ... connected area, 203a-203c ... reference point, 210a-210f ... character

Claims (7)

原本文書及び入力文書からそれぞれ比較対象を抽出する比較対象抽出手段と、
前記原本文書及び前記入力文書から抽出された前記比較対象の位置の分布に基づいて、使用する比較対象を選択する比較対象選択手段と、
前記原本文書から選択された前記比較対象と前記入力文書から選択された前記比較対象とを対応づける比較対象対応手段と、
前記原本文書から選択された前記比較対象の位置と前記入力文書から選択された前記比較対象の位置とを比較して、前記第2の文書の位置補正に適用する補正演算式の補正係数を算出する補正係数算出手段と、
前記補正係数及び前記補正演算式に基づいて前記入力文書の位置の補正変換を実行する変換手段とを有する画像処理装置。
Comparison object extraction means for extracting comparison objects from the original document and the input document,
Comparison target selection means for selecting a comparison target to be used based on the distribution of the position of the comparison target extracted from the original document and the input document;
A comparison object corresponding means for associating the comparison object selected from the original document with the comparison object selected from the input document;
The comparison target position selected from the original document is compared with the comparison target position selected from the input document, and a correction coefficient of a correction calculation formula applied to position correction of the second document is calculated. Correction coefficient calculation means for
An image processing apparatus comprising: conversion means for performing correction conversion of the position of the input document based on the correction coefficient and the correction calculation formula.
原本文書及び入力文書からそれぞれ比較対象を抽出する比較対象抽出手段と、
前記原本文書の前記比較対象と前記入力文書の前記比較対象とを対応づける比較対象対応手段と、
前記原本文書及び前記入力文書において対応づけられた前記比較対象の位置の分布に基づいて、使用する比較対象を選択する比較対象選択手段と、
前記原本文書から選択された前記比較対象の位置と前記入力文書から選択された前記比較対象の位置とを比較して、前記第2の文書の位置補正に適用する補正演算式の補正係数を算出する補正係数算出手段と、
前記補正係数及び前記補正演算式に基づいて前記入力文書の位置補正変換を実行する変換手段とを有する画像処理装置。
Comparison object extraction means for extracting comparison objects from the original document and the input document,
A comparison object corresponding means for associating the comparison object of the original document with the comparison object of the input document;
Comparison target selection means for selecting a comparison target to be used based on the distribution of the position of the comparison target associated in the original document and the input document;
The comparison target position selected from the original document is compared with the comparison target position selected from the input document, and a correction coefficient of a correction calculation formula applied to position correction of the second document is calculated. Correction coefficient calculation means for
An image processing apparatus comprising: conversion means for executing position correction conversion of the input document based on the correction coefficient and the correction calculation formula.
原本文書及び入力文書からそれぞれ比較対象を抽出する比較対象抽出手段と、
前記原本文書の前記比較対象と前記入力文書の前記比較対象とを対応づける比較対象対応手段と、
前記原本文書及び前記入力文書において対応づけられた前記比較対象の分布に基づいて、前記原本文書及び前記入力文書において対応づけられた前記比較対象の位置を比較して、前記第2の文書の位置補正に適用する補正演算式の補正係数を算出する補正係数算出手段と、
前記補正係数及び前記補正演算式に基づいて前記入力文書の位置補正変換を実行する変換手段とを有する画像処理装置。
Comparison object extraction means for extracting comparison objects from the original document and the input document,
A comparison object corresponding means for associating the comparison object of the original document with the comparison object of the input document;
Based on the distribution of the comparison target associated with the original document and the input document, the position of the second document is compared by comparing the position of the comparison target associated with the original document and the input document. Correction coefficient calculating means for calculating a correction coefficient of a correction arithmetic expression applied to correction;
An image processing apparatus comprising: conversion means for executing position correction conversion of the input document based on the correction coefficient and the correction calculation formula.
前記比較対象選択手段は、前記原本文書及び前記入力文書を複数の分割領域に分割し、各分割領域に含まれる前記比較対象の数が予め定められた数以下になるように前記使用する比較対象を選択する請求項1又は2に記載の画像処理装置。   The comparison target selection unit divides the original document and the input document into a plurality of divided areas, and uses the comparison target to be used so that the number of comparison targets included in each divided area is equal to or less than a predetermined number. The image processing apparatus according to claim 1, wherein the image processing apparatus is selected. 前記比較対象選択手段は、前記原本文書及び前記入力文書を複数の分割領域に分割し、各分割領域に含まれる前記比較対象の数が予め定められた分布関数に一致するように前記使用する比較対象を選択する請求項1又は2に記載の画像処理装置。   The comparison target selecting unit divides the original document and the input document into a plurality of divided regions, and uses the comparison so that the number of the comparison targets included in each divided region matches a predetermined distribution function. The image processing apparatus according to claim 1, wherein a target is selected. 原本文書及び入力文書からそれぞれ比較対象を抽出する比較対象抽出ステップと、
前記原本文書及び前記入力文書から抽出された前記比較対象の分布に基づいて、使用する比較対象を選択する比較対象選択ステップと、
前記原本文書から選択された前記比較対象と前記入力文書から選択された前記比較対象とを対応づける比較対象対応ステップと、
前記原本文書から選択された前記比較対象の位置と前記入力文書から選択された前記比較対象の位置とを比較して、前記入力文書の位置補正に適用する補正演算式の補正係数を算出する補正係数算出ステップと、
前記補正係数及び前記補正演算式に基づいて前記入力文書の位置補正変換を実行する変換ステップとを有する画像処理プログラム。
A comparison object extraction step for extracting a comparison object from the original document and the input document,
A comparison target selection step of selecting a comparison target to be used based on the distribution of the comparison target extracted from the original document and the input document;
A comparison object corresponding step for associating the comparison object selected from the original document with the comparison object selected from the input document;
Correction for calculating a correction coefficient of a correction arithmetic expression applied to position correction of the input document by comparing the position of the comparison target selected from the original document and the position of the comparison target selected from the input document A coefficient calculation step;
An image processing program comprising: a conversion step of executing position correction conversion of the input document based on the correction coefficient and the correction calculation formula.
紙文書を光学走査して読み取ることで入力文書を入力する画像情報入力手段を備えた端末装置と、
前記入力文書に対応した原本文書及び前記入力文書からそれぞれ比較対象を抽出する比較対象抽出手段と、
前記原本文書及び前記入力文書から抽出された前記比較対象の位置の分布に基づいて、使用する比較対象を選択する比較対象選択手段と、
前記原本文書から選択された前記比較対象と前記入力文書から選択された前記比較対象とを対応づける比較対象対応手段と、
前記原本文書から選択された前記比較対象の位置と前記入力文書から選択された前記比較対象の位置とを比較して、前記第2の文書の位置補正に適用する補正演算式の補正係数を算出する補正係数算出手段と、
前記補正係数及び前記補正演算式に基づいて前記入力文書の位置の補正変換を実行する変換手段とを有する画像処理システム。
A terminal device provided with image information input means for inputting an input document by optically scanning and reading a paper document;
A comparison object extracting means for extracting a comparison object from each of the original document corresponding to the input document and the input document;
Comparison target selection means for selecting a comparison target to be used based on the distribution of the position of the comparison target extracted from the original document and the input document;
A comparison object corresponding means for associating the comparison object selected from the original document with the comparison object selected from the input document;
The comparison target position selected from the original document is compared with the comparison target position selected from the input document, and a correction coefficient of a correction calculation formula applied to position correction of the second document is calculated. Correction coefficient calculation means for
An image processing system comprising: conversion means for executing correction conversion of the position of the input document based on the correction coefficient and the correction calculation formula.
JP2008263514A 2008-10-10 2008-10-10 Image processing apparatus, program and system Pending JP2010093673A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008263514A JP2010093673A (en) 2008-10-10 2008-10-10 Image processing apparatus, program and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008263514A JP2010093673A (en) 2008-10-10 2008-10-10 Image processing apparatus, program and system

Publications (1)

Publication Number Publication Date
JP2010093673A true JP2010093673A (en) 2010-04-22

Family

ID=42255941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008263514A Pending JP2010093673A (en) 2008-10-10 2008-10-10 Image processing apparatus, program and system

Country Status (1)

Country Link
JP (1) JP2010093673A (en)

Similar Documents

Publication Publication Date Title
US7403658B2 (en) Direct homography computation by local linearization
KR101122822B1 (en) Enhanced approach of m-array decoding and error correction
JP4310288B2 (en) Image processing apparatus and method, program, and storage medium
JP2009122760A (en) Document processing apparatus, document processing method, and document processing program
JP2005202953A (en) Camera-pen-tip mapping and calibration
JP2005235185A (en) Stroke localization by m-array decoding and fast image matching
JP2007279828A (en) Business form processor, business form format preparation device, business form, program for processing business form and program for preparing business form format
JP2010003087A (en) Image processor and image processing method
JP4532331B2 (en) Information embedding device, information extracting device, information embedding method, information extracting method, information embedding program, and information extracting program
JP4943354B2 (en) Information identification device, information identification method, program, and recording medium
JP2008234291A (en) Character recognition device and character recognition method
JP2010231529A (en) Determination device and program
JP2010093673A (en) Image processing apparatus, program and system
JP4397866B2 (en) Two-dimensional pattern reading device, two-dimensional pattern reading method
JP2006020144A (en) Document processing system
JP2009181243A (en) Handwriting information processor and program
JP5298830B2 (en) Image processing program, image processing apparatus, and image processing system
JP6098065B2 (en) Image inspection apparatus, image inspection method, and program
JP5636966B2 (en) Error detection apparatus and error detection program
JP5277750B2 (en) Image processing program, image processing apparatus, and image processing system
JP2007102265A (en) Identification card recognition device and method
JP2006073011A (en) Maze pattern analyzing method and its device
CN105373822A (en) Rectangular anti-fake label, reading method and system
JP4517667B2 (en) Document image collation device, document image alignment method and program
JP2021111044A (en) Form processing program, form processing device and form processing method