JP2009064219A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2009064219A
JP2009064219A JP2007231248A JP2007231248A JP2009064219A JP 2009064219 A JP2009064219 A JP 2009064219A JP 2007231248 A JP2007231248 A JP 2007231248A JP 2007231248 A JP2007231248 A JP 2007231248A JP 2009064219 A JP2009064219 A JP 2009064219A
Authority
JP
Japan
Prior art keywords
measurement
area
inclusion
region
exclusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007231248A
Other languages
Japanese (ja)
Inventor
Masaru Sekiguchi
優 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007231248A priority Critical patent/JP2009064219A/en
Publication of JP2009064219A publication Critical patent/JP2009064219A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and an image processing method which can obtain a range for an extraction object region with more accuracy in a document image and extract the region where spacings between characters are not uniform. <P>SOLUTION: The image processor is provided with: an extraction object region designating means which makes a user designate a prescribed region to be extracted from image data by drawing a line; a measuring range determining means which determines the measuring range in which at least one of a histogram measurement or a block unit measurement is carried out based on an arbitrary reference point among coordinate data composing the designated line; a measuring means which carries out at least one of the histogram measurement or the block unit measurement for pixels within a determined measuring range; a first exclusion/inclusion means which determines the excluded region and the included region based on the measured result; a circumscribing region extraction means which extracts the circumscribing region in the region after determining which is merged with the determined included region; a second exclusion/inclusion means determining the excluded region and the included region regarding the extracted circumscribing region; and an integrated region determination means for merging the determined included region and making an integrated region. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、文書画像内の指定された領域を自動的に判定して抽出する画像処理を行う画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for performing image processing for automatically determining and extracting a designated area in a document image.

一般的に、文書画像内の文字・写真・図・表などを抽出する画像処理では、その抽出率を完全100%にするのは困難である。例えば、図3に示すような文書画像データにおいて、他の文字よりも大きなサイズであるタイトル文字(大サイズ文字)で構成される「理工太郎が○○賞を受賞される」という文字行(タイトル文字行)を抽出したい場合、このタイトル文字行を四隅ぴったりに指定することは困難であるので、従来は、多少小さくした大まかな領域を指定することが多かった。このような従来技術例として、例えば、「抽出対象の領域を点で指定し、抽出する方法」がある(例えば、特許文献1、2参照)。
特許第2948840号公報 特許第2938490号公報
In general, in image processing that extracts characters, photographs, diagrams, tables, and the like in a document image, it is difficult to make the extraction rate completely 100%. For example, in the document image data as shown in FIG. 3, a character line (title) that is composed of title characters (large size characters) that are larger in size than other characters (Riko Taro won the XX Award). When it is desired to extract a character line), it is difficult to specify the title character line exactly at the four corners, and conventionally, a rough area slightly smaller is often specified. As such a prior art example, for example, there is a “method of specifying and extracting an extraction target region with a point” (for example, see Patent Documents 1 and 2).
Japanese Patent No. 2948840 Japanese Patent No. 2938490

しかし、従来の「抽出対象の領域を点で指定し、抽出する方法」では、例えば、図10に示すような文字間隔が不均一な文字列(領域)を抽出する場合、抽出対象の領域の範囲(どこまでが抽出対象の領域であるのか。)の推測が困難である。つまり、図10の場合、抽出対象の領域の範囲が、「あ」のみなのか、「あ」から「いう」までなのか、あるいは、「あ」から「えお」までなのかを推測するのが困難である。その理由は、この従来の方法では、抽出対象の領域中の位置情報(指定した点の座標)に基づいて矩形を抽出し、抽出した矩形を増大させていくことで行われるため、領域中の位置情報が必要となり、図10に示すような文字間隔が不均一な文字列に対しては、適用することができないからである。   However, in the conventional “method of designating and extracting an extraction target region with dots”, for example, when extracting a character string (region) with non-uniform character spacing as shown in FIG. It is difficult to guess the range (how far is the region to be extracted). That is, in the case of FIG. 10, it is estimated whether the range of the extraction target area is only “A”, “A” to “U”, or “A” to “Eo”. Is difficult. The reason is that this conventional method is performed by extracting a rectangle based on position information (coordinates of a specified point) in the extraction target area and increasing the extracted rectangle. This is because position information is required and cannot be applied to a character string with non-uniform character spacing as shown in FIG.

本発明は、上記事情に鑑みてなされたものであり、点の代わりに、線(フリーバンド)で指定することで、抽出対象の領域の範囲をより正確に捉え、文字間隔が不均一な領域を抽出できる画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and by specifying with a line (free band) instead of a point, a range of a region to be extracted can be captured more accurately, and a region where character spacing is not uniform An object of the present invention is to provide an image processing apparatus and an image processing method capable of extracting the image.

かかる目的を達成するために、本発明の第1の画像処理装置は、ユーザに対して、画像データ中から抽出する領域を、線を用いて指定させる抽出対象領域指定手段と、抽出対象領域指定手段により画像データ中に指定された線を構成する座標データのうち任意のものを基準点とし、基準点に基づいて、ヒストグラム測定及びブロック単位による測定のうち少なくとも1つが行われる測定範囲を決定する測定範囲決定手段と、測定範囲決定手段が決定した測定範囲内の画素に対して、ヒストグラム測定及びブロック単位による測定のうち少なくとも1つを行う測定手段と、測定手段が測定した結果に基づいて、除外領域及び包含領域を決定する第1の除外包含手段と、第1の除外包含手段が決定した包含領域をマージして判定後領域とし、判定後領域の外接領域を抽出する外接領域抽出手段と、外接領域抽出手段が抽出した外接領域について、除外領域及び包含領域を決定する第2の除外包含手段と、第2の除外包含手段が決定した包含領域をマージして統合領域とする統合領域決定手段と、を有することを特徴とする。   In order to achieve such an object, the first image processing apparatus of the present invention includes an extraction target region specifying unit that allows a user to specify a region to be extracted from image data using a line, and an extraction target region specification. An arbitrary coordinate data constituting a line specified in the image data by the means is used as a reference point, and a measurement range in which at least one of histogram measurement and block unit measurement is performed is determined based on the reference point. Based on the measurement range determination means, the measurement means for performing at least one of the measurement by the histogram measurement and the block unit on the pixels within the measurement range determined by the measurement range determination means, and the measurement result of the measurement means, The first exclusion inclusion means for determining the exclusion area and the inclusion area and the inclusion area determined by the first exclusion inclusion means are merged as a post-determination area, Circumscribed area extracting means for extracting a circumscribed area of the area, second excluded inclusion means for determining an excluded area and an included area for the circumscribed area extracted by the circumscribed area extracting means, and an inclusion determined by the second excluded included means And an integrated area determination unit that merges areas into an integrated area.

本発明の第2の画像処理装置は、本発明の第1の画像処理装置において、測定手段により、ヒストグラム測定の後、ブロック単位による測定が行われる場合、測定手段は、測定範囲決定手段が決定した測定範囲内の画素に対して、ヒストグラム測定を行い、第1の除外包含手段は、測定手段が行ったヒストグラム測定の結果に基づいて、第1の包含領域を決定し、測定手段は、第1の除外包含手段が決定した第1の包含領域内の画素に対して、ブロック単位による測定を行い、第1の除外包含手段は、測定手段が行ったブロック単位による測定の結果に基づいて、第2の包含領域を決定し、外接領域抽出手段は、第1の除外包含手段が決定した第2の包含領域をマージして判定後領域とし、判定後領域の外接領域を抽出することを特徴とする。   In the second image processing apparatus of the present invention, in the first image processing apparatus of the present invention, when measurement is performed in block units after the histogram measurement by the measurement unit, the measurement unit is determined by the measurement range determination unit. The first excluded inclusion means determines a first inclusion region based on the result of the histogram measurement performed by the measurement means, and the measurement means For each pixel in the first inclusion area determined by one exclusion inclusion means, measurement is performed in block units, and the first exclusion inclusion means is based on the result of measurement in block units performed by the measurement means, The second inclusion region is determined, and the circumscribed region extraction unit merges the second inclusion region determined by the first exclusion inclusion unit to obtain a post-determination region, and extracts the circumscribed region of the post-determination region To

本発明の第3の画像処理装置は、本発明の第1又は第2の画像処理装置において、測定範囲決定手段は、基準点の上下左右から所定の文字サイズに相当するピクセル数を求め、求めたピクセル数を測定範囲とするか、又は、基準点の上下左右から画像データの端まですべてを測定範囲とすることを特徴とする。   According to a third image processing apparatus of the present invention, in the first or second image processing apparatus of the present invention, the measurement range determining means obtains the number of pixels corresponding to a predetermined character size from the top, bottom, left, and right of the reference point. The number of pixels is used as the measurement range, or the measurement range is all from the top, bottom, left, and right of the reference point to the end of the image data.

本発明の第1の画像処理方法は、ユーザに対して、画像データ中から抽出する領域を、線を用いて指定させる抽出対象領域指定ステップと、抽出対象領域指定ステップにより画像データ中に指定された線を構成する座標データのうち任意のものを基準点とし、基準点に基づいて、ヒストグラム測定及びブロック単位による測定のうち少なくとも1つが行われる測定範囲を決定する測定範囲決定ステップと、測定範囲決定ステップが決定した測定範囲内の画素に対して、ヒストグラム測定及びブロック単位による測定のうち少なくとも1つを行う測定ステップと、測定ステップで測定した結果に基づいて、除外領域及び包含領域を決定する第1の除外包含ステップと、第1の除外包含ステップで決定した包含領域をマージして判定後領域とし、判定後領域の外接領域を抽出する外接領域抽出ステップと、外接領域抽出ステップで抽出した外接領域について、除外領域及び包含領域を決定する第2の除外包含ステップと、第2の除外包含ステップで決定した包含領域をマージして統合領域とする統合領域決定ステップと、を有することを特徴とする。   According to a first image processing method of the present invention, an extraction target region specifying step that allows a user to specify a region to be extracted from image data by using a line and an extraction target region specifying step are specified in the image data. A measurement range determining step for determining a measurement range in which at least one of histogram measurement and block unit measurement is performed based on any coordinate data constituting the line as a reference point; The exclusion region and the inclusion region are determined based on the measurement step that performs at least one of the histogram measurement and the block unit measurement on the pixels within the measurement range determined by the determination step, and the measurement result of the measurement step. Merge the inclusion area determined in the first exclusion inclusion step and the first exclusion inclusion step into a post-determination area; A circumscribed area extracting step for extracting a circumscribed area of the fixed area, a second excluded including step for determining an excluded area and an included area for the circumscribed area extracted in the circumscribed area extracting step, and a second excluded including step And an integrated region determination step that merges the included regions into an integrated region.

本発明の第2の画像処理方法は、本発明の第1の画像処理方法において、測定ステップで、ヒストグラム測定の後、ブロック単位による測定が行われる場合、測定範囲決定ステップで定した測定範囲内の画素に対して、ヒストグラム測定を行い、ヒストグラム測定の結果に基づいて、第1の包含領域を決定し、第1の包含領域内の画素に対して、ブロック単位による測定を行い、ブロック単位による測定の結果に基づいて、第2の包含領域を決定し、外接領域抽出ステップでは、第2の包含領域をマージして判定後領域とし、判定後領域の外接領域を抽出することを特徴とする。   The second image processing method of the present invention is the same as the first image processing method of the present invention, in the case where measurement is performed in block units after histogram measurement in the measurement step, and within the measurement range determined in the measurement range determination step. The pixel is measured with a histogram, the first inclusion region is determined based on the result of the histogram measurement, the pixel within the first inclusion region is measured with the block unit, and the pixel unit Based on the measurement result, a second inclusion region is determined, and the circumscribed region extraction step merges the second inclusion region into a post-determination region, and extracts the circumscribed region of the post-determination region .

本発明の第3の画像処理方法は、本発明の第1又は第2の画像処理方法において、測定範囲決定ステップでは、基準点の上下左右から所定の文字サイズに相当するピクセル数を求め、求めたピクセル数を測定範囲とするか、又は、基準点の上下左右から画像データの端まですべてを測定範囲とすることを特徴とする。   According to a third image processing method of the present invention, in the first or second image processing method of the present invention, in the measurement range determining step, the number of pixels corresponding to a predetermined character size is obtained from the top, bottom, left, and right of the reference point. The number of pixels is used as the measurement range, or the measurement range is all from the top, bottom, left, and right of the reference point to the end of the image data.

本発明によれば、画像データにおいて、文字間隔が不均一な領域をすることが可能となる。   According to the present invention, it is possible to form an area in which character spacing is not uniform in image data.

以下、本発明を実施するための最良の形態について添付図面を参照して詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

本発明の画像処理装置の構成について、図1のブロック図を参照して説明する。
本発明の画像処理装置は、全体の制御などを行うCPU101、原稿などを読み取り、画像データを取得するスキャナ部102、画像データや画像処理の結果を示す情報などを記憶する、ハードディスクやCD/DVD/メモリカードなどの外部記憶部103、入力した画像データを記憶する入力画像メモリ部104、ユーザにより操作が行なわれるとともに、入力した画像データをプレビュー表示などの表示を行う操作表示部(タッチパネル式ディスプレイ)106、操作表示部106における操作で指定された領域を示す領域情報を格納する領域情報格納部107、二値化処理、ブロック単位による測定やヒストグラム測定、矩形抽出処理などの画像処理を行う画像処理部108、ネットワーク網110から画像データを取り寄せたり、画像処理の結果を示す情報を配達したりする通信制御部109、を有する。
The configuration of the image processing apparatus of the present invention will be described with reference to the block diagram of FIG.
An image processing apparatus according to the present invention includes a CPU 101 that performs overall control, a scanner unit 102 that reads a document and acquires image data, a hard disk and a CD / DVD that store image data, information indicating the results of image processing, and the like. / An external storage unit 103 such as a memory card, an input image memory unit 104 that stores input image data, and an operation display unit (touch panel type display) that is operated by a user and displays the input image data such as a preview display ) 106, an area information storage unit 107 for storing area information indicating an area designated by an operation on the operation display unit 106, an image for performing image processing such as binarization processing, block-based measurement, histogram measurement, and rectangle extraction processing Obtain image data from the processing unit 108 and the network 110, A communication control unit 109, or to deliver information indicative of a result of image processing.

上述したように構成された本発明の画像処理装置の動作(画像処理方法)の実施例1について、図2のフロー図を参照して説明する。なお、以下に説明する処理動作を本発明の画像処理装置に実行させるための画像処理プログラムは、図1に図示しないプログラム記憶部、あるいは、外部記憶部103やネットワーク網110から画像処理装置に読み込まれ、画像処理装置の動作を制御する。本発明の画像処理装置は、この画像処理プログラムの制御により以下の処理動作を実行する。   A first embodiment of the operation (image processing method) of the image processing apparatus of the present invention configured as described above will be described with reference to the flowchart of FIG. An image processing program for causing the image processing apparatus of the present invention to execute the processing operation described below is read into the image processing apparatus from a program storage unit (not shown in FIG. 1), or from the external storage unit 103 or the network 110. This controls the operation of the image processing apparatus. The image processing apparatus of the present invention executes the following processing operations under the control of this image processing program.

本発明は、図14に示すように、線(フリーバンド。以下、指定線ともいう)により「理工太郎が○○賞を受賞される」というタイトル文字列が抽出対象の領域として指定された後、例えば基準点(線上の最左端の点)の座標から右方向へ、ヒストグラム頻度や画素の分布の測定結果に基づいて、次の文字その次の文字と抽出していき、空白の間隔(字間)により、文字列の区切りとし、その間隔までを抽出対象の領域として抽出するという仕組みである。   In the present invention, as shown in FIG. 14, after a title character string “Riko Taro won the XX Award” is designated as an extraction target area by a line (free band, hereinafter also referred to as a designated line). For example, from the coordinates of the reference point (the leftmost point on the line) to the right, the next character and the next character are extracted based on the measurement result of histogram frequency and pixel distribution, and the space interval (character Between the character strings and the interval is extracted as an extraction target area.

まず、外部記憶部103に記憶されている画像ファイルからの読み込み、スキャナ部102によるスキャン、ネットワーク網110上の他装置から通信制御部109を介してのダウンロードなどにより、例えば、図3に示す文書画像データ(以下、単に「画像データ」という)を入力し、操作表示部106に表示する(ステップS201)。なお、入力した文書画像データに対しては、二値に減色する二値化処理を行うものとする。   First, by reading from an image file stored in the external storage unit 103, scanning by the scanner unit 102, downloading from another device on the network 110 via the communication control unit 109, for example, the document shown in FIG. Image data (hereinafter simply referred to as “image data”) is input and displayed on the operation display unit 106 (step S201). It is assumed that the input document image data is subjected to a binarization process for reducing the color to binary.

操作表示部106に表示された図3の画像データを見ながら、ユーザは、操作表示部106を介して、抽出したい領域(ユーザが抽出を所望する領域のこと。以下「抽出対象の領域」といい、以下の説明では、例として「理工太郎が○○賞を受賞される」というタイトル文字行を「抽出対象の領域」とする)を指定する操作を行う(ステップS202)。   While viewing the image data of FIG. 3 displayed on the operation display unit 106, the user can select an area to be extracted (an area that the user desires to extract through the operation display unit 106. In the following description, as an example, an operation for designating the title character line “Taro Riko won the XX Award” as “extraction target area” is performed (step S202).

ここで、操作表示部106は、ユーザによる操作(抽出対象の領域を指定する操作)を受け付けるが、本発明では、操作を簡潔化するために、点の代わりに線(フリーバンド)を用いて抽出対象の領域を指定する操作を受け付ける。具体的には、操作表示部106は、人間(ユーザ)の指先、スタイラスペン、その他の接触入力具等の抽出対象領域指定手段を介して接触することによって、入力を受け付ける。操作表示部106は、指先やペン先からの押圧により抵抗の変化を検知する抵抗膜方式あるいはアナログ容量結合方式などの公知技術によって、表示面のそれぞれの位置における入力を検出して受け付ける。なお、入力の形態としては、操作表示部106に対して接触して入力を行う接触入力(タッチ入力)の他に、マウス、キーボード、押圧スイッチを含む種々の入力方式を適用することができる。   Here, the operation display unit 106 accepts an operation by the user (an operation for designating an extraction target area). In the present invention, a line (free band) is used instead of a point in order to simplify the operation. An operation for specifying an extraction target area is accepted. Specifically, the operation display unit 106 receives an input by making contact via an extraction target area designating unit such as a human (user) fingertip, a stylus pen, or other contact input tool. The operation display unit 106 detects and accepts an input at each position on the display surface by a known technique such as a resistance film method that detects a change in resistance by pressing from a fingertip or a pen tip or an analog capacitive coupling method. As an input form, various input methods including a mouse, a keyboard, and a push switch can be applied in addition to a contact input (touch input) in which input is performed by touching the operation display unit 106.

以上のようにして、抽出対象の領域が指定された時のイメージを図4に示す。図4は、「理工太郎が○○賞を受賞される」というタイトル文字行が、抽出対象の領域として、線(フリーバンド)で指定された状態を示している。   FIG. 4 shows an image when the extraction target area is designated as described above. FIG. 4 shows a state in which the title character line “Taro Riko receives the XX prize” is designated by a line (free band) as an extraction target area.

入力された線(フリーバンド)のベクトルデータは、座標データから構成されており、座標1(x1,y1)、座標2(x2,y2)・・・座標n(xn,yn)というように、複数の座標データで構成されている。これら座標データは、後述する周囲の範囲(測定範囲)を決定するための基準点として用いられる。図5及び図8では、各座標データ(基準点)を青色の点として示している。   The vector data of the input line (free band) is composed of coordinate data, such as coordinate 1 (x1, y1), coordinate 2 (x2, y2)... Coordinate n (xn, yn), It consists of multiple coordinate data. These coordinate data are used as reference points for determining a surrounding range (measurement range) described later. 5 and 8, each coordinate data (reference point) is shown as a blue point.

次に、上述した各基準点を基に、測定(ヒストグラム測定やブロック単位による測定)を行う対象となる「周囲の範囲(以下、測定範囲という)」を決定する(ステップS203)。ここで、本発明において、測定範囲に限定して測定を行う理由は、画像全体に対して測定を行うと、処理時間が低下してしまうためである。   Next, based on each reference point described above, a “surrounding range (hereinafter referred to as a measurement range)” to be measured (histogram measurement or measurement in block units) is determined (step S203). Here, in the present invention, the reason for performing the measurement only in the measurement range is that if the measurement is performed on the entire image, the processing time is reduced.

この測定範囲の大きさは、以下に示す2つの条件、〈測定範囲決定条件1〉又は〈測定範囲決定条件2〉のいずれか1つに基づいて決定される。どちらの条件を選択するかは、(本発明をアプリケーションに実装する)ユーザが指定できるものとする。なお、以下の説明では、〈測定範囲決定条件1〉を適用した場合とし、その例を図5及び図8に示す。図5及び図8では、線(フリーバンド)上において一番左の基準点1を基に、測定範囲を決定した場合を示している。   The size of the measurement range is determined based on one of the following two conditions, <measurement range determination condition 1> or <measurement range determination condition 2>. Which condition to select can be specified by the user (implementing the present invention in an application). In the following description, <measurement range determination condition 1> is applied, and an example thereof is shown in FIGS. 5 and 8 show a case where the measurement range is determined based on the leftmost reference point 1 on the line (free band).

〈測定範囲決定条件1〉
基準点の上下左右からタイトル文字(タイトル文字行を構成する大サイズ文字)の文字サイズに相当するピクセル数を求め、その値をもって測定範囲とする。なお、ピクセル数の求め方は、タイトル文字に対応する文字サイズと解像度から、1mmあたりのピクセル数を求める。文字サイズについては、ユーザが指定できるものとする(例として、図5及び図8に示す各タイトル文字の文字サイズは20mmとする)。
<Measurement range determination condition 1>
The number of pixels corresponding to the character size of the title character (large size character constituting the title character line) is obtained from the top, bottom, left and right of the reference point, and the value is taken as the measurement range. Note that the number of pixels is obtained from the character size and resolution corresponding to the title character. It is assumed that the user can specify the character size (for example, the character size of each title character shown in FIGS. 5 and 8 is 20 mm).

〈測定範囲決定条件2〉
基準点の上下左右から画像の端まですべてを測定範囲とする(例えば、図12に示すように、線の最も左端にある基準点1の場合、基準点1から出て画像の各端まで示している上下左右方向の各矢印が測定範囲を示している)。
<Measurement range determination condition 2>
The measurement range is all from the top, bottom, left, and right of the reference point to the edge of the image (for example, as shown in FIG. 12, in the case of the reference point 1 at the leftmost end of the line, it is shown from the reference point 1 to each end of the image. The up, down, left and right arrows indicate the measurement range).

次に、決定した測定範囲において、ヒストグラム測定又はブロック単位による測定を行う(ステップS204)。
なお、測定範囲内において、以下に示す2つの条件、〈測定打ち切り条件1〉又は〈測定打ち切り条件2〉のいずれかを満たした場合は測定を打ち切る。
Next, in the determined measurement range, histogram measurement or measurement in block units is performed (step S204).
In the measurement range, the measurement is aborted if any of the following two conditions, <measurement abort condition 1> or <measurement abort condition 2> is satisfied.

〈測定打ち切り条件1〉
画素の末端(空白は一定値以上であること)に到着したとき。但し、空白行列(字間や行間のこと。図6及び図10参照)の間隔が一定値以下であるときは次の画素へ進む。
<Measurement termination condition 1>
When arriving at the end of a pixel (blanks must be above a certain value). However, when the interval of the blank matrix (character spacing or line spacing; see FIGS. 6 and 10) is equal to or less than a certain value, the process proceeds to the next pixel.

〈打ち切り条件2〉
測定範囲を超えたとき。
<Termination condition 2>
When the measurement range is exceeded.

以下、ブロック単位による測定及びヒストグラム測定についてそれぞれ説明する。   Hereinafter, measurement in units of blocks and histogram measurement will be described.

〔ブロック単位による測定〕
ブロック単位による測定(画素分布測定)は、画素のエッジの強弱に基づいて、文字であるか又は文字以外であるかの判定をするために用いる。文字はエッジが強く、一方、図・写真はエッジが弱いという傾向があるため、画素の分布に基づいて、文字/文字以外を判定し、文字以外であれば、除外するようにする。
[Measurement in block units]
The measurement in units of blocks (pixel distribution measurement) is used to determine whether the character is a character or a character other than the character based on the strength of the edge of the pixel. Characters tend to have strong edges, while figures and photographs tend to have weak edges. Therefore, non-character / characters are determined based on the pixel distribution, and any non-characters are excluded.

上述したように、ステップS203において、指定線上のそれぞれの基準点(図5(a)に示す各点)を基に測定範囲が決定される。図5(a)では、指定線上の最左端の基準点1を基に、上記〈測定範囲決定条件1〉で決定された測定範囲のみを示す。   As described above, in step S203, the measurement range is determined based on each reference point on the designated line (each point shown in FIG. 5A). FIG. 5A shows only the measurement range determined by the above <Measurement range determination condition 1> based on the leftmost reference point 1 on the designated line.

そして、決定された測定範囲内において、任意のサイズのブロックに分割する。分割方法としては、図5(b)に示すように、基準点1を起点に、任意のサイズでブロック分割する。   Then, the block is divided into blocks of an arbitrary size within the determined measurement range. As a dividing method, as shown in FIG. 5B, the block is divided into an arbitrary size starting from the reference point 1.

任意のサイズでブロック分割した後、分割したブロック領域に点在している白黒画素の個数・分布を調べる。これが、ブロック単位による測定(画素分布測定)である。   After dividing the block at an arbitrary size, the number and distribution of black and white pixels scattered in the divided block area are examined. This is a measurement in units of blocks (pixel distribution measurement).

ここで、図6を用いて、ブロック単位による測定の打ち切りについて説明する。
図6に示す測定範囲において、矢印で示す方向に測定を行うとする。
「画素の並び例1」は、白画素(空白)が来る(検知される)ことないので、測定範囲一杯まで測定することになる。
「画素の並び例2」は、白画素が来た場合に無条件で測定を打ち切るという設定が予めされている場合であり、測定の途中で2画素分の白画素が来るため、測定を打ち切ることになる。
「画素の並び例3」は、白画素が一定値(ここでは3画素とする)以上来た場合に測定を打ち切るという設定が予めされている場合であり、測定の途中で3画素分以上の白画素が来るため、測定を打ち切ることになる(2画素分の白画素が来ても打ち切らない)。
上記白画素(空白)は、「字間」や「行間」のことである。
Here, the censoring of measurement in units of blocks will be described with reference to FIG.
It is assumed that measurement is performed in the direction indicated by the arrow in the measurement range shown in FIG.
In “pixel arrangement example 1”, white pixels (blanks) do not come (be detected), and therefore measurement is performed to the full measurement range.
“Pixel arrangement example 2” is a case in which the setting is such that the measurement is unconditionally terminated when a white pixel comes. Since two white pixels come in the middle of the measurement, the measurement is terminated. It will be.
“Pixel arrangement example 3” is a case in which the measurement is stopped in advance when the white pixel reaches a certain value (here, 3 pixels) or more. Since the white pixel comes, the measurement is aborted (the white pixel for 2 pixels does not abort).
The white pixel (blank) is “character spacing” or “line spacing”.

そして、測定の結果得られた白黒画素の個数・分布の傾向が、図7の[1]〜[5]のいずれかに対応するかどうかの判定を行い、除外する領域及び包含する領域を決めるための除外/包含処理を行う(ステップS205)。図7の[1]〜[5]に示す各ブロック領域の画素の配置の説明を以下に記す。
[1]黒又は白画素が線状になって配置されている。文字・罫線として包含する。
[2]黒又は白画素の分布がランダムでかつ満遍なく配置されている。図・写真として判定し、除外する。
[3]黒又は白画素のエッジが明確になっている。文字・罫線として包含する。
[4]黒又は白画素の個数が少ない。除外する。但し、空白の行列間隔(白画素)の条件によっては除外しないこともある。
[5]黒又は白画素のいずれかが1つもない。除外する。但し、空白の行列間隔(白画素)の条件によっては除外しないこともある。
Then, it is determined whether the trend of the number and distribution of black and white pixels obtained as a result of the measurement corresponds to any one of [1] to [5] in FIG. 7, and the area to be excluded and the area to be included are determined. Exclusion / inclusion processing is performed (step S205). A description of the arrangement of the pixels in each block area shown in [1] to [5] in FIG. 7 will be given below.
[1] Black or white pixels are arranged in a line. Included as characters / ruled lines.
[2] The distribution of black or white pixels is random and evenly arranged. Judge as picture / photo and exclude.
[3] The edge of a black or white pixel is clear. Included as characters / ruled lines.
[4] The number of black or white pixels is small. exclude. However, it may not be excluded depending on the condition of the blank matrix interval (white pixels).
[5] There is no black or white pixel. exclude. However, it may not be excluded depending on the condition of the blank matrix interval (white pixels).

ステップS205の除外/包含処理の結果に基づいて、包含するブロック領域をマージして判定後領域を決定する(ステップS206)。   Based on the result of the exclusion / include process in step S205, the block areas to be included are merged to determine a post-determination area (step S206).

〔ヒストグラム測定〕
ヒストグラム測定は、1列又は1行あたりの画素の頻度を測定し、画素がない行・列が一定値以上であれば、空白と判定するために用いる。
[Histogram measurement]
The histogram measurement is used to measure the frequency of pixels per column or row, and to determine that there is a blank if the number of rows / columns without pixels is equal to or greater than a certain value.

上述したように、ステップS203において、指定線上のそれぞれの基準点(図8に示す各点)を基に測定範囲が決定される。図8は、指定線上の最左端の基準点1を基に、上記〈測定範囲決定条件1〉で決定された測定範囲を示している。a部分が上部の測定範囲、b部分が下部の測定範囲、c部分が左の測定範囲である(実際には右方向も測定を行うが、図8では右の測定範囲は図示省略)。   As described above, in step S203, the measurement range is determined based on each reference point (each point shown in FIG. 8) on the designated line. FIG. 8 shows the measurement range determined by the above <Measurement range determination condition 1> based on the leftmost reference point 1 on the designated line. The a portion is the upper measurement range, the b portion is the lower measurement range, and the c portion is the left measurement range (actually, measurement is also performed in the right direction, but the right measurement range is not shown in FIG. 8).

そして、図8に示す各測定範囲内において、ヒストグラム測定を行う。例えばa部分をヒストグラム測定する場合、黒画素を示す黒領域が連続して生起する回数、又は、白画素を示す白領域が連続して生起する回数を、上方向へ行単位で計数する。上方向以外の他の方向も、同様にしてヒストグラム測定を行う。a部分を上方向へヒストグラム測定した結果は、図8(a)のようなイメージとなる。また、b部分を下方向へヒストグラム測定した結果は、図8(b)のようなイメージとなる。また、c部分を下方向へヒストグラム測定した結果は、図8(c)のようなイメージとなる。計数した回数と所定の閾値とが比較され、その比較結果に基づいて指定された抽出対象の領域の境界位置が決定される。   Then, histogram measurement is performed within each measurement range shown in FIG. For example, when the histogram is measured for the portion a, the number of times that a black region indicating a black pixel continuously occurs or the number of times that a white region indicating a white pixel continuously occurs is counted in row units in the upward direction. Histogram measurement is performed in the same manner in directions other than the upward direction. The result of histogram measurement of the part a is an image as shown in FIG. Further, the result of histogram measurement of the portion b downward is an image as shown in FIG. Further, the result of the histogram measurement of the portion c downward is an image as shown in FIG. The counted number of times is compared with a predetermined threshold value, and the boundary position of the extraction target area designated based on the comparison result is determined.

そして、ヒストグラム測定の結果(ヒストグラム頻度)に基づいて、除外する領域及び包含する領域を決めるための除外/包含処理を行う(ステップS205)。この除外/包含処理では、例えば図9に示すように、字間/行間と見なせるような空白箇所(空白の間隔)Bを決定する。空白箇所Bを決定するための値は、以下の条件で決定される。   Then, based on the result of histogram measurement (histogram frequency), an exclusion / inclusive process for determining an excluded area and an included area is performed (step S205). In this exclusion / inclusion process, for example, as shown in FIG. 9, a blank portion (blank space) B that can be regarded as a character spacing / line spacing is determined. The value for determining the blank space B is determined under the following conditions.

〈空白決定条件1〉
二値化した画像の黒画素の個数が少なくとも1つ以上あること。
<Blank determination condition 1>
The number of black pixels in the binarized image is at least one.

〈空白決定条件2〉
黒画素の個数が1つもない(行/列が空白である)空白の間隔が一定値(st)以下であること。
<Blank determination condition 2>
The number of black pixels is not one (the row / column is blank), and the blank interval is equal to or less than a certain value (st).

様々な解像度に対応できるようにするため、空白の間隔は解像度に比例する。具体的には、100dpiの時は1、200dpiの時は2、・・・600dpiの時は6となり、その値にユーザが指定した計数nで乗算した値が、空白の間隔の一定値(st)となる(下記式参照)。

Figure 2009064219
In order to be able to cope with various resolutions, the space interval is proportional to the resolution. Specifically, it is 1 for 100 dpi, 2 for 200 dpi,... 6 for 600 dpi, and a value obtained by multiplying the value by a count n designated by the user is a constant value (st. (See the following formula).
Figure 2009064219

そして、ステップS205の除外/包含処理の結果に基づいて、包含するブロック領域をマージして判定後領域を決定する(ステップS206)。   Based on the result of the exclusion / include process in step S205, the included block areas are merged to determine the post-determination area (step S206).

判定後の領域に対して、上記特許文献1に開示されている矩形抽出処理で、外接領域を抽出する(ステップS207)。抽出された外接領域から、画素の頻度・大きさ・領域の属性から判断して、除外する外接領域、包含する外接領域に振り分ける(ステップS208)。例えば、文字だけを取りたい場合、線を示す細長い傍線を示す外接領域は除外するなどのケースが挙げられる。逆に、除外したくないケースも考えられるので、パラメータで調整できるようにする。細長い外接領域の検出方法は、以下の式により算出される。

Figure 2009064219
A circumscribed area is extracted from the determined area by the rectangle extraction process disclosed in Patent Document 1 (step S207). Judgment is made from the extracted circumscribed area based on the frequency / size / area attribute of the pixel, and the extracted circumscribed area is assigned to the circumscribed area to be excluded and the circumscribed area to be included (step S208). For example, in the case where it is desired to take only a character, there is a case where a circumscribed area indicating a long and narrow side line indicating a line is excluded. Conversely, there are cases where you do not want to exclude them, so you can adjust them with parameters. The detection method of the elongated circumscribed area is calculated by the following equation.
Figure 2009064219

上記式(数2)から算出し、両方の辺が超えている場合に検出する。図13に示すように、複数の外接領域(細い枠線で囲まれた領域)を1つの領域にマージ(太い枠線で囲まれた領域)して、統合領域を求めていく(ステップS209)。統合領域を出力して(ステップS210)、終了となる。   Calculated from the above equation (Equation 2) and detected when both sides exceed. As shown in FIG. 13, a plurality of circumscribed areas (areas surrounded by thin frame lines) are merged into one area (area surrounded by thick frame lines) to obtain an integrated area (step S209). . The integrated area is output (step S210), and the process ends.

以上説明したように本発明の実施例1によれば、以下の効果が得られる。
第1の効果として、文字間隔が不均一な領域を抽出することができる。
第2の効果として、ユーザの煩わしい操作の手間が省ける。
第3の効果として、抽出したい領域を適切に指定することができる。
第4の効果として、統合領域を用いて、文字認識処理等のアプリケーションに応用することができる。
As described above, according to the first embodiment of the present invention, the following effects can be obtained.
As a first effect, it is possible to extract a region where character spacing is not uniform.
As a second effect, the troublesome operation of the user can be saved.
As a third effect, it is possible to appropriately specify a region to be extracted.
As a fourth effect, the integrated area can be used for applications such as character recognition processing.

また、本発明は、文字間隔が不均一な領域を抽出できるということで、以下のような場合にも対応できる。例えば図3に示すように、文書画像中のタイトル文字行は1行で構成されていることが多い。ユーザが、1行のタイトル文字行に線(フリーバンド)を引いて、抽出対象の領域として指定する場合、例えば、図11に示すように、抽出対象の領域(タイトル文字行)からはみ出して線を引いてしまうことも考えられる。そして、このような場合、上述した従来の抽出方法では、抽出対象の領域以外の領域(はみ出した線によって指定された領域。図11中では「本」というタイトル文字)も一緒に抽出してしまうという問題があるが、本発明では、線(フリーバンド)で指定された抽出対象の領域において、画素のヒストグラムの頻度や画素の分布に基づいて、はみ出して指定された領域を除外するか包含するかの判定を行うことにより、抽出対象の領域以外の領域を抽出せずに、抽出対象の領域のみを抽出できる。   Further, the present invention can cope with the following cases by extracting a region having a non-uniform character spacing. For example, as shown in FIG. 3, the title character line in the document image is often composed of one line. When the user draws a line (free band) on one title character line and designates it as an extraction target area, for example, as shown in FIG. 11, the line extends beyond the extraction target area (title character line). It is also possible to pull In such a case, in the conventional extraction method described above, the region other than the region to be extracted (the region specified by the protruding line, the title character “book” in FIG. 11) is also extracted together. However, in the present invention, in the region to be extracted designated by the line (free band), the region designated by protruding is excluded or included based on the frequency of the pixel histogram or the pixel distribution. By performing such determination, it is possible to extract only the extraction target region without extracting the region other than the extraction target region.

上記実施例1における動作の説明では、測定範囲を決定後、ブロック単位による測定又はヒストグラム測定のいずれかを行うようにしたが、両方の測定を順に行うようにしてもよい。すなわち、まずヒストグラム測定を行い、包含する領域を決定した後に、今度は、その領域に対してブロック単位による測定を行い、エッジの強弱で文字/文字以外を判断するようにする。この動作(画像処理方法)について、図15を用いて説明する。   In the description of the operation in the first embodiment, after the measurement range is determined, either the block unit measurement or the histogram measurement is performed. However, both measurements may be performed in order. That is, first, histogram measurement is performed, and an area to be included is determined. Next, measurement is performed in units of blocks for the area, and a non-character / character is determined based on edge strength. This operation (image processing method) will be described with reference to FIG.

ステップS301の画像データの入力からステップS303の測定範囲の決定までは、上記実施例1において説明した図2のステップS201〜S203と同じである(詳細な説明は省略する)。   The process from the input of image data in step S301 to the determination of the measurement range in step S303 is the same as steps S201 to S203 in FIG. 2 described in the first embodiment (detailed description is omitted).

決定した測定範囲において、まず、ヒストグラム測定を行う(ステップS304)。そして、ヒストグラム測定の結果に基づいて除外/包含処理を行い、除外する領域(範囲)及び包含する領域(範囲)を決定する(ステップS305)。   In the determined measurement range, first, histogram measurement is performed (step S304). Then, exclusion / inclusive processing is performed based on the result of the histogram measurement, and an area (range) to be excluded and an area (range) to be included are determined (step S305).

次に、ステップS305の除外/包含処理で決定した「包含する領域(範囲)」において、ブロック単位による測定を行う(ステップS306)。そして、ブロック単位による測定の結果に基づいて除外/包含処理を行い、除外する領域(範囲)及び包含する領域(範囲)を決定する(ステップS307)。   Next, in the “include region (range)” determined by the exclusion / include process in step S305, measurement is performed in block units (step S306). Then, exclusion / inclusive processing is performed based on the result of measurement in block units, and a region (range) to be excluded and a region (range) to be included are determined (step S307).

そして、ステップS307で決定した包含する領域(範囲)を判定後領域とする(ステップS308)。ステップS308以降の処理(S308〜S312)は、図2のステップS206〜S210と同じである(詳細な説明は省略する)。   The included region (range) determined in step S307 is set as a post-determination region (step S308). Processes after step S308 (S308 to S312) are the same as steps S206 to S210 in FIG. 2 (detailed description is omitted).

以上のようにして、2つの測定を順に行うことにより、指定された領域の抽出精度をより上げることができる。   As described above, by performing the two measurements in order, the extraction accuracy of the designated region can be further increased.

以上、本発明の実施例1,2について説明したが、上記実施例1,2の記載に限定されるものではなく、その要旨を逸脱しない範囲において種々の変形が可能である。   As mentioned above, although Example 1 and 2 of this invention were demonstrated, it is not limited to description of the said Example 1, 2, and a various deformation | transformation is possible in the range which does not deviate from the summary.

上述した画像処理装置における制御動作は、ハードウェア、または、ソフトウェア、あるいは、両者の複合構成によって実行することも可能である。なお、ソフトウェアによる処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ(図1のCPU1など)内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   The control operation in the above-described image processing apparatus can be executed by hardware, software, or a combined configuration of both. In the case of executing processing by software, a program in which a processing sequence is recorded is installed in a memory in a computer (such as the CPU 1 in FIG. 1) incorporated in dedicated hardware and executed. It is possible to install and execute a program on a general-purpose computer capable of executing various processes.

例えば、プログラムは、記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことが可能である。あるいは、プログラムは、フロッピー(登録商標)ディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的、あるいは、永続的に格納(記録)しておくことが可能である。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することが可能である。   For example, the program can be recorded in advance on a hard disk or a ROM (Read Only Memory) as a recording medium. Alternatively, the program is temporarily stored on a removable recording medium such as a floppy (registered trademark) disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. Or can be stored (recorded) permanently. Such a removable recording medium can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送したりし、コンピュータでは、転送されてきたプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることが可能である。   The program is installed on the computer from the removable recording medium as described above, or is wirelessly transferred from the download site to the computer, or is wired to the computer via a network such as a LAN (Local Area Network) or the Internet. However, the computer can receive the transferred program and install it on a recording medium such as a built-in hard disk.

また、上記実施例1,2で説明した本発明の画像処理装置の処理動作に従って時系列的に実行されるのみならず、処理を実行する装置の処理能力、あるいは、必要に応じて並列的にあるいは個別に実行するように構築することも可能である。   In addition to being executed in time series according to the processing operation of the image processing apparatus of the present invention described in the first and second embodiments, the processing capability of the apparatus for executing the process, or in parallel as necessary Alternatively, it can be constructed to execute individually.

また、上記実施例1,2で説明した本発明の画像処理装置は、複数の装置の論理的集合構成にしたり、各装置の機能を混在させたりするように構築することも可能である。   In addition, the image processing apparatus of the present invention described in the first and second embodiments can be configured to have a logical set configuration of a plurality of apparatuses or to have functions of each apparatus mixed.

本発明は、画像中の所定の領域を抽出する画像処理を実行する装置・機器、システム、方法、プログラムなどに適用できる。   The present invention can be applied to an apparatus / device, a system, a method, a program, and the like that execute image processing for extracting a predetermined region in an image.

本発明の画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus of this invention. 本発明の画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing apparatus of this invention. 本発明の画像処理装置で処理する文書画像データの一例を示す図である。It is a figure which shows an example of the document image data processed with the image processing apparatus of this invention. 本発明の画像処理装置で処理する文書画像データにおいて、抽出対象の領域が線で指定された状態を示す図である。It is a figure which shows the state by which the area | region of extraction object was designated with the line in the document image data processed with the image processing apparatus of this invention. 本発明の画像処理装置で行われるブロック単位による測定の一例を示す図である。It is a figure which shows an example of the measurement by the block unit performed with the image processing apparatus of this invention. 本発明の画像処理装置で行われるブロック単位による測定の打ち切り例を示す図である。It is a figure which shows the example of censoring of the measurement by the block unit performed with the image processing apparatus of this invention. 本発明の画像処理装置で行われるブロック単位による測定の結果の各例を示す図である。It is a figure which shows each example of the result of the measurement by the block unit performed with the image processing apparatus of this invention. 本発明の画像処理装置で行われるヒストグラム測定の一例を示す図である。It is a figure which shows an example of the histogram measurement performed with the image processing apparatus of this invention. 本発明の画像処理装置で行われるヒストグラム測定の結果に基づく除外/包含処理の例を示す図である。It is a figure which shows the example of the exclusion / inclusion process based on the result of the histogram measurement performed with the image processing apparatus of this invention. 本発明の画像処理装置で処理可能な、文字間隔が不均一な文字列の例を示す図である。It is a figure which shows the example of the character string with a non-uniform character space | interval which can be processed with the image processing apparatus of this invention. 本発明の画像処理装置で処理する文書画像データにおいて、抽出対象の領域がはみ出して指定された状態を示す図である。FIG. 5 is a diagram showing a state in which an extraction target area is specified in a document image data processed by the image processing apparatus of the present invention. 本発明の画像処理装置で行われる測定範囲の決定において、測定範囲決定条件2に基づいて決定した場合の測定範囲の例を示す図である。It is a figure which shows the example of the measurement range at the time of determining based on the measurement range determination condition 2 in determination of the measurement range performed with the image processing apparatus of this invention. 本発明の画像処理装置で行われる複数の外接領域のマージにより求められた統合領域の例を示す図である。It is a figure which shows the example of the integrated area calculated | required by the merging of several circumscribed area | region performed with the image processing apparatus of this invention. 本発明の画像処理装置で処理する文書画像データにおける抽出の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the extraction in the document image data processed with the image processing apparatus of this invention. 本発明の画像処理装置の動作の別例を示すフローチャートである。It is a flowchart which shows another example of operation | movement of the image processing apparatus of this invention.

符号の説明Explanation of symbols

101 CPU
102 スキャナ部
103 外部記憶部
104 入力画像メモリ部
106 操作表示部
107 領域情報格納部
108 画像処理部
109 通信制御部
110 ネットワーク
111 記録媒体
112 データベース
101 CPU
DESCRIPTION OF SYMBOLS 102 Scanner part 103 External storage part 104 Input image memory part 106 Operation display part 107 Area | region information storage part 108 Image processing part 109 Communication control part 110 Network 111 Recording medium 112 Database

Claims (6)

ユーザに対して、画像データ中から抽出する領域を、線を用いて指定させる抽出対象領域指定手段と、
前記抽出対象領域指定手段により前記画像データ中に指定された線を構成する座標データのうち任意のものを基準点とし、該基準点に基づいて、ヒストグラム測定及びブロック単位による測定のうち少なくとも1つが行われる測定範囲を決定する測定範囲決定手段と、
前記測定範囲決定手段が決定した測定範囲内の画素に対して、ヒストグラム測定及びブロック単位による測定のうち少なくとも1つを行う測定手段と、
前記測定手段が測定した結果に基づいて、除外領域及び包含領域を決定する第1の除外包含手段と、
前記第1の除外包含手段が決定した包含領域をマージして判定後領域とし、該判定後領域の外接領域を抽出する外接領域抽出手段と、
前記外接領域抽出手段が抽出した外接領域について、除外領域及び包含領域を決定する第2の除外包含手段と、
前記第2の除外包含手段が決定した包含領域をマージして統合領域とする統合領域決定手段と、
を有することを特徴とする画像処理装置。
An extraction target area specifying means for allowing a user to specify an area to be extracted from image data using a line;
Arbitrary coordinate data constituting the line designated in the image data by the extraction target area designating unit is used as a reference point, and at least one of histogram measurement and block unit measurement is performed based on the reference point. A measuring range determining means for determining a measuring range to be performed;
Measurement means for performing at least one of histogram measurement and measurement in block units on pixels within the measurement range determined by the measurement range determination means;
First exclusion inclusion means for determining an exclusion area and an inclusion area based on a result measured by the measurement means;
A circumscribed area extracting means for merging the inclusion areas determined by the first exclusion inclusion means into a post-determination area and extracting a circumscribed area of the post-determination area;
A second exclusion inclusion means for determining an exclusion area and an inclusion area for the circumscribed area extracted by the circumscribed area extraction means;
An integrated region determination unit that merges the inclusion regions determined by the second exclusion inclusion unit into an integrated region;
An image processing apparatus comprising:
前記測定手段により、前記ヒストグラム測定の後、前記ブロック単位による測定が行われる場合、
前記測定手段は、前記測定範囲決定手段が決定した測定範囲内の画素に対して、ヒストグラム測定を行い、
前記第1の除外包含手段は、前記測定手段が行ったヒストグラム測定の結果に基づいて、第1の包含領域を決定し、
前記測定手段は、前記第1の除外包含手段が決定した第1の包含領域内の画素に対して、ブロック単位による測定を行い、
前記第1の除外包含手段は、前記測定手段が行ったブロック単位による測定の結果に基づいて、第2の包含領域を決定し、
前記外接領域抽出手段は、前記第1の除外包含手段が決定した第2の包含領域をマージして判定後領域とし、該判定後領域の外接領域を抽出することを特徴とする請求項1記載の画像処理装置。
When the measurement unit performs measurement by the block unit after the histogram measurement,
The measurement unit performs histogram measurement on the pixels within the measurement range determined by the measurement range determination unit,
The first exclusion inclusion means determines a first inclusion area based on a result of histogram measurement performed by the measurement means,
The measurement means performs measurement in units of blocks on the pixels in the first inclusion area determined by the first exclusion inclusion means,
The first exclusion inclusion means determines a second inclusion area based on the result of measurement in block units performed by the measurement means,
2. The circumscribed area extraction unit merges the second inclusion area determined by the first exclusion inclusion unit as a post-determination area, and extracts a circumscribed area of the post-determination area. Image processing apparatus.
前記測定範囲決定手段は、
前記基準点の上下左右から所定の文字サイズに相当するピクセル数を求め、求めたピクセル数を測定範囲とするか、又は、前記基準点の上下左右から前記画像データの端まですべてを測定範囲とすることを特徴とする請求項1又は2記載の画像処理装置。
The measurement range determining means includes
The number of pixels corresponding to a predetermined character size is obtained from the top, bottom, left, and right of the reference point, and the obtained number of pixels is taken as the measurement range, or all from the top, bottom, left, and right of the reference point to the edge of the image data are the measurement range. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ユーザに対して、画像データ中から抽出する領域を、線を用いて指定させる抽出対象領域指定ステップと、
前記抽出対象領域指定ステップにより前記画像データ中に指定された線を構成する座標データのうち任意のものを基準点とし、該基準点に基づいて、ヒストグラム測定及びブロック単位による測定のうち少なくとも1つが行われる測定範囲を決定する測定範囲決定ステップと、
前記測定範囲決定ステップが決定した測定範囲内の画素に対して、ヒストグラム測定及びブロック単位による測定のうち少なくとも1つを行う測定ステップと、
前記測定ステップで測定した結果に基づいて、除外領域及び包含領域を決定する第1の除外包含ステップと、
前記第1の除外包含ステップで決定した包含領域をマージして判定後領域とし、該判定後領域の外接領域を抽出する外接領域抽出ステップと、
前記外接領域抽出ステップで抽出した外接領域について、除外領域及び包含領域を決定する第2の除外包含ステップと、
前記第2の除外包含ステップで決定した包含領域をマージして統合領域とする統合領域決定ステップと、
を有することを特徴とする画像処理方法。
An extraction target area specifying step for allowing a user to specify an area to be extracted from image data using a line;
Arbitrary coordinate data constituting the line specified in the image data in the extraction target area specifying step is used as a reference point, and at least one of histogram measurement and block unit measurement is performed based on the reference point. A measuring range determining step for determining the measuring range to be performed;
A measurement step of performing at least one of histogram measurement and block-based measurement on pixels within the measurement range determined by the measurement range determination step;
A first exclusion inclusion step for determining an exclusion region and an inclusion region based on the result measured in the measurement step;
A circumscribed region extraction step of merging the inclusion regions determined in the first exclusion inclusion step into a post-determination region and extracting a circumscribed region of the post-determination region;
A second exclusion inclusion step for determining an exclusion area and an inclusion area for the circumscribed area extracted in the circumscribed area extraction step;
An integrated area determination step that merges the inclusion areas determined in the second exclusion inclusion step into an integrated area;
An image processing method comprising:
前記測定ステップで、前記ヒストグラム測定の後、前記ブロック単位による測定が行われる場合、
前記測定範囲決定ステップで定した測定範囲内の画素に対して、ヒストグラム測定を行い、
前記ヒストグラム測定の結果に基づいて、第1の包含領域を決定し、
前記第1の包含領域内の画素に対して、ブロック単位による測定を行い、
前記ブロック単位による測定の結果に基づいて、第2の包含領域を決定し、
前記外接領域抽出ステップでは、前記第2の包含領域をマージして判定後領域とし、該判定後領域の外接領域を抽出することを特徴とする請求項4記載の画像処理方法。
In the measurement step, after the histogram measurement, when the measurement by the block unit is performed,
Histogram measurement is performed on pixels within the measurement range determined in the measurement range determination step,
Determining a first inclusion region based on the result of the histogram measurement;
Performing a block-by-block measurement on the pixels in the first inclusion region;
Determining a second inclusion region based on the result of the measurement in block units;
5. The image processing method according to claim 4, wherein, in the circumscribed area extracting step, the second inclusion area is merged to be a post-determination area, and a circumscribed area of the post-determination area is extracted.
前記測定範囲決定ステップでは、
前記基準点の上下左右から所定の文字サイズに相当するピクセル数を求め、求めたピクセル数を測定範囲とするか、又は、前記基準点の上下左右から前記画像データの端まですべてを測定範囲とすることを特徴とする請求項4又は5記載の画像処理方法。
In the measurement range determination step,
The number of pixels corresponding to a predetermined character size is obtained from the top, bottom, left, and right of the reference point, and the obtained number of pixels is taken as the measurement range, or all of the image data from the top, bottom, left, and right of the reference point to the end of the image data is the measurement range. 6. The image processing method according to claim 4, wherein the image processing method is performed.
JP2007231248A 2007-09-06 2007-09-06 Image processor and image processing method Withdrawn JP2009064219A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007231248A JP2009064219A (en) 2007-09-06 2007-09-06 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007231248A JP2009064219A (en) 2007-09-06 2007-09-06 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2009064219A true JP2009064219A (en) 2009-03-26

Family

ID=40558755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007231248A Withdrawn JP2009064219A (en) 2007-09-06 2007-09-06 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2009064219A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237936A (en) * 2009-03-31 2010-10-21 Nec Personal Products Co Ltd Image processor, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237936A (en) * 2009-03-31 2010-10-21 Nec Personal Products Co Ltd Image processor, image processing method, and program

Similar Documents

Publication Publication Date Title
US7949157B2 (en) Interpreting sign language gestures
US20020076111A1 (en) Method and apparatus for formatting OCR text
JP2005267480A (en) Recognition object segmentation device and method
JP2024038417A (en) Information processing device, information processing method, program
KR101909485B1 (en) Program, information storage medium and recognition device
JP2009064219A (en) Image processor and image processing method
JP3544324B2 (en) CHARACTER STRING INFORMATION EXTRACTION DEVICE AND METHOD, AND RECORDING MEDIUM CONTAINING THE METHOD
CN104869268B (en) Display control unit, image forming apparatus and display control method
JP7267854B2 (en) Form recognition device, form recognition method, and form recognition system
JP2004062272A (en) Medium picture processor, medium picture processing method and program
JP5005633B2 (en) Image search apparatus, image search method, information processing program, and recording medium
JPH07230526A (en) Character reader
JP2007104296A (en) Method, apparatus, and program for measuring resolution
JP2010130214A (en) Image processing apparatus, image processing method, and program
JP5402417B2 (en) Image processing device
JP5277750B2 (en) Image processing program, image processing apparatus, and image processing system
JP4810995B2 (en) Image processing apparatus, method, and program
JP2011003022A (en) Image processing apparatus and program
JP4064068B2 (en) Image processing apparatus, image processing method, and recording medium
JP2010258627A (en) Image processor, image processing method, program, and storage medium
JP2007058819A (en) Index information generation device
JP2022041468A (en) Identification method, information processing system, method, and program
JP5001231B2 (en) Region extraction method, region extraction device, and program
JP2013186610A (en) Character extraction device and character extraction program
JP2009053826A (en) Document processor and document processing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101207