JP2006119942A - Character string area segmenting device - Google Patents

Character string area segmenting device Download PDF

Info

Publication number
JP2006119942A
JP2006119942A JP2004307587A JP2004307587A JP2006119942A JP 2006119942 A JP2006119942 A JP 2006119942A JP 2004307587 A JP2004307587 A JP 2004307587A JP 2004307587 A JP2004307587 A JP 2004307587A JP 2006119942 A JP2006119942 A JP 2006119942A
Authority
JP
Japan
Prior art keywords
character string
string region
document image
region
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004307587A
Other languages
Japanese (ja)
Other versions
JP2006119942A5 (en
Inventor
Mariko Yamamoto
真理子 山本
Hiroyuki Kuriyama
裕之 栗山
Takeshi Eisaki
健 永崎
Shigeyuki Fujiwara
茂之 藤原
Hisashi Tai
寿 田井
Hideyuki Ban
伴  秀行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004307587A priority Critical patent/JP2006119942A/en
Publication of JP2006119942A publication Critical patent/JP2006119942A/en
Publication of JP2006119942A5 publication Critical patent/JP2006119942A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a character string area segmenting device which segments a character string area from a document image of an arbitrary format. <P>SOLUTION: The device includes a display means 110 for displaying the document image, input means 120 and 130 each inputting coordinates of a character string area designation point 152 pointing an objective character string area 102 of document images 101 and 151 displayed on the display means, and a boundary detection means 140 for detecting the character string area from the document images on the basis of coordinates of the character string area designation point. Thus the character string area can be easily and accurately segmented. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は文書画像の画像処理技術に関し、特に文字認識の対象にする文字列の領域を切り出す文字列領域切り出し装置に関する。   The present invention relates to an image processing technique for a document image, and more particularly to a character string area cutout device that cuts out a character string area to be subjected to character recognition.

文字認識技術を実装した装置、例えば、光学式文字読み取り装置(OCR)が広く用いられている。OCRの用途として文書画像の電子的な処理又は管理がある。   Devices equipped with character recognition technology, such as an optical character reader (OCR), are widely used. An application of OCR is electronic processing or management of document images.

文書画像には、銀行の振り込み用紙や葉書の宛名、名刺等の帳票、いったん紙面に印刷された論文や著述物等の自由記述文書等の種類がある。電子的な文書管理の具体例として、試験の解答用紙の受験者番号の文字認識結果を管理番号にして、解答用紙を画像として保存管理する例、学術論文のタイトル名の文字認識結果を検索語として検索を行う例等が挙げられる。   There are various types of document images, such as bank transfer forms and postcards, forms such as business cards, and free description documents such as papers and articles once printed on paper. As a specific example of electronic document management, the character recognition result of the candidate number on the answer sheet of the exam is used as the management number, and the answer sheet is stored and managed as an image. The character recognition result of the title name of the academic paper is searched. As an example, a search is performed.

一般的な文字認識技術では、まず文書全体に対して文字認識処理を行うが、上記の例の場合、必要な文字列のみを切り出して文字認識処理を行えばよい。文書画像が、帳票の画像、自由記述文書の場合に、文書画像から必要な文字列を切り出す方法が周知である(例えば、特許文献1、特許文献2を参照)。特許文献1には、文書画像が帳票の画像の場合、「画面のこの位置には縦横各2センチメートルの欄があり」、「その欄に書かれる内容は金額である」といった帳票形式の定義である帳票知識を予め装置内に保持し、必要な文字列に対応する欄を切り出すことで、必要な文字列を切り出せる帳票処理方法の記載がある。特許文献1には、自由記述文書の場合、切り出そうとする文字列を部分的にスキャンする、又は、文書画像全体を表示装置上に表示し、マウス操作によって切り出す範囲を指定し、スキャン範囲又は指定範囲を切り出し範囲とすることで必要な文字列を切り出す画像処理システムの記載がある。   In general character recognition technology, character recognition processing is first performed on the entire document. In the above example, only the necessary character string may be cut out and character recognition processing performed. When the document image is an image of a form or a free description document, a method of cutting out a necessary character string from the document image is well known (see, for example, Patent Document 1 and Patent Document 2). In Patent Document 1, when the document image is a form image, the form format definition such as “There is a column of 2 centimeters in each position in this position on the screen” and “the content written in the column is a monetary amount”. There is a description of a form processing method in which the knowledge of a form is held in the apparatus in advance and a necessary character string can be cut out by cutting out a column corresponding to the required character string. In Patent Document 1, in the case of a free description document, a character string to be clipped is partially scanned, or the entire document image is displayed on a display device, a range to be clipped by a mouse operation is designated, and a scan range Alternatively, there is a description of an image processing system that extracts a necessary character string by setting a designated range as a cutout range.

帳票文書、自由記述文書に限らず、画像内の画素をクリックし連結する似通った色の画素を選択し画像の一部を切り出す処理は、周知であり、どれだけ色が似通っていれば選択範囲に含めるかは手動で設定できる(例えば、特許文献3を参照)。   The process of selecting a similar color pixel to be connected by clicking on a pixel in the image and cutting it out is not limited to a form document or a free description document. It can be set manually whether it is included (for example, refer patent document 3).

特開2003−323553号公報JP 2003-323553 A

特開2000−174945号公報JP 2000-174945 A 特開2000−353239号公報JP 2000-353239 A

特許文献1に記載の技術では、帳票知識を装置に入力する手間がかかる上に、装置内に帳票知識を保持している帳票にしか適用できないという課題がある。特許文献2に記載の技術では、厳密にスキャンや範囲指定をしないと文字列領域を正確に切り出せず、簡便性と正確性を両立できないという課題がある。特許文献3に記載の技術では、ひらがなの濁点等、文字として同じでも、連結していない部分を同じ塊として切り出すことはできないという課題がある。   The technique described in Patent Document 1 has a problem that it takes time and effort to input the form knowledge to the apparatus, and it can be applied only to forms that hold the form knowledge in the apparatus. In the technique described in Patent Document 2, there is a problem that the character string region cannot be accurately cut out unless the scanning or range specification is strictly performed, and both simplicity and accuracy cannot be achieved. In the technique described in Patent Document 3, there is a problem that even if the characters are the same, such as the hiragana of hiragana, it is not possible to cut out unconnected portions as the same lump.

本発明の目的は、任意の帳票形式の文書画像に対して、目的とする文字列領域を正確に切り出すことができる文字列領域切り出し装置を提供することにある。   An object of the present invention is to provide a character string area segmentation device that can accurately segment a target character string area from a document image in an arbitrary form format.

本発明の文字列領域切り出し装置は、空白の画素(白い画素)によって囲まれる字句及び/又は記号を含む文字列領域を、文書画像から切り出す領域切り出し装置である。本発明の文字列領域切り出し装置は、文書画像を表示する表示手段と、表示手段に表示された文書画像のうちの目的とする文字列領域を指示するための少なくとも1つの文字列領域指定点の座標を入力する入力手段と、文字列領域指定点の座標に基いて、文書画像から文字列領域を検出する境界線検出手段とを有する。境界線検出手段は、文字列領域指定点の座標に基いて、文書画像から文字列領域を囲む境界線の座標を検出する。文字列領域指定点は、文字列領域の任意の少なくとも1点、又は、文字列領域の近傍の任意の少なくとも1点である。境界線検出手段は、文字列領域を囲む境界線を検出する。   The character string region cutout device of the present invention is a region cutout device that cuts out a character string region including a lexical phrase and / or a symbol surrounded by blank pixels (white pixels) from a document image. A character string area cutout device according to the present invention includes a display means for displaying a document image, and at least one character string area designation point for indicating a target character string area of the document image displayed on the display means. Input means for inputting coordinates and boundary detection means for detecting a character string area from a document image based on the coordinates of a character string area designation point. The boundary line detecting means detects the coordinates of the boundary line surrounding the character string region from the document image based on the coordinates of the character string region designated point. The character string region designation point is at least one arbitrary point in the character string region, or at least one arbitrary point in the vicinity of the character string region. The boundary line detection means detects a boundary line surrounding the character string area.

本発明の装置によれば、文字列領域指定点の周辺の画素のみを用いて文字列領域を切り出すので、任意の帳票形式の文書画像に対して帳票知識を必要とせずに正確に自動的に切り出すことができる。   According to the apparatus of the present invention, since the character string area is cut out using only the pixels around the character string area designation point, it is automatically and accurately performed without requiring knowledge of a form for a document image in an arbitrary form format. Can be cut out.

以下の実施例では、文書画像は、白い画素(空白の画素)と黒い画素からなり、有効な情報が、黒い画素で表示される2値画像であるとして説明する。   In the following embodiments, a document image is described as being a binary image that is composed of white pixels (blank pixels) and black pixels, and valid information is displayed with black pixels.

本発明の文字列領域切り出し装置は、白い画素によって囲まれる文字及び/又は空白記号を含む記号から構成される文字列領域を、文書画像から切り出す領域切り出し装置である。文書画像は、画像データの領域を含んでいても良い。   The character string region cutout device of the present invention is a region cutout device that cuts out a character string region composed of characters surrounded by white pixels and / or symbols including blank symbols from a document image. The document image may include an image data area.

本発明の文字列領域切り出し装置は、文書画像を表示する表示手段と、表示手段に表示された文書画像のうちの目的とする文字列領域及び/又は画像データ領域を指示する領域指定点を入力する入力手段と、領域指定点の座標に基いて、文書画像から文字列領域を検出する境界線検出手段とを有する。文書画像の代表例は、レセプトである。   A character string area cutout device according to the present invention inputs a display means for displaying a document image, and an area designation point for designating a target character string area and / or image data area of the document image displayed on the display means. And a boundary detection unit for detecting a character string region from the document image based on the coordinates of the region designation point. A typical example of a document image is a receipt.

文字列を指定する画素(文字列領域指定点)は、文字列領域内の任意の画素、最近接の黒い画素が文字列領域内にある任意の画素、文字列の方向に最近接の黒い画素が文字列領域内にある任意の画素、の何れかであり、操作者により、クリック、ジェスチャ、横ライン、矩形囲み、丸囲みのうち1つ以上の入力操作によって指定される。境界線検出手段は、文字列領域を検出する。   A pixel that designates a character string (character string area designation point) is an arbitrary pixel in the character string area, an arbitrary pixel in which the closest black pixel is in the character string area, or a black pixel closest in the direction of the character string Is an arbitrary pixel in the character string area, and is designated by the operator through one or more input operations of click, gesture, horizontal line, rectangular box, and circle box. The boundary line detection means detects a character string area.

境界線検出手段は、文字列領域指定点の座標に基いて、文字列領域指定点に近い順に文書画像の画素を走査し文書画像から文字列領域を囲む境界線の座標を検出する。境界線の座標は、曲線の座標、直角の四隅を持つ矩形を指定する2点、直角以外の四隅を持つ四辺形を指定する4点の、何れかの座標である。   Based on the coordinates of the character string region designated point, the boundary line detection means scans the pixels of the document image in the order close to the character string region designated point and detects the coordinates of the boundary line surrounding the character string region from the document image. The coordinates of the boundary line are any of the coordinates of the curve, two points that specify a rectangle having four right corners, and four points that specify a quadrilateral having four corners other than a right angle.

図1は、本発明の実施例の装置の構成例の概要を示す図である。本発明の実施例の装置は、文書画像を表示する表示手段110と、表示手段に表示された文書画像101、151のうちの目的とする文字列領域102を指示する文字列領域指定点152の座標を入力する入力手段120、130と、文字列領域指定点の座標に基いて、文書画像から文字列領域を検出する境界線検出手段140とを有し、任意の帳票形式の文書画像から、簡便、正確に文字列領域を切り出せる。   FIG. 1 is a diagram showing an outline of a configuration example of an apparatus according to an embodiment of the present invention. The apparatus according to the embodiment of the present invention includes a display unit 110 that displays a document image, and character string region designation points 152 that indicate a target character string region 102 of the document images 101 and 151 displayed on the display unit. Input means 120 and 130 for inputting coordinates, and boundary line detection means 140 for detecting a character string area from a document image based on the coordinates of a character string area designation point, and from a document image in an arbitrary form format, The character string area can be cut out easily and accurately.

図1において、演算処理装置であるパーソナルコンピュータ141は、入力手段として、例えば、マウス120、キーボード130、表示手段110、文書画像101(白い画素と黒い画素による2値画像)を格納する記憶手段、文書画像101から、例えば、文字列領域「ほへと」を切り出すための自動計算を行うソフトウエア(プログラム)から構成される境界線検出手段140とを有している。境界線検出手段140から入力された文書画像101は、表示手段110に表示される文書画像151として表示される。文書画像151は、白い画素と黒い画素による2値画像である。   In FIG. 1, a personal computer 141 as an arithmetic processing unit includes, as input means, for example, a mouse 120, a keyboard 130, a display means 110, a storage means for storing a document image 101 (a binary image with white pixels and black pixels), For example, a boundary line detection unit 140 configured by software (program) that performs automatic calculation for cutting out a character string region “Hello” from the document image 101 is included. The document image 101 input from the boundary line detection unit 140 is displayed as a document image 151 displayed on the display unit 110. The document image 151 is a binary image composed of white pixels and black pixels.

図1では、文書画像101の例として、1から5の各項番で示される各行に横書きされた文字列、「いろは」、「に」、「ほへと」、…、「ABC」が、表示手段110に表示されいる。文書画像101のうち、ユーザ(操作者)が切り出そうとする項番3の文字列「ほへと」が書かれている領域を「文字列領域」と呼び、文字「へ」の上の1点等、ユーザが切り出す文字列領域を指定するためにユーザが装置に入力する1点を「文字列領域指定点」と呼ぶ。   In FIG. 1, as an example of the document image 101, character strings “IROHA”, “NI”, “HOHOTO”,..., “ABC” horizontally written on each line indicated by each item number 1 to 5 are displayed. 110. In the document image 101, an area in which the character string “Honoto” of item number 3 that the user (operator) wants to cut out is referred to as a “character string area”, and one point above the character “to”. One point that the user inputs to the device in order to designate a character string area to be cut out by the user is called a “character string area designation point”.

ユーザは、文書画像151を見て、文字列領域指定点152をマウス120又はキーボード130を用いて指定する。境界線検出手段140は、文字列領域指定点152を入力し、文字列領域指定点152と格納されている文書画像101とから境界線の座標を自動的に検出し、境界線によって定まる文字列領域(白い画素と黒い画素による2値画像で示されている)102を切り出す。   The user looks at the document image 151 and designates the character string area designation point 152 using the mouse 120 or the keyboard 130. The boundary line detection unit 140 receives the character string area designation point 152, automatically detects the coordinates of the boundary line from the character string area designation point 152 and the stored document image 101, and the character string determined by the boundary line. A region 102 (shown as a binary image with white and black pixels) 102 is cut out.

図2は、本発明の実施例において領域切り出しの手順の概要を示すフロー図である。   FIG. 2 is a flowchart showing an outline of the procedure of region extraction in the embodiment of the present invention.

領域切り出しは、文書画像を表示手段に表示する文書画像表示工程(ステップ)210、ユーザが入力手段を用いて文字列領域指定点を入力する文字列領域指定点入力工程(ステップ)220、文書画像と文字列領域指定点から境界線検出手段により文書画像から文字列領域を自動的に切り出す境界線検出工程(ステップ)230とから構成される。   The area cut-out includes a document image display step (step) 210 for displaying a document image on a display unit, a character string region designation point input step (step) 220 for a user to input a character string region designation point using the input unit, and a document image. And a boundary line detection step (step) 230 for automatically cutting out the character string area from the document image by the boundary line detection means from the character string area designation point.

図3は、図2に示す文字列領域指定点入力工程220の一例を説明する図である。   FIG. 3 is a diagram for explaining an example of the character string region designation point input step 220 shown in FIG.

図3は、表示手段110に表示された文書画像の一部310(白い画素と黒い画素による2値画像で示されている)を示し、ユーザは、表示手段110に表示された文書画像151を見て、マウス120をクリックし、切り出したい文字列領域「ほへと」上の1点である文字列領域指定点320を入力する。境界線検出工程230では、例えば、膨張処理と輪郭抽出処理の組み合わせによって、文字列領域指定点に基づいて文書画像から文字列領域を自動的に切り出す処理を行う。輪郭抽出処理で走査する画素の近傍にのみ膨張処理を行えば、画像全体を膨張処理した後に輪郭抽出処理を行った場合と同じ切り出し結果が得られ、かつ、走査する画素数が少なくてすむ。なお、膨張処理では、黒い画素に最近接する4つの画素を黒い画素にすることで黒い画素を膨張させる処理を行い、輪郭抽出処理では、画像中の記載物と背景の境目を検出する処理を行う。   FIG. 3 shows a part 310 (shown as a binary image with white pixels and black pixels) of the document image displayed on the display unit 110, and the user views the document image 151 displayed on the display unit 110. Look at it, click the mouse 120, and enter a character string area designation point 320, which is one point on the character string area "Hoto" to be cut out. In the boundary line detection step 230, for example, a character string region is automatically cut out from a document image based on a character string region designation point by a combination of expansion processing and contour extraction processing. If dilation processing is performed only in the vicinity of the pixel to be scanned in the contour extraction processing, the same cutout result as that obtained when the contour extraction processing is performed after dilating the entire image can be obtained, and the number of pixels to be scanned can be reduced. In the expansion process, the black pixel is expanded by changing the four pixels closest to the black pixel to the black pixel, and in the contour extraction process, a process of detecting the boundary between the description in the image and the background is performed. .

図4は、図2に示す境界線検出工程230で切り出した文字列領域の例を示す図である。図4では、太い線は切り出した文字列領域の境界線410を示し、文書画像から文字列領域を切り出すために、輪郭抽出処理で走査した画素群420(白い画素と黒い画素からなる)を示している。   FIG. 4 is a diagram showing an example of a character string region cut out in the boundary line detection step 230 shown in FIG. In FIG. 4, the thick line indicates the boundary line 410 of the extracted character string region, and indicates a pixel group 420 (consisting of white pixels and black pixels) scanned by the contour extraction process in order to extract the character string region from the document image. ing.

以上説明した、本発明の実施例の装置によれば、ユーザが1点を指定するだけで文字列領域の境界線が自動的に検出されるため、簡便かつ正確に目的とする文字列領域を切り出すことができる。また、文字列領域指定点の周辺の画像のみを用いて文字列領域を切り出すため、任意の帳票形式の文書画像に対して帳票知識を必要とせずに切り出すことができる。   According to the apparatus of the embodiment of the present invention described above, since the boundary line of the character string area is automatically detected only by the user specifying one point, the target character string area can be easily and accurately detected. Can be cut out. Further, since the character string area is cut out using only the image around the character string area designation point, it is possible to cut out the document image of any form format without requiring knowledge of the form.

図5は、図2に示す文字列領域指定点入力工程220でユーザがマウス等の入力手段を使って文字列領域指定点を入力する方法の例を示す図である。   FIG. 5 is a diagram showing an example of a method in which the user inputs a character string region designated point using an input means such as a mouse in the character string region designated point input step 220 shown in FIG.

文字列領域指定点の入力方法は、図3で説明したクリックの他に、図5(a)〜図5(d)に示す、横ライン、ジェスチャ、矩形囲み、丸囲みの何れかによる。図5では、文書画像の一部510、ドラッグ開始点520、ドラッグ終了点530、ドラッグの結果指定された文字列領域指定点540、ドラッグの軌跡551、552を示している。図5(a)に示す横ラインの場合には、ドラッグ開始点520とドラッグ終了点530の中点を文字列領域指定点540とする。図5(b)に示すジェスチャの場合には、ジェスチャで示す点を文字列領域指定点540とする。ここで、ジェスチャとジェスチャのうちどの1点が文字列領域指定点に対応するかは予め決められているものとする。図5(c)に示す矩形囲みの場合には、矩形の重心を文字列領域指定点540とする。図5(d)に示す丸囲みの場合には、丸の重心を文字列領域指定点540とする。   In addition to the click described in FIG. 3, the input method of the character string region designation point is any one of horizontal lines, gestures, rectangular boxes, and round boxes shown in FIGS. 5 (a) to 5 (d). FIG. 5 shows a part 510 of a document image, a drag start point 520, a drag end point 530, a character string region designation point 540 designated as a result of the drag, and drag trajectories 551 and 552. In the case of the horizontal line shown in FIG. 5A, the middle point of the drag start point 520 and the drag end point 530 is set as a character string region designation point 540. In the case of the gesture shown in FIG. 5B, the point indicated by the gesture is set as a character string region designation point 540. Here, it is assumed that which one of the gesture and the gesture corresponds to the character string region designation point is determined in advance. In the case of the rectangular box shown in FIG. 5C, the center of gravity of the rectangle is set as the character string area designation point 540. In the case of the circle shown in FIG. 5D, the center of gravity of the circle is set as the character string region designation point 540.

図5に示すように、本発明の実施例の装置では、種々の入力方法によって文字列領域指定点540を入力できるため、最適な入力方法を用いて高い操作性を得ることができる。   As shown in FIG. 5, in the apparatus according to the embodiment of the present invention, since the character string region designation point 540 can be input by various input methods, high operability can be obtained using an optimal input method.

次に、ユーザがマウス等を正確に操作できず、切り出したい文字列から外れた点を文字列領域指定点に入力した場合でも、切り出したい文字列を正確に切り出せる構成を、図6、図7を用いて説明する。   Next, a configuration in which a character string to be cut out can be accurately cut out even when the user cannot accurately operate the mouse or the like and a point deviated from the character string to be cut out is input to the character string region designation point is shown in FIGS. 7 for explanation.

図6は、本発明の実施例において、文字列領域指定点修正工程(ステップ)610を有する領域切り出しの手順の概要を示すフロー図である。   FIG. 6 is a flowchart showing an outline of a region cutout procedure having a character string region designated point correction step (step) 610 in the embodiment of the present invention.

図7は、図6に示す文字列領域指定点修正工程610の処理の例を示す図である。   FIG. 7 is a diagram showing an example of processing of the character string region designated point correction step 610 shown in FIG.

図6は、図2に示す構成に、文字列領域指定点入力工程220で入力された文字列領域指定点を一定の規則に従って自動的に修正する文字列領域指定点修正工程610を付加し、文字列領域指定点修正工程610の結果に対して、境界線検出工程230を行う構成を示す。図7では、文書画像の一部710(白い画素と黒い画素からなる)を示し、以下の説明では、文書画像の一部710から文字「ほ」を含む文字列を切り出す場合を仮定する。図7に示すように、切り出したい文字列から外れた点、例えば、白い画素(文字「ほ」を構成する黒い画素、例えば、黒い画素720以外の画素)730、740が、文字列領域指定点として入力された場合でも、一定の規則に従って自動的に修正できる。   6 adds a character string region designation point correction step 610 for automatically correcting the character string region designation point input in the character string region designation point input step 220 according to a certain rule to the configuration shown in FIG. The structure which performs the boundary line detection process 230 with respect to the result of the character string area | region designation | designated point correction process 610 is shown. FIG. 7 shows a part 710 of a document image (consisting of white pixels and black pixels). In the following description, it is assumed that a character string including the character “ho” is cut out from the part 710 of the document image. As shown in FIG. 7, points deviated from the character string to be cut out, for example, white pixels (black pixels constituting the character “ho”, for example, pixels other than the black pixel 720) 730 and 740 are character string region designation points. Can be automatically corrected according to certain rules.

文字列領域指定点を修正する修正規則を、「入力された文字列領域指定点が白い画素である場合、この白い画素に最近接して存在する黒い画素を文字列領域指定点とする」とすれば、白い画素730から最近接の黒い画素である画素720が修正された文字列領域指定点になり、黒い画素720は文字「ほ」を構成する黒い画素であるため、文字「ほ」を含む文字列を切り出せる。また、文字列領域指定点を修正する修正規則を、「入力された文字列領域指定点が白い画素である場合、文字列の方向においてこの白い画素から距離が最も短い位置に存在する黒い画素を文字列領域指定点とする」とすれば、白い画素740から文字列方向において距離が最も短い位置に存在する黒い画素720が修正された文字列領域指定点になり、文字「ほ」を含む文字列を切り出せる。なお、白い画素740から黒い画素720を探して「ほ」を含む文字列を切り出す場合、黒い画素720と、例えば、黒い画素720と同じ列にある黒い画素750との距離を比較して、黒い画素720を選んでいる。以上の説明では、文字列方向を水平横方向として説明したが、文字列方向は任意の方向でよい。なお、文字列方向の距離を用いて文字列領域指定点と切り出す文字列を対応づける場合、文字列方向は事前に与えられるか、なんらかの手段によって事前に検出されているものとする。   The correction rule for correcting the character string area designation point is "If the input character string area designation point is a white pixel, the black pixel closest to this white pixel is used as the character string area designation point". For example, the pixel 720 which is the closest black pixel from the white pixel 730 becomes a corrected character string region designation point, and the black pixel 720 includes the character “ho” because it is a black pixel constituting the character “ho”. A character string can be cut out. In addition, the correction rule for correcting the character string region designation point is as follows: `` If the input character string region designation point is a white pixel, the black pixel present at the shortest distance from this white pixel in the direction of the character string If the character string area designation point is “the character string area designation point”, the black pixel 720 present at the shortest distance in the character string direction from the white pixel 740 becomes the corrected character string area designation point, and the character including the character “ho” A column can be cut out. When the black pixel 720 is searched from the white pixel 740 and a character string including “ho” is cut out, the distance between the black pixel 720 and, for example, the black pixel 750 in the same column as the black pixel 720 is compared. Pixel 720 is selected. In the above description, the character string direction is described as the horizontal horizontal direction, but the character string direction may be any direction. When associating the character string region designation point with the character string to be cut out using the distance in the character string direction, it is assumed that the character string direction is given in advance or has been detected in advance by some means.

以上説明したように、本発明の実施例の装置では、黒い画素720の他に、白い画素730、740により例示するように、切り出そうとする文字列に対して複数の文字列領域指定点を対応させることができるため、「ユーザは白い画素を避けて黒い画素により文字列領域指定点を指定する必要がある」等の、入力に関する拘束が少ない。従って、本発明の実施例の装置によれば、ユーザがマウス等を正確に操作できず、切り出したい文字列から外れた点を文字列領域指定点に入力した場合でも、切り出したい文字列を切り出すことができる。即ち、ユーザが簡便に文字列領域指定点を入力できる。   As described above, in the apparatus according to the embodiment of the present invention, in addition to the black pixel 720, as exemplified by the white pixels 730 and 740, a plurality of character string region designation points for the character string to be cut out are illustrated. Therefore, there are few restrictions regarding input, such as “the user needs to specify a character string region designation point with black pixels while avoiding white pixels”. Therefore, according to the apparatus of the embodiment of the present invention, even when the user cannot accurately operate the mouse or the like and a point deviated from the character string to be cut out is input to the character string area designated point, the character string to be cut out is cut out. be able to. That is, the user can easily input the character string region designation point.

文書画像とそれに対する文字列領域指定点が与えられた時、境界線検出工程により、複数の文字列領域を検出して出力する一例を、以下に図8、図9を用いて説明する。   An example in which a plurality of character string areas are detected and output by a boundary line detection process when a document image and a character string area designation point for the document image are given will be described below with reference to FIGS.

図8は、本発明の実施例における境界線検出工程230における近傍画素の定義例を示す図である。   FIG. 8 is a diagram illustrating a definition example of neighboring pixels in the boundary line detection step 230 in the embodiment of the present invention.

図9は、本発明の実施例における境界線検出工程230で検出され出力される一例を示す図である。   FIG. 9 is a diagram showing an example of detection and output in the boundary line detection step 230 in the embodiment of the present invention.

図9に示すように、同一の文書画像と文字列領域指定点に対して複数の文字列領域を検出し出力を得ることができる。図3で説明した境界線検出工程での膨張処理は、注目画素が黒い画素である場合、この注目画素の近傍の白い4画素(4近傍画素)を黒い画素に変更する処理であったが、図8に示すように、注目画素810に対して、4近傍画素の代わりに独自に定義した、ハッチングで示す近傍画素820を用いる。図8(a)、図8(b)、図8(c)により定義される近傍画素をそれぞれ、パラメータp=1、2、3により、図8(d)、図8(e)、図8(f)により定義される近傍画素をそれぞれ、パラメータp=1、2、3により、図8(g)、図8(h)、図8(i)により定義される近傍画素をそれぞれ、パラメータp=1、2、3により、順序づけて管理すれば、同一の文書画像と文字列領域指定点に対して順序づけた複数の文字列領域を検出して出力することができる。   As shown in FIG. 9, a plurality of character string regions can be detected for the same document image and character string region designation point, and an output can be obtained. The expansion process in the boundary line detection step described with reference to FIG. 3 is a process of changing the four white pixels (four neighboring pixels) near the target pixel to black pixels when the target pixel is a black pixel. As shown in FIG. 8, a neighboring pixel 820 indicated by hatching that is uniquely defined in place of the four neighboring pixels is used for the target pixel 810. The neighboring pixels defined by FIG. 8A, FIG. 8B, and FIG. 8C are respectively shown in FIG. 8D, FIG. 8E, and FIG. The neighboring pixels defined by (f) are respectively designated by parameters p = 1, 2, and 3, and the neighboring pixels defined by FIGS. 8 (g), 8 (h), and 8 (i) are designated by parameter p. = 1, 2, and 3, if managed in order, a plurality of character string regions ordered with respect to the same document image and character string region designation point can be detected and output.

例えば、図9(a)に示すように、文書画像101に対して文字列領域指定点910を入力した場合、図9(b)に示すように、近傍画素の定義(p=1)921に対して文字列領域931、近傍画素の定義(p=2)922に対して文字列領域932、近傍画素の定義(p=4)定義923に対して文字列領域933、近傍画素の定義(p=6)924に対して文字列領域934が検出され出力される。文字列領域931〜934は白い画素と黒い画素からなる。なお、近傍画素の定義(p=1)921は単一の文字を切り出す場合、近傍画素の定義(p=2)922は文字間隔が狭い文字列を切り出す場合、近傍画素の定義(p=6)924は項番を含んだ文字列等のように文字間隔が広い文字列を切り出す場合、に適している。   For example, as shown in FIG. 9A, when a character string region designation point 910 is input to the document image 101, the neighborhood pixel definition (p = 1) 921 is set as shown in FIG. 9B. On the other hand, the character string region 931, the definition of neighboring pixels (p = 2) 922 for the definition of the character string region 932, the definition of neighboring pixels (p = 4) the definition 923, the character string region 933, the definition of neighboring pixels (p = 6) A character string area 934 is detected and output for 924. The character string regions 931 to 934 are composed of white pixels and black pixels. The neighborhood pixel definition (p = 1) 921 is used to cut out a single character, and the neighborhood pixel definition (p = 2) 922 is used to cut out a character string having a narrow character interval. ) 924 is suitable for extracting a character string having a wide character interval such as a character string including an item number.

図8、図9で説明した境界線検出工程により、本発明の実施例の装置は、順序つけられた複数の文字列領域が切り出せるため、例えば、これら複数の文字列領域を画面に表示し、領域切り出しに関する最終的な判断をユーザに委ねることで、領域切り出しの正確性を向上できる。   The boundary detection process described in FIGS. 8 and 9 allows the apparatus of the embodiment of the present invention to cut out a plurality of ordered character string regions. For example, the plurality of character string regions are displayed on the screen. By leaving the final judgment regarding the region extraction to the user, the accuracy of the region extraction can be improved.

なお、図1〜図4、図8〜図9を用いた説明では、膨張処理と輪郭抽出処理を組み合わせて境界線検出工程を実現する例を示したが、境界線検出工程の実現方法は、他の方法、例えば、膨張処理の代わりに、注目画素及び注目画素の近傍の黒い画素の数によって注目画素を特徴付ける処理でもよい。特徴付けるとは、例えば、黒い画素の数が1以上なら注目画素は黒、0なら注目画素は白とする処理である。   In the description using FIGS. 1 to 4 and FIGS. 8 to 9, the example of realizing the boundary detection process by combining the expansion process and the contour extraction process is shown. Another method, for example, a process of characterizing the target pixel by the number of the target pixel and the number of black pixels near the target pixel may be used instead of the expansion process. Characterizing is, for example, processing in which the target pixel is black if the number of black pixels is 1 or more, and white if the number of black pixels is 0.

図10は、本発明の実施例において、画像文書毎に最適な近傍画素の定義を自動的に設定する工程を有する領域切り出しの手順の概要を示すフロー図である。   FIG. 10 is a flowchart showing an outline of the procedure for segmentation having a step of automatically setting the definition of the optimum neighboring pixel for each image document in the embodiment of the present invention.

図10は、図2に示す構成に、印刷文字のフォントサイズや縦書き又は横書き等の文字列方向、又は、切り出そうとする文字列以外の文書画像中に記載された、帳票発行機関を指定する記載あるいは帳票の種類を指定する記載を用いて近傍画素の定義を設定する近傍定義設定工程(ステップ)1010を付加し、近傍定義設定工程1010が設定した近傍画素の定義を用いて、境界線検出工程230を行う構成を示す。   FIG. 10 shows the form issuing agency described in the configuration shown in FIG. 2 in the font size of the print character, the character string direction such as vertical writing or horizontal writing, or the document image other than the character string to be cut out. A neighborhood definition setting step (step) 1010 for setting the definition of neighboring pixels using a description to be specified or a description for designating the form type is added, and the definition of the neighboring pixels set by the neighborhood definition setting step 1010 is used to create a boundary. The structure which performs the line detection process 230 is shown.

近傍定義設定工程1010は、例えば、文字間隔が狭い文字列の場合は近傍画素の定義(p=1)921を、文字間隔が広い場合は近傍画素の定義(p=6)924を設定する。この設定は、予め設定したドキュメントの種別に応じて自動的に設定するようにする。または、文書画像中の他の領域の認識結果に応じて自動的に設定するようにする。例えば、文書画像の上部に帳票発行機関の番号を読み取り、発行機関の帳票フォーマットに従って近傍画素の定義を設定するようにする。   In the neighborhood definition setting step 1010, for example, a neighborhood pixel definition (p = 1) 921 is set for a character string with a narrow character spacing, and a neighborhood pixel definition (p = 6) 924 is set for a wide character spacing. This setting is automatically set according to a preset document type. Alternatively, it is automatically set according to the recognition result of other areas in the document image. For example, the number of the form issuing organization is read at the top of the document image, and the definition of the neighboring pixels is set according to the form format of the issuing organization.

図10に示す近傍定義設定工程を有し、文書画像に関する他の情報、例えば、文字間隔を用いて検出結果のうちの1つを選択できるため、本発明の実施例の装置は、文書画像毎に適切な切り出し結果を自動的に得ることができる。   The apparatus of the embodiment of the present invention has the neighborhood definition setting step shown in FIG. 10 and can select one of the detection results using other information related to the document image, for example, character spacing. It is possible to automatically obtain an appropriate cutout result.

本発明の実施例の装置において、境界線を表す座標は、曲線の座標、四隅に直角を持つ図形を指定する4点の座標、四隅に直角以外の角度を持つ図形を指定する4点の座標、四隅に直角を持つ矩形を指定する2点の座標、四隅に直角以外の角度を持つ四辺形(代表的には、菱形、台形)を指定する4点の座標、の何れでもよい。   In the apparatus of the embodiment of the present invention, the coordinates representing the boundary line are the coordinates of the curve, the coordinates of four points that specify a figure having right angles at the four corners, and the coordinates of four points that specify a figure having angles other than a right angle at the four corners. The coordinates of two points that specify a rectangle having right angles at the four corners, or the coordinates of four points that specify a quadrilateral (typically, a rhombus or a trapezoid) having an angle other than a right angle at the four corners may be used.

図11は、本発明の実施例において文字列領域(白い画素と黒い画素からなる)を表現する座標の一例を示す図である。図11(a)は曲線を直線近似する座標1110、図11(b)は90度の四隅を持つ矩形を指定する2点の座標1121、1122、図11(c)は90度の四隅を持つ図形を指定する4点の座標1131、1132、1133、1134、の例を示す。   FIG. 11 is a diagram illustrating an example of coordinates representing a character string area (consisting of white pixels and black pixels) in the embodiment of the present invention. 11A shows coordinates 1110 for linearly approximating a curve, FIG. 11B shows two-point coordinates 1121 and 1122 for specifying a rectangle having four corners of 90 degrees, and FIG. 11C has four corners of 90 degrees. An example of four-point coordinates 1131, 1132, 1133, 1134 for specifying a figure is shown.

図11に示すように、本発明の実施例の装置は、検出した境界線が曲線であっても、曲線を直線近似する座標、図形を代表する2点、4点の座標、により、即ち、少量の情報で文字列領域を表現できる。従って、切り出した文字列領域を文字認識エンジンへ渡す際に不都合等がなく、手間を加えることなく本の実施例の装置を他の装置の部品として組み込むことができる。   As shown in FIG. 11, even if the detected boundary line is a curved line, the apparatus according to the embodiment of the present invention uses coordinates that approximate the curve linearly, coordinates of two points and four points that represent the figure, that is, A character string area can be expressed with a small amount of information. Therefore, there is no inconvenience when the cut character string area is passed to the character recognition engine, and the apparatus of this embodiment can be incorporated as a component of another apparatus without any trouble.

図12は、本発明の実施例の装置の対象であるレセプトの例を示す図、図13は、本発明の実施例の装置の対象である、埋め込まれた文字列を含む文書画像の例を示す図、図14は、本発明の実施例の装置の対象である、一部に図を含む文書の例を示す図である。図12、図13、図14に示す例以外にも、本発明の実施例の装置の対象は、多くの適用例を持つことは言うまでもない。   FIG. 12 is a diagram showing an example of a receipt that is a target of the apparatus according to the embodiment of the present invention. FIG. 13 is an example of a document image including an embedded character string that is a target of the apparatus according to the embodiment of the present invention. FIG. 14 is a diagram showing an example of a document partially including a diagram, which is a target of the apparatus according to the embodiment of the present invention. In addition to the examples shown in FIGS. 12, 13, and 14, it goes without saying that the object of the apparatus of the embodiment of the present invention has many application examples.

図12は、医療機関が医療行為と経費を記載して健康保険組合等へ医療費を請求するための帳票であるレセプト画像1210の例を示し、レセプト1210には、患者の記号・番号1220(図の例では、「保険1234567」、「記号・番号1234567」)、薬剤名や検査名である処置処方名(図の例では、「ジアスターゼ」)1230が記載されている。本発明の実施例の装置により、患者の記号・番号1220を切り出して、患者の記号・番号1220を管理番号にして文字認識、検索により電子的な書類管理文書が行える。また、薬剤名230を切り出して文字認識を行い、薬剤別に効能や最大処方量等を検索して処置処方が適切かを点検する業務を支援することができる。   FIG. 12 shows an example of a receipt image 1210, which is a form for a medical institution to describe a medical practice and expenses and charge the health insurance association or the like for medical expenses. The receipt 1210 includes a patient symbol / number 1220 ( In the example of the figure, “insurance 1234567”, “symbol / number 1234567”), and the treatment prescription name (“diastase” in the example of the figure) 1230 which is a drug name and a test name are described. The apparatus according to the embodiment of the present invention cuts out the patient's symbol / number 1220, makes the patient's symbol / number 1220 the management number, and can perform electronic document management documents by character recognition and search. In addition, it is possible to support the task of checking the appropriateness of the treatment prescription by cutting out the drug name 230 and performing character recognition and searching for the efficacy and the maximum prescription amount for each drug.

図中に記載された文字列は、図から導いた結論や要約、キーワード等の重要語句であることが多い。図13は、図中に記載された、例えば、結論、要約等の、文字列1320(図例では、「高知県(1位)と神奈川県(47位)で2.7倍の格差」)が埋め込まれた文書画像1310の例を示し、本発明の実施例の装置により、このような文書画像から、検索により図中の重要語句を切り出すことができ、電子的な書類管理文書が行える。   The character strings described in the figures are often important phrases such as conclusions, summaries and keywords derived from the figures. FIG. 13 shows a character string 1320 described in the figure, for example, conclusion, summary, etc. (in the example, “2.7 times difference between Kochi Prefecture (1st place) and Kanagawa Prefecture (47th place)”) An example of a document image 1310 in which is embedded is shown. With the apparatus according to the embodiment of the present invention, an important word / phrase in the drawing can be extracted from such a document image by searching, and an electronic document management document can be obtained.

図14は、一部に図や絵の領域(画像データ領域)を含む文書1410の例を示し、本発明の実施例の装置により、このような文書から、重要な図を含む、指定された画像データ領域1420を切り出すことができる。なお、図13、図14に示す例では、図8に例示した近傍画素の定義を変えることで実現できる。   FIG. 14 shows an example of a document 1410 that partially includes a figure or picture area (image data area), and the apparatus according to the embodiment of the present invention designates an important figure from such a document. The image data area 1420 can be cut out. 13 and 14 can be realized by changing the definition of the neighboring pixels illustrated in FIG.

以上の実施例では、文書画像は、白い画素(空白の画素)と黒い画素からなり、有効な情報が、黒い画素で表示される2値画像であるとして説明したが、有効な情報が、白い画素で表示される2値画像である場合にも、同様にして適用できることは言うまでもない。   In the above-described embodiments, the document image is composed of white pixels (blank pixels) and black pixels, and the valid information is a binary image displayed with black pixels. However, the valid information is white. Needless to say, the present invention can be similarly applied to a binary image displayed by pixels.

なお、以上説明した実施例では、文書画像は白い画素と黒い画素から成る2値画像であるとして説明したが、多値画像の画素に対して閾値を設定して多値画像を2値化して2値画像を求めることにより、本発明は多値画像にも適応可能である。   In the embodiment described above, the document image is described as a binary image composed of white pixels and black pixels. However, a threshold value is set for the pixels of the multi-value image to binarize the multi-value image. By obtaining a binary image, the present invention can also be applied to a multi-valued image.

本発明の装置によれば、1点の座標の指定により自動的に文字列領域を切り出せるので、必要とする文字列を簡便かつ正確に切り出すことができる。また、文字列領域指定点の周辺の画像のみを用いて文字列領域を切り出せるので、任意の帳票形式の文書画像に対して帳票知識を必要とせずに切り出すことができる。   According to the apparatus of the present invention, a character string region can be automatically cut out by designating one point of coordinates, so that a necessary character string can be cut out easily and accurately. In addition, since the character string area can be cut out using only the image around the character string area designation point, it is possible to cut out a document image in an arbitrary form format without requiring knowledge of the form.

任意の帳票形式の文書画像から目的とする文字列領域を自動的に切り出すことができる文字列領域切り出し装置を提供できる。   It is possible to provide a character string area cutout device that can automatically cut out a target character string area from a document image in an arbitrary form format.

本発明の実施例の装置の構成例の概要を示す図。The figure which shows the outline | summary of the structural example of the apparatus of the Example of this invention. 本発明の実施例において、領域切り出しの手順の概要を示すフロー図。The flowchart which shows the outline | summary of the procedure of area | region extraction in the Example of this invention. 図2に示す文字列領域指定点入力工程の一例を説明する図。The figure explaining an example of the character string area | region designation | designated point input process shown in FIG. 図2に示す境界線検出工程で切り出した文字列領域の例を示す図。The figure which shows the example of the character string area | region cut out by the boundary line detection process shown in FIG. 図2に示す文字列領域指定点入力工程でユーザが文字列領域指定点を入力する方法の例を示す図。The figure which shows the example of the method in which a user inputs a character string area | region designated point in the character string area | region designated point input process shown in FIG. 本発明の実施例において、文字列領域指定点修正工程を有する領域切り出しの手順の概要を示すフロー図。The flowchart which shows the outline | summary of the procedure of area extraction which has a character string area | region designated point correction process in the Example of this invention. 図6に示す文字列領域指定点修正工程の処理の例を示す図。The figure which shows the example of a process of the character string area | region designated point correction process shown in FIG. 本発明の実施例における境界線検出工程における近傍画素の定義例を示す図。The figure which shows the example of a definition of the near pixel in the boundary line detection process in the Example of this invention. 本発明の実施例における境界線検出工程の出力の一例を示す図。The figure which shows an example of the output of the boundary line detection process in the Example of this invention. 本発明の実施例において、画像文書毎に最適な近傍画素の定義を自動的に設定する工程を有する領域切り出しの手順の概要を示すフロー図。The flowchart which shows the outline | summary of the procedure of area extraction which has the process of setting automatically the definition of the optimal neighborhood pixel for every image document in the Example of this invention. 本発明の実施例において文字列領域を表現する座標の一例を示す図。The figure which shows an example of the coordinate expressing a character string area | region in the Example of this invention. 本発明の実施例の装置の対象であるレセプトの例を示す図。The figure which shows the example of the receptor which is the object of the apparatus of the Example of this invention. 本発明の実施例の装置の対象である、埋め込まれた文字列を含む文書画像の例を示す図。The figure which shows the example of the document image containing the embedded character string which is the object of the apparatus of the Example of this invention. 本発明の実施例の装置の対象である、一部に図を含む文書の例を示す図。The figure which shows the example of the document which is a target of the apparatus of the Example of this invention, and contains a figure in part.

符号の説明Explanation of symbols

110…表示手段、120…マウス、130…キーボード、140…境界線検出手段、141…パーソナルコンピュータ、102…文字列領域、101、151…文書画像、152、320、540、910…文字列領域指定点、210…文書画像表示工程、220…文字列領域指定点入力工程、230…境界線検出工程、310、510、710…文書画像の一部、410…切り出した文字列領域の境界線、420…輪郭抽出処理で走査した画素群、520…ドラッグ開始点、530…ドラッグ終了点、551、552…ドラッグの軌跡、610…文字列領域指定点修正工程、730、740…白い画素、720、750…黒い画素、810…注目画素、820…近傍画素、921、922、923、924…近傍画素の定義、931…近傍画素の定義921に対する文字列領域、932…近傍画素の定義922に対する文字列領域、933…近傍画素の定義923に対する文字列領域、934…近傍画素の定義924に対する文字列領域、1010…近傍定義設定工程、1110…曲線を直線近似する座標、1121、1122…90度の四隅を持つ矩形を指定する2点の座標、1131、1132、1133、1134…90度の四隅を持つ図形を指定する4点の座標、1210…レセプト画像、1220…患者の記号・番号、1230…処置処方名、1310…文字列が埋め込まれた文書画像、1320…文字列、1410…図や絵を含む文書、1420…指定された画像データ領域。
DESCRIPTION OF SYMBOLS 110 ... Display means, 120 ... Mouse, 130 ... Keyboard, 140 ... Boundary line detection means, 141 ... Personal computer, 102 ... Character string area, 101, 151 ... Document image, 152, 320, 540, 910 ... Character string area designation Point 210 ... Document image display step 220 ... Character string region designation point input step 230 ... Boundary line detection step 310, 510, 710 ... Part of document image 410 ... Boundary line of clipped character string region 420 ... Pixel group scanned by contour extraction processing, 520 ... Drag start point, 530 ... Drag end point, 551, 552 ... Drag trajectory, 610 ... Character string region designation point correction step, 730, 740 ... White pixels, 720, 750 ... black pixel, 810 ... target pixel, 820 ... neighboring pixel, 921, 922, 923, 924 ... definition of neighboring pixel, 931 ... near Character string region for pixel definition 921, 932... Character string region for definition of neighboring pixel 922, 933... Character string region for definition of neighboring pixel 923, 934... Character string region for definition of neighboring pixel 924, 1010. Step 1110: Coordinates for approximating a curve in a straight line, 1121, 1122: Two points for designating a rectangle having four corners of 90 degrees, 1131, 1132, 1133, 1134 ... Four points for designating a figure having four corners of 90 degrees 1210 ... Receipt image, 1220 ... Patient symbol / number, 1230 ... Treatment prescription name, 1310 ... Document image in which character string is embedded, 1320 ... Character string, 1410 ... Document including figures and pictures, 1420 ... Designation Image data area.

Claims (9)

文書画像を表示する表示手段と、前記表示手段に表示された前記文書画像のうちの目的とする文字列領域を指示する文字列領域指定点の座標を入力する入力手段と、前記文字列領域指定点の座標に基いて、前記文書画像から前記文字列領域を検出する境界線検出手段とを有することを特徴とする文字列領域切り出し装置。   Display means for displaying a document image; input means for inputting coordinates of a character string area designating point indicating a target character string area of the document image displayed on the display means; and the character string area designation A character string region segmentation device comprising boundary line detecting means for detecting the character string region from the document image based on the coordinates of a point. 請求項1に記載の文字列領域切り出し装置において、前記境界線検出手段は、前記文字列領域指定点に近い順に前記文書画像の画素を走査して、前記文字列領域を囲む境界線を検出することを特徴とする文字列領域切り出し装置。   2. The character string region cutout device according to claim 1, wherein the boundary line detection unit scans pixels of the document image in an order close to the character string region designation point to detect a boundary line surrounding the character string region. A character string region segmentation device characterized by the above. 請求項1に記載の文字列領域切り出し装置において、前記文字列領域指定点は、操作者により、クリック、ジェスチャ、横ライン、矩形囲み、丸囲みのうち1つ以上の入力操作によって指定された1点又は範囲の重心であることを特徴とする文字列領域切り出し装置。   2. The character string region cutout device according to claim 1, wherein the character string region designation point is specified by an operator by one or more input operations of click, gesture, horizontal line, rectangular box, and circle box. A character string region segmentation device characterized by being the center of gravity of a point or range. 請求項1に記載の文字列領域切り出し装置において、前記文字列領域指定点は、前記文字列領域内の任意の画素、最近接の黒い画素が前記文字列領域内にある任意の画素、文字列の方向に最近接の黒い画素が前記文字列領域内にある任意の画素の、何れかであることを特徴とする文字列領域切り出し装置。   2. The character string region cutout device according to claim 1, wherein the character string region designation point is an arbitrary pixel in the character string region, an arbitrary pixel in which a nearest black pixel is in the character string region, or a character string A character string region cutout device, wherein a black pixel closest to the direction of any one of the pixels in the character string region is any pixel. 請求項2に記載の文字列領域切り出し装置において、前記境界線の座標は、曲線の座標、直角の四隅を持つ矩形を指定する2点、直角以外の四隅を持つ四辺形を指定する4点の、何れかの座標であることを特徴とする文字列領域切り出し装置。   3. The character string region segmentation device according to claim 2, wherein the coordinates of the boundary line are coordinates of a curve, two points for designating a rectangle having four right corners, and four points for designating a quadrilateral having four corners other than right angles. A character string region cutout device characterized in that any of the coordinates is used. 請求項1に記載の文字列領域切り出し装置において、前記境界線検出手段は、複数の前記文字列領域を検出することを特徴とする文字列領域切り出し装置。   2. The character string region cutout device according to claim 1, wherein the boundary line detection unit detects a plurality of the character string regions. 請求項6に記載の文字列領域切り出し装置において、前記文書画像のうち切り出す前記文字列領域以外に記載された、文字間隔、帳票の発行機関を指定する記載、前記帳票の種類を指定する記載にうち1つ以上に基づいて、複数の前記文字列領域の1つを選択して検出することを特徴とする文字列領域切り出し装置。   7. The character string region cutout device according to claim 6, wherein the character space described in a region other than the character string region to be cut out of the document image, a form issuing organization is designated, and the form type is designated. A character string region segmentation device that selects and detects one of the plurality of character string regions based on one or more of them. 請求項1に記載の文字列領域切り出し装置において、前記文書画像は、記述枠を含み、前記文字列領域指定点の座標が、前記記述枠の上下左右端の座標であることを特徴とする文字列領域切り出し装置。   2. The character string region cutout device according to claim 1, wherein the document image includes a description frame, and the coordinates of the character string region designation point are the coordinates of the upper, lower, left, and right edges of the description frame. Row area segmentation device. 請求項1に記載の文字列領域切り出し装置において、前記文書画像は、レセプトであることを特徴とする文字列領域切り出し装置。
The character string region segmentation device according to claim 1, wherein the document image is a receipt.
JP2004307587A 2004-10-22 2004-10-22 Character string area segmenting device Pending JP2006119942A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004307587A JP2006119942A (en) 2004-10-22 2004-10-22 Character string area segmenting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004307587A JP2006119942A (en) 2004-10-22 2004-10-22 Character string area segmenting device

Publications (2)

Publication Number Publication Date
JP2006119942A true JP2006119942A (en) 2006-05-11
JP2006119942A5 JP2006119942A5 (en) 2007-08-02

Family

ID=36537761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004307587A Pending JP2006119942A (en) 2004-10-22 2004-10-22 Character string area segmenting device

Country Status (1)

Country Link
JP (1) JP2006119942A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013178659A (en) * 2012-02-28 2013-09-09 Tokyo Denki Univ Character recognition apparatus, character recognition method and program
JP2018124918A (en) * 2017-02-03 2018-08-09 株式会社東芝 Image processor, image processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143775A (en) * 1991-08-06 1993-06-11 Sharp Corp Method for correcting inclination of character document
JPH07230526A (en) * 1994-02-17 1995-08-29 Mitsubishi Electric Corp Character reader
JP2003078640A (en) * 2001-09-05 2003-03-14 Hitachi Ltd Portable terminal equipment and communication system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143775A (en) * 1991-08-06 1993-06-11 Sharp Corp Method for correcting inclination of character document
JPH07230526A (en) * 1994-02-17 1995-08-29 Mitsubishi Electric Corp Character reader
JP2003078640A (en) * 2001-09-05 2003-03-14 Hitachi Ltd Portable terminal equipment and communication system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013178659A (en) * 2012-02-28 2013-09-09 Tokyo Denki Univ Character recognition apparatus, character recognition method and program
JP2018124918A (en) * 2017-02-03 2018-08-09 株式会社東芝 Image processor, image processing method, and program
US10296802B2 (en) 2017-02-03 2019-05-21 Kabushiki Kaisha Toshiba Image processing device, image processing method, and computer program product

Similar Documents

Publication Publication Date Title
JP5699623B2 (en) Image processing apparatus, image processing system, image processing method, and program
US8515208B2 (en) Method for document to template alignment
US8520224B2 (en) Method of scanning to a field that covers a delimited area of a document repeatedly
JP2001175807A (en) Method for selecting text area
JP2006277167A (en) Annotation data processing program, system and method
JP2011165187A (en) Method and system for displaying document
JP3594228B2 (en) Frame erasing device, frame erasing method, and authoring device
CN107133615B (en) Information processing apparatus, information processing method, and computer program
US10503993B2 (en) Image processing apparatus
JP4594952B2 (en) Character recognition device and character recognition method
JP2008022159A (en) Document processing apparatus and document processing method
JP5623574B2 (en) Form identification device and form identification method
JP2008108114A (en) Document processor and document processing method
US6958755B1 (en) Personalized computer fonts
JP7241506B2 (en) Correction support device and correction support program for optical character recognition results
JP5051756B2 (en) Form identification method, form identification program, and optical character reading system using the form identification method
CN108875570B (en) Information processing apparatus, storage medium, and information processing method
JP2006119942A (en) Character string area segmenting device
JP4518212B2 (en) Image processing apparatus and program
JP2016045896A (en) Display control device, display device, program, and recording medium
JP2008243016A (en) Character recognition method, character recognition program and character recognition device
JP3171626B2 (en) Character recognition processing area / processing condition specification method
JP2018067096A (en) Character recognition device and character recognition method
JP7031465B2 (en) Information processing equipment and programs
JP4309881B2 (en) ID card recognition apparatus and ID card recognition method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100803