JPH08263588A - Character recognition device - Google Patents
Character recognition deviceInfo
- Publication number
- JPH08263588A JPH08263588A JP7069251A JP6925195A JPH08263588A JP H08263588 A JPH08263588 A JP H08263588A JP 7069251 A JP7069251 A JP 7069251A JP 6925195 A JP6925195 A JP 6925195A JP H08263588 A JPH08263588 A JP H08263588A
- Authority
- JP
- Japan
- Prior art keywords
- character
- area
- coordinates
- recognition
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Character Input (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、文字認識装置に関する
ものであり、特に、ビットマップ画像のうち、オペレー
タの指示に基づいて設定される画像領域内の文字画像を
認識する文字認識装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device, and more particularly, to a character recognition device for recognizing a character image within a bit map image within an image area set based on an instruction from an operator. Is.
【0002】[0002]
【従来の技術】ビットマップ画像からオペレータが指示
した画像領域内の文字画像を認識する従来の文字認識装
置としては、例えば、特開平4−5779号公報や特開
平5−342620号公報に記載されている技術などが
ある。特開平4−5779号公報に記載された技術で
は、オペレータが入力部により認識対象領域を指定した
とき、その領域内の文字が欠けている場合、境界特徴抽
出部でこれを抽出し、領域変更部で認識対象領域を変更
していた。この認識対象領域の変更の際には、文字が欠
ける辺に平行ないくつかの境界候補線を設定し、各境界
候補線ごとにその境界候補線上の黒画素を計数し、文字
が欠けない境界候補線のうちでもとの辺に最も近いもの
を選択する。このような方法では、オペレータによって
認識対象領域の指定を受けてから画像データをアクセス
することになり、時間がかかる。また、境界候補線の中
に文字が欠けないような候補が存在しない場合について
は、認識対象領域を設定することができないという問題
もあった。2. Description of the Related Art A conventional character recognition device for recognizing a character image in an image area designated by an operator from a bitmap image is described in, for example, JP-A-4-5779 and JP-A-5-342620. Technology. In the technique described in Japanese Patent Laid-Open No. 457979/1992, when the operator designates the recognition target area by the input unit, if the character in the area is missing, the boundary feature extraction unit extracts it and changes the area. The recognition target area was changed by the department. When changing the recognition target area, set some boundary candidate lines parallel to the side where the character is missing, count the black pixels on the boundary candidate line for each boundary candidate line, and check the boundary where the character is not missing. Select the candidate line that is closest to the original side. In such a method, the image data is accessed after the operator specifies the recognition target area, which takes time. Further, there is also a problem that the recognition target area cannot be set when there is no candidate whose character is not missing in the boundary candidate line.
【0003】また、特開平5−342320号公報に記
載されている技術では、オペレータは認識対象領域の1
点を指定し、指定によって表示される枠をオペレータが
変更して、所望の認識対象領域を設定する。この技術で
は、オペレータが枠表示の状態を確認しながら、文字に
枠がかからないように注意しながら、枠の大きさを変更
する必要があり、オペレータに過大な負担を負わせてい
た。Further, in the technique disclosed in Japanese Patent Laid-Open No. 5-342320, the operator has only one of the recognition target areas.
The point is designated, and the operator changes the frame displayed by the designation to set a desired recognition target area. In this technique, the operator needs to change the size of the frame while checking the state of the frame display and being careful not to cover the character with the frame, which imposes an excessive burden on the operator.
【0004】[0004]
【発明が解決しようとする課題】本発明は、上述のよう
な問題に鑑みてなされたものであり、オペレータが認識
対象領域を指示する際に、高速に適正な認識対象領域を
設定することのできる文字認識装置を提供することを目
的とするものである。SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and when an operator designates a recognition target area, it is possible to set an appropriate recognition target area at high speed. An object of the present invention is to provide a character recognition device that can be used.
【0005】[0005]
【課題を解決するための手段】本発明は、オペレータの
指示に基づいて設定される画像領域内の文字画像を認識
する文字認識装置において、文字認識の対象となりうる
画像データを記憶する画像記憶手段と、該画像記憶手段
に記憶されている画像データ中の行および1文字あるい
は文字の構成部品ごとの座標に関する座標データを検出
する座標データ検出手段と、前記座標データ検出手段に
より検出された前記座標データを記憶する座標データ記
憶手段と、オペレータによる領域の指定を受け付ける領
域指定手段と、前記座標データ記憶手段に格納されてい
る前記座標データの中で前記領域指定手段で指定された
座標に最も近い座標を算出する認識領域決定手段を有す
ることを特徴とするものである。SUMMARY OF THE INVENTION The present invention is a character recognition device for recognizing a character image in an image area set based on an instruction from an operator, and image storage means for storing image data that can be a target of character recognition. A coordinate data detecting means for detecting coordinate data relating to coordinates of a line and one character or each character component in the image data stored in the image storing means; and the coordinate detected by the coordinate data detecting means. Coordinate data storage means for storing data, area designation means for accepting designation of an area by an operator, and the coordinate data stored in the coordinate data storage means that is closest to the coordinate designated by the area designation means. It is characterized by having a recognition area determining means for calculating coordinates.
【0006】請求項2に記載の発明では、請求項1に記
載の文字認識装置において、さらに、前記認識領域決定
手段で決定された座標で特定される認識領域の領域枠が
文字画像と接しているか否かを検出する領域枠接触検出
手段と、該領域枠接触検出手段で検出された文字画像と
接する部分の領域枠を文字と重ならないように拡張また
は縮小する領域枠修正手段を具えたことを特徴とするも
のである。According to a second aspect of the present invention, in the character recognition apparatus according to the first aspect, the area frame of the recognition area specified by the coordinates determined by the recognition area determining means is in contact with the character image. An area frame contact detection means for detecting whether or not there is an area frame contact detection means; and an area frame correction means for expanding or reducing an area frame contact portion of the character image detected by the area frame contact detection means so as not to overlap a character. It is characterized by.
【0007】[0007]
【作用】本発明によれば、画像記憶手段に記憶されてい
る画像データから、座標データ検出手段によって予め行
および1文字あるいは文字の構成部品ごとの座標に関す
る座標データを検出し、座標データ記憶手段に記憶して
おく。オペレータからの領域の指定を受け付けると、認
識領域決定手段は座標データ記憶手段に格納されている
座標データの中で、オペレータから指定された座標に最
も近い座標を算出し、認識領域を決定する。これによ
り、オペレータが認識領域の指定時に文字上の座標を指
定しても、文字に重ならない座標が算出され、認識領域
が設定される。また、認識すべき文字が欠けないような
座標を算出する際には、画像データを参照することな
く、座標データのみを処理対象とすればよく、高速な処
理が可能である。According to the present invention, from the image data stored in the image storage means, the coordinate data detection means detects beforehand the coordinate data relating to the coordinates of each line and one character or each character component, and the coordinate data storage means. Remember. Upon receiving the designation of the area from the operator, the recognition area determination means calculates the coordinates closest to the coordinates specified by the operator in the coordinate data stored in the coordinate data storage means, and determines the recognition area. Thus, even if the operator specifies the coordinates on the character when specifying the recognition area, the coordinates that do not overlap the character are calculated and the recognition area is set. Further, when calculating coordinates such that a character to be recognized is not missing, only coordinate data need be processed without referring to image data, and high-speed processing is possible.
【0008】また、認識領域決定手段で決定された座標
で特定される認識領域の領域枠が、画像データ中の文字
画像と接しているか否かを領域枠接触検出手段で検出
し、もし、認識領域の領域枠が文字画像と接している場
合には、その接する部分の領域枠を文字と重ならないよ
うに、領域枠修正手段で拡張または縮小する。これによ
り、認識すべき文字の一部を欠いて認識領域が設定され
ることはない。また、オペレータが指定した認識領域の
領域枠の近傍に文字と重ならないような領域枠が設定で
きない場合であっても、文字と重なる部分だけ領域枠を
拡張することによって、領域枠の設定が可能となる。な
お、領域枠修正手段は、自動的に領域枠の修正を行なう
構成のほか、オペレータによって拡張又は縮減させるよ
うに構成することも可能である。Further, whether or not the area frame of the recognition area specified by the coordinates determined by the recognition area determination means is in contact with the character image in the image data is detected by the area frame contact detection means, and if it is recognized, When the area frame of the area is in contact with the character image, the area frame correcting means expands or reduces the area frame of the contacting area so as not to overlap the character. As a result, the recognition area is not set by omitting a part of the character to be recognized. Even if the area frame that does not overlap the character cannot be set near the area frame of the recognition area specified by the operator, the area frame can be set by expanding the area frame only for the part that overlaps the character. Becomes The area frame correction means may be configured to automatically correct the area frame, or may be expanded or reduced by an operator.
【0009】[0009]
【実施例】図1は、本発明の文字認識装置の第1の実施
例を示すブロック構成図である。図中、1は画像データ
記憶部、2は文字行検出部、3は文字切り出し部、4は
文字座標記憶部、5は領域指定部、6は認識領域決定
部、7は認識領域記憶部、8は領域枠表示部、9は表示
部、10は認識部である。画像データ記憶部1は、認識
を行なう文字画像を含む画像データが格納される。文字
行検出部2は、画像データ記憶部1に格納されている画
像データを参照し、文字行の存在する領域を検出して、
その座標を行位置座標として取得する。文字切り出し部
3は、画像データ記憶部1に格納されている画像データ
を参照し、各文字を切り出して、その座標を文字位置座
標として取得する。このとき、文字行検出部2で検出
し、文字座標記憶部4に記憶され値得る行位置座標を利
用してもよい。文字座標記憶部4は、文字行検出部2お
よび文字切り出し部3で取得した行位置座標および文字
位置座標を記憶する。1 is a block diagram showing the first embodiment of the character recognition apparatus of the present invention. In the figure, 1 is an image data storage unit, 2 is a character line detection unit, 3 is a character cutout unit, 4 is a character coordinate storage unit, 5 is an area designation unit, 6 is a recognition area determination unit, 7 is a recognition area storage unit, Reference numeral 8 is an area frame display unit, 9 is a display unit, and 10 is a recognition unit. The image data storage unit 1 stores image data including a character image to be recognized. The character line detection unit 2 refers to the image data stored in the image data storage unit 1 to detect the area where the character line exists,
The coordinates are acquired as the row position coordinates. The character cutout unit 3 refers to the image data stored in the image data storage unit 1, cuts out each character, and acquires the coordinates as the character position coordinates. At this time, the line position coordinates which can be detected by the character line detection unit 2 and stored and stored in the character coordinate storage unit 4 may be used. The character coordinate storage unit 4 stores the line position coordinates and the character position coordinates acquired by the character line detection unit 2 and the character cutout unit 3.
【0010】領域指定部5は、少なくともオペレータか
らの認識領域に関する指示を受け付け、指示された座標
を認識領域決定部6に伝える。認識領域決定部6は、文
字座標記憶部4に記憶されている行位置座標および文字
位置座標をもとに、領域指定部5で指定された認識領域
の座標に最も近い行位置座標あるいは文字位置座標を求
め、認識領域を決定する。認識領域記憶部7は、認識領
域決定部6で決定された認識領域を記憶する。The area designating section 5 receives at least an instruction regarding the recognition area from the operator, and transmits the designated coordinates to the recognition area determining section 6. The recognition area determination unit 6 determines, based on the line position coordinates and the character position coordinates stored in the character coordinate storage unit 4, the line position coordinates or the character position closest to the coordinates of the recognition area specified by the area specifying unit 5. The coordinates are calculated and the recognition area is determined. The recognition area storage unit 7 stores the recognition area determined by the recognition area determination unit 6.
【0011】領域枠表示部8は、認識領域記憶部7に記
憶されている認識領域の情報をもとに、領域枠を表示す
るための情報を生成して表示部9に表示させる。表示部
9は、少なくとも画像データ記憶部1に格納されている
画像データが表示され、領域指定部5でオペレータが認
識領域を指定する際に用いられる。また、領域枠表示部
8で生成された領域枠を画像データと重ねて表示し、決
定された認識領域をオペレータが確認することができ
る。The area frame display unit 8 generates information for displaying the area frame based on the information of the recognition area stored in the recognition area storage unit 7 and causes the display unit 9 to display the information. The display unit 9 displays at least the image data stored in the image data storage unit 1, and is used when the operator designates the recognition region in the region designation unit 5. The operator can confirm the determined recognition area by displaying the area frame generated by the area frame display unit 8 so as to overlap with the image data.
【0012】認識部10は、認識領域記憶部7に記憶さ
れている認識領域の情報に従って、画像データ記憶部1
に格納されている画像データから認識領域の画像を取得
し、その中に含まれている文字画像を認識する。The recognizing unit 10 operates the image data storing unit 1 according to the information of the recognizing region stored in the recognizing region storing unit 7.
The image of the recognition area is acquired from the image data stored in the, and the character image included therein is recognized.
【0013】図2は、文字行検出部2および文字切り出
し部3の一例を示すブロック構成図である。図中、11
は水平方向黒画素数カウント部、12は行間判定部、1
3は垂直方向黒画素数カウント部、14は文字間判定部
である。例えば、文字が横書きで記述されているものと
すれば、行間は水平方向に黒画素がほとんど存在しない
領域として検出することができる。ここでは、画像デー
タを水平方向に走査して射影を得て、行を検出する。文
字行検出部2の水平方向黒画素数カウント部11では、
画像データ記憶部1に格納されている画像データを水平
方向に走査し、各水平ラインごとに黒画素数をカウント
して射影を作成する。行間判定部12は、水平方向黒画
素数カウント部11で作成した射影をもとに、例えば、
所定の閾値と比較したり、あるいは黒画素数の変化など
を調べて、各文字行を検出する。FIG. 2 is a block diagram showing an example of the character line detection unit 2 and the character cutout unit 3. 11 in the figure
Is a horizontal black pixel number counting unit, 12 is a line spacing determining unit, 1
Reference numeral 3 is a vertical black pixel number counting unit, and 14 is an intercharacter determining unit. For example, if the characters are described in horizontal writing, it can be detected as an area between the lines in which there are almost no black pixels in the horizontal direction. Here, a row is detected by scanning the image data in the horizontal direction to obtain a projection. In the horizontal black pixel number counting unit 11 of the character line detecting unit 2,
The image data stored in the image data storage unit 1 is scanned in the horizontal direction, and the number of black pixels is counted for each horizontal line to create a projection. The line space determination unit 12 uses, for example, the projection created by the horizontal black pixel number counting unit 11 to calculate, for example,
Each character line is detected by comparing with a predetermined threshold value or by checking a change in the number of black pixels.
【0014】同様に、各行中の各文字の間には、黒画素
がほとんど存在しない。文字切り出し部3の垂直方向黒
画素数カウント部13では、文字行検出部2で検出した
各行ごとに、行内の画像データを垂直方向に走査して黒
画素をカウントし、射影を作成する。そして、作成した
垂直方向の射影をもとに、文字間判定部14で文字の間
を判定し、各文字を検出する。」 上述の水平方向黒画
素数カウント部11および垂直方向黒画素数カウント部
13においては、画像データの黒画素数をカウントする
ように構成したが、白画素数をカウントするように構成
しても、同様の検出を行なうことができる。Similarly, there are almost no black pixels between the characters in each line. The vertical black pixel number counting unit 13 of the character cutting unit 3 vertically scans the image data in each line detected by the character line detecting unit 2 to count black pixels and create a projection. Then, based on the created projection in the vertical direction, the character spacing determination unit 14 determines the spacing between characters and detects each character. The horizontal black pixel number counting unit 11 and the vertical direction black pixel number counting unit 13 are configured to count the number of black pixels of the image data, but may be configured to count the number of white pixels. , The same detection can be performed.
【0015】図3は、本発明の文字認識装置の第1の実
施例における動作の一例を示すフローチャートである。
S21において、認識を行なおうとする画像データが画
像データ記憶部1に格納され、格納された画像データは
表示部9によりオペレータに可視化される。FIG. 3 is a flow chart showing an example of the operation in the first embodiment of the character recognition device of the present invention.
In S21, the image data to be recognized is stored in the image data storage unit 1, and the stored image data is visualized by the operator on the display unit 9.
【0016】画像記憶手段9に画像データが格納される
と、S22において、まず文字行検出部2により各文字
行の存在する行位置座標が検出され、文字座標記憶部4
に格納される。例えば、図2に示した構成では、各文字
行の検出は、画像データを水平方向に走査して射影を取
り、黒画素と白画素の境界の座標を見つけることで行位
置座標を得ることができる。また、文字切り出し手段3
が文字座標記憶手段4に格納されている行位置座標を参
照しながら、各行ごとに文字領域を切り出し、切り出し
た文字領域の座標を文字座標記憶部4に格納する。例え
ば、図2に示した構成では、1行分の画像データに対し
て垂直方向の射影を取り、黒画素と白画素の境界の座標
を見つけることで文字位置座標を得ることができる。こ
のようにして文字ごとの位置を示す座標を求めることが
できる。なお、文字行検出部2と文字切り出し部3によ
る座標検出処理は、文字行と文字ごとで同期を取りなが
ら並列的に行なってもよい。When the image data is stored in the image storage means 9, first in S22, the character line detection unit 2 detects the line position coordinates where each character line exists, and the character coordinate storage unit 4 is detected.
Stored in. For example, in the configuration shown in FIG. 2, in order to detect each character line, the line position coordinates can be obtained by scanning the image data in the horizontal direction and taking a projection to find the coordinates of the boundary between the black pixel and the white pixel. it can. Also, the character cutting means 3
Refers to the line position coordinates stored in the character coordinate storage means 4, cuts out a character area for each line, and stores the coordinates of the cut out character area in the character coordinate storage unit 4. For example, in the configuration shown in FIG. 2, the character position coordinates can be obtained by taking a vertical projection on the image data for one line and finding the coordinates of the boundary between the black pixel and the white pixel. In this way, the coordinates indicating the position of each character can be obtained. The coordinate detection processing by the character line detection unit 2 and the character cutout unit 3 may be performed in parallel while synchronizing with each character line.
【0017】S23において、オペレータは、表示部9
に表示されている画像データを見ながら、認識を行ない
たい領域の開始点の座標を、領域指定部5のポインティ
ングデバイスなどを用いて設定する。S24において、
領域指定部5により指定された開始点の座標が認識領域
決定部6に入力されると、認識領域決定部6は文字座標
記憶部5に格納されている座標データのうちから、指定
された座標にもっとも近い座標データを距離計算により
抽出し、抽出した座標を開始点の座標として認識領域記
憶部7に出力する。この時点ではまだ認識領域が決定さ
れていないので、S25における認識対象領域の表示は
行なわれない。S26において、最後の座標データか否
かが判定される。まだ終了点の座標が入力されていない
ので、S23へ戻る。At step S23, the operator operates the display unit 9
While looking at the image data displayed in, the coordinates of the starting point of the area to be recognized are set using the pointing device of the area designating unit 5 or the like. In S24,
When the coordinates of the starting point specified by the area specifying unit 5 are input to the recognition area determining unit 6, the recognition area determining unit 6 selects the specified coordinates from the coordinate data stored in the character coordinate storage unit 5. The coordinate data closest to is extracted by distance calculation, and the extracted coordinates are output to the recognition area storage unit 7 as the coordinates of the start point. Since the recognition area has not been determined at this point, the recognition target area is not displayed in S25. In S26, it is determined whether or not it is the last coordinate data. Since the coordinates of the end point have not been input yet, the process returns to S23.
【0018】オペレータは認識領域のもう一方の終了点
の座標を指定するため、S23において、表示部9上で
認識対象領域を確認しながら領域指定部5を操作する。
オペレータが領域指定部5を操作しているとき、表示部
9は一定の時間間隔で領域指定部5がそのとき指示して
いる座標を出力する。S24において、認識領域決定部
6は、そのとき領域指定部5で指示している座標を、文
字座標記憶部4に格納されている座標データのうち、指
示されている座標にもっとも近い座標データを距離計算
により抽出し、抽出した座標を終了点の座標として認識
領域記憶部7に出力する。認識領域記憶部7に出力され
た開始点および終了点の座標は、領域枠表示部8によっ
て取得され、認識領域を示す領域枠が生成されて、表示
部9に渡される。表示部9は、S25において、画像デ
ータに重ねて領域枠を表示する。In order to specify the coordinates of the other end point of the recognition area, the operator operates the area designating unit 5 while confirming the recognition target area on the display unit 9 in S23.
When the operator is operating the area designating unit 5, the display unit 9 outputs the coordinates currently designated by the area designating unit 5 at regular time intervals. In step S24, the recognition area determination unit 6 determines the coordinates designated by the area designation unit 5 at that time as the coordinate data closest to the designated coordinates among the coordinate data stored in the character coordinate storage unit 4. It is extracted by distance calculation and the extracted coordinates are output to the recognition area storage unit 7 as the coordinates of the end point. The coordinates of the start point and the end point output to the recognition area storage unit 7 are acquired by the area frame display unit 8, an area frame indicating the recognition area is generated, and passed to the display unit 9. In S25, the display unit 9 displays the area frame over the image data.
【0019】このようにして、オペレータが指示しよう
としている認識対象領域は、最終的な座標が入力される
まで、開始点と、そのとき指示されている座標を終了点
とする矩形領域として領域枠表示部8により表示部9に
表示される。このとき、領域枠は、認識領域決定部6に
よって、文字座標記憶部4に格納されている座標データ
のうち、指示されている座標にもっとも近い座標データ
に変更されているので、表示部9に表示される領域枠
は、その開始点と終了点が近くの文字とは重ならないよ
うに表示される。In this way, the recognition target area to be instructed by the operator is an area frame as a rectangular area having the start point and the coordinate pointed at that time as the end point until the final coordinates are input. It is displayed on the display unit 9 by the display unit 8. At this time, the area frame has been changed by the recognition area determination unit 6 to the coordinate data closest to the instructed coordinate among the coordinate data stored in the character coordinate storage unit 4, so that the display unit 9 displays the frame. The displayed area frame is displayed so that its start point and end point do not overlap with nearby characters.
【0020】最終的に座標が決定されると、S27に進
み、認識部10は、認識領域記憶部7に格納されている
認識領域座標を参照して、画像データ記憶部1に格納さ
れている画像データのうち、認識領域中の画像に対して
文字認識処理を実行する。When the coordinates are finally determined, the process proceeds to S27, and the recognition section 10 refers to the recognition area coordinates stored in the recognition area storage section 7 and stores them in the image data storage section 1. The character recognition process is executed on the image in the recognition area of the image data.
【0021】上述の動作を具体例を用いて説明する。図
4は、画像データの一例の説明図である。ここでは、具
体例として、図4に示すような画像データが入力され、
画像データ記憶部1に格納されたものとする。図4に示
した具体例では、1行目に「あいうえおかきくけこ」、
2行目に「abcdefghijklmn」、3行目に
「なにぬねのはひふへほ」と横書きで記述されている。
この画像データは、表示部9によりオペレータに対して
表示されている。The above operation will be described using a specific example. FIG. 4 is an explanatory diagram of an example of image data. Here, as a specific example, image data as shown in FIG. 4 is input,
It is assumed that the image data is stored in the image data storage unit 1. In the specific example shown in FIG. 4, the first line reads “Aiue Okaki Kukeko”,
In the second line, “abcdefghijkklmn” is written horizontally, and in the third line, “Nanunnene no hifuheho” is written horizontally.
This image data is displayed to the operator by the display unit 9.
【0022】図5は、文字行検出部2および文字切り出
し部3によって得られる行位置座標および文字位置座標
の説明図である。文字行検出部2では、このような画像
データを水平方向に走査する。そして、図2に示した構
成では黒画素の数を水平方向黒画素数カウント部11に
よってカウントして射影を作成し、行間判定部12で行
間を判定する。すると、図3において破線で示す座標y
11〜y32が検出される。この座標は、各文字のy座標と
なり、文字座標記憶部4に記憶される。FIG. 5 is an explanatory diagram of line position coordinates and character position coordinates obtained by the character line detection unit 2 and the character cutout unit 3. The character line detector 2 scans such image data in the horizontal direction. Then, in the configuration shown in FIG. 2, the number of black pixels is counted by the horizontal black pixel number counting unit 11 to create a projection, and the line spacing determination unit 12 determines the line spacing. Then, the coordinate y shown by the broken line in FIG.
11 to y 32 are detected. This coordinate becomes the y coordinate of each character and is stored in the character coordinate storage unit 4.
【0023】文字切り出し部3では、行間判定部12で
検出された文字行ごとに、垂直方向に走査し、黒画素を
カウントして射影を作成する。図3に示した例では、文
字切り出し部3で1行目の行位置座標としてy11,y12
が得られているので、この座標間の帯状の画像データを
参照し、垂直方向に黒画素をカウントする。作成された
射影をもとに、文字間判定部14は各文字を切り出し
て、文字位置座標を得る。図3に示した1行目の例で
は、文字位置座標x11〜x1bが得られる。ここでは、各
文字の左端の座標と、行の最右端の文字の右端の座標を
求めている。もちろん、最左端の文字について両端の座
標を求め、他の文字については右端の座標路求めるよう
に構成したり、あるいは、各文字について左端と右端を
求めてもよい。2行目も同様に文字位置座標x21〜x2f
が、3行目は文字位置座標x31〜x3bが、それぞれ求め
られる。このようにして求められた文字位置座標は、各
文字のx座標として文字座標記憶部4に記憶される。こ
のようにして、文字座標記憶部4には、各文字ごとの座
標データとして、x座標として文字位置座標が、また、
y座標として行位置座標が記憶される。The character slicing unit 3 scans each character line detected by the line space determining unit 12 in the vertical direction and counts black pixels to create a projection. In the example shown in FIG. 3, the line segment coordinates of the first line in the character segmenting unit 3 are y 11 , y 12.
Is obtained, the black pixel is counted in the vertical direction by referring to the band-shaped image data between the coordinates. The character-to-character determination unit 14 cuts out each character based on the created projection to obtain character position coordinates. In the example of the first line shown in FIG. 3, character position coordinates x 11 to x 1b are obtained. Here, the coordinates of the left end of each character and the coordinates of the right end of the rightmost character of the line are obtained. Of course, the coordinates of both ends of the leftmost character may be calculated and the coordinate paths of the other characters may be calculated to the right, or the left and right ends of each character may be calculated. Similarly for the second line, character position coordinates x 21 to x 2f
However, in the third line, the character position coordinates x 31 to x 3b are obtained. The character position coordinates thus obtained are stored in the character coordinate storage unit 4 as the x coordinate of each character. In this way, the character coordinate storage unit 4 stores the character position coordinates as the x-coordinates as coordinate data for each character, and
The row position coordinate is stored as the y coordinate.
【0024】オペレータは、表示部9に表示された画像
データを参照しながら、領域指定部5によって認識領域
の開始点を指示する。いま、領域指定部5により開始点
の座標(X0,Y0)が認識領域決定部6に入力された
とする。すると、認識領域決定部6は文字座標記憶部4
に格納されている座標データで座標(X0,Y0)にも
っとも近い座標データを距離計算により抽出する。抽出
された座標を座標(Xs,Ys)とすれば、この座標を
座標(X0,Y0)の代わりに開始点の座標として認識
領域記憶部7に出力する。例えば、図4において文字
「あ」の左上付近の点を開始点として指定すると、座標
(x11,y11)が開始点の座標として抽出され、認識領
域記憶部7に記憶される。The operator designates the start point of the recognition area by the area designating section 5 while referring to the image data displayed on the display section 9. Now, it is assumed that the area specifying unit 5 inputs the coordinates (X0, Y0) of the starting point to the recognition area determining unit 6. Then, the recognition area determination unit 6 causes the character coordinate storage unit 4 to
The coordinate data closest to the coordinate (X0, Y0) in the coordinate data stored in is extracted by the distance calculation. If the extracted coordinates are the coordinates (Xs, Ys), the coordinates are output to the recognition area storage unit 7 as the coordinates of the starting point instead of the coordinates (X0, Y0). For example, when a point near the upper left corner of the character “A” is designated as the start point in FIG. 4, the coordinates (x 11 , y 11 ) are extracted as the coordinates of the start point and stored in the recognition area storage unit 7.
【0025】オペレータは、認識対象領域のもう一方の
終了座標を指定するため、表示部9上で認識対象領域を
確認しながら領域指定部5を操作する。図6は、本発明
の第1の実施例における矩形枠表示の具体例の説明図で
ある。オペレータが領域指定部5を操作しているとき、
座標領域決定部6は一定の時間間隔で領域指定部5がそ
のとき指示している座標(Xi,Yi)を出力する。認
識領域決定部6は、領域指定部5から座標(Xi,Y
i)が指示されている間、文字座標記憶部4に格納され
ている座標データのうちから、座標(Xi,Yi)にも
っとも近い座標データを距離計算により抽出する。抽出
した座標を座標(Xe,Ye)とすれば、この座標を終
了点の座標として認識領域記憶部7に出力する。認識領
域記憶部7に出力された開始点及び終了点の座標をもと
に、領域枠表示部8は領域枠を生成し、表示部9に表示
させる。例えば、図6において、文字「い」や文字
「f」の右下付近に領域指定部5を動かすと、その移動
に伴って破線で示した矩形が領域枠として順次表示され
る。The operator operates the area designating unit 5 while confirming the recognition target area on the display unit 9 in order to specify the other end coordinate of the recognition target area. FIG. 6 is an explanatory diagram of a specific example of rectangular frame display in the first embodiment of the present invention. When the operator is operating the area designation unit 5,
The coordinate area determination unit 6 outputs the coordinates (Xi, Yi) currently designated by the area designation unit 5 at regular time intervals. The recognition area determination unit 6 receives the coordinates (Xi, Y
While i) is instructed, the coordinate data closest to the coordinates (Xi, Yi) is extracted from the coordinate data stored in the character coordinate storage unit 4 by the distance calculation. If the extracted coordinates are the coordinates (Xe, Ye), the coordinates are output to the recognition area storage unit 7 as the coordinates of the end point. The area frame display unit 8 generates an area frame based on the coordinates of the start point and the end point output to the recognition area storage unit 7, and causes the display unit 9 to display the area frame. For example, in FIG. 6, when the area designating unit 5 is moved near the lower right corner of the character “i” or the character “f”, the rectangle indicated by the broken line is sequentially displayed as the area frame along with the movement.
【0026】このようにして、オペレータが指示しよう
としている領域は、最終的な座標が入力されるまで、開
始点の座標(Xs,Ys)と終了点の座標(Xe,Y
e)を対角の座標とする矩形領域として矩形枠表示部8
により表示部9に表示される。最終的に例えば文字
「ひ」の右下付近を終了点として指示すると、図6に実
線で示した認識対象領域が設定される。最終的な座標が
指示されると、そのとき認識領域記憶部7に記憶されて
いる座標(Xs,Ys)および座標(Xe,Ye)が、
最終的に指定された認識対象領域を示す座標となる。そ
して、認識手段18は、認識領域記憶部7に記憶されて
いる認識対象領域を示す座標データを参照して、その領
域内の画像データに対して文字認識を実行する。In this way, in the area the operator is going to instruct, the coordinates of the start point (Xs, Ys) and the coordinates of the end point (Xe, Ys) are entered until the final coordinates are input.
The rectangular frame display unit 8 is a rectangular area having e) as diagonal coordinates.
Is displayed on the display unit 9. Finally, for example, when the lower right corner of the character "HI" is designated as the end point, the recognition target area shown by the solid line in FIG. 6 is set. When the final coordinates are designated, the coordinates (Xs, Ys) and the coordinates (Xe, Ye) stored in the recognition area storage unit 7 at that time are
The coordinates are the coordinates indicating the finally specified recognition target area. Then, the recognition unit 18 refers to the coordinate data indicating the recognition target area stored in the recognition area storage unit 7 and performs character recognition on the image data in the area.
【0027】なお、領域指定部5で指定された座標が文
字画像外の場合には、認識領域決定部6は座標データの
変更を行なわず、指示された座標をそのまま認識領域記
憶部7に出力するように構成することも可能である。ま
た、領域指定部5に修飾キーを設け、認識領域決定部6
かこの修飾キーの押下を検出した場合に、指示された座
標をそのまま認識領域記憶部7に出力するように構成す
ることもできる。修飾キーとしては、例えば、“Shi
ft”キーや“Control”キーなどとすることが
できる。When the coordinates designated by the region designating unit 5 are outside the character image, the recognition region determining unit 6 does not change the coordinate data and outputs the designated coordinates as they are to the recognition region storing unit 7. It can also be configured to do so. Further, a modifier key is provided in the area designating unit 5, and the recognition area determining unit 6
Alternatively, when the depression of the modifier key is detected, the designated coordinates may be directly output to the recognition area storage unit 7. As a modifier key, for example, "Shi
It may be an ft "key, a" Control "key, or the like.
【0028】認識対象領域は矩形に限らず、多角形であ
ってもよい。その場合には、形状に応じた数の座標を指
示するように構成すればよい。さらに、指定する認識対
象領域は1つに限らず、複数指定することができるよう
に構成することも可能である。The recognition target area is not limited to a rectangle but may be a polygon. In that case, the number of coordinates may be designated according to the shape. Further, the number of recognition target areas to be designated is not limited to one, and a plurality of recognition target areas can be designated.
【0029】次に、本発明の文字認識装置の第2の実施
例について説明する。図7は、本発明の第1の実施例に
おいて、領域枠が文字と重なる場合の一例の説明図であ
る。上述の第1の実施例では、オペレータから指示され
た開始点および終了点の座標については、文字座標記憶
部4に記憶されている座標データに従って変更し、文字
と重ならないようにしている。しかし、このようにして
設定された認識対象領域の領域枠は、開始点の座標と終
了点の座標の近く以外の文字と重なる場合がある。図7
は、このような場合を示している。図7には、開始点と
して文字「b」の左上付近を指定し、終了点として文字
「I」の右下付近を指定した場合の領域枠を示してい
る。図7を参照するとわかるように、領域枠の左辺が文
字「な」と、右辺が文字「l」および文字「ひ」と交差
している。Next, a second embodiment of the character recognition device of the present invention will be described. FIG. 7 is an explanatory diagram of an example of the case where the area frame overlaps the character in the first embodiment of the present invention. In the above-described first embodiment, the coordinates of the start point and the end point designated by the operator are changed according to the coordinate data stored in the character coordinate storage unit 4 so that they do not overlap with the characters. However, the area frame of the recognition target area set in this way may overlap a character other than near the coordinates of the start point and the coordinates of the end point. Figure 7
Indicates such a case. FIG. 7 shows the area frame when the vicinity of the upper left of the character “b” is specified as the start point and the vicinity of the lower right of the character “I” is specified as the end point. As can be seen from FIG. 7, the left side of the area frame intersects with the character “na”, and the right side intersects with the character “l” and the character “hi”.
【0030】図7に示す例では、英字部分とひらがなの
部分とで文字間隔が異なるため、図7に示すような認識
対象領域を指定する場合には、従来の認識対象領域の設
定方法のように文字と交差しない矩形領域を設定しよう
とすると、数文字分程度の領域の変更が必要となり、所
望する認識対象領域が設定できない。このような問題を
解決するため、以下に説明する本発明の第2の実施例で
は、このような領域枠と文字画像との重なりを排除する
ように、認識対象領域を変形する例を示している。In the example shown in FIG. 7, the character spacing differs between the alphabetic characters and the hiragana characters. Therefore, when the recognition target area as shown in FIG. 7 is designated, the conventional recognition target area setting method is used. In order to set a rectangular area that does not intersect a character, it is necessary to change the area for several characters, and the desired recognition target area cannot be set. In order to solve such a problem, the second embodiment of the present invention described below shows an example in which the recognition target area is modified so as to eliminate such an overlap between the area frame and the character image. There is.
【0031】図8は、本発明の文字認識装置の第2の実
施例を示すブロック構成図である。図中、図1と同様の
部分には同じ符号を付して説明を省略する。31は領域
枠接触検出部、32は領域枠修正部である。領域枠接触
検出部31は、認識領域決定部6から出力される認識対
象領域の開始点と終了点の座標から、認識対象領域の領
域枠のデータを生成し、生成した領域枠のデータと画像
データ中の文字画像とが接触するか否かを判定する。こ
の判定は、例えば、領域枠の線分画像データを生成し、
画像データ記憶部1に格納されている画像データとの論
理演算を行なうことによって実行することができる。あ
るいは、文字切り出し部3で各文字の左右の座標が検出
され、文字座標記憶部4に格納されている場合には、領
域枠の線分と各文字が存在する領域との交点計算のみに
よって判定することができる。領域枠修正部32は、領
域枠と文字とが接触している場合、接触している文字の
部分だけ領域枠を拡張する。これにより、接触している
文字がすべて認識対象領域内に含まれるようになる。こ
のとき、文字座標記憶部4に格納されている座標データ
を用いると、高速な処理が可能である。FIG. 8 is a block diagram showing the second embodiment of the character recognition device of the present invention. In the figure, the same parts as those in FIG. Reference numeral 31 is an area frame contact detection unit, and 32 is an area frame correction unit. The area frame contact detection unit 31 generates the area frame data of the recognition target area from the coordinates of the start point and the end point of the recognition target area output from the recognition area determination unit 6, and the generated area frame data and the image. It is determined whether or not the character image in the data contacts. For this determination, for example, line segment image data of the area frame is generated,
It can be executed by performing a logical operation with the image data stored in the image data storage unit 1. Alternatively, when the left and right coordinates of each character are detected by the character cutout unit 3 and stored in the character coordinate storage unit 4, the determination is made only by calculating the intersection between the line segment of the area frame and the area where each character exists. can do. When the area frame and the character are in contact with each other, the area frame correction unit 32 expands the area frame by only the part of the character in contact. As a result, all the touching characters are included in the recognition target area. At this time, if the coordinate data stored in the character coordinate storage unit 4 is used, high speed processing is possible.
【0032】図9は、本発明の文字認識装置の第2の実
施例における動作の一例を示すフローチャートである。
この第2の実施例における動作は、上述の第1の実施例
とほぼ同様であるので、図9では図3に示したフローチ
ャートと重複する部分についてはS24、S25を除き
省略した。また、S24、S25は図9において破線で
示しており、内容は図3と同じである。FIG. 9 is a flow chart showing an example of the operation in the second embodiment of the character recognition device of the present invention.
The operation of the second embodiment is almost the same as that of the first embodiment described above, and therefore, in FIG. 9, the portions overlapping with the flowchart shown in FIG. 3 are omitted except S24 and S25. Further, S24 and S25 are shown by broken lines in FIG. 9, and the contents are the same as in FIG.
【0033】第1の実施例と同様に、画像データが入力
され、画像データ記憶部1に格納されると、文字行検出
部2および文字切り出し部3によって座標データが抽出
され、文字座標記憶部4に格納される。その後、領域指
定部5からオペレータが開始点および終了点の座標を指
示する。領域指定部5から指示された座標は、認識領域
決定部6において文字座標記憶部4内の座標データと比
較され、指示された座標にもっとも近い座標データが認
識領域決定部から出力される。Similar to the first embodiment, when the image data is input and stored in the image data storage unit 1, the character line detection unit 2 and the character cutout unit 3 extract the coordinate data and the character coordinate storage unit. Stored in 4. Then, the operator designates the coordinates of the start point and the end point from the area designating unit 5. The coordinates designated by the area designating unit 5 are compared with the coordinate data in the character coordinate storage unit 4 by the recognition area determining unit 6, and the coordinate data closest to the designated coordinates is output from the recognition area determining unit.
【0034】認識領域決定部6から認識対象領域の開始
点と終了点が出力されると、図9のS41において、領
域枠接触検出部31は開始点と終了点により決まる領域
枠が文字画像と接触しているか否かを検出する。接触し
ていなければ、領域枠修正部32では領域枠の座標に関
するデータを修正せず、認識領域記憶部7へそのまま出
力する。この場合、処理はS25へと進む。When the recognition area determination unit 6 outputs the start point and the end point of the recognition target area, the area frame contact detection unit 31 determines that the area frame determined by the start point and the end point is a character image in S41 of FIG. Detects whether they are in contact. If they are not in contact, the area frame correction unit 32 does not correct the data related to the coordinates of the area frame, and outputs the data to the recognition area storage unit 7 as they are. In this case, the process proceeds to S25.
【0035】領域枠と文字画像との接触があった場合に
は、S42において、領域枠接触検出手段36は接触の
あった文字の座標を検出する。そして、S43におい
て、文字と接触した領域枠が縦方向の線分か横方向の線
分かを判定する。この判定結果は領域枠修正部37へ出
力される。領域枠修正部32は、接触した領域枠が横方
向の線分の場合には、S44において、接触した文字の
高さを算出し、接触している部分の領域枠線を高さ分だ
け領域枠に対して外側に拡張する。すなわち、接触しな
くなるまでの長さを、領域枠の下の線のときにはY座標
方向に加え、上の線のときには減じる方向に、認識対象
領域の局所的な拡張を行なって、新しい領域枠を作成す
る。また、文字と接触した領域枠が縦方向の線分の場合
には、S45において、接触した文字の幅を算出し、接
触している部分の領域枠線を幅の分だけ行行き枠に対し
て外側に拡張する。すなわち、接触しなくなるまでの長
さを、領域枠の右側の線のときにはX座標方向に加え、
左側の線のときには減じる方向に、認識対象領域の局所
的な拡張を行なって、新しい領域枠を作成する。新たに
作成された領域枠は、認識領域記憶部7に格納される。If there is a contact between the area frame and the character image, the area frame contact detection means 36 detects the coordinates of the contacted character in S42. Then, in S43, it is determined whether the area frame contacting the character is a vertical line segment or a horizontal line segment. This determination result is output to the area frame correction section 37. When the contacted area frame is a horizontal line segment, the area frame correction unit 32 calculates the height of the contacted character in S44 and sets the area frame line of the contacting portion by the height. Extends outward with respect to the frame. That is, the length until contact is stopped is added to the Y coordinate direction in the case of the lower line of the area frame, and is reduced in the case of the upper line, by locally expanding the recognition target area to form a new area frame. create. If the area frame in contact with the character is a vertical line segment, in S45, the width of the contacted character is calculated, and the area frame line of the contacting portion is set to the width of the going frame. To extend outward. That is, when the line on the right side of the area frame is added to the X coordinate direction,
When the line is on the left side, the recognition target area is locally expanded in the decreasing direction to create a new area frame. The newly created area frame is stored in the recognition area storage unit 7.
【0036】S46において、すべての接触部分での処
理が終了したか否かを判定し、まだ残っている場合に
は、S43に戻って処理を繰り返す。全ての接触部分の
処理を終了すると、S25に進み、認識対象領域の表示
以降の処理が行なわれる。In S46, it is determined whether or not the processing has been completed for all the contact portions, and if the processing is still left, the processing returns to S43 and is repeated. When the processing of all contact portions is completed, the process proceeds to S25, and the processing after the display of the recognition target area is performed.
【0037】図10は、本発明の第2の実施例において
生成される領域枠の具体例の説明図である。いま、図7
に示すような領域枠が認識領域決定部6から出力された
場合を考える。上述のように、図7に示す領域枠は文字
と接触している。領域枠接触検出部31は、領域枠の左
側の縦線が文字「な」の位置で、また、右側の縦線が文
字「l」と文字「ひ」の位置で接触していることを検出
し、領域枠修正部32に伝える。領域枠修正部32は、
まず領域枠の左側の縦線において、文字「な」と接触し
ている部分を、文字「な」と接触しなくなるまで左側に
拡張する。また、領域枠の右側の縦線において、文字
「l」と接触している部分を、文字「l」と接触しなく
なるまで右側に拡張し、同様に、文字「ひ」と接触して
いる部分を文字「ひ」と接触しなくなるまで右側に拡張
する。このような処理によって、図10に示すように、
文字と接触しない認識対象領域を設定することができ
る。FIG. 10 is an explanatory diagram of a specific example of the area frame generated in the second embodiment of the present invention. Now, Fig. 7
Consider the case where the recognition area determination unit 6 outputs the area frame as shown in FIG. As described above, the area frame shown in FIG. 7 is in contact with the character. The area frame contact detection unit 31 detects that the vertical line on the left side of the area frame is in contact with the character “na” and the vertical line on the right side is in contact with the character “l” and the character “hi”. Then, the area frame correction unit 32 is notified. The area frame correction unit 32
First, in the vertical line on the left side of the area frame, the part that is in contact with the character "NA" is expanded to the left until it no longer contacts the character "NA". Further, in the vertical line on the right side of the area frame, the part that is in contact with the character "l" is expanded to the right until it no longer contacts the character "l", and similarly, the part that is in contact with the character "hi" Expand to the right until it no longer touches the letter "hi". By such processing, as shown in FIG.
It is possible to set a recognition target area that does not come into contact with characters.
【0038】上述の例では、領域枠と接触した文字を認
識対象として取り込むために、領域枠を拡張する例を示
したが、領域枠と接触した文字を認識対象から除外する
ように、領域枠を縮小することも考えられる。しかし、
このような処理を行なわなくても、認識部10では欠け
た文字は認識できないので、領域枠の修正処理を行なわ
なければ、同様の結果を得ることができる。領域指定部
5に領域枠修正部32における修正処理を行なわない旨
の指示を行なうキーを配置し、このキーをオペレータが
押下した場合には、領域枠の修正処理を行なわないよう
に構成することができる。また、第1の実施例と同様、
例えば、修飾キーをオペレータが押下したことを検出し
て、認識領域決定部6による座標の変更処理を行なわな
いような機能を付加することもできる。この場合、領域
枠修正部32における処理も行なわないようにすること
ができる。In the above-mentioned example, the area frame is expanded in order to take in the character touching the area frame as a recognition target, but the area frame is excluded so that the character touching the area frame is excluded from the recognition target. Can be reduced. But,
Even if such a process is not performed, the recognizing unit 10 cannot recognize the missing character, so that the same result can be obtained if the region frame correction process is not performed. A key for instructing not to perform the correction process in the region frame correction unit 32 is arranged in the region designation unit 5, and when the operator presses this key, the region frame correction process is not performed. You can Also, as in the first embodiment,
For example, it is possible to add a function of detecting that the operator has pressed the modifier key and not performing the coordinate changing process by the recognition area determining unit 6. In this case, it is possible not to perform the processing in the area frame correction unit 32.
【0039】なお、上述の第2の実施例では、文字行検
出部2によって行間を検出して文字のy座標を出力して
いる。そのため、認識領域決定部6から出力される領域
枠のうち、上下の枠線は文字と重なることはない。その
ため、領域枠接触検出部31においては左右の縦線のみ
について接触の有無を検出するように構成することがで
きる。もちろん、各文字についてその領域を示す座標を
抽出して文字座標記憶部4に格納するように構成した場
合には、上下の枠線についても処理を行なう必要があ
る。In the second embodiment described above, the character line detection unit 2 detects the line spacing and outputs the y coordinate of the character. Therefore, the upper and lower frame lines of the area frame output from the recognition area determination unit 6 do not overlap with the characters. Therefore, the area frame contact detection unit 31 can be configured to detect the presence or absence of contact only on the left and right vertical lines. Of course, when the coordinates indicating the area of each character are extracted and stored in the character coordinate storage unit 4, it is necessary to process the upper and lower frame lines.
【0040】上述の各実施例では、文字が横書きである
ことを前提にして説明した。しかし、本発明はこれに限
らず、縦書きの文書に対しても適用することができる。
その場合には、文字行検出部2は垂直方向に走査して行
間を検出し、文字切り出し部3は水平方向に走査して各
文字を切り出すように構成すればよい。また、横書きと
縦書きを切り換え可能に構成することも可能である。さ
らに、横書き、縦書きに関係なく、各文字を個別に切り
出して各文字領域の座標を抽出するように構成してもよ
い。The above embodiments have been described on the assumption that characters are written horizontally. However, the present invention is not limited to this, and can be applied to a vertically written document.
In that case, the character line detection unit 2 may be configured to scan in the vertical direction to detect line spacing, and the character cutout unit 3 may be configured to scan in the horizontal direction to cut out each character. Further, it is possible to switch between horizontal writing and vertical writing. Further, regardless of horizontal writing or vertical writing, each character may be cut out individually and the coordinates of each character area may be extracted.
【0041】[0041]
【発明の効果】以上の説明から明らかなように、本発明
によれば、画像記憶手段に記憶されている画像データか
ら、予め文字に関する座標データを検出し、座標データ
記憶手段に記憶しておき、オペレータから指定された認
識対象領域の座標を変更するようにしたので、オペレー
タが認識対象領域の指定時に文字上の座標を指定して
も、文字に重ならない座標が算出され、認識対象領域が
設定される。また、この認識対象領域の設定の際には、
座標データのみを処理対象として処理を行なうので、高
速な処理が可能であり、オペレータの指示している認識
対象領域をリアルタイムで表示可能である。そのため、
認識対象領域の設定を行なう際の操作性を向上させるこ
とができる。また、所望の認識対象領域を設定する際
に、領域枠が文字と重なる場合には、その部分について
領域枠を拡張することにより、所望の認識対象領域を文
字の欠けを生じることなく効率的に設定することができ
るという効果がある。As is apparent from the above description, according to the present invention, coordinate data relating to a character is detected in advance from the image data stored in the image storage means and stored in the coordinate data storage means. Since the coordinates of the recognition target area specified by the operator are changed, even if the operator specifies the coordinates on the character when specifying the recognition target area, the coordinates that do not overlap the character are calculated and the recognition target area is Is set. Also, when setting this recognition target area,
Since only the coordinate data is processed, the processing can be performed at high speed and the recognition target area designated by the operator can be displayed in real time. for that reason,
It is possible to improve the operability when setting the recognition target area. In addition, when setting the desired recognition target area, if the area frame overlaps with the character, by expanding the area frame for that portion, the desired recognition target area can be efficiently created without causing character loss. The effect is that it can be set.
【図1】 本発明の文字認識装置の第1の実施例を示す
ブロック構成図である。FIG. 1 is a block configuration diagram showing a first embodiment of a character recognition device of the present invention.
【図2】 文字行検出部2および文字切り出し部3の一
例を示すブロック構成図である。FIG. 2 is a block configuration diagram showing an example of a character line detection unit 2 and a character cutout unit 3.
【図3】 本発明の文字認識装置の第1の実施例におけ
る動作の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of an operation in the first embodiment of the character recognition device of the present invention.
【図4】 画像データの一例の説明図である。FIG. 4 is an explanatory diagram of an example of image data.
【図5】 文字行検出部2および文字切り出し部3によ
って得られる行位置座標および文字位置座標の説明図で
ある。5 is an explanatory diagram of line position coordinates and character position coordinates obtained by the character line detection unit 2 and the character cutout unit 3. FIG.
【図6】 本発明の第1の実施例における矩形枠表示の
具体例の説明図である。FIG. 6 is an explanatory diagram of a specific example of rectangular frame display in the first embodiment of the present invention.
【図7】 本発明の第1の実施例において、領域枠が文
字と重なる場合の一例の説明図である。FIG. 7 is an explanatory diagram of an example of a case where an area frame overlaps a character according to the first embodiment of this invention.
【図8】 本発明の文字認識装置の第2の実施例を示す
ブロック構成図である。FIG. 8 is a block configuration diagram showing a second embodiment of the character recognition device of the present invention.
【図9】 本発明の文字認識装置の第2の実施例におけ
る動作の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of an operation in the second embodiment of the character recognition device of the present invention.
【図10】 本発明の第2の実施例において生成される
領域枠の具体例の説明図である。FIG. 10 is an explanatory diagram of a specific example of a region frame generated in the second embodiment of the present invention.
1…画像データ記憶部、2…文字行検出部、3…文字切
り出し部、4…文字座標記憶部、5…領域指定部、6…
認識領域決定部、7…認識領域記憶部、8…領域枠表示
部、9…表示部、10…認識部、31…領域枠接触検出
部、32…領域枠修正部。1 ... Image data storage unit, 2 ... Character line detection unit, 3 ... Character cutout unit, 4 ... Character coordinate storage unit, 5 ... Area designation unit, 6 ...
Recognition area determination unit, 7 ... Recognition area storage unit, 8 ... Region frame display unit, 9 ... Display unit, 10 ... Recognition unit, 31 ... Region frame contact detection unit, 32 ... Region frame correction unit.
Claims (2)
画像領域内の文字画像を認識する文字認識装置におい
て、文字認識の対象となりうる画像データを記憶する画
像記憶手段と、該画像記憶手段に記憶されている画像デ
ータ中の行および1文字あるいは文字の構成部品ごとの
座標に関する座標データを検出する座標データ検出手段
と、前記座標データ検出手段により検出された前記座標
データを記憶する座標データ記憶手段と、オペレータに
よる領域の指定を受け付ける領域指定手段と、前記座標
データ記憶手段に格納されている前記座標データの中で
前記領域指定手段で指定された座標に最も近い座標を算
出する認識領域決定手段を有することを特徴とする文字
認識装置。1. In a character recognition device for recognizing a character image in an image area set based on an instruction from an operator, image storage means for storing image data that can be a target of character recognition, and storage in the image storage means. Coordinate data detecting means for detecting the coordinate data of the lines in the image data and the coordinates of one character or each character component, and coordinate data storing means for storing the coordinate data detected by the coordinate data detecting means. An area specifying means for receiving an area specified by an operator, and a recognition area determining means for calculating coordinates closest to the coordinates specified by the area specifying means in the coordinate data stored in the coordinate data storage means. A character recognition device comprising:
で特定される認識領域の領域枠が文字画像と接している
か否かを検出する領域枠接触検出手段と、該領域枠接触
検出手段で検出された文字画像と接する部分の領域枠を
文字と重ならないように拡張または縮小する領域枠修正
手段をさらに具えたことを特徴とする請求項1に記載の
文字認識装置。2. An area frame contact detection means for detecting whether or not the area frame of the recognition area specified by the coordinates determined by the recognition area determination means is in contact with a character image, and the area frame contact detection means. 2. The character recognition device according to claim 1, further comprising area frame correction means for expanding or reducing an area frame of a portion in contact with the detected character image so as not to overlap the character.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7069251A JPH08263588A (en) | 1995-03-28 | 1995-03-28 | Character recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7069251A JPH08263588A (en) | 1995-03-28 | 1995-03-28 | Character recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08263588A true JPH08263588A (en) | 1996-10-11 |
Family
ID=13397343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7069251A Pending JPH08263588A (en) | 1995-03-28 | 1995-03-28 | Character recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08263588A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011076581A (en) * | 2009-09-04 | 2011-04-14 | Ricoh Co Ltd | Image processing apparatus, system and method, and program |
WO2013046512A1 (en) * | 2011-09-26 | 2013-04-04 | Necカシオモバイルコミュニケーションズ株式会社 | Information processing terminal |
CN111563511A (en) * | 2020-04-30 | 2020-08-21 | 广东小天才科技有限公司 | Method and device for intelligently framing questions, electronic equipment and storage medium |
JP2022104411A (en) * | 2020-12-28 | 2022-07-08 | 有限責任監査法人トーマツ | Document digitalization architecture by multi-model deep learning and document image processing program |
-
1995
- 1995-03-28 JP JP7069251A patent/JPH08263588A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011076581A (en) * | 2009-09-04 | 2011-04-14 | Ricoh Co Ltd | Image processing apparatus, system and method, and program |
US9307109B2 (en) | 2009-09-04 | 2016-04-05 | Ricoh Company, Ltd. | Image processing apparatus, image processing system, and image processing method |
WO2013046512A1 (en) * | 2011-09-26 | 2013-04-04 | Necカシオモバイルコミュニケーションズ株式会社 | Information processing terminal |
CN111563511A (en) * | 2020-04-30 | 2020-08-21 | 广东小天才科技有限公司 | Method and device for intelligently framing questions, electronic equipment and storage medium |
CN111563511B (en) * | 2020-04-30 | 2023-11-14 | 广东小天才科技有限公司 | Method and device for intelligent frame questions, electronic equipment and storage medium |
JP2022104411A (en) * | 2020-12-28 | 2022-07-08 | 有限責任監査法人トーマツ | Document digitalization architecture by multi-model deep learning and document image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3756719B2 (en) | Document modification apparatus and image processing apparatus | |
JP4737269B2 (en) | Image processing apparatus and program | |
JPH06176188A (en) | Method and device for preparing information on recognized characters | |
JP2000235619A (en) | Surface image processor and its program storage medium | |
JP3795238B2 (en) | Document image processing apparatus and document image processing method | |
US20100332972A1 (en) | Document processor, document processing method, and computer readable medium | |
JP2013171309A (en) | Character segmentation method, and character recognition device and program using the same | |
JPH08263588A (en) | Character recognition device | |
JP3113747B2 (en) | Character recognition device and character recognition method | |
JP4164976B2 (en) | Character recognition device | |
JPS6337487A (en) | Character recognizing device | |
JP3133797B2 (en) | Character recognition method and apparatus | |
JP3019897B2 (en) | Line segmentation method | |
JP5650683B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JPH117493A (en) | Character recognition processor | |
JPH0644406A (en) | Method and device for processing image | |
JPH1153469A (en) | Character segmentation device, optical character reader and storage medium | |
JPH0581467A (en) | Method and device for image processing | |
JP2000020641A (en) | Character recognition system | |
JPH08137987A (en) | Optical character reader | |
JPH09114918A (en) | Optical character reader | |
JPH0927008A (en) | Device and method for character recognition | |
JPH05108868A (en) | Picture processing method and device thereof | |
JPH0962786A (en) | Character recognizer | |
JPH05258053A (en) | Picture quality improvement control system for image forming device |