JPH11306282A - Method and device for extracting character string area - Google Patents

Method and device for extracting character string area

Info

Publication number
JPH11306282A
JPH11306282A JP10107480A JP10748098A JPH11306282A JP H11306282 A JPH11306282 A JP H11306282A JP 10107480 A JP10107480 A JP 10107480A JP 10748098 A JP10748098 A JP 10748098A JP H11306282 A JPH11306282 A JP H11306282A
Authority
JP
Japan
Prior art keywords
area
character
rotation
image
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10107480A
Other languages
Japanese (ja)
Inventor
Akira Suzuki
章 鈴木
Osamu Nakamura
修 中村
Kenji Ogura
健司 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP10107480A priority Critical patent/JPH11306282A/en
Publication of JPH11306282A publication Critical patent/JPH11306282A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance the speed of extraction of a binary image in a character string area when reading character information on a character plate in a specified format by using a camera as an input means. SOLUTION: A character string extracting device is provided with a camera 2, a character plate area extracting means 3 to automatically extract position information of a character area, a creating/storing means 10 of a template in an area to be extracted to create and store the template in the area to be extracted to specify an area to be threshold a processed, a thresholding means 4, an inclination/rotation angle estimating means 6 to estimate three-dimensional attitude and rotation in a plane for the image on the character plate, a template deforming means 1 of the area to be extracted to threshold the image and to deform the shape of the template in the area to be extracted according to the three-dimensional attitude and the rotation in the plane, and an inclination/rotation correcting means 5 of binary image to correct distortion due to three- dimensional inclination and the rotation in the plane only for black pixels existing within the range of the deformed template in the area to be extracted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、文字列領域抽出方
法及びその実施装置に関し、特に、例えば、名札のよう
な書式が定まった文字プレート上の文字情報をカメラを
入力手段として読みとる技術において、読みとるべき文
字列領域の2値画像を抽出する技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for extracting a character string area and an apparatus for implementing the method, and more particularly to a technique for reading character information on a character plate having a fixed format such as a name tag using a camera as an input means. The present invention relates to a technique for extracting a binary image of a character string area to be read.

【0002】[0002]

【従来の技術】従来の文字列領域抽出装置は、図16に
示すように、情景画像を撮影するカメラ100、文字プ
レート領域抽出手段200、この抽出された文字プレー
ト領域を2値化するための2値化手段300、3次元的
な傾斜による歪みと平面内の回転の補正を行う2値画像
傾斜/回転補正手段400、文字列領域抽出手段50
0、及び3次元的な姿勢と平面内の回転を推定する傾斜
/回転角度推定手段600を備えている。
2. Description of the Related Art As shown in FIG. 16, a conventional character string region extracting device includes a camera 100 for photographing a scene image, a character plate region extracting means 200, and a binarizing unit for extracting the extracted character plate region. Binarizing means 300, binary image tilt / rotation correcting means 400 for correcting distortion due to three-dimensional tilt and rotation in a plane, character string area extracting means 50
0, and a tilt / rotation angle estimating means 600 for estimating a three-dimensional attitude and rotation in a plane.

【0003】図17は読み取り対象である名札の例を正
面から見た模式図であり、図18は図17の内容を説明
するための図である。図18において、101は会社の
マーク、102は社員証、103は線分領域、104は
写真領域、105は会社名の文字列領域、106は所属
部署名の文字列領域、107は氏名の文字列領域であ
り、それぞれ読みとるべき文字列領域とする。
FIG. 17 is a schematic diagram of an example of a name tag to be read as viewed from the front, and FIG. 18 is a diagram for explaining the contents of FIG. In FIG. 18, 101 is a company mark, 102 is an employee card, 103 is a line segment area, 104 is a photograph area, 105 is a character string area of a company name, 106 is a character string area of a department name, and 107 is a character of a name. It is a string area, and is a character string area to be read.

【0004】図19は図17の名札をカメラ100で撮
影した画像の例の模式図であり、3次元的な傾斜のため
の歪みがある。
FIG. 19 is a schematic view showing an example of an image obtained by photographing the name tag of FIG. 17 with the camera 100, and there is distortion due to three-dimensional inclination.

【0005】図20は図19から名札の中の背景領域の
画素だけを抽出した画像を示す図であり、この例では、
名札の背景領域の色合い情報は、例えば、RGB値(赤
・緑・青のそれぞれの値)の形で分かっているとしてお
り、この抽出はこの色合い情報を用いて行う。
FIG. 20 is a diagram showing an image in which only the pixels in the background area in the name tag are extracted from FIG. 19, and in this example,
It is assumed that the color information of the background area of the name tag is known in the form of, for example, RGB values (red, green, and blue values), and this extraction is performed using the color information.

【0006】図21は名札に属する領域における背景画
素以外の画素を黒画素とし、残りを全て白画素で表した
2値画像を示す図である。
FIG. 21 is a diagram showing a binary image in which pixels other than the background pixel in the area belonging to the name tag are black pixels, and all the rest are white pixels.

【0007】図22は図21の画像に対して傾斜による
歪みと回転を補正した画像である。ただし、この例では
回転が非常に小さいので回転補正の効果は目ではわから
ない。
FIG. 22 is an image obtained by correcting the distortion and rotation caused by the inclination with respect to the image of FIG. However, in this example, since the rotation is very small, the effect of the rotation correction cannot be visually recognized.

【0008】図23は図22から文字列領域だけを抽出
した結果を示す図である。この方法は、例えば、黒画素
の連結成分をラベリングにより求め、近接する連結成分
を結合して文字パターンの候補を作成し、同程度の大き
さの文字パターン候補が複数個横方向に一定に近い間隔
で並んでいることを文字列領域の基準として選ぶことで
行うことができる。
FIG. 23 is a diagram showing the result of extracting only the character string region from FIG. According to this method, for example, a connected component of a black pixel is obtained by labeling, and a connected character component is combined to create a character pattern candidate, and a plurality of character pattern candidates having substantially the same size are almost constant in the horizontal direction. This can be done by selecting the arrangement at intervals as a reference for the character string area.

【0009】図23に示す処理の後で、個々の文字列領
域に属する2値画像に対して文字切り出し(個別の文字
パターンの切り出し)と文字認識を行い、さらに、単語
辞書と照合することで各文字列領域が読み取れる。その
中で、読みとるべき文字列である所属部署と氏名だけを
その後の処理過程に送る。
After the processing shown in FIG. 23, character extraction (separation of individual character patterns) and character recognition are performed on the binary image belonging to each character string area, and the binary image is collated with a word dictionary. Each character string area can be read. Among them, only the department and name which are the character strings to be read are sent to the subsequent processing.

【0010】傾斜による歪みと回転の補正を2値画像に
おける全黒画素に対して行うが、この処理は三角関数を
多用した処理量の大きい処理であり、処理速度が低下す
るという問題があった(1997年電子情報通信学会 全国
大会 情報・システムソサイエティ大会 p.250、表題
「撮像斜影歪みを利用した文字平面の単眼視姿勢推定」
参照)。
The correction of the distortion and the rotation caused by the inclination is performed on all the black pixels in the binary image. However, this processing is a processing using a large amount of a trigonometric function and has a problem that the processing speed is reduced. (1997 IEICE National Convention, Information and Systems Society Conference, p.250, Title: Monocular Viewing Estimation of Character Plane Using Image Oblique Distortion)
reference).

【0011】また、傾斜による歪みと回転の補正を全て
の領域について行った2値画像に対し、さらに全ての領
域において文字列の抽出、文字切り出し、文字認識、単
語照合等を画像全体について行うため処理速度が低下す
るという問題があった。
In addition, for a binary image in which distortion and rotation due to tilt have been corrected for all regions, character strings are extracted, characters are cut out, characters are recognized, and words are collated in all regions. There is a problem that the processing speed is reduced.

【0012】[0012]

【発明が解決しようとする課題】本発明者は、前記従来
技術を検討した結果、以下の問題点を見いだした。
SUMMARY OF THE INVENTION As a result of studying the above prior art, the present inventor has found the following problems.

【0013】前述の従来の技術では、傾斜による歪みと
回転の補正を2値画像における全黒画素に対して行う
が、この処理は三角関数を多用した処理量の大きい処理
であり、処理速度が低下するという問題があった。
In the above-mentioned prior art, the correction of the distortion and the rotation caused by the inclination is performed for all the black pixels in the binary image. However, this processing is a processing that uses a large amount of trigonometric functions and has a large processing speed. There was a problem of lowering.

【0014】また、傾斜による歪みと回転の補正を全て
の領域について行った2値画像に対し、さらに全ての領
域において文字列の抽出、文字切り出し、文字認識、単
語照合を行うため処理速度が低下する問題があった。
In addition, for a binary image in which distortion and rotation due to tilt have been corrected for all regions, character strings are extracted, characters are cut out, characters are recognized, and words are collated in all regions, so that the processing speed is reduced. There was a problem to do.

【0015】本発明の目的は、名札のような書式が定ま
った文字プレート上の文字情報をカメラを入力手段とし
て読みとる技術において、読みとるべき文字列領域の2
値画像の抽出処理を高速化することが可能な技術を提供
することにある。
An object of the present invention is to provide a technique for reading character information on a character plate having a fixed format such as a name tag using a camera as an input means.
It is an object of the present invention to provide a technique capable of speeding up a value image extraction process.

【0016】本発明の前記ならびにその他の目的と新規
な特徴は、本明細書の記述及び添付図面によって明らか
にする。
The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

【0017】[0017]

【課題を決決するための手段】本願において開示される
発明のうち、代表的なものの概要を簡単に説明すれば、
以下のとおりである。
SUMMARY OF THE INVENTION Among the inventions disclosed in the present application, the outline of a representative one will be briefly described.
It is as follows.

【0018】(1)抽出すべき文字列の領域の位置情報
を、サンプルとして提示した3次元的な姿勢が分かって
いる文字プレートの画像を分析することにより、自動的
に抽出し、この抽出された位置情報の2値化すべき領域
を指定する要抽出領域テンプレートを作成して格納する
学習処理過程と、入力対象である文字プレートの画像に
対して、3次元的な姿勢と平面内の回転を推定し、画像
の2値化を行い、前記の学習処理過程により作成した要
抽出領域テンプレートの形状を、前記3次元的な姿勢と
平面内の回転に合わせて変形し、変形された要抽出領域
テンプレートの範囲内にある黒画素のみを対象として3
次元的な傾斜による歪みと平面内の回転の補正を行う入
力補正処理過程とを有する文字列領域抽出方法である。
(1) The position information of the region of the character string to be extracted is automatically extracted by analyzing the image of the character plate having a known three-dimensional posture presented as a sample. A learning process for creating and storing an extraction-needed area template specifying an area to be binarized for the position information, and a three-dimensional posture and rotation in a plane with respect to an image of a character plate to be input. Estimating and binarizing the image, and deforming the shape of the extraction required area template created in the learning process in accordance with the three-dimensional posture and rotation in the plane, 3 for only black pixels within the range of the template
This is a character string region extraction method including an input correction process for correcting distortion due to dimensional inclination and rotation in a plane.

【0019】(2)情景画像を撮影するカメラと、情景
画像に含まれる抽出すべき文字列の領域の位置情報を、
サンプルとして提示した3次元的な姿勢が分かっている
文字プレートの画像を分析することにより、自動的に抽
出する文字プレート領域抽出手段と、この抽出された文
字プレート領域の2値化すべき領域を指定する要抽出領
域テンプレートを作成して格納する要抽出領域テンプレ
ート作成・格納手段と、前記指定された文字プレート領
域を2値化する2値化手段と、入力対象である文字プレ
ートの画像に対して、3次元的な姿勢と平面内の回転を
推定する傾斜/回転角度推定手段と、画像の2値化を行
い、前記要抽出領域テンプレートの形状を、前記3次元
的な姿勢と平面内の回転に合わせて変形する要抽出領域
テンプレート変形手段と、変形された要抽出領域テンプ
レートの範囲内にある黒画素のみを対象として3次元的
な傾斜による歪みと平面内の回転の補正を行う2値画像
傾斜/回転補正手段とを有する文字列領域抽出装置であ
る。
(2) The camera that captures the scene image and the position information of the character string area to be extracted included in the scene image are
A character plate area extracting means for automatically extracting by analyzing an image of a character plate whose three-dimensional posture presented as a sample is known, and an area to be binarized of the extracted character plate area are designated. Extraction area template creating / storing means for creating and storing an extraction area template required, binarizing means for binarizing the designated character plate area, and A tilt / rotation angle estimating means for estimating a three-dimensional attitude and rotation in a plane, binarizing the image, and converting the shape of the extraction-required area template into the three-dimensional attitude and rotation in the plane Extracting area template deforming means for deforming according to the following, and distortion due to three-dimensional inclination only for black pixels within the range of the deformed extracting area template A character string region extracting device having a binary image tilt / rotation correction means for correcting the rotation of the plane.

【0020】すなわち、本発明の特徴は、要抽出領域テ
ンプレートを学習用のサンプル画像から作成する学習処
理過程を行う手段を設ける。入力処理過程においては、
文字プレートの三次元的な傾斜と回転の大きさを画像か
ら推定し、その傾斜と回転の大きさを用いて要抽出領域
テンプレートを変形して文字プレートの画像と重ね合わ
せる。要抽出領域テンプレートの範囲内の領域を処理の
対象とすることである。
That is, a feature of the present invention is to provide a means for performing a learning process for creating a required extraction area template from a learning sample image. In the input process,
The magnitude of the three-dimensional inclination and rotation of the character plate is estimated from the image, and the extraction-needed area template is transformed using the magnitude of the inclination and rotation to overlap the character plate image. That is, an area within the range of the extraction required area template is to be processed.

【0021】[0021]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態(実施例)を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The embodiments (examples) of the present invention will be described below in detail with reference to the drawings.

【0022】図1は本発明の一実施形態(実施例)の文
字列領域抽出装置の概略構成を示すブロック構成図であ
り、図2は図1の文字列領域抽出装置による文字列領域
抽出方法の処理手順を示すフローチャートである。
FIG. 1 is a block diagram showing a schematic configuration of a character string area extracting apparatus according to an embodiment (embodiment) of the present invention. FIG. 2 is a character string area extracting method by the character string area extracting apparatus of FIG. 6 is a flowchart showing the processing procedure of FIG.

【0023】本実施形態の文字列領域抽出装置は、図1
に示すように、文字プレート領域の2値化すべき領域を
指定する要抽出領域テンプレートを3次元的な姿勢と平
面内の回転に合わせて変形する要抽出領域テンプレート
変形手段1と、情景画像を撮影するカメラ2と、このカ
メラ2によって撮影された情景画像に含まれる抽出すべ
き文字列の領域の位置情報を、サンプルとして提示した
3次元的な姿勢が分かっている文字プレートの画像を分
析することにより、自動的に抽出する文字プレート領域
抽出手段3と、抽出された文字プレート領域を2値化す
るための2値化手段4と、3次元的な傾斜による歪みと
平面内の回転の補正を行う2値画像傾斜/回転補正手段
5と、3次元的な姿勢と平面内の回転を推定する傾斜/
回転角度推定手段6と、文字列領域抽出手段7と、文字
切り出し認識手段8と、単語照合手段9と、文字プレー
ト領域の2値化すべき領域を指定する要抽出領域テンプ
レートを作成して格納する要抽出領域テンプレート作成
/格納手段10とからなっている。
The character string area extracting apparatus according to the present embodiment has the structure shown in FIG.
As shown in FIG. 7, an extraction required area template deforming means 1 for deforming an extraction required area template for designating an area to be binarized in a character plate area in accordance with a three-dimensional posture and rotation in a plane, and photographing a scene image Analyzing an image of a character plate whose three-dimensional posture is known, which presents, as a sample, position information of a region of a character string to be extracted included in a scene image captured by the camera 2 , A character plate area extracting means 3 for automatically extracting, a binarizing means 4 for binarizing the extracted character plate area, and correction of distortion due to three-dimensional inclination and rotation in a plane. Binary image tilt / rotation correction means 5 for performing a three-dimensional posture and tilt /
A rotation angle estimating unit 6, a character string region extracting unit 7, a character segmentation recognizing unit 8, a word matching unit 9, and an extraction required region template for designating a region of the character plate region to be binarized are created and stored. And an extraction area template creation / storage means 10.

【0024】図3は要抽出領域テンプレートを作成する
ための学習用サンプルの画像例の模式図であり、101
は会社のマーク、102は社員証、103は線分領域、
104は写真領域、105は会社名の文字列領域、10
6は所属部署名の文字列領域、107は氏名の文字列領
域であり、それぞれ読みとるべき文字列領域とする。
FIG. 3 is a schematic diagram of an example of an image of a learning sample for creating an extraction area template.
Is a company mark, 102 is an employee ID, 103 is a line segment area,
104 is a photograph area, 105 is a character string area of a company name, 10
Reference numeral 6 denotes a character string area of the department name, and 107 denotes a character string area of the name, which are to be read.

【0025】学習処理過程においては、文字プレートの
三次元的な姿勢は決まっているものとする。
In the learning process, it is assumed that the three-dimensional posture of the character plate has been determined.

【0026】図4乃至図7は要抽出領域テンプレートを
作成する方法を説明するための図であり、図8は単語照
合で用いる単語辞書の内容の例を示す図である。単語の
綴りと、各単語が抽出すべきものであるか否かの情報が
「要/不要」の形で記入されている。
FIGS. 4 to 7 are diagrams for explaining a method of creating a required extraction area template, and FIG. 8 is a diagram showing an example of the contents of a word dictionary used for word matching. The spelling of the word and information on whether or not each word is to be extracted are entered in the form of "necessary / unnecessary".

【0027】図9は図7で抽出された各文字列領域に対
して、文字切り出し、文字認識、単語照合を行った結果
を示す図である。所属部署名の文字列領域106と氏名
の文字列領域107だけが「要」、すなわち、抽出すべ
き文字列領域であることを表している。この結果を用い
て、所属部署名の文字列領域106と氏名の文字列領域
107の文字列領域とを要抽出領域とした結果を図10
に示す。ただし、他の文字プレートについては、文字列
の位置や文字数が若干異なることが予想されるため、こ
の2つの領域の周囲に余裕を取った例を図11に示す。
これを要抽出領域テンプレートとする。形式的には、各
領域を長方形で表し、各領域の四隅の座標で要抽出領域
テンプレートを表現する。
FIG. 9 is a diagram showing the results of character segmentation, character recognition, and word collation performed on each character string region extracted in FIG. Only the character string area 106 of the belonging department name and the character string area 107 of the name indicate "necessary", that is, the character string area to be extracted. Using this result, the result of setting the character string area 106 of the belonging department name and the character string area of the name character string area 107 as the required extraction area is shown in FIG.
Shown in However, for other character plates, the position of the character string and the number of characters are expected to be slightly different. Therefore, FIG. 11 shows an example in which a margin is provided around these two regions.
This is used as an extraction required area template. Formally, each region is represented by a rectangle, and the extraction-needed region template is represented by the coordinates of the four corners of each region.

【0028】前記の手段により求められた要抽出領域テ
ンプレートを用いて図3の画像の例を処理する過程を以
下に示す。
The process of processing the example of the image in FIG. 3 using the extraction-necessary area template obtained by the above means will be described below.

【0029】図12乃至図15までがその後の処理過程
を説明するための図である。図12は図11で表される
要抽出領域テンプレートを扱っている文字プレートの見
え方に合わせて3次元的な傾斜/平面内の回転をした時
の形状に変形させた結果を示す図である(ただし回転は
ほとんどしていないため見た目にはわからない)。形式
的には、各領域を表す長方形の四隅の座標を座標変換す
ることで変形が行われる。
FIGS. 12 to 15 are diagrams for explaining the subsequent processing steps. FIG. 12 is a diagram showing a result of transforming the shape of the character plate handling the extraction required area template shown in FIG. 11 into a shape when three-dimensionally inclined / rotated in a plane according to the appearance of the character plate. (However, it doesn't look like it hasn't rotated much). Formally, the transformation is performed by transforming the coordinates of the four corners of the rectangle representing each area.

【0030】図13は前記図5の2値画像に図12の要
抽出領域テンプレートを重ね合わせた図であり、図14
は要抽出領域テンプレートの範囲内の画像を抽出した結
果を示す図である。図15は図14において抽出された
黒画素に対して従来技術と同様な三次元的な傾斜による
歪みと回転の補正を行った結果を示す図である。
FIG. 13 shows the binary image of FIG. 5 superimposed with the extraction required template of FIG. 12, and FIG.
FIG. 8 is a diagram showing a result of extracting an image within a range of an extraction required area template. FIG. 15 is a diagram showing the result of correcting distortion and rotation due to three-dimensional inclination similar to the related art with respect to the black pixels extracted in FIG.

【0031】次に、図1に示す文字列領域抽出装置によ
る文字列領域抽出方法を図2を用いて説明する。
Next, a method for extracting a character string area by the character string area extracting apparatus shown in FIG. 1 will be described with reference to FIG.

【0032】本実施形態の文字列領域抽出方法の処理手
順は、図2に示す処理ステップで実行される。すなわ
ち、 S201:まず、画像カメラ2により撮影された情景画
像における、図3に示すような指定値の姿勢を持つ文字
プレートを含む濃淡画像を、学習データとして、入力す
る。
The processing procedure of the character string area extraction method according to the present embodiment is executed by the processing steps shown in FIG. That is, S201: First, a grayscale image including a character plate having a posture having a designated value as shown in FIG. 3 in a scene image captured by the image camera 2 is input as learning data.

【0033】S202:文字プレート領域抽出手段3に
より、前記入力された濃淡画像から、図4に示すような
文字プレート領域の濃淡画像を抽出する。
S202: The character plate area extracting means 3 extracts a grayscale image of the character plate area as shown in FIG. 4 from the input grayscale image.

【0034】S203:2値化手段4により、図5に示
すように、文字プレート領域の画像からプレートの背景
領域の画素を白、背景領域以外の画素を黒とした2値画
像を作成する。
S203: As shown in FIG. 5, the binarizing means 4 creates a binary image from the image of the character plate area, in which the pixels in the background area of the plate are white and the pixels other than the background area are black.

【0035】S204:2値画像傾斜/回転補正手段5
により、図6に示すように、文字プレート領域の2値画
像の3次元的な傾斜による歪みを補正する。
S204: Binary image tilt / rotation correction means 5
Thus, as shown in FIG. 6, the distortion due to the three-dimensional inclination of the binary image of the character plate area is corrected.

【0036】S205:2値画像傾斜/回転補正手段5
により、文字プレート領域の2値画像の回転を補正す
る。
S205: Binary image tilt / rotation correction means 5
, The rotation of the binary image in the character plate area is corrected.

【0037】S206:文字列領域抽出手段7により、
図7に示すように、3次元的な傾斜による歪みと回転が
補正された文字プレート領域の2値画像から、文字列領
域を抽出する。
S206: By the character string area extracting means 7,
As shown in FIG. 7, a character string region is extracted from a binary image of a character plate region in which distortion and rotation due to three-dimensional inclination have been corrected.

【0038】S207:文字切り出し認識手段8によ
り、各文字列領域に対して文字切り出し/文字認識処理
を行う。
S207: The character extraction / recognition means 8 performs character extraction / character recognition processing on each character string area.

【0039】S208:単語照合手段9により、図8に
示すように、各文字列領域に対して文字切り出し/文字
認識処理の結果に対して単語照合を行い、要抽出領域テ
ンプレート作成/格納手段10により、図9に示すよう
に、抽出すべき文字列領域であるか否かを判定し、抽出
すべき文字列領域については文字プレートの画像中の領
域としての場所を表わす要抽出領域テンプレートを作成
しメモリに格納する。
S208: As shown in FIG. 8, the word matching means 9 performs word matching on the result of the character segmentation / character recognition processing for each character string area, and generates the extraction area template required / storage means 10 As shown in FIG. 9, it is determined whether or not the character string area is to be extracted, and for the character string area to be extracted, a necessary extraction area template representing the location of the character plate in the image is created. And store it in memory.

【0040】S209:入力対象の文字プレートを含む
濃淡画像を入力する。
S209: A gray-scale image including a character plate to be input is input.

【0041】S210:文字プレート領域の濃淡画像を
抽出する。
S210: A shaded image of the character plate area is extracted.

【0042】S211:文字プレート領域の輪郭から、
文字プレートの3次元的な姿勢と平面内の回転角度を算
出する。
S211: From the outline of the character plate area,
The three-dimensional attitude of the character plate and the rotation angle within the plane are calculated.

【0043】S212:要抽出領域テンプレート変形手
段1により、文字プレートの3次元的な姿勢と平面内の
回転角度を算出結果を用いて、要抽出領域テンプレート
の形状を、同一の平面内で該文字プレートと重ね合わせ
た時の形状に変形させる。
S212: Using the three-dimensional posture of the character plate and the rotation angle in the plane by the extraction area template transformation means 1, the shape of the extraction area template is changed in the same plane using the character. Deform to the shape when superimposed on the plate.

【0044】S213:2値化手段4により、文字プレ
ート領域の画像からプレートの背景領域の画素を白、背
景領域以外の画素を黒とした2値画像を作成する。
S213: The binarizing means 4 creates a binary image from the image of the character plate area, in which pixels in the background area of the plate are white and pixels other than the background area are black.

【0045】S214:文字プレート領域の2値画像と
変形させた要抽出領域テンプレートを重ね合わせ、要抽
出領域テンプレートの範囲に含まれる黒画素に対して3
次元的な傾斜による歪みと平面内の回転を補正し、出力
する。
S214: The binary image of the character plate area is superimposed on the deformed extraction area template, and 3 pixels are added to the black pixels included in the area of the extraction area template.
The distortion due to the dimensional inclination and the rotation in the plane are corrected and output.

【0046】なお、前記本実施形態の文字列領域抽出方
法の処理手順は、コンピュータのソフトウェアのプログ
ラムによっても実現できる。
The processing procedure of the character string area extracting method according to the present embodiment can also be realized by a computer software program.

【0047】以上、本発明を前記実施例に基づき具体的
に説明したが、本発明は、前記実施例に限定されるもの
ではなく、その要旨を逸脱しない範囲において種々変更
可能であることは勿論である。
As described above, the present invention has been specifically described based on the above-described embodiments. However, the present invention is not limited to the above-described embodiments, and it is needless to say that various modifications can be made without departing from the scope of the present invention. It is.

【0048】[0048]

【発明の効果】本願において開示される発明のうち代表
的なものによって得られる効果を簡単に説明すれば、以
下のとおりである。
The effects obtained by typical aspects of the invention disclosed in the present application will be briefly described as follows.

【0049】本発明の学習処理過程と入力補正処理過程
とを有する文字列領域抽出方法によれば、傾斜による歪
みと回転の補正を2値画像における限定された領域に含
まれる黒画素に対してのみ行うので、処理速度が向上す
ることができる。
According to the character string area extraction method having the learning processing step and the input correction processing step of the present invention, the distortion and rotation due to the inclination are corrected for the black pixels included in the limited area in the binary image. Since only this is performed, the processing speed can be improved.

【0050】また、文字列の抽出、文字切り出し、文字
認識、単語照合を2値画像における限定された領域に対
してのみ行うので、処理速度か向上することができる。
Further, since the extraction of character strings, character segmentation, character recognition, and word collation are performed only on a limited area in the binary image, the processing speed can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態(実施例)の文字列領域抽
出装置の概略構成を示すブロック構成図である。
FIG. 1 is a block diagram showing a schematic configuration of a character string region extraction device according to an embodiment (example) of the present invention.

【図2】図1の文字列領域抽出装置による文字列領域抽
出方法の処理手順を示すフローチャートである。
FIG. 2 is a flowchart showing a processing procedure of a character string region extracting method by the character string region extracting device of FIG. 1;

【図3】要抽出領域テンプレートを作成するための学習
用サンプルの画像例の模式図である。
FIG. 3 is a schematic diagram of an example of an image of a learning sample for creating a required extraction area template;

【図4】本実施形態の要抽出領域テンプレートを作成す
る方法を説明するための図である。
FIG. 4 is a diagram for explaining a method of creating a required extraction area template according to the embodiment;

【図5】本実施形態の要抽出領域テンプレートを作成す
る方法を説明するための図である。
FIG. 5 is a diagram for explaining a method of creating a required extraction area template according to the embodiment.

【図6】本実施形態の要抽出領域テンプレートを作成す
る方法を説明するための図である。
FIG. 6 is a diagram for explaining a method of creating an extraction required area template according to the embodiment;

【図7】本実施形態の要抽出領域テンプレートを作成す
る方法を説明するための図である。
FIG. 7 is a diagram for explaining a method of creating a required extraction area template according to the embodiment;

【図8】本実施形態の単語照合で用いる単語辞書の内容
の例を示す図である。
FIG. 8 is a diagram showing an example of the contents of a word dictionary used in word matching according to the embodiment.

【図9】図7で抽出された各文字列領域に対して、文字
切り出し、文字認識、単語照合を行った結果を示す図で
ある。
FIG. 9 is a diagram showing a result of performing character segmentation, character recognition, and word collation for each character string region extracted in FIG. 7;

【図10】本実施形態の所属部署領域と氏名領域の文字
列領域を要抽出領域とした結果を示す図である。
FIG. 10 is a diagram showing a result of using a character string area of a department area and a name area according to the embodiment as a required extraction area.

【図11】本実施形態の文字列の位置や文字数が若干異
なることが予想されるため、この2つの領域の周囲に余
裕を取った例を示す図である。
FIG. 11 is a diagram showing an example in which a margin is provided around these two regions because the position of the character string and the number of characters are expected to be slightly different in the present embodiment.

【図12】本実施形態の入力処理過程を説明するための
図である。
FIG. 12 is a diagram for explaining an input processing process according to the embodiment;

【図13】本実施形態の入力処理過程を説明するための
図である。
FIG. 13 is a diagram for explaining an input processing process according to the embodiment;

【図14】本実施形態の入力処理過程を説明するための
図である。
FIG. 14 is a diagram illustrating an input processing process according to the embodiment.

【図15】本実施形態の入力処理過程を説明するための
図である。
FIG. 15 is a diagram for explaining an input processing process according to the embodiment;

【図16】従来の文字列領域抽出装置の概略構成を示す
ブロック構成図である。
FIG. 16 is a block diagram showing a schematic configuration of a conventional character string area extraction device.

【図17】従来の読み取り対象である名札の例を正面か
ら見た模式図である。
FIG. 17 is a schematic view of a conventional example of a name tag to be read as viewed from the front.

【図18】図17の内容を説明するための図である。FIG. 18 is a diagram for explaining the contents of FIG. 17;

【図19】図17の名札をカメラで撮影した画像の例の
模式図である。
19 is a schematic diagram of an example of an image obtained by photographing the name tag of FIG. 17 with a camera.

【図20】図19から名札の中の背景領域の画素だけを
抽出した画像を示す図である。
FIG. 20 is a diagram showing an image in which only the pixels in the background area in the name tag are extracted from FIG. 19;

【図21】名札に属する領域における背景画素以外の画
素を黒画素とし、残りを全て白画素で表した2値画像を
示す図である。
FIG. 21 is a diagram showing a binary image in which pixels other than the background pixel in a region belonging to a name tag are set as black pixels, and all the rest are expressed as white pixels.

【図22】図21の画像に対して傾斜による歪みと回転
を補正した画像である。
FIG. 22 is an image obtained by correcting distortion and rotation due to tilt with respect to the image of FIG. 21;

【図23】図22から文字列領域だけを抽出した結果を
示す図である。
FIG. 23 is a diagram showing a result of extracting only a character string region from FIG. 22;

【符号の説明】[Explanation of symbols]

1…要抽出領域テンプレート変形手段、2…カメラ、3
…文字プレート領域抽出手段、4…2値化手段、5…2
値画像傾斜/回転補正手段、6…傾斜/回転角度推定手
段、7…文字列領域抽出手段、8…文字切り出し認識手
段、9…単語照合手段、10…要抽出領域テンプレート
作成/格納手段、101…会社のマーク、102…社員
証、103…線分領域、104…写真領域、105…会
社名の文字列領域、106…所属部署名の文字列領域、
107…氏名の文字列領域、100…カメラ、200…
文字プレート領域抽出手段、300…2値化手段、40
0…2値画像傾斜/回転補正手段、500…文字列領域
抽出手段、600…傾斜/回転角度推定手段。
Reference numeral 1 denotes an extraction-required area template deforming means; 2 represents a camera;
... Character plate area extraction means, 4 ... Binarization means, 5 ... 2
Value image inclination / rotation correction means, 6 ... inclination / rotation angle estimation means, 7 ... character string area extraction means, 8 ... character cutout recognition means, 9 ... word collation means, 10 ... extraction area required template creation / storage means, 101 … Company mark, 102… Employee ID, 103… Line segment area, 104… Photo area, 105… Company name character string area, 106… Affiliation department name character string area,
107: Name character string area, 100: Camera, 200 ...
Character plate area extraction means, 300... Binarization means, 40
0: binary image inclination / rotation correction means, 500: character string area extraction means, 600: inclination / rotation angle estimation means.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 抽出すべき文字列の領域の位置情報を、
サンプルとして提示した3次元的な姿勢が分かっている
文字プレートの画像を分析することにより、自動的に抽
出し、この抽出された位置情報の2値化すべき領域を指
定する要抽出領域テンプレートを作成して格納する学習
処理過程と、入力対象である文字プレートの画像に対し
て、3次元的な姿勢と平面内の回転を推定し、画像の2
値化を行い、前記の学習処理過程により作成した要抽出
領域テンプレートの形状を、前記3次元的な姿勢と平面
内の回転に合わせて変形し、変形された要抽出領域テン
プレートの範囲内にある黒画素のみを対象として3次元
的な傾斜による歪みと平面内の回転の補正を行う入力補
正処理過程とを有することを特徴とする文字列領域抽出
方法。
1. Position information of a character string area to be extracted is
Analyze the image of the character plate whose three-dimensional posture is known, presented as a sample, to automatically extract it and create an extraction required area template that specifies the area to be binarized for the extracted position information. The learning process in which the three-dimensional posture and the rotation in the plane are estimated with respect to the image of the character plate to be input,
The shape of the extraction required area template created by the learning process is transformed according to the three-dimensional posture and the rotation in the plane, and is within the range of the deformed extraction required area template. A character string region extraction method, comprising: an input correction processing step of correcting distortion due to three-dimensional inclination and rotation in a plane only for black pixels.
【請求項2】 情景画像を撮影するカメラと、情景画像
に含まれる抽出すべき文字列の領域の位置情報を、サン
プルとして提示した3次元的な姿勢が分かっている文字
プレートの画像を分析することにより、自動的に抽出す
る文字プレート領域抽出手段と、この抽出された文字プ
レート領域の2値化すべき領域を指定する要抽出領域テ
ンプレートを作成して格納する要抽出領域テンプレート
作成/格納手段と、前記指定された文字プレート領域を
2値化する2値化手段と、入力対象である文字プレート
の画像に対して、3次元的な姿勢と平面内の回転を推定
する傾斜/回転角度推定手段と、画像の2値化を行い、
前記要抽出領域テンプレートの形状を、前記3次元的な
姿勢と平面内の回転に合わせて変形する要抽出領域テン
プレート変形手段と、変形された要抽出領域テンプレー
トの範囲内にある黒画素のみを対象として3次元的な傾
斜による歪みと平面内の回転の補正を行う2値画像傾斜
/回転補正手段とを有することを特徴とする文字列領域
抽出装置。
2. A camera that captures a scene image and an image of a character plate whose three-dimensional posture is known, which is presented as a sample, with position information of a character string area to be extracted included in the scene image being analyzed. Thereby, a character plate area extracting means for automatically extracting, and a required area template creating / storing means for creating and storing an extracted area template for designating an area to be binarized of the extracted character plate area Binarizing means for binarizing the designated character plate area, and inclination / rotation angle estimating means for estimating a three-dimensional attitude and rotation in a plane with respect to an image of the character plate to be input And binarize the image,
Means for changing the shape of the extraction-needed area template according to the three-dimensional posture and rotation in a plane; A character string region extraction device, comprising: a binary image inclination / rotation correction unit for correcting distortion due to three-dimensional inclination and rotation in a plane.
JP10107480A 1998-04-17 1998-04-17 Method and device for extracting character string area Pending JPH11306282A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10107480A JPH11306282A (en) 1998-04-17 1998-04-17 Method and device for extracting character string area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10107480A JPH11306282A (en) 1998-04-17 1998-04-17 Method and device for extracting character string area

Publications (1)

Publication Number Publication Date
JPH11306282A true JPH11306282A (en) 1999-11-05

Family

ID=14460295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10107480A Pending JPH11306282A (en) 1998-04-17 1998-04-17 Method and device for extracting character string area

Country Status (1)

Country Link
JP (1) JPH11306282A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022474A (en) * 2010-07-13 2012-02-02 Canon Electronics Inc Image processing method, portable information terminal and program
US10579859B2 (en) 2017-03-15 2020-03-03 Kabushiki Kaisha Toshiba Image processing apparatus, image processing system, image processing method, and program
JP2020527260A (en) * 2018-06-15 2020-09-03 ジョンアン インフォメーション テクノロジー サービシズ カンパニー リミテッド Text detection analysis methods, devices and devices

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022474A (en) * 2010-07-13 2012-02-02 Canon Electronics Inc Image processing method, portable information terminal and program
US10579859B2 (en) 2017-03-15 2020-03-03 Kabushiki Kaisha Toshiba Image processing apparatus, image processing system, image processing method, and program
JP2020527260A (en) * 2018-06-15 2020-09-03 ジョンアン インフォメーション テクノロジー サービシズ カンパニー リミテッド Text detection analysis methods, devices and devices

Similar Documents

Publication Publication Date Title
US8059868B2 (en) License plate recognition apparatus, license plate recognition method, and computer-readable storage medium
US8023725B2 (en) Identification of a graphical symbol by identifying its constituent contiguous pixel groups as characters
US8644616B2 (en) Character recognition
JP2940936B2 (en) Tablespace identification method
US11625871B2 (en) System and method for capturing and interpreting images into triple diagrams
JP2001266068A (en) Method and device for recognizing table, character- recognizing device, and storage medium for recording table recognizing program
CN112686265A (en) Hierarchic contour extraction-based pictograph segmentation method
JP2000207489A (en) Character extracting method and device and record medium
JP2011248702A (en) Image processing device, image processing method, image processing program, and program storage medium
CN112597940B (en) Certificate image recognition method and device and storage medium
CN108388898A (en) Character identifying method based on connector and template
JPWO2006080568A1 (en) CHARACTER READING DEVICE, CHARACTER READING METHOD, AND CHARACTER READING CONTROL PROGRAM USED FOR THE CHARACTER READING DEVICE
JPH11306282A (en) Method and device for extracting character string area
JP2012060452A (en) Image processor, method therefor and program
Bhaskar et al. Implementing optical character recognition on the android operating system for business cards
Prabaharan et al. Text extraction from natural scene images and conversion to audio in smart phone applications
CN109753981B (en) Image recognition method and device
CN113065559A (en) Image comparison method and device, electronic equipment and storage medium
Sami et al. Text detection and recognition for semantic mapping in indoor navigation
Sathish et al. Automatic road sign detection and recognition based on SIFT feature matching algorithm
CN112825141B (en) Method and device for recognizing text, recognition equipment and storage medium
Khan et al. Pre-Processing Images of Public Signage for OCR Conversion
Samuel et al. Automatic Text Segmentation and Recognition in Natural Scene Images Using Msocr
Velaga et al. A Prototype Device to Extract Text from Images, Videos and Document Files to Assist Visually Impaired People
Ganesh et al. Extraction of Text from Images of Big Data