JP2639489B2 - Image data extraction method - Google Patents
Image data extraction methodInfo
- Publication number
- JP2639489B2 JP2639489B2 JP3054039A JP5403991A JP2639489B2 JP 2639489 B2 JP2639489 B2 JP 2639489B2 JP 3054039 A JP3054039 A JP 3054039A JP 5403991 A JP5403991 A JP 5403991A JP 2639489 B2 JP2639489 B2 JP 2639489B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image component
- value
- area
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Image Analysis (AREA)
- Image Input (AREA)
- Processing Or Creating Images (AREA)
Description
【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION
【0001】[0001]
【産業上の利用分野】本発明は、文字,記号および図形
等の画像部品を含む画像のラスタデータからその画像部
品を抽出する画像データ抽出方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image data extracting method for extracting image parts from image raster data including image parts such as characters, symbols and figures.
【0002】[0002]
【従来の技術】通常、画像処理の技術分野においては、
ラスタデータで示される画像の中から文字,記号および
図形、あるいはそれらの集合体(例えば、熟語などの文
字群)等の特定の画像部品を抽出することがよく行われ
ており、その抽出した画像部品を、例えば、予め用意し
た標準パターンと比較することにより、そのパターン認
識による文字認識を行なっていた。こうした画像部品を
抽出する方法として、ラスタデータ上の画像部品を含む
領域をオペレータがコンピュータに指示することにより
半自動的に行うものがある。即ち、オペレータは、画像
が表示されたディスプレイを見つつ、ディジタイザやマ
ウス等を操作して、画像部品を内部に含む領域を画像の
ラスタデータ上に指示する。計算機では、ラスタデータ
からその指示を受けた領域を抽出する。2. Description of the Related Art Usually, in the technical field of image processing,
It is common to extract specific image components such as characters, symbols, and graphics, or a group thereof (for example, a group of characters such as idioms) from an image represented by raster data. By comparing a part with, for example, a standard pattern prepared in advance, character recognition by pattern recognition has been performed. As a method of extracting such image parts, there is a method of semi-automatically performing an operation instructing a computer to specify a region including image parts on raster data. That is, the operator operates a digitizer, a mouse, and the like while viewing the display on which the image is displayed, and designates an area including the image component on the raster data of the image. The computer extracts the area instructed from the raster data.
【0003】また、こうした画像部品の抽出と共に、そ
の画像部品がラスタデータ上でどちらの方向を向いてい
るかを示す方向に関する情報を与えることにより、抽出
した画像部品の利用性を高めている。例えば、抽出した
画像部品をパターン認識に用いる場合、その方向に関す
る情報から、方向に応じて傾いた文字の標準パターンを
選択することができ、標準パターンとの照合の精度を向
上させることができる。ところで、こうした画像部品の
方向に関する情報は、オペレータが画像部品を含む領域
を指定する際に、その前または後にディジタイザ、マウ
スあるいはキー操作によりコンピュータ入力される。[0003] In addition to the extraction of such image parts, the usability of the extracted image parts is enhanced by giving information on the direction indicating the direction of the image part on raster data. For example, when the extracted image component is used for pattern recognition, a standard pattern of a character inclined according to the direction can be selected from the information on the direction, and the accuracy of matching with the standard pattern can be improved. By the way, such information on the direction of the image component is input to the computer by a digitizer, a mouse, or a key operation before or after the operator specifies an area including the image component.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、こうし
た従来の技術では、オペレータは、画像部品の抽出のた
めの領域と、その画像部品の方向との両方を計算機に入
力する必要があり、操作性が悪いという問題があった。However, in such a conventional technique, it is necessary for an operator to input both an area for extracting an image part and a direction of the image part to a computer. There was a problem of bad.
【0005】本発明の画像データ抽出方法は、こうした
問題点に鑑みてなされたもので、画像部品を含む画像の
ラスタデータから画像部品を抽出する際の操作性の向上
を図ることを目的とする。[0005] The image data extraction method of the present invention has been made in view of the above problems, and has as its object to improve operability when extracting an image component from raster data of an image including the image component. .
【0006】[0006]
【課題を解決するための手段】このような目的を達成す
べく、前記課題を解決するための手段として、以下に示
す構成を取った。Means for Solving the Problems In order to achieve such an object, the following structure is adopted as means for solving the above problems.
【0007】即ち、本発明の画像データ抽出方法は、図
1に示すように、画像部品を含む画像のラスタデータか
ら該画像部品を抽出する画像データ抽出方法であって、
前記ラスタデータにおける前記画像部品を含む矩形の領
域を、該矩形の一つの対角線の両端となる2点にて指示
する領域指示工程S1と、該領域指示工程S1で指示さ
れた前記矩形の領域から前記画像部品を抽出すると共
に、該矩形の領域の指示の基となる前記2点を結ぶ線分
の傾きに基づいて前記画像部品の方向を算出する画像部
品抽出・方向算出工程S2とを備えることを、その要旨
としている。That is, the image data extracting method of the present invention, as shown in FIG. 1, is an image data extracting method for extracting an image component from raster data of an image including the image component.
An area specifying step S1 for specifying a rectangular area including the image component in the raster data at two points at both ends of one diagonal of the rectangle, and the rectangular area specified in the area specifying step S1 A line segment connecting the two points, which is used to extract the image part and indicate the rectangular area.
And an image component extraction / direction calculation step S2 for calculating the direction of the image component based on the inclination of the image component.
【0008】なお、ここでいう矩形とは、ラスタ走査に
より形成される長方形および正方形を意味する。上記構
成の画像データ抽出方法において、前記画像部品の方向
として、予め定めた4方向の内のいずれの方向に該当す
るかを定める構成とすることが可能である。 [0008] Incidentally, the rectangle here means a rectangle and a square formed by raster scanning. The above structure
In the method for extracting image data of
Corresponds to any one of the four predetermined directions.
Can be determined.
【0009】[0009]
【作用】以上のように構成された本発明の画像データ抽
出方法は、領域指示工程S1により、矩形の一つの対角
線の両端となる2点にてラスタデータにおける画像部品
を含む矩形の領域を指示し、画像部品抽出・方向算出工
程S2により、領域指示工程S1で指示されたその矩形
の領域から画像部品を抽出すると共に、その矩形の領域
の指示の基となる前記2点を結ぶ線分の傾きに基づいて
画像部品の方向を算出する。According to the image data extracting method of the present invention constructed as described above, in the area specifying step S1, a rectangular area including image parts in raster data is specified at two points at both ends of one diagonal of the rectangle. Then, in the image part extraction / direction calculation step S2, an image part is extracted from the rectangular area specified in the area specifying step S1, and a line segment connecting the two points serving as the basis of the rectangular area instruction is obtained . The direction of the image component is calculated based on the inclination .
【0010】また、前記画像部品の方向として、予め定
めた4方向の内のいずれの方向に該当するかを定める構
成とした構成においては、以下に示す4つのモードが考
えられる。即ち、2点を一つの対角線の両端として形成
される矩形が縦長となるモードと、横長となるモードと
があり、さらには、それぞれのモードに対して、2点を
結んだ線分、即ち矩形の一つの対角線が右下がりになる
モードと左下がりになるモードとがあり、合計4つのモ
ードが考えられる。これらの4つのモードに対して、画
像部品の4方向、例えば、正立方向、倒立方向、右向き
方向、左向き方向を予め対応させて、その約束の下に2
点が指示されることにより、その2点を結ぶ線分の傾き
に基づいて画像部品の方向を算出するように働く。 Also, the direction of the image component is determined in advance.
To determine which of the four directions
The following four modes are conceivable in the configuration that has been completed . That is, there are a mode in which a rectangle formed by setting two points at both ends of one diagonal line is vertically long, and a mode in which the rectangle is horizontally long. Further, for each mode, a line segment connecting the two points, that is, a rectangle There is a mode in which one of the diagonal lines goes down to the right and a mode in which it goes down to the left. A total of four modes can be considered. For these four modes, four directions of the image component, for example, the upright direction, the inverted direction, the rightward direction, and the leftward direction are previously associated, and two
When a point is specified, it works to calculate the direction of the image component based on the inclination of the line connecting the two points.
【0011】[0011]
【実施例】以上説明した本発明の構成・作用を一層明ら
かにするために、以下本発明の画像データ抽出方法を適
用する好適な実施例について説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS In order to further clarify the configuration and operation of the present invention described above, a preferred embodiment to which the image data extracting method of the present invention is applied will be described below.
【0012】図2は本発明の一実施例としての画像デー
タ抽出方法を適用したパターン認識装置の概略構成を示
すブロック図である。同図に示すように、このパターン
認識装置は、周知のCPU1,ROM3,RAM5を備
えた処理ユニット10と、原稿上の画像をラスタデータ
として読み込むイメージスキャナ12と、パターン認識
の指示やラスタデータの表示を行なう対話端末機14
と、各種データを格納する外部記憶装置としての磁気デ
ィスク装置16とから構成されている。FIG. 2 is a block diagram showing a schematic configuration of a pattern recognition apparatus to which an image data extracting method according to one embodiment of the present invention is applied. As shown in FIG. 1, the pattern recognition apparatus includes a processing unit 10 having a well-known CPU 1, a ROM 3, and a RAM 5, an image scanner 12 for reading an image on a document as raster data, a pattern recognition instruction and raster data. Interactive terminal 14 for display
And a magnetic disk device 16 as an external storage device for storing various data.
【0013】処理ユニット10は、算術論理演算回路と
して構成されており、ROM3に格納されたプログラム
に従って処理を行なうCPU1は、コモンバス17を介
して、イメージスキャナ12に直結された画像入力ポー
ト20、対話端末機14に直結された端末制御部22お
よび磁気ディスク装置16に直結されたディスク制御部
24に接続されている。The processing unit 10 is configured as an arithmetic and logic operation circuit. The CPU 1 that performs processing according to a program stored in the ROM 3 has an image input port 20 directly connected to the image scanner 12 via a common bus 17, It is connected to a terminal control unit 22 directly connected to the terminal 14 and a disk control unit 24 directly connected to the magnetic disk device 16.
【0014】イメージスキャナ12は、ドラムに載置さ
れた原稿12a上の画像を光学的にスキャンし白黒の二
値情報として画像データを読み取り、その二値情報をラ
ンレングス形式で表現して出力するものである。原稿1
2a上の画像は、文字,記号,図形等の画像部品を含む
線画からなる。対話端末機14は、各種処理を指示する
キーボード(図示せず)、マウス14a等と、その処理
結果を表示するCRTディスプレイ14bとを備えてい
る。磁気ディスク装置16は、文字,図形等の画像部品
の認識用の標準パターンを集めた辞書16aを予め格納
している。The image scanner 12 optically scans an image on a document 12a placed on a drum, reads image data as binary black and white information, and expresses and outputs the binary information in a run-length format. Things. Manuscript 1
The image on 2a is a line drawing including image parts such as characters, symbols, and figures. The interactive terminal 14 includes a keyboard (not shown) for instructing various processes, a mouse 14a, and the like, and a CRT display 14b for displaying the results of the processes. The magnetic disk device 16 stores in advance a dictionary 16a in which standard patterns for recognizing image parts such as characters and figures are collected.
【0015】CPU1は、対話端末機14からの指示に
より、イメージスキャナ12が読み取った画像のラスタ
データを磁気ディスク装置16に格納すると共に、その
ラスタデータから文字,記号,図形等の画像部品を抽出
して、その画像部品を磁気ディスク装置16に格納され
た辞書16aの標準パターンと照合し、その照合結果
を、磁気ディスク装置16、あるいは対話端末機14の
CRTディスプレイ14bに出力する。対話端末機14
は、こうした一連のパターン認識作業を処理ユニット1
0に指示すると共に、そのパターン認識作業で必要とな
る領域指示点を入力する。The CPU 1 stores raster data of an image read by the image scanner 12 in the magnetic disk device 16 in accordance with an instruction from the interactive terminal 14, and extracts image parts such as characters, symbols, and figures from the raster data. Then, the image part is collated with the standard pattern of the dictionary 16a stored in the magnetic disk device 16, and the collation result is output to the magnetic disk device 16 or the CRT display 14b of the interactive terminal 14. Interactive terminal 14
Performs such a series of pattern recognition operations in the processing unit 1.
0, and an area point required for the pattern recognition work is input.
【0016】次に、処理ユニット10が行なうパターン
認識作業の詳細について、図3ないし図5のフローチャ
ートに従って説明する。処理ユニット10は、処理を開
始すると、まず画像を入力する処理を行なう(ステップ
100)。この画像入力は、イメージスキャナ12から
読み取ったランレングス表現されたラスタデータを画像
入力ポート20を介して取り込んで、RAM5の所定の
領域に展開することより行なわれる。次いで、この画像
データを磁気ディスク装置16の所定領域へ格納し、ま
た、CRTディスプレイに出力し表示する処理を行なう
(ステップ200,ステップ300)。Next, details of the pattern recognition work performed by the processing unit 10 will be described with reference to the flowcharts of FIGS. When the processing unit 10 starts processing, it first performs processing for inputting an image (step 100). This image input is performed by taking in the run-length-rendered raster data read from the image scanner 12 through the image input port 20 and developing the raster data in a predetermined area of the RAM 5. Next, the image data is stored in a predetermined area of the magnetic disk device 16, and is output to and displayed on a CRT display (steps 200 and 300).
【0017】続いて、ステップ100でRAM5に展開
されたラスタデータから文字,記号,図形等の画像部品
を抽出する画像部品抽出処理を行なう(ステップ40
0)。画像部品抽出処理においては、図4に示すよう
に、まず、マウス14aから入力される2つの領域指示
点P1,P2を読み取る(ステップ410)。ここで、
マウス14aを用いてどのように領域指示点P1,P2
が入力されるかを説明する。オペレータは、画像が表示
されたCRTディスプレイ14bを見つつ、マウス14
aを操作して、その領域指示点P1,P2の入力を行な
うが、詳しくは、図6に示すように、CRTディスプレ
イ14bの画面G上において、2点を結ぶ線分を対角線
とする矩形(破線で示した)を形成したとき、その矩形
の領域の内部に「ア」の文字等の画像部品が含まれるよ
うに、2点、即ち2つの領域指示点P1,P2の入力を
行なう。Subsequently, an image part extraction process for extracting image parts such as characters, symbols and figures from the raster data developed in the RAM 5 in step 100 is performed (step 40).
0). In the image part extraction process, as shown in FIG. 4, first, two area designation points P1 and P2 input from the mouse 14a are read (step 410). here,
How the mouse 14a is used to specify the area designated points P1, P2
Will be described. The operator looks at the CRT display 14b on which the image is displayed, and
A is operated to input the area designating points P1 and P2. More specifically, as shown in FIG. 6, a rectangle (a diagonal line connecting two points) is displayed on the screen G of the CRT display 14b. When an area (shown by a broken line) is formed, two points, that is, two area designating points P1 and P2 are input so that an image part such as the character "A" is included in the rectangular area.
【0018】続いて、ステップ410で読み取った領域
指示点P1,P2が、画像データ,即ち、ラスタデータ
上でどの位置に対応するかを座標値(x1,y1),(x
2,y2)として算出する(ステップ420)。その後、
その領域指示点P1,P2を対角線とする矩形をその画
像データ上に形成し、その矩形のかど部の4点の座標値
(x1,y1),(x1,y2),(x2,y1),(x2,
y2)を算出する(ステップ430)。Subsequently, the coordinates (x1, y1), (x1) are used to determine to which position the area designated points P1, P2 read in step 410 correspond on the image data, ie, the raster data.
2, y2) (step 420). afterwards,
A rectangle having the area indicating points P1 and P2 as diagonal lines is formed on the image data, and coordinate values (x1, y1), (x1, y2), (x2, y1), (x1, y2) of four points of a corner portion of the rectangle are formed. (X2,
y2) is calculated (step 430).
【0019】続いて、その形成した矩形の内部に含まれ
る画像部品に外接する領域を抽出する(ステップ44
0)。詳しくは、その矩形内部に含まれる画像部品のx
座標方向の最小値Xmin および最大値Xmax と、y座標
方向の最小値Ymin および最大値Ymax とを算出し、そ
れらの値を4隅とする矩形を抽出することにより、前記
画像部品の外接領域を抽出する。続いて、ステップ43
0で算出した座標値から (y2 −y1 )/(x2 −x1 ) の値を計算し変数Tに代入する(ステップ450)。Subsequently, an area circumscribing the image component included in the formed rectangle is extracted (step 44).
0). Specifically, x of the image part contained in the rectangle
By calculating a minimum value Xmin and a maximum value Xmax in the coordinate direction and a minimum value Ymin and a maximum value Ymax in the y coordinate direction, and extracting a rectangle having these values as four corners, the circumscribed area of the image component can be calculated. Extract. Then, step 43
The value of (y2-y1) / (x2-x1) is calculated from the coordinate values calculated at 0 and substituted into the variable T (step 450).
【0020】その後、変数Tが所定値th(例えば、値
1)の負の値より小さいか否かを判定する(ステップ4
60)。ここで、小さいと判定された場合に、変数MO
Dに値3を代入する(ステップ462)。一方、変数T
が所定値thの負の値より小さくないと判定された場
合、続いて、変数Tが値0より小さいか否かを判定する
(ステップ470)。ここで、小さいと判定された場合
に、変数MODに値1を代入する(ステップ472)。
一方、変数Tが値0より小さくないと判定された場合、
更に、変数Tが所定値thより小さいか否かを判定する
(ステップ480)。ここで、小さいと判定された場合
に、変数MODに値2を代入する(ステップ482)。
一方、変数Tが所定値thより小さくないと判定された
場合、変数MODに値4を代入する(ステップ48
4)。Thereafter, it is determined whether or not the variable T is smaller than a negative value of a predetermined value th (for example, value 1) (step 4).
60). Here, if it is determined to be smaller, the variable MO
The value 3 is substituted for D (step 462). On the other hand, the variable T
Is smaller than the negative value of the predetermined value th, it is determined whether the variable T is smaller than 0 (step 470). Here, when it is determined that the value is smaller, the value 1 is substituted for the variable MOD (step 472).
On the other hand, when it is determined that the variable T is not smaller than the value 0,
Further, it is determined whether or not the variable T is smaller than a predetermined value th (step 480). Here, when it is determined that the value is smaller, the value 2 is substituted for the variable MOD (step 482).
On the other hand, when it is determined that the variable T is not smaller than the predetermined value th, the value 4 is substituted for the variable MOD (step 48).
4).
【0021】即ち、ステップ460ないし484の処理
によれば、 T<−thのとき、 変数MODは値3、 −th≦T<0のとき、変数MODは値1、 0≦T<thのとき、 変数MODは値2、 th≦Tのとき、 変数MODは値4 となる。その後、処理は「リターン」に移り、画像部品
抽出処理は一旦終了する。That is, according to the processing of steps 460 to 484, when T <-th, the variable MOD has a value of 3, when -th≤T <0, when the variable MOD has a value of 1, and when 0≤T <th. The variable MOD has a value of 2 and the variable MOD has a value of 4 when th ≦ T. Thereafter, the processing shifts to “return”, and the image component extraction processing ends once.
【0022】ここで、T<−thの場合,−th≦T<
0の場合、0≦T<thの場合,th≦Tの場合の意味
を次に説明する。図7(a)に示すように、領域指示点
P1,P2に基づいて形成される矩形が横長の長方形
で、両指示点P1,P2を結ぶ矩形の対角線が右下がり
(=左上がり)である場合、(y2 −y1 )/(x2 −
x1 )で求まる変数Tの値が−th以上で値0未満とな
り、変数MODは値1となる。Here, when T <-th, -th ≦ T <
The meaning of 0, 0 ≦ T <th, and th ≦ T will be described next. As shown in FIG. 7A, a rectangle formed on the basis of the region indicating points P1 and P2 is a horizontally long rectangle, and a diagonal line of the rectangle connecting both the indicating points P1 and P2 is lower right (= left upper). In this case, (y2-y1) / (x2-
The value of the variable T determined by x1) is equal to or more than -th and less than 0, and the value of the variable MOD is 1.
【0023】また、図7(b)に示すように、領域指示
点P1,P2に基づいて形成される矩形が横長の長方形
で、両指示点P1,P2を結ぶ矩形の対角線が左下がり
(=右上がり)である場合、前記変数Tの値が値0以上
でth未満となり、変数MODは値2となる。図7
(c)に示すように、領域指示点P1,P2に基づいて
形成される矩形が縦長の長方形で、両指示点P1,P2
を結ぶ矩形の対角線が右下がり(=左上がり)の場合、
前記変数Tの値が−th未満となり、変数MODは値3
となる。図7(d)に示すように、領域指示点P1,P
2に基づいて形成される矩形が縦長の長方形で、両指示
点P1,P2を結ぶ矩形の対角線が左下がり(=右上が
り)の場合、前記変数Tの値が値th以上となり、変数
MODは値4となる。As shown in FIG. 7 (b), a rectangle formed based on the region pointing points P1 and P2 is a horizontally long rectangle, and a diagonal line of the rectangle connecting both the pointing points P1 and P2 is lowered to the left (= In the case of (upward right), the value of the variable T is equal to or greater than 0 and less than th, and the variable MOD is equal to 2. FIG.
As shown in (c), the rectangle formed on the basis of the region pointing points P1 and P2 is a vertically long rectangle, and the two pointing points P1 and P2
If the diagonal of the rectangle connecting
The value of the variable T is less than -th, and the variable MOD has a value of 3
Becomes As shown in FIG. 7D, the region designation points P1, P
2 is a vertically long rectangle, and the diagonal line of the rectangle connecting the two designated points P1 and P2 is lower left (= right upper), the value of the variable T is equal to or greater than the value th, and the variable MOD is The value is 4.
【0024】このようにしたことから、領域指示点P
1,P2の指示の仕方によって、4つのモードを選択す
ることができる。そこで、オペレータは、抽出しようと
する画像部品が正立方向か、倒立方向か、右向き方向
か、左向き方向か(図8参照)を判断し、各方向を4つ
のモードのそれぞれに対応させて、領域指示点P1,P
2の入力を行なうようにすれば、領域の指示と同時に画
像部品の方向も指示することができる。なお、各モード
の境界値は、隣接する他方のモードに属する様に適宜変
更しても、処理には何等支障はない。From the above, the region indicating point P
Four modes can be selected according to the instruction method of 1, P2. Therefore, the operator determines whether the image component to be extracted is the upright direction, the inverted direction, the rightward direction, or the leftward direction (see FIG. 8), and associates each direction with each of the four modes. Area indication points P1, P
By inputting 2, the direction of the image component can be specified at the same time as the specification of the area. Even if the boundary value of each mode is appropriately changed so as to belong to the other adjacent mode, there is no problem in the processing.
【0025】即ち、抽出しようとする画像部品が正立方
向の場合、図7(a)に示すような横長の長方形で、領
域指示点P1,P2を結ぶ矩形の対角線が右下がりとな
るように、両指示点P1,P2の入力を行なうようにす
れば、変数MODに正立を意味する値1を記憶させるこ
とができる。また、画像部品が倒立方向の場合、図7
(b)に示すような横長の長方形で、領域指示点P1,
P2を結ぶ矩形の対角線が左下がりとなるように、両指
示点P1,P2の入力を行なうようにすれば、変数MO
Dに倒立を意味する値2を記憶させることができる。画
像部品が右向き方向の場合、図7(c)に示すような縦
長の長方形で、領域指示点P1,P2を結ぶ矩形の対角
線が右下がりとなるように、両指示点P1,P2の入力
を行なうようにすれば、変数MODに右向きを意味する
値3を記憶させることができる。また、画像部品が左向
き方向の場合、図7(d)に示すような縦長の長方形
で、領域指示点P1,P2を結ぶ矩形の対角線が左下が
りとなるように、両指示点P1,P2の入力を行なうよ
うにすれば、変数MODに左向きを意味する値4を記憶
させることができる。That is, when the image part to be extracted is in the erect direction, the diagonal line of the rectangle connecting the area designating points P1 and P2 becomes a right-downward rectangle as shown in FIG. By inputting the two designated points P1 and P2, the value 1 meaning erect can be stored in the variable MOD. When the image component is in the inverted direction, FIG.
A horizontally long rectangle as shown in FIG.
By inputting the two designated points P1 and P2 so that the diagonal line of the rectangle connecting P2 becomes lower left, the variable MO
D can be stored with a value of 2 which means inverted. When the image component is in the rightward direction, the input of both pointing points P1 and P2 is performed so that the diagonal of the rectangle connecting the area pointing points P1 and P2 is a vertically long rectangle as shown in FIG. By doing so, the value 3 meaning rightward can be stored in the variable MOD. When the image component is directed leftward, the two pointing points P1 and P2 are vertically elongated rectangles as shown in FIG. 7D so that the diagonal of the rectangle connecting the area pointing points P1 and P2 becomes lower left. If an input is made, the value 4 meaning leftward can be stored in the variable MOD.
【0026】ところで、画像部品が極めて縦長や横長で
ある場合には、MODの1と3、MODの2と4が混同
する恐れがあるので、どの場合の画像部品に対しても、
正立させて見た場合の矩形領域の底辺(=上辺)が他の
辺より長くなる様に領域指示点P1,P2を指示する必
要がある。このとき、特に字間が狭く、P1,P2の指
示点が他の画像部品との関係で自ら制限される場合は、
オペレータがその場合のMOD値をキーボードから入力
指定すればよい。When the image parts are extremely vertically or horizontally long, the MODs 1 and 3 and the MODs 2 and 4 may be confused with each other.
It is necessary to designate the region designation points P1 and P2 such that the bottom side (= upper side) of the rectangular area when viewed upright is longer than the other sides. At this time, if the character spacing is particularly narrow and the designated points of P1 and P2 are restricted by themselves in relation to other image parts,
The operator may input and specify the MOD value in that case from the keyboard.
【0027】画像部品抽出処理が終了すると、続いて、
その抽出した画像部品がどのような文字,記号または図
形であるかの認識処理を汎用されるパターン認識処理に
より行なう(ステップ500)。When the image component extraction processing is completed,
Recognition processing of what characters, symbols or graphics the extracted image parts are is performed by a general-purpose pattern recognition processing (step 500).
【0028】認識処理においては、図5に示すように、
変数MODが値1か、値2か、値3か、あるいはそれ以
外かを判定する(ステップ510,520,530)。
ステップ510で、値1と判定された場合、抽出した画
像部品は正立方向であることを意味することから、その
まま処理はステップ570に進む。In the recognition process, as shown in FIG.
It is determined whether the variable MOD is value 1, value 2, value 3, or any other value (steps 510, 520, 530).
If it is determined in step 510 that the value is 1, it means that the extracted image component is in the erect direction, and the process proceeds to step 570 as it is.
【0029】一方、ステップ520で、変数MODが値
2と判定された場合には、抽出した画像部品は倒立方向
であることを意味することから、ステップ440で抽出
した画像部品の外接領域全体を180度回転する(ステ
ップ540)。また、ステップ530で、変数MODが
値3と判定された場合には、抽出した画像部品は右向き
方向であることを意味することから、ステップ440で
抽出した画像部品の外接領域全体を反時計回りに90度
回転する(ステップ550)。ステップ530で、変数
MODが値3でもない、即ち値4であると判定された場
合には、抽出した画像部品は左向き方向であることを意
味することから、ステップ440で抽出した画像部品の
外接領域全体を時計回りに90度回転する(ステップ5
60)。ステップ540,550または560の実行
後、処理はステップ570に進む。On the other hand, if the variable MOD is determined to be the value 2 in step 520, it means that the extracted image part is in the inverted direction, so that the entire circumscribed area of the image part extracted in step 440 is Rotate 180 degrees (step 540). If it is determined in step 530 that the variable MOD has the value 3, it means that the extracted image component is in the rightward direction. Therefore, the entire circumscribed region of the image component extracted in step 440 is rotated counterclockwise. (Step 550). If it is determined in step 530 that the variable MOD is not the value 3, that is, the value is 4, it means that the extracted image component is in the leftward direction. Rotate the entire area 90 degrees clockwise (step 5
60). After execution of step 540, 550 or 560, the process proceeds to step 570.
【0030】ステップ510ないし560の処理の内容
を、図式化したものが図8である。同図に示すように、
ステップ510ないし560の処理によれば、画像部品
が正立方向の場合、画像部品の外接領域全体を回転なし
でそのままとし、画像部品が倒立方向の場合、その外接
領域全体を180度回転する。また、画像部品が右向き
方向の場合、その外接領域全体を反時計回りに90度回
転し、画像部品が左向き方向の場合、その外接領域全体
を時計回りに90度回転する。FIG. 8 schematically shows the contents of the processing of steps 510 to 560. As shown in the figure,
According to the processing of steps 510 to 560, when the image component is in the upright direction, the entire circumscribed region of the image component is kept without rotation, and when the image component is in the inverted direction, the entire circumscribed region is rotated by 180 degrees. When the image component is in the rightward direction, the entire circumscribed region is rotated counterclockwise by 90 degrees, and when the image component is in the leftward direction, the entire circumscribed region is rotated clockwise by 90 degrees.
【0031】なお、こうした画像データの回転処理は、
幾何学的変換処理であるアフィン変換(affine transfo
rmatinon)により行なうようにしてもよく、アフィン変
換の詳しい説明については、例えば技術評論社出版の
「画像処理の基本技法」を参照するものとして、ここで
は省略する。Incidentally, the rotation processing of the image data is as follows.
Affine transfo, a geometric transformation process
rmatinon), and a detailed description of the affine transformation will be omitted here as it refers to, for example, “Basic Techniques for Image Processing” published by Technical Review Company.
【0032】ステップ570では、こうして画像部品が
正立した状態の外接領域全体から、画像部品の線密度等
の様々な特徴を数式化した特徴データを作成する処理を
行なう。続いて、その作成した特徴データを、各文字,
図形等の特徴データに相当する、辞書16aに格納され
た標準パターンと照合するパターン認識処理を行なう
(ステップ580)。In step 570, processing is performed to create feature data in which various features such as the linear density of the image component are expressed as mathematical expressions, from the entire circumscribed region where the image component is erected. Then, the created feature data is
A pattern recognition process for collating with a standard pattern stored in the dictionary 16a corresponding to feature data such as a figure is performed (step 580).
【0033】ステップ580の照合処理の実行後、処理
は「リターン」に移り、図5に示した認識処理は一旦終
了する。認識処理が終了すると、続いて、ステップ58
0の照合結果を、磁気ディスク装置16、あるいは対話
端末機14のCRTディスプレイ14bに出力する(ス
テップ600)。出力される照合結果は、画像部品と一
致する標準パターンがある場合、その標準パターンを特
定する認識コードであり、一方、一致するものがない場
合には、認識不可能であった旨を示すエラーコードであ
る。その後、本パターン認識作業は「エンド」に抜け
て、終了する。After the execution of the collation processing in step 580, the processing shifts to "return", and the recognition processing shown in FIG. Upon completion of the recognition process, the process proceeds to step 58.
The comparison result of 0 is output to the magnetic disk device 16 or the CRT display 14b of the interactive terminal 14 (step 600). The matching result that is output is a recognition code that identifies the standard pattern when there is a standard pattern that matches the image part. On the other hand, when there is no matching pattern, an error indicating that recognition was not possible Code. Thereafter, the pattern recognition work ends at “END” and ends.
【0034】以上のように構成された本実施例のパター
ン認識装置によれば、領域指示工程S1に相当するステ
ップ410ないし430の処理と画像部品抽出・方向算
出工程S2に相当するステップ440ないし484の処
理とを実行することにより、2つの領域指示点P1,P
2をマウス14aから入力するだけで、画像部品に外接
する領域の抽出と同時に画像部品の方向を示す変数MO
Dも求めることができる。したがって、画像部品抽出後
の別処理で画像部品の方向が必要となったときに、改め
て画像部品の方向の入力を行なう必要がなく、操作性に
優れている。According to the pattern recognition apparatus of the present embodiment configured as described above, the processing of steps 410 to 430 corresponding to the area designating step S1 and the steps 440 to 484 corresponding to the image component extracting / direction calculating step S2. By executing the processing of (1) and (2), the two area indication points P1 and P
2 from the mouse 14a, a variable MO indicating the direction of the image part is obtained at the same time as extracting the area circumscribing the image part.
D can also be determined. Therefore, when the direction of the image component is required in another process after the extraction of the image component, it is not necessary to input the direction of the image component again, and the operability is excellent.
【0035】また、本実施例の場合、画像部品と標準パ
ターンとの照合に際して、画像部品の方向を前記変数M
ODから知り、画像部品を正立状態に変換した上でその
照合を行なうように構成されているため、辞書16aに
格納する標準パターンは一画像部品に対して、正立した
一方向のものだけでよく、辞書16aの容量、即ち、磁
気ディスク装置16の使用容量を削減することができ
る。In the case of the present embodiment, the direction of the image component is set to the variable M when comparing the image component with the standard pattern.
Since it is configured to know from the OD and convert the image component into an erect state and then perform the matching, the standard pattern stored in the dictionary 16a is only one erect one-way pattern for one image component. Thus, the capacity of the dictionary 16a, that is, the used capacity of the magnetic disk device 16 can be reduced.
【0036】なお、前記実施例では、画像部品として
「ア」の文字を例に掲げて説明したが、画像部品は、勿
論、「¥」,「$」等の記号であってもよく、図6に示
した王冠のシンボルSI等の図形やそれらの集合体であ
ってもよい。また、前記実施例では、抽出した画像部品
を正立状態に変換した上でその照合を行なうように構成
されていたが、これに替えて、抽出した画像部品の方向
はそのままで、画像部品の方向を表わす変数MODに応
じて照合する標準パターンの辞書を、予め用意した正立
用、倒立用、右向き用、左向き用の4種類の辞書から選
択して照合処理を行なうように構成してもよい。In the above embodiment, the character "A" has been described as an example of an image part. However, the image part may of course be a symbol such as "¥" or "$". The figure may be a figure such as the crown symbol SI shown in FIG. 6 or an aggregate thereof. Further, in the above-described embodiment, the extracted image parts are configured to be converted into the erect state and then the comparison is performed. However, instead of this, the direction of the extracted image parts is kept as it is, The dictionary of the standard pattern to be collated according to the variable MOD representing the direction may be selected from four types of dictionaries prepared in advance, erect, inverted, rightward, and leftward, and the matching process may be performed. Good.
【0037】以上本発明の一実施例について説明した
が、本発明はこうした実施例に何等限定されるものでは
なく、算出した画像部品の方向をパターン認識ではなく
別用途に利用した構成等、本発明の要旨を逸脱しない範
囲において、種々なる態様で実施し得ることは勿論であ
る。Although one embodiment of the present invention has been described above, the present invention is not limited to such an embodiment, and the present invention is not limited to this embodiment. It goes without saying that the present invention can be carried out in various modes without departing from the gist of the invention.
【0038】[0038]
【発明の効果】以上詳述したように、本発明の画像デー
タ抽出方法によれば、画像部品を含む矩形の領域を2点
にて指示するだけで、画像部品の抽出と同時に画像部品
の方向をも求めることができる。したがって、画像部品
抽出後の別処理で画像部品の方向が必要となったとき
に、改めて画像部品の方向の入力を行なう必要がなく、
操作性に優れている。As described above in detail, according to the image data extracting method of the present invention, the direction of the image component is simultaneously detected with the extraction of the image component only by designating the rectangular area including the image component at two points. Can also be requested. Therefore, when the direction of the image component is required in another process after the extraction of the image component, it is not necessary to input the direction of the image component again,
Excellent operability.
【図1】本発明の基本的構成を例示するフローチャート
である。FIG. 1 is a flowchart illustrating a basic configuration of the present invention.
【図2】本発明の一実施例としての画像データ抽出方法
を適用したパターン認識装置の概略構成を示すブロック
図である。FIG. 2 is a block diagram showing a schematic configuration of a pattern recognition device to which an image data extraction method as one embodiment of the present invention is applied.
【図3】パターン認識装置の処理ユニット10にて実行
されるパターン認識作業を示すフローチャートである。FIG. 3 is a flowchart showing a pattern recognition operation performed by a processing unit 10 of the pattern recognition device.
【図4】そのパターン認識作業における画像部品抽出処
理を示すフローチャートである。FIG. 4 is a flowchart showing an image part extraction process in the pattern recognition work.
【図5】そのパターン認識作業における認識処理を示す
フローチャートである。FIG. 5 is a flowchart showing a recognition process in the pattern recognition work.
【図6】そのパターン認識作業でオペレータが入力する
領域指示点を表わす説明図である。FIG. 6 is an explanatory diagram showing an area designated point input by an operator in the pattern recognition work.
【図7】領域指示点の指示の仕方の4つのモードをそれ
ぞれ表わす説明図である。FIG. 7 is an explanatory diagram showing four modes of how to designate an area designated point.
【図8】方向の異なる画像部品を正立方向の画像部品に
変換する方法を表わす説明図である。FIG. 8 is an explanatory diagram illustrating a method of converting image components in different directions into image components in an erect direction.
S1 領域指示工程 S2 方向算出工程 1 CPU 10 処理ユニット 12 イメージスキャナ 14 対話端末機 14a マウス 16 磁気ディスク装置 16a 辞書 P1,P2 領域指示点 S1 area designation step S2 direction calculation step 1 CPU 10 processing unit 12 image scanner 14 interactive terminal 14a mouse 16 magnetic disk device 16a dictionary P1, P2 area designation point
Claims (2)
該画像部品を抽出する画像データ抽出方法であって、 前記ラスタデータにおける前記画像部品を含む矩形の領
域を、該矩形の一つの対角線の両端となる2点にて指示
する領域指示工程と、 該領域指示工程で指示された前記矩形の領域から前記画
像部品を抽出すると共に、該矩形の領域の指示の基とな
る前記2点を結ぶ線分の傾きに基づいて前記画像部品の
方向を算出する画像部品抽出・方向算出工程とを備える
ことを特徴とする画像データ抽出方法。1. An image data extraction method for extracting an image component from raster data of an image including the image component, the method comprising: extracting a rectangular region including the image component in the raster data into two ends of one diagonal of the rectangle. An area designating step of designating two points, and a line connecting the two points serving as a basis for designating the rectangular area while extracting the image component from the rectangular area designated in the area designating step An image component extraction / direction calculation step of calculating a direction of the image component based on a minute inclination .
4方向の内のいずれの方向に該当するかを定める構成でWith a configuration that determines which of the four directions corresponds to
ある請求項1記載の画像データ抽出方法。The image data extraction method according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3054039A JP2639489B2 (en) | 1991-02-25 | 1991-02-25 | Image data extraction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3054039A JP2639489B2 (en) | 1991-02-25 | 1991-02-25 | Image data extraction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04268977A JPH04268977A (en) | 1992-09-24 |
JP2639489B2 true JP2639489B2 (en) | 1997-08-13 |
Family
ID=12959452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3054039A Expired - Lifetime JP2639489B2 (en) | 1991-02-25 | 1991-02-25 | Image data extraction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2639489B2 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02249072A (en) * | 1989-03-22 | 1990-10-04 | Nec Software Ltd | Graphic data rotating system |
-
1991
- 1991-02-25 JP JP3054039A patent/JP2639489B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH04268977A (en) | 1992-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5416849A (en) | Data processing system and method for field extraction of scanned images of document forms | |
US4952920A (en) | Display apparatus having horizontal/vertical conversion display functions | |
JP2009116825A (en) | Information processing apparatus and information processing method | |
JP3571128B2 (en) | Method and apparatus for recognizing dimensions of drawings | |
JP2639489B2 (en) | Image data extraction method | |
US5563964A (en) | Method and apparatus for processing a plurality of designated areas of an image | |
JPS644189B2 (en) | ||
JP2686479B2 (en) | Graphic identification code input device | |
JP2803736B2 (en) | Character recognition method | |
JP4297815B2 (en) | Information processing apparatus, processing method, program, and recording medium | |
JP2728669B2 (en) | External character editing device | |
JP3082467B2 (en) | Outline data processing device | |
JP2578965B2 (en) | Graphic processing unit | |
JPH09120430A (en) | Image processor | |
JPH06259526A (en) | Electronic filing system | |
JP3635174B2 (en) | Support device for graphic input work | |
JP3761923B2 (en) | Image processing apparatus and method | |
JP2937607B2 (en) | Layout creation device | |
JPH1069520A (en) | Character recognition method and recording medium recording program | |
JP2909072B2 (en) | Document processing method and apparatus | |
JPH0962849A (en) | Printer device | |
JPS61131082A (en) | Rejected character display system of ocr | |
JP2954218B2 (en) | Image processing method and apparatus | |
JP3024033B2 (en) | Image processing device | |
JP2830113B2 (en) | Drawing input method |