JPH06215179A - Method and device for processing image - Google Patents

Method and device for processing image

Info

Publication number
JPH06215179A
JPH06215179A JP5006034A JP603493A JPH06215179A JP H06215179 A JPH06215179 A JP H06215179A JP 5006034 A JP5006034 A JP 5006034A JP 603493 A JP603493 A JP 603493A JP H06215179 A JPH06215179 A JP H06215179A
Authority
JP
Japan
Prior art keywords
set direction
composition
composition direction
character
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5006034A
Other languages
Japanese (ja)
Inventor
Toru Futaki
徹 二木
Kazuyuki Saito
和之 齋藤
Tadanori Nakatsuka
忠則 中塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP5006034A priority Critical patent/JPH06215179A/en
Priority to DE69332750T priority patent/DE69332750T2/en
Priority to EP93310637A priority patent/EP0606780B1/en
Priority to DE69330423T priority patent/DE69330423T2/en
Priority to EP98203750A priority patent/EP0898240B1/en
Publication of JPH06215179A publication Critical patent/JPH06215179A/en
Priority to US08/742,222 priority patent/US6125204A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To display the estimated result of a composition direction before recognition processing is started by inputting a direction instruction signal and performing control so as to recognize inputted image information according to an instruction based on a composition change instruction signal. CONSTITUTION:Images are read from a scanner 101, and the image information is converted to binary electric signals by a scanner interface circuit 102. The read data are indicated on a display 108. Next, an operator sets a recognition object area by using a pointing device 103. The composition direction is estimated to that area, information whether the composition direction is vertical or horizontal is provided, and that information is held in a RAM 107. The operator judges the estimation of the composition direction due to the device by observing a composition direction mark 52 displayed according to composition direction information. When the indication of the composition direction is proper, the operator clicks a recognition button with the pointing device 103. When it is judged, character segmentation processing is performed to segment a character image for each character.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、文書画像を読み取って
文字コードに変換する文字画像処理方法及び装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character image processing method and apparatus for reading a document image and converting it into a character code.

【0002】[0002]

【従来の技術】従来の光学的文字認識装置の処理の流れ
を図7のフローチャートに従って説明する。S701で
スキャナから画像の読み取りを行い、画像情報を2値の
電気信号に変換する。読み取ったデータはS702でデ
ィスプレイに表示される。次に、S703でポインティ
ングデバイスを用いて認識対象領域を任意の大きさ及び
位置の矩形としてオペレータが設定する。日本語の文書
には縦組みのものと横組みのものが存在するので、文字
切り出し処理を行う前に縦組みか横組みかの属性すなわ
ち組方向を決定しておく必要がある。そこで、S704
でその領域に対して組方向の推定を行い、その結果に従
ってS705で1文字ごとの文字画像を取り出す文字切
り出しの処理を行い、S706で認識処理を行う。認識
結果はS707でディスプレイ上に表示され、オペレー
タの指示に応じて編集や保存がなされる。
2. Description of the Related Art The process flow of a conventional optical character recognition device will be described with reference to the flowchart of FIG. In step S701, an image is read from the scanner and the image information is converted into a binary electric signal. The read data is displayed on the display in S702. Next, in step S703, the operator sets the recognition target area as a rectangle having an arbitrary size and position using a pointing device. Since there are vertical writing and horizontal writing in Japanese documents, it is necessary to determine the attribute of vertical writing or horizontal writing, that is, the writing direction before the character segmentation processing. Therefore, S704
Then, the set direction is estimated with respect to the area, and in accordance with the result, a character cutting process for extracting a character image for each character is performed in S705, and a recognition process is performed in S706. The recognition result is displayed on the display in step S707, and edited or saved according to the operator's instruction.

【0003】[0003]

【発明が解決しようとする課題】入力文書によっては組
方向の推定が非常にむずかしく、S704において誤っ
た推定を行うこともある。しかしながら、上記従来例で
は、組方向の推定が誤ってなされた場合にオペレータが
確認し修正する手段がないので、誤った組方向のまま処
理を続行し不正確な認識結果を生じさせてしまうという
欠点があった。
It is very difficult to estimate the set direction depending on the input document, and an incorrect estimation may be performed in S704. However, in the above-mentioned conventional example, since there is no means for the operator to confirm and correct when the set direction is erroneously estimated, the processing is continued with the wrong set direction and an incorrect recognition result is generated. There was a flaw.

【0004】[0004]

【課題を解決するための手段】上記課題を解決するため
に、本発明は画像情報を入力し、前記入力された画像情
報の組方向を判断し、前記判断された組方向を報知する
画像処理方法及び装置を提供する。
In order to solve the above problems, the present invention is an image processing for inputting image information, determining the set direction of the input image information, and notifying the determined set direction. Methods and apparatus are provided.

【0005】上記課題を解決するために、本発明は好ま
しくは方向変更指示信号を入力し、該組変更指示信号に
よる指示に従って前記入力された画像情報を認識するよ
う制御する。
In order to solve the above problems, the present invention preferably inputs a direction change instruction signal, and controls so as to recognize the input image information in accordance with an instruction by the pair change instruction signal.

【0006】[0006]

【実施例】本発明の第1の実施例について詳細に説明す
る。 図1は第1の実施例の構成を表すブロック図であ
る。図1において、101は画像原稿に光を照射してそ
の反射光を読み取り電気信号に変換するスキャナ、10
2は101で得られた電気信号を2値のデジタル電気信
号に変換し他の装置構成要素に伝送するためのスキャナ
インタフェース回路、103はディスプレイのウィンド
ウ上で座標を入力するためのポインティングデバイス、
104はポインティングデバイス103からの信号を他
の装置構成要素に伝送するためのポインティングデバイ
スインタフェース回路、105はROMに格納されたプ
ログラムに従って装置全体の制御及び文字切り出し処理
や認識処理を実行するためのCPU、106は例えば後
述するフローチャートに示すような、CPU105が実
行する処理の制御プログラム、各種処理プログラム、認
識辞書などを格納するROM、107は文字画像の展開
や文字認識処理のための作業領域などとして用いられる
RAM、108は入力イメージや認識結果を表示するた
めのディスプレイ、109はディスプレイインタフェー
ス回路、そして110は各装置構成要素を接続するCP
Uバスである。
EXAMPLE A first example of the present invention will be described in detail. FIG. 1 is a block diagram showing the configuration of the first embodiment. In FIG. 1, 101 is a scanner for irradiating an image original with light and reading the reflected light to convert it into an electric signal.
Reference numeral 2 denotes a scanner interface circuit for converting the electric signal obtained at 101 into a binary digital electric signal and transmitting the binary digital electric signal to other device components. Reference numeral 103 denotes a pointing device for inputting coordinates on the window of the display.
Reference numeral 104 is a pointing device interface circuit for transmitting a signal from the pointing device 103 to other device components, and 105 is a CPU for controlling the entire device and executing a character cutting process and a recognition process according to a program stored in a ROM. Reference numeral 106 denotes a ROM that stores a control program for processing executed by the CPU 105, various processing programs, a recognition dictionary, and the like, as shown in a flowchart to be described later. Reference numeral 107 denotes a work area for developing character images and character recognition processing. RAM used, 108 is a display for displaying an input image and a recognition result, 109 is a display interface circuit, and 110 is a CP for connecting each device constituent element.
It is a U-bus.

【0007】図2は、本実施例の処理の流れを表すフロ
ーチャートである。S201でスキャナ101から画像
の読み取りを行い、画像情報をスキャナインタフェース
回路102で2値の電気信号に変換する。読み取ったデ
ータをS202でディスプレイ108に表示する。次
に、S203でポインティングデバイス103を用いて
認識対象領域をオペレータが設定する。日本語の文書に
は縦組みのものと横組みのものが存在するので、認識処
理を行う前にその組方向を決定しておく必要がある。そ
こで、S204でその領域に対して後述する方法で組方
向の推定を行い、組方向が縦組みであるか横組みである
かという組方向情報を得て、その情報をS205でRA
M107に保持しておく。S206で組方向情報に従っ
て組方向マーク52を図5の表示例のようにディスプレ
イ108上の対象領域の左下隅に表示する。オペレータ
はこの組方向マーク52を見て装置による組方向の推定
を判断する。組方向の表示が正しければオペレータは認
識ボタンをポインティングデバイス103でクリックす
る。S207でその旨判断されると、S210へ進み、
S210で1文字ごとの文字画像を取り出す文字切り出
しの処理を行い、S211で認識処理を行う。認識結果
はS212でディスプレイ上に表示され、オペレータの
指示に応じて編集や保存がなされる。
FIG. 2 is a flow chart showing the flow of processing of this embodiment. In step S201, an image is read from the scanner 101, and the image information is converted into a binary electric signal by the scanner interface circuit 102. The read data is displayed on the display 108 in S202. Next, in S203, the operator sets the recognition target area using the pointing device 103. Since there are vertical writing and horizontal writing in Japanese documents, it is necessary to determine the writing direction before performing the recognition process. Therefore, in S204, the set direction is estimated for the area by a method described later, and set direction information indicating whether the set direction is vertical writing mode or horizontal writing mode is obtained.
It is retained in M107. In S206, the set direction mark 52 is displayed in the lower left corner of the target area on the display 108 as in the display example of FIG. 5 according to the set direction information. The operator looks at this assembly direction mark 52 to judge the estimation of the assembly direction by the device. If the display of the set direction is correct, the operator clicks the recognition button with the pointing device 103. When it is determined in S207, the process proceeds to S210,
In S210, a character cutting process for extracting a character image for each character is performed, and a recognition process is performed in S211. The recognition result is displayed on the display in S212, and is edited or saved according to the operator's instruction.

【0008】しかしながら、入力文書によっては組方向
の推定が非常にむずかしく、必ずしも正確な組方向推定
が行えるとは限らない。そこで、組方向の推定が正しく
なかった場合、オペレータはディスプレイ上の組方向マ
ークをポインティングデバイス103でクリックする。
その結果、S209で組方向情報を反転する。反転と
は、今まで横組みならば縦組みに、縦組みならば横組み
になるということである。そして、反転された組方向情
報に従って組方向マークの再表示がS209で行われ
る。その後、S205 へ戻り、以下の処理は同様であ
る。
However, it is very difficult to estimate the set direction depending on the input document, and it is not always possible to accurately estimate the set direction. Therefore, when the estimation of the set direction is incorrect, the operator clicks the set direction mark on the display with the pointing device 103.
As a result, the set direction information is inverted in S209. Upside-down means that until now horizontal writing is vertical writing, and vertical writing is horizontal writing. Then, the set direction mark is re-displayed in S209 according to the reversed set direction information. After that, the process returns to S205, and the subsequent processing is the same.

【0009】本実施例におけるS204で行われる組方
向の推定方法を図3を用いて説明する。画像データに対
して横方向にx軸をとり、x軸への黒画素の射影成分を
P(x)とする。同様に、縦方向にy軸をとり、y軸へ
の射影成分をP(y)とする。図3における影のついた
部分が射影成分の大きさを表している。
The method of estimating the set direction performed in S204 in this embodiment will be described with reference to FIG. The x-axis is taken in the horizontal direction with respect to the image data, and the projection component of the black pixel on the x-axis is P (x). Similarly, the y-axis is taken in the vertical direction, and the projection component on the y-axis is P (y). The shaded portion in FIG. 3 represents the magnitude of the projected component.

【0010】次に、P(x)、P(y)それぞれの分散
を次式で計算する。
Next, the variances of P (x) and P (y) are calculated by the following equations.

【0011】[0011]

【外1】 はこの区間のP(x)の平均で、この区間の射影成分す
べてに対して和をとる。また、nはこの区間のデータ数
である。
[Outer 1] Is the average of P (x) in this section, and sums all projection components in this section. Further, n is the number of data in this section.

【0012】同様にP(y)の分散も計算する。Similarly, the variance of P (y) is also calculated.

【0013】[0013]

【外2】 組方向の推定は、SxおよびSyを用いて行う。すなわ
ち、組方向に沿った方向に対しては射影成分の分散が大
きくなるので、 Sx > Sy ならば横書き、そうでなければ縦書きと推定する。
[Outside 2] The set direction is estimated using Sx and Sy. That is, since the variance of the projection component is large in the direction along the set direction, if Sx> Sy, it is estimated that horizontal writing is performed, and otherwise, vertical writing is estimated.

【0014】また、画像データ及び組方向マークの表示
例を図4〜6に示す。図4が画像データをディスプレイ
108上に表示させた時の例である。41が画像を表示
させるためのウィンドウで、“vecog”42が認識
実行の指示を行うための認識ボタンである。図5がポイ
ンティングデバイス103によって認識対象領域51を
設定したところを表す図である。領域設定が終了すると
すぐに組方向推定が行われ、その結果が組方向マーク5
2によって示されている。このマークは横組みを表して
いる。図6の61は縦組みを表す組方向マークである。
ただし、この場合は組方向の推定が誤っていることにな
る。
Further, display examples of the image data and the set direction mark are shown in FIGS. FIG. 4 is an example when the image data is displayed on the display 108. Reference numeral 41 is a window for displaying an image, and “vecog” 42 is a recognition button for instructing recognition execution. FIG. 5 is a diagram showing that the recognition target area 51 is set by the pointing device 103. As soon as the area setting is completed, the set direction is estimated, and the result is the set direction mark 5.
Indicated by 2. This mark represents horizontal writing mode. Reference numeral 61 in FIG. 6 is a set direction mark indicating vertical setting.
However, in this case, the estimation of the set direction is incorrect.

【0015】本発明は、組方向の推定方法は特に限定さ
れず有効である。また、組方向マークのデザイン、表示
位置、色等にもよらない。さらに組方向情報を反転させ
る手段はマウスでダブルクリックするあるいはマークを
つかんで(ドラッグして)回転する等の方法にしてもよ
い。
The present invention is effective without any particular limitation on the method of estimating the set direction. Also, it does not depend on the design, display position, color, etc. of the assembly direction mark. Further, the means for reversing the set direction information may be a method such as double-clicking with a mouse or grabbing (dragging) a mark for rotation.

【0016】[0016]

【発明の効果】以上説明したように本発明によれば、認
識処理を始める前に組方向の推定結果を表示することが
でき、またそれが誤っていた場合は容易に組方向情報を
反転する手段を備えているので、最後まで誤ったまま処
理を行ってしまう危険性がなく、全体の操作時間を短縮
することになり、よりよいユーザインタフェースを提供
できるという効果がある。
As described above, according to the present invention, the set direction estimation result can be displayed before the recognition processing is started, and the set direction information can be easily inverted if it is incorrect. Since it is provided with the means, there is no risk that the processing will be performed erroneously until the end, the overall operation time will be shortened, and a better user interface can be provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例の構成を表すブロック図FIG. 1 is a block diagram showing a configuration of an embodiment.

【図2】実施例の処理の流れを表すフローチャートFIG. 2 is a flowchart showing the flow of processing of the embodiment.

【図3】文字画像の射影成分を説明するための図FIG. 3 is a diagram for explaining a projected component of a character image.

【図4】画像データのディスプレイ上への表示例[Fig. 4] Display example of image data on display

【図5】組方向マークの表示例FIG. 5: Display example of set direction mark

【図6】組方向マークの表示例FIG. 6 is a display example of a set direction mark.

【図7】従来例におけるフローチャートFIG. 7 is a flowchart of a conventional example.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画像情報を入力する入力手段と、 前記入力された画像情報の組方向を判断する組方向判断
手段と、 前記判断された組方向を報知する報知手段とを有するこ
とを特徴とする画像処理装置。
1. An input means for inputting image information, a set direction determining means for determining a set direction of the input image information, and a notifying means for notifying the determined set direction. Image processing device.
【請求項2】 組方向変更指示手段を有し、 該組方向変更指示手段による指示に従って前記入力手段
により入力された画像情報を認識するよう制御する制御
手段を有することを特徴とする請求項1に記載の画像処
理装置。
2. A control means having a set direction change instruction means, and a control means for controlling so as to recognize the image information input by the input means in accordance with an instruction from the set direction change instruction means. The image processing device according to item 1.
【請求項3】 画像情報を入力し、 前記入力された画像情報の組方向を判断し、 前記判断された組方向を報知することを特徴とする画像
処理方法。
3. An image processing method comprising inputting image information, determining a set direction of the input image information, and notifying the determined set direction.
【請求項4】 組方向変更指示信号を入力し、 該組変更指示信号による指示に従って前記入力された画
像情報を認識するよう制御することを特徴とする請求項
3に記載の画像処理方法。
4. The image processing method according to claim 3, wherein a set direction changing instruction signal is input, and control is performed such that the input image information is recognized in accordance with an instruction by the set changing instruction signal.
JP5006034A 1993-01-11 1993-01-18 Method and device for processing image Pending JPH06215179A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP5006034A JPH06215179A (en) 1993-01-18 1993-01-18 Method and device for processing image
DE69332750T DE69332750T2 (en) 1993-01-11 1993-12-31 Image processing apparatus and method
EP93310637A EP0606780B1 (en) 1993-01-11 1993-12-31 Image processing method and apparatus
DE69330423T DE69330423T2 (en) 1993-01-11 1993-12-31 Image processing apparatus and method
EP98203750A EP0898240B1 (en) 1993-01-11 1993-12-31 Image processing method and apparatus
US08/742,222 US6125204A (en) 1993-01-11 1996-10-23 Judging a logical relation between a plurality of areas based upon the physical relation therebetween

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5006034A JPH06215179A (en) 1993-01-18 1993-01-18 Method and device for processing image

Publications (1)

Publication Number Publication Date
JPH06215179A true JPH06215179A (en) 1994-08-05

Family

ID=11627374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5006034A Pending JPH06215179A (en) 1993-01-11 1993-01-18 Method and device for processing image

Country Status (1)

Country Link
JP (1) JPH06215179A (en)

Similar Documents

Publication Publication Date Title
US6473523B1 (en) Portable text capturing method and device therefor
US6774889B1 (en) System and method for transforming an ordinary computer monitor screen into a touch screen
JP2940960B2 (en) Image tilt detection method and correction method, and image information processing apparatus
US10878268B2 (en) Information processing apparatus, control method thereof, and storage medium
JPH08287184A (en) Picture cutting-out device and character recognition device
JP4443194B2 (en) Processing object selection method in portable terminal character recognition and portable terminal
JP2007164513A (en) Image processor
KR101903617B1 (en) Method for editing static digital combined images comprising images of multiple objects
JP2020098575A (en) Image processor, method for processing information, and image processing program
JPH09128429A (en) Method for recognizing dimensional numerical value and its device
JPH06215179A (en) Method and device for processing image
CN115205553A (en) Image data cleaning method and device, electronic equipment and storage medium
US10922864B2 (en) Image processing device, image processing method and program, for object detection in an image
JP2005182098A (en) Device and method for generating and displaying composite image
JP2689380B2 (en) Line figure folding device
JP3058630B2 (en) Graphic processing unit
JPH07334611A (en) Display method for non-recognized character
JP2560092B2 (en) Center line detector
JP2000182056A (en) Picture processor
JP2005309633A (en) Data input support method
JP2023026293A (en) Information processor, information processing system, information processing method, and program
JPH10105677A (en) Method and device for joining pictures
JPH03265920A (en) Pointing processing system
JP2000193435A (en) Image processing method for object
JPH1196299A (en) Image recognition device and its method