JPH02293980A - Image processor - Google Patents

Image processor

Info

Publication number
JPH02293980A
JPH02293980A JP1114574A JP11457489A JPH02293980A JP H02293980 A JPH02293980 A JP H02293980A JP 1114574 A JP1114574 A JP 1114574A JP 11457489 A JP11457489 A JP 11457489A JP H02293980 A JPH02293980 A JP H02293980A
Authority
JP
Japan
Prior art keywords
processing
unit
image
specified
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1114574A
Other languages
Japanese (ja)
Inventor
Koji Ito
伊東 晃治
Yoshiyuki Yamashita
山下 義征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP1114574A priority Critical patent/JPH02293980A/en
Publication of JPH02293980A publication Critical patent/JPH02293980A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE:To improve the operability by providing an input part for detecting a position of a designated point of a designated area on an image pattern and using an image processing part as an image processing part for detecting the processing information, based on the position of the designated point. CONSTITUTION:This processor is provided with an input part 56 for detecting a position of a designated point of a designated area on an image pattern, and an image processing part 54 is used as an image processing part for detecting the processing information, based on at least the position of the designated point. The input part 56 detects the position of the designated point of the designated area, and the image processing part 54 detects the processing information of the designated area designated by this designated point, based on the position of the designated point detected. In such a way, since the image processing part 54 detects the processing information of the designated area, it will suffice that an operator only executes a work for indicating the designated point, and it is unnecessary to input the processing information of the designated area.

Description

【発明の詳細な説明】 (産業上の利用分野) この発明は画像処理装置、例えば文書ファイル装百や文
字認識装置に開する。
DETAILED DESCRIPTION OF THE INVENTION (Industrial Field of Application) The present invention applies to image processing devices, such as document file systems and character recognition devices.

(従来の技術) 従来よりオペレータの指示に応じて入力画像パタシの画
像処理を行なうようにした装百が提案されでいる.この
種の従来装百として例えば以下に説明するような文書フ
ァイル装言や文字認識装置かある. まず従来の文書ファイル装百につき説明する。
(Prior Art) A number of systems have been proposed in the past that perform image processing on input image patterns according to instructions from an operator. Conventional systems of this type include, for example, document file syntax and character recognition devices as explained below. First, the conventional document file system will be explained.

第11図は従来の文書ファイル装買で用いられる帳票例
を示す.同図にも示すような文字及び写真が混在する帳
票10の画像パタンをファイルする場合、文字部分12
の画像パタンについては単純値化が行なわれたバタシを
及び写真部分14の画像パタンについてはディザによる
二値化が行なわれたパタンを得ることが望まれ、従って
文字部分及び写真部分の画像パタンに関して異なる二値
化処理を行なう必要がある。しかしながら部分12及び
14の判定を行なうための簡易で汎用的な画像判定技術
は未だ確立されていない.このため従来装置にあっては
、帳票10からの光情報を光電変換して得た電気信号の
画像パタンを表示画面に表示し、オペレータがこの表示
画面上で文字部分12及び写真部分14の領域指定を行
なうと共に各部分12J4の処理方法指定を行なってい
た.これら領域及び処理方法情報の指定作業につき第1
2図を参照し説明する. 第12図は従来のファイル装置における表示画面例を示
す図である。同図にも示すように、表示画面16には帳
票10の画像パタンである帳票パタン18と処理方法を
指定するための処理指示領域20a120bと、表示画
面上の点を指示するカーソル22とを表示している.2
4及び26は文字部分12及び写真部分14の画像パタ
ンである文字部パタン及び写真部パタンを示す. オペレータは表示画面16ヲみながらマウス(図示せず
)を操作しカーソル22を移動する。そしてカーソル2
2を処理指示領域20a内に移動させてカーソル22で
領域20a内を指示しながらマウスボタンをクリ・ンク
する.さらにカーソル22を文字領域28の第一の指定
点30まで移動させてカーソル22でこの指定点30ヲ
指示しながらマウスボタンを押しさげる.次にマウスボ
タンを押しさげたままカーソル22ヲ文字領域28の第
二の指定点32まで移動させ、カーソル22でこの指定
点32を指示しながらマウスボタンを離す. これら一連の作業によって文字領域28の指定点30及
び32を指示する作業と、文字領i’5+28内の処理
方法を指示する作業とが終わる. 同様にして、オペレータはカーソル22で領域20b内
を指示しながらマウスボタンをクリックする.このクリ
ックによって写真領域34内の処理方法を指定する.次
いでカーンル22を写真領域34の第一の指定点36ま
で移動させて指定点36を指示しながらマウスボタンを
押しさげる.そして、マウスボタンを押しさげたままカ
ーソル22を写真領域34の第二の指定点38まで移動
させマウスボタンを離す. 従来のファイル装置では、上述のようなオペレータの作
業によってマウスから出力された領域28、34の指示
情報と領域28、34の処理指示情報とに基づいて領域
28内の帳票パタン1日を単純二値化し及び領域34内
の帳票パタン18ヲディザにより−値化し、二値化した
それぞれのパタン壱合成し符号化して磁気ファイルに保
存する. 次に従来の文字認識装百につき説明する。
Figure 11 shows an example of a form used in conventional document file purchasing. When filing an image pattern of a form 10 that includes a mixture of text and photos as shown in the same figure, the text portion 12
It is desirable to obtain a pattern that has undergone simple value conversion for the image pattern of , and a pattern that has been binarized by dithering for the image pattern of the photo portion 14. It is necessary to perform different binarization processing. However, a simple and general-purpose image determination technique for determining portions 12 and 14 has not yet been established. For this reason, in the conventional device, an image pattern of an electrical signal obtained by photoelectrically converting the optical information from the form 10 is displayed on the display screen, and the operator can select the area of the text portion 12 and the photograph portion 14 on the display screen. At the same time, we also specified the processing method for each part 12J4. The first step is to specify these areas and processing method information.
This will be explained with reference to Figure 2. FIG. 12 is a diagram showing an example of a display screen in a conventional file device. As shown in the figure, the display screen 16 displays a form pattern 18 that is an image pattern of the form 10, a processing instruction area 20a120b for specifying a processing method, and a cursor 22 for specifying a point on the display screen. are doing. 2
4 and 26 indicate a character part pattern and a photograph part pattern which are image patterns of the character part 12 and the photograph part 14. The operator moves the cursor 22 by operating a mouse (not shown) while looking at the display screen 16. and cursor 2
2 into the processing instruction area 20a, and click/link the mouse button while pointing within the area 20a with the cursor 22. Furthermore, move the cursor 22 to the first designated point 30 in the character area 28, and hold down the mouse button while pointing the designated point 30 with the cursor 22. Next, while holding down the mouse button, move the cursor 22 to the second designated point 32 in the character area 28, and release the mouse button while pointing the designated point 32 with the cursor 22. This series of operations completes the task of specifying designated points 30 and 32 in the character area 28 and the task of specifying the processing method within the character area i'5+28. Similarly, the operator clicks the mouse button while pointing within the area 20b with the cursor 22. This click specifies the processing method within the photo area 34. Next, move the carnaire 22 to the first designated point 36 in the photo area 34, and hold down the mouse button while pointing to the designated point 36. Then, while holding down the mouse button, move the cursor 22 to the second specified point 38 in the photo area 34 and release the mouse button. In the conventional file device, the form pattern in the area 28 is simply divided into two based on the instruction information in the areas 28 and 34 and the processing instruction information in the areas 28 and 34 output from the mouse by the operator's work as described above. The form patterns 18 in the area 34 are converted into values by dithering, and each of the binarized patterns is combined, encoded, and stored in a magnetic file. Next, a conventional character recognition system will be explained.

日本語の認識処理にあっては文書が横書き及び縦書きの
いずれであるかの情報を処理開始前に装百に与えておく
ことは非常に重要である。しかしながら装置自体が文書
画像を解析して横書き及び縦書きのいずれの文書である
かの判定を行なえるような汎用的技術は未だ開発されて
いない。そこで一般には、横書き及び縦書きのいずれで
あるか字並びをオペレータが指定する方法か採用されて
いる.以下、図面を参照し従来の文字認識装置にあける
認識処理領域及び認識処理領域の処理方法を指示する作
業につき説明する. 第13図(A)及び(B)は従来の文字認識装置で用い
られる帳票例を示す.第13図(A)及び(B)にあい
て40及び42は横書き及び縦書き文書の帳票を示す. また第14図(A)及び(B)は従来の文字認識装置に
おける表示画面の表示例を示す。第14図(A)及び(
8)においで44は文字認識装百の表示画面を示す.表
示画面44には認識処理ざれる帳票のバタシと、処理指
定領域46a, 46bと、カーソル22とが表示され
る.図(A)の48は帳票40のパタン及び図(B)の
50は帳票42のパタンを示す. 従来の文字認識装置にあっても、帳票からの光情報を光
電変換して得た電気信号の画像パタン例えばパタン48
ヲ表示画面44{こ表示する.そして、オペレータがこ
の表示画面44上で文字部分12の領域指定を行なうと
共に字並びに応した文字部分12の処理方法の指定を行
なう. オペレータは表示画面44ヲみながらマウス(図示せず
)を操作し、カーソル22ヲ処理指示領域内まで横書き
文書の場合であれば領域46a内まで移動させる.そし
てカーソル22で処理指示領域内を指示しながらマウス
ボタンをクリックする.次に力−ソル22を移動ざせカ
ーソル22で第一の指定点30ヲ指示したままマウスボ
タンを指で押し下げる.ざらにマウスボタンを押し下げ
たままカーンル22を移動させ、第二の指定点30ヲ指
示しながらマウスボタンから指を離す.これら一連の作
業によって指定点30及び32を指示する作業と、文字
領域28内の処理方法を指示する作業とが終わる.従来
の文字認識装言では、上述のようなオペレータの作業に
よってマウスから出力された領域28の指示情報と領V
i28の処理指示情報とに基づいて領域2日内のパタン
例えば48から認識対象一単位毎のパタン(切出しパタ
ン)を切出し認識処理を行なっていた. (発明が解決しようとする課題) しかしながら上述した従来の画像処理装冨ではいずれも
、カーソルを、領域指定点まで移動させざらに指定した
領域の処理方法を指定するために処理方法指定領域まで
移動させなければならないので、マウスの操作移動量が
多くなる.しかも領域指定点の指示及び処理方法の指示
のためにマウスボタンを操作しなければならないので、
マウスボタンの操作回数が多くなる. これがためこれら指定点及び処理方法の指示作業はオペ
レータにとって煩雑となりオペレータの操作ミスを招き
易く、またこれら指示作業の処理効率も悪いという問題
点があった. この発明の目的は、上述した従来の問題点を解決するた
め、領域指定点の位置に基づいて処理方法の判定を行な
う画像処理装置を提供することにある. (課題を解決するための手段) この目的の達成を図るため、この発明の画像処理装置は
、 情報媒体の画像パタンを得るための前処理部と、画像パ
タンの指定領域内の画像処理を処理情報に応じて行なう
画像処理部とを備えて成る画像処理装置において、 画像パタン上の指定領域の指定点の位百を検出するため
の入力部を設け、 画像処理部を、少なくとも指定点の位冒に基づいて処理
情報を検出する画像処理部としたことを特徴とする. この発明の実施に当り、前処理部を、多値化された画像
パタンを得る前処理部とし、 画像処理部を、画像パタンの単純二値化処理を行なう第
一の二値化部と、画像パタンのディザによる二値化処理
を行なう第二の二値化部と、単純値化処理が行なわれた
画像パタンとディザによる二値化処理が行なわれた画像
パタンとを合成する画像合成部と、処理情報の検出を行
なうと共に合成した画像パタンを符号化する制御部と、
符号化した画像パタンを格納する記憶部とから構成する
のが好適である. この発明の実施に当り、前処理部を、二値の画像パタン
を得る前処理部とし、 画像処理部を、画像パタンかう認識対象パタンを切出し
認識対象パタンの認識処理を行なう認識部と、処理情報
の検出を行なう制御部とから構成するのが好適である. (作用) 上述のような構成の画像処理装置によれば、入力部は指
定領域の指定点の位Mを検出し、画像処理部は検出され
た指定点の位置に基づいて当該指定点により指定ざれる
指定領域の処理情報を検出する. 従って画像処理部が指定領域の処理情報を検出するので
、オベレータは指定点を指示する作業を行なうだけでよ
く指定領域の処理情報を入力する必要がない. (実施例) 以下、図面を参照し、この発明の実施例につき説明する
.尚、図面はこの発明が理解できる程度に概略的に示し
てあるにすぎず、従って各構成成分の構成、動作、動作
の流れ、入出力信号及び数値的条件を図示例に限定する
ものではない.第二jむ臣懲 この実施例ではこの発明を文書ファイル装置に適用した
例につき説明する. 第1図はこの発明の第一実施例の構成を概略的に示す機
能ブロック図である.第1図にも示すように、この実施
例の装盲は、情報媒体の画像パタンを得るための前処理
部52と、画像パタンの指定領域内の画像処理を処理情
報に応じて行なう画像処理部54とを備え、さらに画像
パタン上の指定領域の指定点の位置を検出するための入
力部56ヲ有し、画像処理部54を、指定点の位置に基
づいて当該指定点により指定ざれる指定領域の処理情報
を桟出する画像処理部とした構成を有する.そしてこの
実施例では、前処理部52を、多値化された画像パタン
を得る前処理部とし、光電変換部58及び画像メモリ6
0から構成する.ざらに画像処理部54を、画像パタン
の単純二値化処理を行なう第一の二値化部62と、画像
パタンのディザによる二値化処理を行なう第二の二値化
部64と、単純二値化処理が行なわれた画像パタンとデ
ィザによる二値化処理が行なわれた画像パタンとを合成
する画像合成部66と、処理情報の検出を行なうと共に
合成した画像パタンを符号化する制御部68と、符号化
した画像パタンを格納する記憶部70とから構成する. そして入力部56を、指定点を指示するためのカーソル
及び画像パタンを表示する表示部72と、カーソルの表
示位置制御及び指定点の位M検出を行なうための操作部
74とから成る.操作部74は図示せずもマウスを備え
、オペレータはこのマウスを操作することによってカー
ソルの表示位M18移動ざせ指定点の位aを指示する.
尚、マウスにかえでキーボードとしてもよい. 以下、この実施例の動作につき説明する.この実施例で
は指定領域を第一及び第二指定点を結ぶ線分を対角線と
する矩形領域とし、第一及び第二指定点を始点及び終点
とするベクトルの向きが右向きであるとき当該第一及び
第二指定点で指定する指定領域を単純二値化しまたベク
トルの向きが左向きであるとき当該指定領域をディザに
より二値化するというルールが予め定められでいるもの
とし、オペレータはこのルールに従ってこの実施例の装
1ft操作する. オペレータは走査機構部(図示せず)に帳票10(第1
1図譬照)をセットする.そしてオベレークは操作部7
4のマウスを介して読取り開始信号を実施例の装置に入
力する. 読取り開始信号の入力によって、光電変換部58は帳票
の光学的走査を開始する.そして帳票からの光情報Lを
多値の電気信号に変換し、この電気信号から成る画像パ
タンを出力する.画像メモリ60は光電変換部58から
の画像パタンを格納する。
In Japanese language recognition processing, it is very important to provide information on whether a document is written horizontally or vertically to the reader before starting the processing. However, a general-purpose technique that allows the device itself to analyze a document image and determine whether the document is written horizontally or vertically has not yet been developed. Therefore, a method is generally adopted in which the operator specifies the character arrangement, whether it is horizontal or vertical writing. The following describes the recognition processing area provided in a conventional character recognition device and the process of instructing the processing method of the recognition processing area with reference to the drawings. Figures 13(A) and 13(B) show examples of forms used in conventional character recognition devices. In FIGS. 13(A) and 13(B), 40 and 42 indicate forms for horizontally written and vertically written documents. Furthermore, FIGS. 14(A) and 14(B) show examples of display screens in conventional character recognition devices. Figure 14 (A) and (
8) 44 indicates the display screen of the character recognition device. On the display screen 44, the outline of the form to be recognized, process designation areas 46a and 46b, and a cursor 22 are displayed. 48 in Figure (A) indicates the pattern of the form 40, and 50 in Figure (B) indicates the pattern of the form 42. Even in conventional character recognition devices, an image pattern of an electrical signal obtained by photoelectrically converting optical information from a form, such as pattern 48, is used.
Display screen 44 {This is displayed. Then, the operator specifies an area for the character portion 12 on the display screen 44 and also specifies a processing method for the character portion 12 according to the character arrangement. The operator operates a mouse (not shown) while looking at the display screen 44, and moves the cursor 22 to within the processing instruction area, or within the area 46a in the case of a horizontally written document. Then, while pointing within the processing instruction area with the cursor 22, click the mouse button. Next, move the cursor 22 and press down the mouse button with your finger while pointing the cursor 22 to the first designated point 30. Roughly move the carnage 22 while holding down the mouse button, and release your finger from the mouse button while pointing to the second designated point 30. Through this series of operations, the operations of specifying the specified points 30 and 32 and the operation of specifying the processing method within the character area 28 are completed. In the conventional character recognition device, the instruction information in the area 28 and the area V output from the mouse by the operator's work as described above are used.
Based on the processing instruction information of i28, recognition processing was performed by cutting out patterns (cutting patterns) for each unit of recognition target from patterns within two days, for example, 48. (Problem to be Solved by the Invention) However, in all of the conventional image processing devices described above, the cursor is moved to the area specification point and then moved to the processing method specification area in order to specify the processing method for the specified area. This increases the amount of mouse movement required. Moreover, since you have to operate the mouse button to specify the area specification point and the processing method,
The number of mouse button operations increases. For this reason, the task of instructing these designated points and processing methods is complicated for the operator, which can easily lead to operator errors, and the processing efficiency of these instruction tasks is also low. SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus that determines a processing method based on the position of an area designation point in order to solve the above-mentioned conventional problems. (Means for Solving the Problems) In order to achieve this object, the image processing device of the present invention includes a preprocessing unit for obtaining an image pattern of an information medium, and an image processing unit for performing image processing within a designated area of the image pattern. An image processing device comprising an image processing section that performs processing according to information, an input section for detecting a specified point in a specified area on an image pattern; It is characterized by an image processing unit that detects processing information based on In carrying out the present invention, the preprocessing section is a preprocessing section that obtains a multivalued image pattern, and the image processing section is a first binarization section that performs simple binarization processing of the image pattern. a second binarization unit that performs binarization processing using dithering of the image pattern; and an image synthesis unit that synthesizes the image pattern that has been subjected to simple digitization processing and the image pattern that has been subjected to binarization processing that has been performed using dithering. and a control unit that detects processing information and encodes the synthesized image pattern;
It is preferable to consist of a storage unit that stores encoded image patterns. In carrying out the present invention, the preprocessing section is a preprocessing section that obtains a binary image pattern, and the image processing section is a recognition section that cuts out a recognition target pattern from the image pattern and performs recognition processing on the recognition target pattern. It is preferable that the system be comprised of a control section that detects information. (Operation) According to the image processing device configured as described above, the input section detects the position M of the designated point in the designated area, and the image processing section performs the designation by the designated point based on the position of the detected designated point. Detects the processing information of the specified area that is lost. Therefore, since the image processing unit detects the processing information of the specified area, the operator only needs to specify the specified point and there is no need to input the processing information of the specified area. (Examples) Examples of the present invention will be described below with reference to the drawings. Note that the drawings are merely shown schematically to the extent that the present invention can be understood, and therefore the configuration, operation, flow of operation, input/output signals, and numerical conditions of each component are not limited to the illustrated examples. .. Second Example This embodiment describes an example in which this invention is applied to a document file device. FIG. 1 is a functional block diagram schematically showing the configuration of a first embodiment of the present invention. As shown in FIG. 1, the blind device of this embodiment includes a preprocessing unit 52 for obtaining an image pattern of an information medium, and an image processing unit 52 for performing image processing within a specified area of the image pattern in accordance with processing information. It further has an input section 56 for detecting the position of a specified point in a specified area on the image pattern, and the image processing section 54 is specified by the specified point based on the position of the specified point. It has an image processing unit that outputs processing information for a specified area. In this embodiment, the preprocessing unit 52 is a preprocessing unit that obtains a multivalued image pattern, and the photoelectric conversion unit 58 and the image memory 6
Construct from 0. Roughly speaking, the image processing section 54 includes a first binarization section 62 that performs simple binarization processing of an image pattern, a second binarization section 64 that performs a binarization processing of the image pattern by dithering, and a simple binarization section 64 that performs a simple binarization processing of the image pattern. An image synthesis unit 66 that synthesizes an image pattern that has been subjected to a binarization process and an image pattern that has been subjected to a binarization process using dither, and a control unit that detects processing information and encodes the synthesized image pattern. 68, and a storage section 70 for storing encoded image patterns. The input section 56 includes a display section 72 that displays a cursor and image pattern for designating a specified point, and an operation section 74 that controls the display position of the cursor and detects the position M of the specified point. The operating unit 74 includes a mouse (not shown), and by operating the mouse, the operator instructs the cursor display position M18 to be moved to the specified point a.
You may also use a keyboard instead of a mouse. The operation of this embodiment will be explained below. In this example, the specified area is a rectangular area whose diagonal is the line segment connecting the first and second specified points, and when the direction of the vector whose starting and ending points are the first and second specified points is right, the first It is assumed that a rule has been predetermined to simply binarize the specified area specified by the second specified point and to binarize the specified area by dithering when the direction of the vector is leftward, and the operator follows this rule. The equipment of this example is operated for 1ft. The operator places the form 10 (first
(See Figure 1). And Oberake is the operation part 7
A reading start signal is input to the device of the embodiment via the mouse in step 4. Upon input of the reading start signal, the photoelectric conversion unit 58 starts optical scanning of the form. The optical information L from the form is then converted into a multivalued electrical signal, and an image pattern consisting of this electrical signal is output. Image memory 60 stores image patterns from photoelectric conversion section 58.

この実施例では1画素の画像パタンを4ビットの電気信
号とし、1画素の濃度変化を16階調で表現する. 第二の二値化部64は画像メモリ60の多値画像パタン
をディザにより二値化しこのディザによる二値化画像パ
タンを表示部72に転送する.表示部72は転送された
画像パタンに基づいて帳票全面の画像パタンを表示する
. 第2図はこの実施例における表示画面例を示す図であり
、表示部72の表示器の表示画面76に帳票パタン18
とカーソル22とを表示した状態ヲ示す。
In this embodiment, the image pattern of one pixel is made into a 4-bit electrical signal, and the density change of one pixel is expressed in 16 gradations. The second binarization unit 64 binarizes the multivalued image pattern in the image memory 60 by dithering and transfers the dithered binarized image pattern to the display unit 72. The display unit 72 displays the image pattern of the entire document based on the transferred image pattern. FIG. 2 is a diagram showing an example of a display screen in this embodiment, in which the form pattern 18 is displayed on the display screen 76 of the display unit 72.
A state in which a cursor 22 and a cursor 22 are displayed is shown.

オペレータは、表示画面76上で文字部分を見付けると
この文字部分の指定領域28を指定するために、まず指
定領域28の左上角点に相当する第一指定点30の位百
へカーソル22の表示位Mを移動きせる.オペレータが
操作部74のマウスを操作すると、マウスは操作に応じ
カーソル表示位ゴの制御信号を表示部72に出力する.
表示部72はマウスからの制御信号に応した表示位百に
カーソル22ヲ表示する。
When the operator finds a character part on the display screen 76, in order to designate the designated area 28 for this character part, the operator first displays the cursor 22 to the 100th place of the first specified point 30, which corresponds to the upper left corner point of the specified area 28. Move position M. When the operator operates the mouse on the operation section 74, the mouse outputs a control signal for controlling the cursor display position to the display section 72 in response to the operation.
The display section 72 displays a cursor 22 at a display position corresponding to a control signal from the mouse.

カーソル22の矢印先端位置が第一指定点30ヲ指示す
る位百にきたら、オペレータは指定点指示信号を出力す
るために、マウスボタンを押し下げる(マウスボタンを
オン状態とする).マウスはこのオン状態を検知すると
第一の指定点指示信号を出力する.t!作部74は指定
点指示信号を入力するとこのときのカーソル22の矢印
先端位Mを、第指定点30の位置としで検出し、制御部
68に対して出力する. さらにオペレータは文字部分の指定領域28の右下角点
に相当する第二指定点32の指示信号を出力するために
、マウスボタンを押し下げながらマウスVt作してカー
ソル22ヲ移動させカーソル22の矢印先端位置が指定
領域28の第二指定点32ソ指示する位百にきたら、マ
ウスボタンから指%Hす(マウスボタンをオフ状態とす
る).マウスはこのオフ状態を扶知し第二の指定点指示
信号を出力する.操作部74は指定点指示信号を入力す
るとこのときのカーソル22の矢印先端位M%第二指定
点32の位百として検出し、制御部68に対しで出力す
る. 尚、上述の例ではマウスはオン及びオフ状態を検知する
と第一及び第二の指定点指示信号を出力するようにした
が、オフ及びオン状態を検知したら或はマウスボタンの
クリックを検知したら第一及び第二指定点指示信号を出
力する等、これら指示信号の出力のしかたを任意好適に
変更してよい. オペレータは文字部分の指定領域28の指定が終わると
、次に表示画面76上で写真部をみつけ、写真部の指定
領域36を指定するためにまず指定領域36の右上角点
に相当する第一の指定点36の位置にカーソル22の矢
印先端位Mを移動させる.そして指定点指示信号を出力
するために、カーソル22の矢印先端位百で第一の指定
点36を指示したままマウスボタンをオン状態にする.
ざらにオベレークは写真部分の指定領域34の左下角点
に相当する第二指定点32の指示信号を出力するために
、マウスボタンをオン状態のままカーソル22の矢印先
端位置を箇二指定点38を指示する位置まで移動させ、
カーソル22の矢印先端位置で第二指定点38を指示し
たままマウスボタンをオフ状態とする.このようにして
各指定領域の指定点の位Mを入力部56ヲ介して制御部
68に入力する.制御部68は操作部74からの指定点
の位Mを順次入力し保存する。指定領域を指定する所定
個数の指定点例えば第一及び第二の指定点30、32の
位置を入力すると、指定領域2日の処理情報検出を開始
する。制御部68は入力部56からの指定点位置入力と
並行して処理情報検出を行なえる. 第3図は制御部における処理情報の検出動作の流れを示
す図である. 制御部68はひとつの指定領域を指定するために必要な
所定個数の指定点、例えば2個の指定点30、32の位
雷を入力すると、当該所定個数の指定点によって指定ざ
れる指定領域に閉する処理情報の検出を開始する.尚、
画像メモリ60及び表示画面76上にはそれぞれX−Y
座標系が仮想的に設定ざれており、それぞれ対応する画
素位百の画像バタシが同じX,Y座標位盟に保存ざれ及
び表示ざれているものとする. 検出を開始した制御部68は、まず第一及び第二指定点
を始点及びV!点とするベクトルの向きを検出する(S
l).第一及び第二指定点の位Mを(X, y1)及び
(X2 、’/z )とすれば、ベクトルの向きは!)
Xz>X+のとき右向き及びi1) X 2 < X 
+のとき左向きとなる.次に制御部68は、検出したベ
クトルの向きに予め対応付けで定められた処理情報を選
択する(S2).この実施例ではベクトルの向きが右向
き或は左向きであれば当該指定領域に間して単純二値化
処理或はディザによる二値化処理を行なうことを表す処
理情報を選択する. そして選択した処理情報を第一及び第二指定点の位置と
共に保存し、当該第一及び第二指定点の指定領域に関す
る処理情報検出を終了する.オペレータは表示画面46
上の文字部分及び写真部分の指定領域の指定点を全て指
示し終えたら、指定点の指示終了信号を制御部68に入
力するために、マウスボタンを2回クリックする.マウ
スは2回のクリックを検知すると指示終了信号を出力す
る. 制御部68は入力した指定点に関する処理情報を全て終
了しかつ指示終了信号を入力すると、指定点の位置及び
処理情報を画像合成部66に対して出力する. 画像合成部66は単純二値化処理を行なうことを表す指
定領域の指定点の位Mを第一の二値化部62に出力する
. 第一の二値化部62は、画像合成部66から入力した指
定点の位置で指定ざれる指定領域内の多値画像パタンを
画像メモリ60から読み込み単純二値化し単純二値の画
像パタンを保存する.一方、第二の二値化部64は表示
部72に転送した際のディザによる二値の画像パタンを
保存している.画像合成部66は第一の二値化部62が
指定領域内の単純二値化処理を終えると、第一の二値化
部62からは単純二値化処理を行なう処理情報を有する
指定領域の二値画像パタンを読み込み、及び第一の二値
化部64からはディザによる二値化処理を行なう処理情
報を有する指定領域の二値画像パタンを読み込み、これ
ら二値画像パタンを合成する。
When the position of the arrow tip of the cursor 22 reaches 100, which indicates the first designated point 30, the operator presses down the mouse button (turns the mouse button on) in order to output a designated point designation signal. When the mouse detects this on state, it outputs the first specified point instruction signal. T! When the designated point designation signal is input, the processing unit 74 detects the arrow tip position M of the cursor 22 at this time as the position of the designated point 30 and outputs it to the control unit 68. Further, in order to output an instruction signal for the second specified point 32 corresponding to the lower right corner point of the specified area 28 of the character part, the operator moves the cursor 22 by moving the mouse Vt while holding down the mouse button, and moves the cursor 22 to the arrow tip of the cursor 22. When the position reaches the second specified point 32 in the specified area 28, press your finger %H from the mouse button (turn the mouse button off). The mouse recognizes this off state and outputs a second specified point instruction signal. When the designated point instruction signal is input, the operating section 74 detects the current arrow tip position of the cursor 22 as M% of the second designated point 32, and outputs it to the control section 68. In the above example, the mouse outputs the first and second specified point instruction signals when it detects the on and off states, but when it detects the off and on states or when it detects a mouse button click, The method of outputting these instruction signals may be changed as desired, such as outputting the first and second designated point instruction signals. After the operator finishes specifying the specified area 28 for the text portion, he next finds the photo area on the display screen 76, and in order to specify the specified area 36 for the photo area, he first selects the first point corresponding to the upper right corner point of the specified area 36. Move the arrow tip M of the cursor 22 to the designated point 36. Then, in order to output a designated point designation signal, the mouse button is turned on while pointing the first designated point 36 at the arrow tip position of the cursor 22.
In order to output the instruction signal of the second specified point 32 corresponding to the lower left corner point of the specified area 34 of the photograph part, the rough overlay moves the tip of the arrow of the cursor 22 to the second specified point 38 while keeping the mouse button on. move it to the indicated position,
Turn off the mouse button while pointing the second designated point 38 at the arrow tip position of the cursor 22. In this way, the digit M of the specified point in each specified area is input to the control section 68 via the input section 56. The control unit 68 sequentially inputs the digit M of the specified point from the operation unit 74 and stores it. When the positions of a predetermined number of specified points, for example, the first and second specified points 30 and 32 for specifying the specified area are input, detection of processing information for the specified area on the second day is started. The control unit 68 can detect processing information in parallel with inputting the designated point position from the input unit 56. Figure 3 is a diagram showing the flow of processing information detection operations in the control unit. When the control unit 68 inputs a predetermined number of designated points necessary to designate one designated area, for example, the positions of two designated points 30 and 32, the controller 68 controls the designated area designated by the predetermined number of designated points. Start detecting processing information to close. still,
The image memory 60 and the display screen 76 each have X-Y
It is assumed that a coordinate system is set virtually, and images of 100 corresponding pixels are stored and displayed at the same X, Y coordinates. The control unit 68 that has started the detection first sets the first and second specified points as the starting point and V! Detect the direction of the point vector (S
l). If the digits M of the first and second designated points are (X, y1) and (X2,'/z), then the direction of the vector is! )
When Xz>X+, turn right and i1) X 2 < X
When it is +, it faces left. Next, the control unit 68 selects processing information predetermined in association with the direction of the detected vector (S2). In this embodiment, if the direction of the vector is rightward or leftward, processing information indicating that simple binarization processing or dithering binarization processing is to be performed on the specified region is selected. Then, the selected processing information is saved together with the positions of the first and second specified points, and processing information detection regarding the specified areas of the first and second specified points is completed. The operator uses the display screen 46
After specifying all the specified points in the specified areas of the upper text and photo areas, click the mouse button twice to input a signal indicating completion of the specified points to the control unit 68. When the mouse detects two clicks, it outputs an instruction end signal. When the control section 68 finishes processing all the processing information regarding the input specified point and receives an instruction end signal, it outputs the position of the specified point and the processing information to the image composition section 66. The image synthesizing section 66 outputs the digit M of the specified point of the specified area indicating that simple binarization processing is to be performed to the first binarization section 62. The first binarization unit 62 reads from the image memory 60 a multi-valued image pattern within a specified area specified by the position of the specified point input from the image synthesis unit 66, and converts it into simple binarization to create a simple binary image pattern. save. On the other hand, the second binarization unit 64 stores the dithered binary image pattern when transferred to the display unit 72. When the first binarization unit 62 finishes the simple binarization process within the specified area, the image synthesis unit 66 generates a specified area having processing information for performing the simple binarization process. reads a binary image pattern of a designated area having processing information for performing a dithering binarization process from the first binarization unit 64, and synthesizes these binary image patterns.

そして合成した二値画像パタンを符号化し符号化したパ
タンを記憶部70例えば磁気ディスクに格納する。
Then, the synthesized binary image pattern is encoded and the encoded pattern is stored in the storage unit 70, for example, a magnetic disk.

以上一枚の帳票の処理に開する動作の流れを繰り返し行
ない、複数枚の帳票を処理する。
The above-described flow of operations for processing a single form is repeated to process a plurality of forms.

この実施例によれば、従来装置において行なわれていた
処理情報(単純二値化を行なう文字処理領域であるかデ
ィザによる二値化を行なう写真処理領域であるか)を入
力する作業を省略できるので、オベレータの作業効率を
向上しざらに操作のしやすい装置を擾供できる.また従
来装置では処理情報を指示する領域(文字処理指示領域
及び写真処理指示領域)を表示画面上に表示していたが
、この寅施例ではこれら指示領域を省略でき、従って表
示器の小型化を図れるので装置の生産コストを低減で゜
きる. 第!億 第4図はこの発明の第二実施例の構成を概略的に示す機
能ブロック図である.尚、第一実施例の構成成分と対応
する構成成分については同一の符号を付して示す. 第二実施例の装盲は、入力部77をタブレットと称する
入力装置及びキーボードで構成する他は第一実施例と同
様の構成を有するが、動作が第一実施例と若干異なる.
以下、主として第一実施例と相違する点につき説明し第
一実施例と同様の点については詳細な説明を省略する. 第5図は第二実施例の入力部のタブレット上に帳票を載
置した状態を示す図であり、入力部77のタブレット7
7a上の所定の位宜に帳票10を固定した状態を示す.
帳票10はタブレット??aに設けた固定具78を介し
てタブレット?7aに固定ざれる.タブレット77a上
には画像メモリ60上に設定したX−Y座標系に対応す
る座標系を設定しており、画像メモリ上の画素位置と帳
票lO上の画素位盲とを一対一に対応付けている. 第5図を誉照し第二実施例の動作につき説明する. オペレータは帳票10をタブレット77a上の所定位置
に固定する.そして帳票10の文字部分12の指定領域
の左上角点に相当する第一指定点30を、図示しないペ
ンシル状の器具を用いて押圧する。タブレット??aは
この押圧位Mを検出し抑圧位コヲ第一指定点30の位置
として出力する.次いでオペレータが帳票10の文字部
分12の指定領域の右下角点に相当する第二指定点32
をペンシル状の器具を用いて押圧すると、タブレット?
?aはこの抑圧位[1検出して押圧位置を第二指定点3
2の位置として出力する. ざらにオペレータが写真部分14の指定領域の右上角点
に相当する第一指定点36を次いで左下角点に相当する
第二指定点38を押圧するとタブレ・ント77aは押圧
位M%検出しそれぞれ第一及び第二指定点36及び38
の位置として出力する.オペレータは帳票10の全ての
指定領域の指定を終了したらタブレ・ント7?a上の指
示終了領域80を押圧する.タブレット77aは終了領
域80の押圧を検知すると指示終了信号を制御部6日に
出力する.制御部68は第一実施例と同様に、入力した
指定点に関する処理情報を全て終了しかつ指示終了信号
を入力すると、指定点の位盲及び処理情報を画像合成部
66に対して出力する.画像合成部66は文字及び写真
部分の指定領域の指定点位貫を第一及び第二の二値化部
62及び64に出力する.オペレータは指示終了領域8
0の押圧を終了すると、帳票10を入力部77から取外
し図示しない走査機構部にセットする.そして入力部7
7のキーポドを介して読取り開始信号を第二実施例の装
=に入力する. 読取り開始信号を入力すると、光電変換部58が帳票1
0の多値画像パタンを出力し画像メモリ60に格納する
. 帳票10の全面の多値画像パタンを画像メモリ60に入
力し終えると、第一及び第二の二値化部62及び64は
画像合成部66から入力した指定点の位置によって指定
される指定領域内の多値画像パタンを画像メモリ60か
ら入力し、単純二値画像パタン及びディザによる画像パ
タンに変換し、これら変換した画像パタンを画像合成部
66に対して出力する. 画像合成部66は第一寅施例と同様にして画像パタン壱
合成し符号化した画像パタンを記憶部70に格納する. この芙施例によれば、第一実施例と同様、オペレータの
作業効率を向上しさらに操作のしやすい装置を提供でき
る.また入力部のタブレット上に処理情報を指示する領
域(文書処理指示領域及び写真処理指示領域)を設けず
にすむので、タブレットの小型化を図れ、よって装置の
生産コストを低減できる. 第1虹例 この実施例はこの発明を文字認識装百に適用した例であ
る. 第6図はこの発明の第三実施例の構成を概略的に示す機
能ブロック図である.尚、上述した構成成分と同様の構
成成分については同一の符号を付して示し、その詳細な
説明を省略する。
According to this embodiment, it is possible to omit the work of inputting processing information (whether it is a character processing area that performs simple binarization or a photo processing area that performs binarization using dithering) that was performed in conventional devices. Therefore, it is possible to improve the work efficiency of the operator and provide a device that is easy to operate. In addition, in conventional devices, areas for instructing processing information (character processing instruction area and photo processing instruction area) were displayed on the display screen, but in this embodiment, these instruction areas can be omitted, thus reducing the size of the display. This allows the production cost of the device to be reduced. No.! FIG. 4 is a functional block diagram schematically showing the configuration of a second embodiment of the present invention. Note that constituent components corresponding to those of the first embodiment are indicated with the same reference numerals. The blind device of the second embodiment has the same configuration as the first embodiment except that the input section 77 is composed of an input device called a tablet and a keyboard, but the operation is slightly different from that of the first embodiment.
Below, we will mainly explain the points that are different from the first embodiment, and will omit a detailed explanation of the points that are similar to the first embodiment. FIG. 5 is a diagram showing a state in which a form is placed on the tablet of the input section of the second embodiment, and shows the tablet 7 of the input section 77.
7a shows a state in which the form 10 is fixed at a predetermined position.
Is form 10 a tablet? ? Tablet via the fixture 78 provided in a? Fixed to 7a. A coordinate system corresponding to the X-Y coordinate system set on the image memory 60 is set on the tablet 77a, and a pixel position on the image memory is associated with a pixel position on the form 10 in a one-to-one correspondence. There is. The operation of the second embodiment will be explained with reference to FIG. The operator fixes the form 10 in a predetermined position on the tablet 77a. Then, a first specified point 30 corresponding to the upper left corner point of the specified area of the character portion 12 of the form 10 is pressed using a pencil-like instrument (not shown). Tablet? ? a detects this pressing position M and outputs it as the position of the first specified point 30 of the suppressing position. Next, the operator selects a second specified point 32 corresponding to the lower right corner point of the specified area of the character portion 12 of the form 10.
If you press it with a pencil-like device, will it turn into a tablet?
? a is this suppression position [1 is detected and the pressing position is the second designated point 3
Output as position 2. When the operator roughly presses the first specified point 36 corresponding to the upper right corner point of the specified area of the photographic portion 14, and then the second specified point 38 corresponding to the lower left corner point, the tablet 77a detects the pressed position M% and respectively. First and second designated points 36 and 38
Output as the position of . When the operator finishes specifying all specified areas on the form 10, the operator selects the tablet 7? Press the instruction end area 80 on a. When the tablet 77a detects the pressing of the end area 80, it outputs an instruction end signal to the control section 6. As in the first embodiment, when the control section 68 finishes processing all the processing information regarding the input specified point and inputs the instruction end signal, it outputs the positional blindness and processing information of the specified point to the image composition section 66. The image synthesizing section 66 outputs the designated points of the designated areas of the text and photograph portions to the first and second binarization sections 62 and 64. The operator is in the instruction end area 8.
After pressing 0, the form 10 is removed from the input section 77 and set in a scanning mechanism section (not shown). and input section 7
A reading start signal is input to the device of the second embodiment via keypad No. 7. When the reading start signal is input, the photoelectric conversion unit 58 reads the form 1.
A multivalued image pattern of 0 is output and stored in the image memory 60. After inputting the multivalued image pattern of the entire surface of the form 10 into the image memory 60, the first and second binarization units 62 and 64 convert the designated area specified by the position of the specified point input from the image synthesis unit 66. A multivalued image pattern in the image memory 60 is inputted, converted into a simple binary image pattern and a dithered image pattern, and these converted image patterns are outputted to the image synthesis section 66. The image synthesis section 66 synthesizes one image pattern and stores the encoded image pattern in the storage section 70 in the same manner as in the first embodiment. According to this embodiment, similar to the first embodiment, it is possible to improve the operator's work efficiency and provide a device that is easier to operate. Furthermore, since there is no need to provide areas for instructing processing information (document processing instruction area and photo processing instruction area) on the tablet of the input unit, the tablet can be made smaller and the production cost of the device can be reduced. First Rainbow Example This example is an example in which this invention is applied to a character recognition system. FIG. 6 is a functional block diagram schematically showing the configuration of a third embodiment of the present invention. Components similar to those described above are designated by the same reference numerals, and detailed description thereof will be omitted.

第6図にも示すように、この実施例の装置は、二値の画
像パタンを得るための前処理部82と、認識処理を行な
うための画像処理部84と、入力部56とから成る. この実施例では、前処理部82を、二値の画像パタンを
出力する光電変換部86及び画像メモリ60から構成す
る. ざらに画像処理部84を画像パタンかう認識対象パタン
を切出し認識対象パタンの認識処理を行なう認識部88
と、処理情報の検出を行なう制御部90とから構成する
. 以下、この実施例の動作につき説明する.この実施例で
は指定領域を第一及び第二指定点を結ノ3《線分を対角
線とする矩形領域とし、第一及び第二指定点を始点及び
終点とするベクトルの向きが右向きであるとき当該第一
及び第二指定点で指定する指定領域に対して横書き文書
の認識処理を行ないまたベクトルの向きが左向きである
とき当該指定領域を縦書き文書の認識処理を行なうとい
うルールが予め定められているものとし、オペレータは
このルールに従ってこの実施例の装言を操作する. オペレータは走査機構部(図示せず)に横書き或は縦書
き文書の帳票(第13図(A)或は(B)?照)をセッ
トする。そしてオペレータはマウスを介して読取り開始
信号を入力する.光電変換部86は帳票の光学的走査を
開始し、光情報Lを二値の電気信号に変換し、この電気
信号から成る画像パタンを出力する。画像メモリ60は
光電変換部86からの二値画像パタンを格納する. 制御部90は画像メモリ60の二値画像パタンを読出し
表示部72に転送する.表示部72は転送された画像パ
タンに基づいて帳票全面の画像パタンを表示する. 第7図はこの実施例における表示画面例を示す図であり
、第7図(A)及び(B)は表示画面76にカーソ.ル
22と帳票パタン48及び50と表示した状態を示す。
As shown in FIG. 6, the apparatus of this embodiment includes a preprocessing section 82 for obtaining a binary image pattern, an image processing section 84 for performing recognition processing, and an input section 56. In this embodiment, the preprocessing section 82 includes a photoelectric conversion section 86 that outputs a binary image pattern and an image memory 60. A recognition unit 88 roughly cuts out a recognition target pattern through the image processing unit 84 and performs recognition processing on the recognition target pattern.
and a control section 90 that detects processing information. The operation of this embodiment will be explained below. In this example, the specified area is a rectangular area connecting the first and second specified points with the line segments as diagonals, and the direction of the vector with the first and second specified points as the starting and ending points is to the right. A rule is predetermined that a horizontally written document recognition process is performed on the specified area specified by the first and second specified points, and when the direction of the vector is leftward, a vertically written document recognition process is performed on the specified area. The operator operates the pretense in this example according to these rules. An operator sets a form (see FIG. 13(A) or (B)) of a horizontally or vertically written document in a scanning mechanism (not shown). The operator then inputs a reading start signal via the mouse. The photoelectric conversion unit 86 starts optical scanning of the form, converts the optical information L into a binary electrical signal, and outputs an image pattern made of this electrical signal. The image memory 60 stores the binary image pattern from the photoelectric conversion unit 86. The control section 90 reads out the binary image pattern from the image memory 60 and transfers it to the display section 72. The display unit 72 displays the image pattern of the entire document based on the transferred image pattern. FIG. 7 is a diagram showing an example of a display screen in this embodiment, and FIGS. 7(A) and (B) show a cursor on the display screen 76. 22 and form patterns 48 and 50 are shown.

オペレータは、表示画面76上で文字部分を見付けると
横書き文書及び縦書き文書のいすれであるかを判断する
。横書き文書であればマウスを操作して指定領域28の
左上角点に相当する位置にカーソル22の表示位置を移
動させる。縦書き文書であれば指定領tfi28の右上
角点に相当する位直にカソル22を移動する. カーソル22の矢印先端位百が所望の第一指定点30ヲ
指示する位フにきたら、オペレータはマウスボタンを操
作して第一の指定点指示信号を出力する.指定点指示信
号を入力した操作部74はこのときのカーソル22の矢
印先端位百ヲ、第一指定点30の位置として検出し、制
御部90に対して出力する。
When the operator finds a character portion on the display screen 76, the operator determines whether it is a horizontally written document or a vertically written document. If the document is written horizontally, the display position of the cursor 22 is moved to a position corresponding to the upper left corner point of the specified area 28 by operating the mouse. If the document is written vertically, move the cursor 22 to the position corresponding to the upper right corner of the designated area tfi28. When the arrow tip of the cursor 22 reaches a position indicating the desired first designated point 30, the operator operates the mouse button to output a first designated point designation signal. The operating section 74 into which the designated point instruction signal is input detects the arrow tip position of the cursor 22 at this time as the position of the first designated point 30, and outputs it to the control section 90.

ざらにオペレータは指定領域28の第二の指定点32ヲ
指示するためにマウスを走査してカーソル22の位置を
移動させる.横書き文書であれば指定領域28の右下角
点に相当する位置にカーソル22の表示位置を移動させ
る.縦書き文書であれば指定領域28の左下角点に相当
する位フにカーソル22を移動する。
Roughly, the operator moves the position of the cursor 22 by scanning the mouse to point to the second specified point 32 in the specified area 28. If the document is written horizontally, the display position of the cursor 22 is moved to the position corresponding to the lower right corner of the specified area 28. If the document is vertically written, the cursor 22 is moved to a position corresponding to the lower left corner point of the specified area 28.

力一ソル22の矢印先端位=が所望の第二指定点32ヲ
指示する位ゴにきたら、オペレータはマウスボタンを操
作して第二の指定点指示信号を出力する。指定点指示信
号を入力した操作部74はこのときのカーソル22の矢
印先端位I8、第二指定点32の位置としで検出し、制
御部90に対して出力する. 制御部90は操作部74からの指定点の位ゴを順次入力
し保存する。指定領域を指定する所定個数指定点の位a
t入力すると、処理情報検出を開始する。制御部90は
入力部56からの指定点位百入力と並行して処理情報検
出を行なえる. 制御部90は第一実施例の制御部68と同様にして指定
点30、32を始点、終点とするベクトルの向きを検出
し、右向きであれば横書き文書の認識処理を行なうこと
を表す処理情報を及び左向きであれば縦書き文書の認識
処理を行なうことを表す処理情報を選択し、選択した処
理情報と共に指定点30、32の位百を保存し、当該指
定点30、32の指定する指定領域に関する処理情報検
出を終了する. オペレータは表示画面46上の全ての指定領域の指定点
を指示し終えたら、マウスを操作して指定点の指示終了
信号を制御部90に対しで出力する。
When the arrow tip of the force sol 22 reaches a position that indicates the desired second designated point 32, the operator operates the mouse button to output a second designated point designation signal. The operating unit 74 inputting the specified point instruction signal detects the arrow tip position I8 of the cursor 22 at this time as the position of the second specified point 32, and outputs it to the control unit 90. The control section 90 sequentially inputs the position of the specified point from the operation section 74 and stores it. Position a of the predetermined number of designated points that designate the designated area
When t is input, processing information detection starts. The control unit 90 can detect processing information in parallel with the input of specified points from the input unit 56. The control unit 90 detects the direction of the vector having the specified points 30 and 32 as starting and ending points in the same way as the control unit 68 of the first embodiment, and if it is right-oriented, it detects processing information indicating that horizontally written document recognition processing is to be performed. and if the document is oriented to the left, select processing information indicating that vertical document recognition processing is to be performed, save the 100th place of specified points 30 and 32 along with the selected processing information, and select the specified points 30 and 32. Finish detecting processing information regarding the area. After the operator has designated designated points in all designated areas on the display screen 46, he operates the mouse to output a designated point designation completion signal to the control unit 90.

制御部90は入力した指定点に関する処理情報を全て終
了しかつ指示終了信号を入力すると、指定点の位置及び
処理情報を認識部88に対して出力する. 認識部88は指定点の位置及び処理情報を入力すると、
指定点30、32によって指定ざれる指定領域28内の
二値画像パタンを走査し、走査線毎に走査線上の黒画素
を計数して第一の周辺分布を作成し第一の周辺分布に基
づいて文字行位置を検出する.さらに文字行位置に基づ
いて文字行領域内の二値画像パタンを文字行に沿う方向
と垂直な方向を主走査方向としで走査し走査線毎に走査
線上の黒画素を計数して第二の周辺分布を作成し、第二
の周辺分布に基づいて一単位の認識対象パタン例えば一
文字の文字パタンの位薗ヲ検出する。
When the control section 90 finishes processing all the processing information regarding the input designated point and receives an instruction end signal, it outputs the position of the designated point and the processing information to the recognition section 88 . When the recognition unit 88 inputs the specified point position and processing information,
A binary image pattern within the specified area 28 specified by the specified points 30 and 32 is scanned, black pixels on each scanning line are counted to create a first marginal distribution, and a first marginal distribution is created based on the first marginal distribution. to detect the character line position. Furthermore, based on the character line position, the binary image pattern in the character line area is scanned with the main scanning direction perpendicular to the direction along the character line, and the black pixels on the scanning line are counted for each scanning line. A marginal distribution is created, and the position of one unit of recognition target pattern, for example, a character pattern of one character, is detected based on the second marginal distribution.

処理情報が横書き文書の認識処理を表す情報であれば第
一及び第二の周辺分布作成時の主走査方向をX軸方向及
びY軸方向とし、また縦書き文書の認識処理を表す情報
であれば第一及び第二の周辺分布作成時の主走査方向8
Y軸方向及びX軸方向として、二値画像パタンの走査を
行なう。
If the processing information is information representing recognition processing for a horizontally written document, the main scanning direction when creating the first and second peripheral distributions should be the X-axis direction and Y-axis direction, and if the processing information is information representing recognition processing for a vertically written document. Main scanning direction 8 when creating the first and second peripheral distributions
A binary image pattern is scanned in the Y-axis direction and the X-axis direction.

認識部88は認識対象一単位の位Mを検出すると一単位
毎に認識対象パタンを二値画像パタンがら切出し、切出
した認識対象パタンに閏する各種特徴tを抽出し、この
抽出特徴量を図示しない辞書に格納ざれている標準文字
の特徴量と照合して認識を行なう.そして認識対象パタ
ンの認識結果C例えばJIS規格に規定ざれる文字コー
ドを制御郡90に出力する. 制御部90は指定領域内の全ての認識結果Cを入力する
と、認識結果Cを出力する. 第8図はこの実施例における他の表示例を示す図であり
、横書き及び縦書きの文字群が混在する帳票のパタン9
2とカーソル22とを表示している状@を示す. 上述した例では帳票上の文字群が全て同一の字並びとな
る帳票につき説明したが、この実施例は同一の字並びの
場合のみならず同一帳票上に横書き及び縦書きの文字群
が混在する場合にも適用できる.このような横書き及び
縦書きの混在は、例えば郵便物の宛名書きに見られる. 横書き及び縦書きが混在する場合の動作につき説明する
.この場合、オペレータは、制御部90に対しで、横書
き文字群の指定領域28ヲ指定する第一及び第二の指定
点30及び32の指定点指示信号を入力しかつ縦書き文
字群の指定領域34を指定する第一及び第二の指定点3
6及び38の指定点指示信号を入力したのち、指示終了
信号を入力する.すると制御部90は指定領域28の指
定点30、32の位百及び処理情報と指定領域34の指
定点36、38の位フ及び処理情報とを認識部88に対
して出力する. 認識部は入力した指定点位宜及び処理情報に基づいて各
指定領域内の二値画像パタンの認識処理を行なう。
When the recognition unit 88 detects the digit M of one unit of the recognition target, it cuts out the recognition target pattern for each unit from the binary image pattern, extracts various features t that intersect with the cut out recognition target pattern, and diagrams the extracted feature amounts. Recognition is performed by comparing the features of standard characters stored in a dictionary. Then, the recognition result C of the recognition target pattern, for example, the character code specified in the JIS standard, is output to the control group 90. When the control unit 90 receives all the recognition results C within the specified area, it outputs the recognition results C. FIG. 8 is a diagram showing another display example in this embodiment, showing a form pattern 9 in which horizontally written and vertically written character groups are mixed.
2 and cursor 22 are displayed. In the above example, we have explained a form in which all the character groups on the form are in the same character arrangement, but in this embodiment, not only the case where the character groups on the form are the same character arrangement, but also horizontal and vertical character groups are mixed on the same form. It can also be applied to cases. This kind of mixture of horizontal and vertical writing can be seen, for example, in address writing on mail. This section explains the behavior when horizontal and vertical writing are mixed. In this case, the operator inputs to the control unit 90 the specified point instruction signals of the first and second specified points 30 and 32 that specify the specified area 28 of the horizontally written character group, and the specified area of the vertically written character group. The first and second designated points 3 specifying 34
After inputting the specified point instruction signals 6 and 38, input the instruction end signal. Then, the control unit 90 outputs the specified points 30 and 32 of the specified area 28 and processing information, and the specified points 36 and 38 of the specified area 34 and the specified points 36 and 38 and outputs the processing information to the recognition unit 88. The recognition unit performs recognition processing of the binary image pattern within each designated area based on the input designated point position and processing information.

この実施例によれば、従来装ゴ(こあいて行なわれてい
た処理情報(横書き文書の認識処理を行なう横書き処理
領域であるか縦書き文書の認識処理を行なう縦書き処理
領域であるか)を入力する作業を省略できるので、マウ
スの移動量及びマウスボタンの操作回数を著しく低減で
きる.その結果、オペレータの作業効率を向上しざらに
操作のしやすい装置を提供できる。
According to this embodiment, processing information that was performed in the conventional layout (whether it is a horizontal writing processing area for recognizing horizontally written documents or a vertical writing processing area for performing recognition processing for vertically written documents) Since the work of inputting information can be omitted, the amount of mouse movement and the number of mouse button operations can be significantly reduced.As a result, it is possible to improve the operator's work efficiency and provide a device that is easy to operate.

また従来装璽では処理情報を指示する領域(横書き処理
指示領域及び縦書き処理指示領域)を表示画面上に表示
していたが、この実施例ではこれら指示領域を省略でき
、従って表示器の小型化を図れるので装置の生産コスト
を低減できる。
Furthermore, in the conventional design, areas for instructing processing information (horizontal writing processing instruction area and vertical writing processing instruction area) were displayed on the display screen, but in this embodiment, these instruction areas can be omitted, and therefore the display device can be made smaller. The production cost of the device can be reduced.

第!υe虹例 第9図はこの発明の第四実施例の構成を概略的に示す機
能ブロック図である.尚、上述した構成成分と対応する
構成成分については同一の符号を付しで示し、その詳細
な説明を省略する。
No.! υe Rainbow Example FIG. 9 is a functional block diagram schematically showing the configuration of a fourth embodiment of the present invention. Components corresponding to those described above are denoted by the same reference numerals, and detailed explanation thereof will be omitted.

第四実施例の装冒は、入力部77をタブレットと称する
入力装置及びキーボードで構成する他は第三実施例と同
様の構成を有するが、動作が第三芙施例と若干異なる.
以下、主として第三実施例と相違する点につき説明し第
三実施例と同様の点については詳細な説明を省略する. 第10図は第四実施例の入力部のタブレット上に帳票を
載冒した状態を示す図であり、第10図(A)及び(B
)はタブレット77a上の所定の位言に帳票40及び4
2(第13図(A)及びCB)参照)を固定した状態を
示す. 第10図18参照し第四実施例の動作につき説明する. オペレータは帳票をタブレット77a上の所定位置に固
定すると共に、帳票が横書き文書及び縦書き文書のいず
れであるかを判断する.横書き文書であればペンシル状
の器具で指定領域の左上角点に相当する位Nを押圧する
.縦書き文書であれば指定領域の右上角点に相当する位
Mを押圧する。
The device of the fourth embodiment has the same configuration as the third embodiment except that the input unit 77 is composed of an input device called a tablet and a keyboard, but the operation is slightly different from that of the third embodiment.
Hereinafter, points that are different from the third embodiment will be mainly explained, and detailed explanations about the same points as the third embodiment will be omitted. FIG. 10 is a diagram showing a state in which a form is placed on the tablet of the input unit of the fourth embodiment, and FIG. 10 (A) and (B)
) is written in the form 40 and 4 in the predetermined position on the tablet 77a.
2 (see Fig. 13 (A) and CB)) is shown in a fixed state. The operation of the fourth embodiment will be explained with reference to FIG. The operator fixes the form at a predetermined position on the tablet 77a and determines whether the form is a horizontally written document or a vertically written document. If the document is written horizontally, use a pencil-like tool to press N, which corresponds to the upper left corner of the specified area. If it is a vertically written document, press M corresponding to the upper right corner point of the specified area.

タブレット77aはこの押圧位Mを検出し押圧位置を第
一指定点30の位置として出力する。
The tablet 77a detects this pressed position M and outputs the pressed position as the position of the first specified point 30.

次いでオペレータは第二の指定点を指示すべく、横書き
文書であればペンシル状の器具で指定領域の右下角点に
相当する位置を押圧する。縦書き文書であれば指定領域
の左下角点に相当する位百を押圧する.タブレット??
aはこの抑圧位Xt検出し押圧位百を第二指定点32の
位置として出力する. オペレータは全ての指定領域の指定を終了したら指示終
了領域80を押圧する。タブレット77aは終了領ti
ili80の押圧を検知して指示終了信号を制御部68
に出力する.制御部68は第一寅施例と同様に、入力し
た指定点に関する処理情報を全て終了しかつ指示終了信
号を入力すると、指定点の位置及び処理情報を認識部8
日に対しで出力ずる。
Next, in order to designate the second designated point, the operator presses a position corresponding to the lower right corner of the designated area with a pencil-like instrument if the document is written horizontally. If it is a vertically written document, press 100, which corresponds to the lower left corner point of the specified area. Tablet? ?
a detects this depression position Xt and outputs the depression position 100 as the position of the second specified point 32. When the operator has finished specifying all specified areas, he presses the instruction end area 80. Tablet 77a is the end area ti
The control unit 68 detects the pressing of ili 80 and sends an instruction end signal.
Output to . As in the first embodiment, when the control unit 68 completes all the processing information regarding the input specified point and inputs the instruction end signal, the control unit 68 transfers the position and processing information of the specified point to the recognition unit 8.
The output changes depending on the day.

オペレータは指示終了領域80の押圧を終了すると、帳
票を図示しない走査機構部にセットし、入力部77のキ
ーボードを介して読取り開始信号を入力する。
When the operator finishes pressing the instruction end area 80, the operator sets the form in a scanning mechanism section (not shown) and inputs a reading start signal via the keyboard of the input section 77.

読取り開始信号を入力すると、光電変換部58が帳票の
二値画像パタンを出力し画像メモリ60に格納する. 帳票の全面の多値画像パタンを画像メモリ60に入力し
終えると、認識部88は入力した指定点の位言によって
指定される指定領域内の二値画像パタンにつき認識処理
を行ない、認識結果を制御部90に対して出力する. 制御部90は認識部88が帳票一枚の認識処理を終了す
ると認識結果Ct出力する. この実施例によれば、第三実施例と同様、処理情報(横
書き文書の認識処理を行なう横書き処理領域であるか縦
書き文書の認識処理を行なう縦書き処理領域であるか)
を入力する作業を省略できるので、オペレータの作業効
率を向上しざらに操作のしやすい装Mを提供できる. また処理情報を指示する領域(横書き処理指示領域及び
縦書き処理指示領域)をタブレット上に設けるなくとも
よいので、従ってタブレットの小型化を図れ、従って装
置の生産コストを低減できる. この発明は上述した実施例にのみ限定ざれるものではな
く、従って各構成成分の入出力信号、入出力信号の流れ
、動作、動作の流れ、構成、数値的条件、形状、配設位
雷、寸法及び数値的条件を任意好適に変更できる。
When a reading start signal is input, the photoelectric conversion section 58 outputs a binary image pattern of the form and stores it in the image memory 60. After inputting the multivalued image pattern of the entire surface of the form into the image memory 60, the recognition unit 88 performs recognition processing on the binary image pattern within the specified area specified by the input position of the specified point, and outputs the recognition result. Output to the control unit 90. The control unit 90 outputs the recognition result Ct when the recognition unit 88 completes the recognition process for one sheet. According to this embodiment, as in the third embodiment, processing information (whether it is a horizontal writing processing area for performing recognition processing of horizontally written documents or a vertical writing processing area for performing recognition processing for vertically written documents)
Since the work of inputting information can be omitted, it is possible to improve the operator's work efficiency and provide a device M that is easy to operate. Furthermore, since there is no need to provide areas for instructing processing information (horizontal writing processing instruction area and vertical writing processing instruction area) on the tablet, the tablet can be made smaller, and the production cost of the device can therefore be reduced. The present invention is not limited only to the embodiments described above, and therefore, the input/output signals of each component, the flow of input/output signals, the operation, the flow of the operation, the configuration, numerical conditions, shape, arrangement position, The dimensions and numerical conditions can be changed as desired.

例えばベクトルの向きを右斜め上向き及び下向き、ざら
に左斜め上向き及び下向きの4種とし、これら向きの種
別に対してそれぞれ異なる処理情報を対応付けるように
しでもよい。例えば、第指定点の位置(x+ 、’/+
 )及び第二指定点の位置(X2、’/2)とすればi
)x,<x2かつ”/+>Vzのとき右斜め上向き、i
D X + < X2かつ’/I<’/2のとき右斜め
下向き、iii)x, >X2かつy1〉y2のとき左
斜め上向き、iv)X+ >X2かつ’/I<”l’2
のとき左斜め下向きと判別することができる. また領域指定点を2個とするのみならず、3個以上とし
てもよい.3個以上とした場合にはベクトルの向き及び
指定点の個数に応じた処理情報を用意し、これらベクト
ルの向き及び指定点の個数によって処理情報を選択する
ようにすることもできる.また3個以上とすれば上述し
た実施例の場合よりも複雑な形状を有する指定領域の指
定を行なうこともできる. また上述した実施例ではマウス或はタブレットを用いて
入力部を構成した例につき説明したが入力部の構成にマ
ウス、タブレット以外のものを用いてよく、例えばライ
トベンを用いて入力部を構成するようにしてもよい.ラ
イトベンを用いた場合、入力部に表示部を設け、ライト
ベンで指示した表示部表示画面上の位Mを、領域指定点
の位貫として入力できる. (発明の効果) 上述した説明からも明らかなように、この発明の画像処
理装百によれば、画像処理部が指定領域の処理情報を検
出するので、オペレータは指定点を指示する作業を行な
うだけでよく指定領域の処理情報を入力する必要がない
. これがため才ベレータの作業効率を向上し操作しやすい
装曹ヲ提供できる.
For example, there may be four types of vector directions: diagonally upward and downward to the right, diagonally upward and downward to the left, and different processing information may be associated with each of these direction types. For example, the position of the specified point (x+,'/+
) and the position of the second designated point (X2,'/2), then i
) x, diagonally upward to the right when <x2 and "/+>Vz, i
When D X + < X2 and '/I<'/2, diagonally downward to the right; iii) When x, >
When , it can be determined that the direction is diagonally downward to the left. Furthermore, the number of area designation points is not limited to two, but may be three or more. If there are three or more, processing information can be prepared according to the direction of the vector and the number of specified points, and the processing information can be selected according to the direction of the vector and the number of specified points. Furthermore, if there are three or more, it is possible to specify a specified area having a more complicated shape than in the above embodiment. Furthermore, in the above-described embodiments, an example was explained in which the input unit was configured using a mouse or a tablet, but the input unit may be configured using something other than a mouse or a tablet. For example, the input unit may be configured using a light ben. You can also do this. When using a light ben, a display part is provided in the input part, and the position M on the display screen of the display part specified by the light ben can be input as the place of the area specified point. (Effects of the Invention) As is clear from the above description, according to the image processing device of the present invention, the image processing unit detects processing information of a specified area, so the operator performs the work of specifying a specified point. There is no need to input processing information for the specified area. This improves the work efficiency of the operator and provides an easy-to-operate tool.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の第一実施例の構成を概略的に示す機
能ブロック図、 第2図は第一実施例における表示画面例、第3図は処理
情報検出の動作説明図、 第4図はこの発明の第二寅施例の構成%[略的に示す機
能ブロック図、 第5図は第二実施例の入力部のタブレット上に帳票をi
iaした状態を示す図、 第6図はこの発明の第三実施例の構成を概略的に示す機
能ブロック図、 第7図(A)〜(B)は第三実施例における表示画面例
を示す図、 第8図は第三実施例における他の表示画面例、第9図は
この発明の第四実施例の構成を概略的に示す機能ブロッ
ク図、 第10図(A)〜(゜B)は第四寅施例の入力部のタブ
レット上に帳票を載貫した状態を示す図、第11図は文
字及び写真が混在する帳票例、第12図は従来の文書フ
ァイル装置における表示画面例、 第13図(A)〜(B)は横書き文書及び縦書き文書の
帳票例、 第14図(A)〜(B)は従来の文字認識装百における
表示画面例である. 52、82・・・前処理部、 54、84・・・画像処
理部56、77・・・入力部、  58、86・・・光
電変換部60・・・画像メモリ、  62・・・第一の
二値化部64・・・第二の二値化部、66・・・画像合
成部68、90・・・制m部、  70・・・記憶部7
2・・・表示部、    74・・・操作部88・・・
認識部. 特許出願人  沖電気工業株式会社 18帳票パタン 22カーソル 24文字部パタン 26写真部パタン 28、34一指定領域 30、32、36、38指定点 76表示画面 纂一寅施例における表示画面例 第2図 処理情報検出の動作説明図 第3図 第三寅施例の機能ブロック図 第6 10・帳票 12:文字部分 14写真部分 77aタブレット 8〇一指示終了領域 タブレット上に帳票を載謂した状@を示す図第5 図 第三英施例における表示画面例 第7図 第 寅施例における他の表示画面例 第8 図 タブレット上に帳票を載フした状懲そ示す図第lO図 第四寅施例の機能フロック図 @9 図 文字及び写真が混在する帳票例 第11図 従来のファイル装言における表示画面例第12図 帳票例 第13図
FIG. 1 is a functional block diagram schematically showing the configuration of a first embodiment of the present invention, FIG. 2 is an example of a display screen in the first embodiment, FIG. 3 is an explanatory diagram of processing information detection, and FIG. 4 is a functional block diagram schematically showing the composition of the second embodiment of the present invention; FIG.
FIG. 6 is a functional block diagram schematically showing the configuration of a third embodiment of the present invention, and FIGS. 7(A) to (B) show examples of display screens in the third embodiment. 8 is another display screen example in the third embodiment, FIG. 9 is a functional block diagram schematically showing the configuration of the fourth embodiment of the present invention, and FIG. 10 (A) to (゜B) 11 is a diagram showing a state where a form is loaded on the tablet of the input unit of the fourth embodiment, FIG. 11 is an example of a form containing a mixture of text and photos, and FIG. 12 is an example of a display screen in a conventional document file device. 13(A) to 13(B) are examples of forms for horizontally written documents and vertically written documents, and FIGS. 14(A) to 14(B) are examples of display screens in a conventional character recognition device. 52, 82... Pre-processing section, 54, 84... Image processing section 56, 77... Input section, 58, 86... Photoelectric conversion section 60... Image memory, 62... First Binarization unit 64...Second binarization unit, 66...Image synthesis unit 68, 90...Control unit, 70...Storage unit 7
2...Display section, 74...Operation section 88...
Recognition part. Patent Applicant: Oki Electric Industry Co., Ltd. 18 Form pattern 22 Cursor 24 Character part pattern 26 Photograph part pattern 28, 34 - Designated area 30, 32, 36, 38 Designated point 76 Display screen Second example of display screen in Ichitora's embodiment Figure 3 Functional block diagram of the third example 10. Form 12: Text portion 14 Photo portion 77a Tablet 8.1 Indication end area State of placing the form on the tablet @ Figure 5 Figure 3 An example of a display screen in the English embodiment Figure 7 Example of another display screen in the Example Figure 8 Diagram showing the appearance of a form loaded on a tablet Figure lO Figure 4 Functional block diagram of the example @ 9 Figure Example of a form with a mixture of text and photos Figure 11 Example of a display screen in conventional file mode Figure 12 Example of a form Figure 13

Claims (3)

【特許請求の範囲】[Claims] (1)情報媒体の画像パタンを得るための前処理部と、
前記画像パタンの指定領域内の画像処理を処理情報に応
じて行なう画像処理部とを備えて成る画像処理装置にお
いて、 画像パタン上の指定領域の指定点の位置を検出するため
の入力部を設け、 前記画像処理部を、少なくとも前記指定点の位置に基づ
いて前記処理情報を検出する画像処理部としたことを特
徴とする画像処理装置。
(1) A preprocessing unit for obtaining an image pattern of an information medium;
an image processing unit that performs image processing within a specified area of the image pattern according to processing information, the image processing device comprising: an input unit for detecting the position of a specified point in the specified area on the image pattern; . An image processing device, wherein the image processing unit is an image processing unit that detects the processing information based on at least the position of the specified point.
(2)前記前処理部を、多値化された画像パタンを得る
前処理部とし、 前記画像処理部を、画像パタンの単純二値化処理を行な
う第一の二値化部と、画像パタンのディザによる二値化
処理を行なう第二の二値化部と、単純二値化処理が行な
われた画像パタンとディザによる二値化処理が行なわれ
た画像パタンとを合成する画像合成部と、処理情報の検
出を行なうと共に合成した画像パタンを符号化する制御
部と、符号化した画像パタンを格納する記憶部とから構
成したことを特徴とする請求項1に記載の画像処理装置
(2) The preprocessing unit is a preprocessing unit that obtains a multivalued image pattern, and the image processing unit is a first binarization unit that performs simple binarization processing of the image pattern; a second binarization unit that performs a binarization process using dither; and an image synthesis unit that synthesizes an image pattern that has been subjected to the simple binarization process and an image pattern that has undergone the binarization process that has been performed using the dither. 2. The image processing apparatus according to claim 1, further comprising: a control unit that detects processing information and encodes a synthesized image pattern; and a storage unit that stores the encoded image pattern.
(3)前記前処理部を、二値の画像パタンを得る前処理
部とし、 前記画像処理部を、画像パタンから認識対象パタンを切
出し認識対象パタンの認識処理を行なう認識部と、処理
情報の検出を行なう制御部とから構成したことを特徴と
する請求項2に記載の画像処理装置。
(3) The preprocessing unit is a preprocessing unit that obtains a binary image pattern, and the image processing unit is a recognition unit that cuts out a recognition target pattern from the image pattern and performs recognition processing on the recognition target pattern, and a recognition unit that performs recognition processing on the recognition target pattern, and a processing information 3. The image processing apparatus according to claim 2, further comprising a control section that performs detection.
JP1114574A 1989-05-08 1989-05-08 Image processor Pending JPH02293980A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1114574A JPH02293980A (en) 1989-05-08 1989-05-08 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1114574A JPH02293980A (en) 1989-05-08 1989-05-08 Image processor

Publications (1)

Publication Number Publication Date
JPH02293980A true JPH02293980A (en) 1990-12-05

Family

ID=14641246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1114574A Pending JPH02293980A (en) 1989-05-08 1989-05-08 Image processor

Country Status (1)

Country Link
JP (1) JPH02293980A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008299830A (en) * 2007-06-01 2008-12-11 Primax Electronics Ltd Image analysis method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008299830A (en) * 2007-06-01 2008-12-11 Primax Electronics Ltd Image analysis method
JP2012074078A (en) * 2007-06-01 2012-04-12 Primax Electronics Ltd Method for analyzing plurality of images having same image blocks by using image analysis program

Similar Documents

Publication Publication Date Title
US5075895A (en) Method and apparatus for recognizing table area formed in binary image of document
JP3756719B2 (en) Document modification apparatus and image processing apparatus
EP1573392A2 (en) Projection device, projection system, and image obtainment method
US5068804A (en) Document input method and apparatus
JPH032979A (en) Method and device for correction of image
US5563964A (en) Method and apparatus for processing a plurality of designated areas of an image
JPH02293980A (en) Image processor
JPS606992A (en) Display unit
JP2720807B2 (en) Scenario editing device
JPH07168664A (en) Input control method for image input device
JPH06131111A (en) Device and method for character recognition
JPH01126718A (en) Image input control device
EP0627701B1 (en) Image processing method and apparatus for document analysis
JPS63157222A (en) Input device for handwritten information
JPS63146168A (en) Picture editing method
JP3426005B2 (en) Line figure input device
JPS59186065A (en) Method and apparatus for extracting picture information
JPH06205148A (en) Method and device for reading image
JPH07160811A (en) Character recognizing device
JPS6145363A (en) Drawing producer
JPH04177294A (en) Vector font developing device
JPH0528434B2 (en)
JP3306969B2 (en) Document editing device
JPS638974A (en) Cad drawing input device
JPH0696274A (en) Recognizing method for character or the like