JPH05303619A - Electronic scrap book - Google Patents

Electronic scrap book

Info

Publication number
JPH05303619A
JPH05303619A JP4106894A JP10689492A JPH05303619A JP H05303619 A JPH05303619 A JP H05303619A JP 4106894 A JP4106894 A JP 4106894A JP 10689492 A JP10689492 A JP 10689492A JP H05303619 A JPH05303619 A JP H05303619A
Authority
JP
Japan
Prior art keywords
character
image data
area
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4106894A
Other languages
Japanese (ja)
Inventor
Shinichi Arasaki
真一 荒崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP4106894A priority Critical patent/JPH05303619A/en
Publication of JPH05303619A publication Critical patent/JPH05303619A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Character Input (AREA)
  • Processing Or Creating Images (AREA)
  • Character Discrimination (AREA)

Abstract

PURPOSE:To enable edition and reuse of data by electrically fetching character strings, figures and photographs on paper and recording one part or all of it. CONSTITUTION:The image data electrically fetched by an input means 20 is divided into areas for character strings, figures and photographs by means of an area division means 21. The area of the character strings is converted into a code by a character recognition means 22, and a correction means 23 corrects the erroneously recognized code. An edition means 24 reuses and edits one part of or all data, and a preservation means 25 records a code of one part of the character string and records image data on the other part.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】 本発明は、文字・図・写真を含
む文書画像を、電子化したイメージデータとして取り込
み、文字の領域は文字認識処理を行い、図と写真の領域
は2値化処理をした後に、編集を行うことによって、デ
ータベース作成と表示を行う電子スクラップブックに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention captures a document image including characters, figures, and photographs as digitized image data, performs character recognition processing on character areas, and binarizes area on figures and photographs. The present invention relates to an electronic scrapbook in which a database is created and displayed by editing after doing.

【0002】[0002]

【従来の技術】従来より、印刷された1つあるいは複数
の書類の必要な部分をはさみ等で切取り、それを糊等で
貼り付けて保存するスクラップブックがある。また、手
書きまたは印刷された書類を電子化したイメージデータ
として記録する光ファイリングシステムが開発されてい
る。
2. Description of the Related Art Conventionally, there is a scrapbook in which necessary portions of one or a plurality of printed documents are cut off with scissors and the like and attached with glue or the like. In addition, an optical filing system has been developed that records handwritten or printed documents as electronic image data.

【0003】[0003]

【発明が解決しようとする課題】ところで、従来のスク
ラップブックでは、切り貼りに手間がかかるうえ、スク
ラップするデータの文章の一部を変更したり、同じデー
タをもう一度別のスクラップデータとして切り貼りする
ことができなかった。
By the way, in the conventional scrapbook, it takes a lot of time to cut and paste, and it is also possible to change a part of the text of the scraped data or cut and paste the same data as another scrap data again. could not.

【0004】また、光ファイリングシステムでは、編集
するイメージデータの文章を変更することはできなかっ
た。
Further, in the optical filing system, the text of the image data to be edited cannot be changed.

【0005】そこで本発明は、イメージデータを電子的
に処理することによって、スクラップの手間を少なくし
て、さらに同じデータの複数回数の利用を可能にする。
また、文字領域のデータは文字認識処理により、文字を
コード化することによって、文字データの変更を可能に
するものである。
Therefore, according to the present invention, by electronically processing the image data, the labor of scrap is reduced and the same data can be used a plurality of times.
Further, the data in the character area enables character data to be changed by encoding the character by character recognition processing.

【0006】[0006]

【課題を解決するための手段】手書きまたは印刷された
文字・図・写真を含むイメージデータを入力する画像入
力手段と、前記画像入力手段で入力されたイメージデー
タを文字領域と図領域と写真領域に領域分離する領域分
離手段と、前記領域分離手段で文字領域に分離されたイ
メージデータを特定の文字と認識する文字認識手段と、
前記認識手段で誤認識された文字を訂正する訂正手段
と、前記訂正手段で訂正した文字のデータと図と写真の
イメージデータの一部あるいは全てを編集する編集手段
を備えていることを特徴とする電子スクラップブック。
Image input means for inputting image data including handwritten or printed characters / drawings / photographs, and image data input by the image input means for character area, figure area and photograph area Area separating means for separating the area into two areas, and character recognizing means for recognizing the image data separated into character areas by the area separating means as a specific character,
It is provided with a correction means for correcting the character erroneously recognized by the recognition means, and an editing means for editing part or all of the character data corrected by the correction means and the image data of figures and photographs. Electronic scrapbook to do.

【0007】[0007]

【実施例】【Example】

(実施例1)以下、本発明の一実施例を添付図面を用い
て説明する。図1は、本発明の電子スクラップブックの
ブロック構成図である。各処理を制御するCPU10
と、文字・図・写真を含む文書画像を画素毎のイメージ
データに変換して入力する画像入力手段である画像入力
モジュール20と、画像入力モジュール20の制御下で
動作するイメージスキャナ等の画像入力装置50と、イ
メージを文字領域と写真領域と図領域に領域分離する領
域分離手段である領域分離モジュール21と、イメージ
データを特定の文字と認識する文字認識手段である文字
認識モジュール22と、誤認識された文字を訂正する訂
正手段である訂正モジュール23と、文字列を編集する
編集モジュール24と、データの保存を行う保存モジュ
ール25と各処理モジュールが動作を行う際に一時的に
使用するRAM30と、外部の装置とデータのやり取り
を行う通信装置40と、各処理モジュールが動作するの
に必要な情報と処理済みのデータを記録するハードディ
スク、光磁気ディスク、フロッピーディスク、磁気テー
プ、ICメモリカード等の外部記憶装置51と、イメー
ジデータまたは認識後の文字データの表示及び指示入力
兼用のタブレット装置52(後述)を備えている。図2
は、タブレット装置52の概略図である。CRT装置と
同様に、タブレット入力端子5202からの電気信号に
よってイメージデータを表示兼指示入力画面5201に
表示する(図2(a))。さらに、専用の電子ペン52
04で表示兼指示入力画面をなぞると、電子ペンの軌跡
を電気信号に変えて出力端子5203から外部出力する
(図2(b))。
(Embodiment 1) An embodiment of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a block configuration diagram of an electronic scrapbook of the present invention. CPU 10 for controlling each process
And an image input module 20 which is an image input means for converting a document image including characters, figures, and photographs into image data for each pixel and inputting the same, and an image input such as an image scanner operating under the control of the image input module 20. The device 50, the area separation module 21 which is an area separation means for separating an image into a character area, a photograph area and a drawing area, and a character recognition module 22 which is a character recognition means for recognizing image data as a specific character A correction module 23 that is a correction unit that corrects a recognized character, an editing module 24 that edits a character string, a storage module 25 that stores data, and a RAM 30 that is temporarily used when each processing module operates. A communication device 40 for exchanging data with an external device, and information and processing required for each processing module to operate. An external storage device 51 such as a hard disk, a magneto-optical disk, a floppy disk, a magnetic tape, an IC memory card for recording the completed data, and a tablet device 52 (described later) for displaying image data or character data after recognition and also for inputting instructions. Is equipped with. Figure 2
FIG. 3 is a schematic diagram of a tablet device 52. Similar to the CRT device, the image data is displayed on the display / instruction input screen 5201 by the electric signal from the tablet input terminal 5202 (FIG. 2A). In addition, a dedicated electronic pen 52
When the display / instruction input screen is traced at 04, the locus of the electronic pen is converted into an electric signal and externally output from the output terminal 5203 (FIG. 2B).

【0008】次に、本実施例の処理内容について図3を
用いて説明する。本実施例の電子スクラップブックの処
理は、画像入力モジュールによる処理対象のイメージデ
ータを取り込みを行うイメージデータ入力処理2000
と、領域分離モジュールによる取り込んだイメージデー
タを文字領域と写真領域と図領域に分離する領域分離処
理2100と、文字領域の文字切り出しと文字認識を行
う文字認識モジュールによるイメージデータの文字認識
処理2200と、訂正モジュールによる文字認識で誤認
識したデータの訂正訂正処理2300と、訂正が終了し
た文字データの配置変更及び文字変更と写真領域と図領
域の配置変更を行う編集モジュールによる編集処理24
00と、領域分離後のイメージデータ及び編集されたデ
ータの保存を行う保存モジュールによる保存処理250
0から構成されている。
Next, the processing contents of this embodiment will be described with reference to FIG. The processing of the electronic scrapbook according to the present embodiment is performed by an image data input processing 2000 in which image data to be processed by the image input module is captured.
An area separation processing 2100 for separating the captured image data by the area separation module into a character area, a photograph area, and a drawing area, and a character recognition processing 2200 for image data by a character recognition module that performs character segmentation and character recognition of the character area. A correction processing 2300 of data erroneously recognized by the character recognition by the correction module, and an editing processing 2430 by the editing module for changing the arrangement of the corrected character data and changing the character and the arrangement of the photograph area and the drawing area.
00, and a saving process 250 by a saving module that saves image data and edited data after area separation
It consists of zero.

【0009】まず、イメージデータ入力処理2000に
ついて説明する。イメージデータ入力処理は、オペレー
タによる画像入力装置50を用いた読み込みによって行
われる。具体的には、オペレータがCPU10の制御下
で画像入力モジュール20を起動させ、手書き文書ある
いは雑誌等の印刷物を画像入力装置50を使用して2値
のイメージデータとして読み取る。
First, the image data input process 2000 will be described. The image data input process is performed by reading by the operator using the image input device 50. Specifically, an operator activates the image input module 20 under the control of the CPU 10 and reads a printed matter such as a handwritten document or a magazine as binary image data by using the image input device 50.

【0010】次に、領域分離処理2100について図4
と図5を用いて説明する。図4は、領域分離の様子を表
した模式図である。領域分離モジュールは、図4(a)
のイメージデータを、図4(b)のように文字領域と図
領域と写真領域に分離する。領域分離を行うと、1つの
イメージデータは文字・図・写真といった複数のイメー
ジデータに分離され、各々のイメージデータには、いず
れの領域かを示す領域分離フラグが付加される。なお、
領域分離終了後は、文字列・図・写真の各々の領域を色
や種類の異なる線で囲むと、正確に領域分離が終了した
かが一目でわかる。
Next, the area separation processing 2100 will be described with reference to FIG.
Will be described with reference to FIG. FIG. 4 is a schematic diagram showing how the regions are separated. The area separation module is shown in FIG.
Image data is divided into a character area, a drawing area, and a photograph area as shown in FIG. When the area separation is performed, one image data is separated into a plurality of image data such as characters, drawings, and photographs, and an area separation flag indicating which area is added to each image data. In addition,
After the region separation is completed, if each region of the character string / drawing / photo is surrounded by lines of different colors and types, it can be seen at a glance whether the region separation is completed correctly.

【0011】領域分離処理は、イメージデータを入力し
た後、CPU10が入力モジュールから領域分離モジュ
ール21に処理を移すことで行われる。領域分離は、C
PUの制御下で、オペレータが電子ペン5204でタブ
レット装置52の表示兼指示入力画面5201に領域分
離の境界を書き込むことによって、領域分離モジュール
に領域分割の情報を伝える。図5は、領域分離処理の動
作例である。表示兼指示入力画面5201にイメージデ
ータを表示させ(図5(a))、文字の領域を電子ペン
5204で囲み(図5(b))、電子ペン5204を用
いて、囲った領域が文字列であることをメニュー210
1から選択する(図5(c))。図や写真を囲んだ場合
には、メニューから図や写真を選択する。
The area separation processing is performed by the CPU 10 shifting the processing from the input module to the area separation module 21 after inputting the image data. Area separation is C
Under the control of the PU, the operator writes the area division boundary on the display / instruction input screen 5201 of the tablet device 52 with the electronic pen 5204, thereby transmitting the area division information to the area separation module. FIG. 5 is an operation example of the area separation processing. Image data is displayed on the display / instruction input screen 5201 (FIG. 5A), a character area is surrounded by the electronic pen 5204 (FIG. 5B), and the surrounded area is a character string using the electronic pen 5204. It is menu 210
Select from 1 (FIG. 5 (c)). If you have enclosed a picture or photo, select the picture or photo from the menu.

【0012】次に、文字認識処理2200について説明
する。文字認識処理は、CPU10の制御下で文字認識
モジュール22を起動し、文字列を1字毎に切り出した
のち、1つの文字毎に特徴量を抽出して外部記憶装置5
1に記録してある特徴量と比較し、最も特徴量が類似し
ている文字を選択することで行う。文字認識の手法とし
ては、パターンの全体的な観測により入力パターンと記
憶装置に記録してある参照パターンを照合し、両者の類
似性から認識文字を決定するパターンマッチング法を用
いることができる。あるいは、パターンの局所的な観測
とこれに基づく判定を積み重ねて、部分から全体を判断
する構造解析法等を用いても実現できる。パターンの観
測手段には、何を用いてもよい。
Next, the character recognition process 2200 will be described. In the character recognition process, the character recognition module 22 is activated under the control of the CPU 10, the character string is cut out for each character, and then the feature amount is extracted for each character to extract the external storage device 5.
This is performed by comparing the feature amount recorded in 1 and the character having the most similar feature amount. As a method of character recognition, a pattern matching method can be used in which an input pattern is compared with a reference pattern recorded in a storage device by observing the entire pattern, and a recognized character is determined based on the similarity between the input pattern and the reference pattern. Alternatively, it can be realized by using a structural analysis method or the like in which the local observation of the pattern and the determination based on the observation are accumulated and the whole is determined from the part. Any pattern observing means may be used.

【0013】また、文字認識では、記憶装置に記録され
ている辞書と最も特徴量が似ているものを1位の認識結
果とし、2番目に特徴量が似ているものを2位、以下同
様に3位・・・n位の認識結果とする。認識された文字
は、例えばJISコードなどにコード化され、認識結果
として外部記憶装置51に記録される。文字認識が終了
すると、表示兼指示入力画面5201に1位の認識結果
が表示される。
In the character recognition, the character having the most similar feature amount to the dictionary recorded in the storage device is the first recognition result, the second character having the most similar feature amount is the second recognition result, and so on. 3rd place ... The recognition result of the nth place. The recognized character is encoded into, for example, a JIS code and recorded in the external storage device 51 as a recognition result. When the character recognition is completed, the first-ranked recognition result is displayed on the display / instruction input screen 5201.

【0014】次に、訂正処理2300について図6を用
いて説明する。訂正処理は、CPU10の制御下で訂正
モジュール23を起動させ、オペレータの文字認識処理
2300の認識結果の確認後に訂正指示入力によって行
う。訂正処理では、文字認識処理が終了した認識結果を
表示兼指示入力画面5201に表示し(2301)、オ
ペレータが、表示された全ての文字列が正しく認識され
ているかを確認する。そして、誤認識された文字を発見
して、電子ペン5204で表示兼指示入力画面5201
上の誤認識された文字を指すと(2302)、文字認識
の際に2位、3位・・・n位となった認識結果を表示す
る(2303)。オペレータは、表示されて認識結果の
中に正しい文字が存在するか否かを確認する(230
4)。正しい文字が存在する場合は、その文字を電子ペ
ンで選択する(2305)と目的の文字に修正される
(2312)。n位までの認識結果に正しい文字が含ま
れていなかった場合には、”手書き入力”を選択する
(2306)と手書きの文字入力画面となる(230
7)ので、電子ペンで文字を書き込み、この文字を認識
させる(2308)。オペレータは、正しく入力できた
か否かを確認し(2309)、正しく入力できたとき
は、”決定”を選択する(2310)と文字が入れ替わ
り処理が終了する(2312)。認識結果が目的の文字
でないときには、”クリヤ”を選択してもう一度手書き
入力を行う(2311)。
Next, the correction process 2300 will be described with reference to FIG. The correction process is performed by activating the correction module 23 under the control of the CPU 10 and inputting a correction instruction after confirming the recognition result of the character recognition process 2300 by the operator. In the correction process, the recognition result after the character recognition process is displayed on the display / instruction input screen 5201 (2301), and the operator confirms whether all the displayed character strings are correctly recognized. Then, the character which is erroneously recognized is found, and the display / instruction input screen 5201 is displayed by the electronic pen 5204.
When pointing to the above erroneously recognized character (2302), the recognition result of the second, third, ..., Nth position during character recognition is displayed (2303). The operator confirms whether the correct character is present in the recognition result displayed (230).
4). If the correct character exists, the character is selected with the electronic pen (2305) and the character is corrected to the target character (2312). When the recognition result up to the nth position does not include the correct character, when "handwriting input" is selected (2306), a handwriting character input screen is displayed (230).
In step 7), a character is written with the electronic pen and the character is recognized (2308). The operator confirms whether or not the input is correct (2309), and when the input is correct, "decide" is selected (2310) and the characters are replaced, and the processing ends (2312). When the recognition result is not the target character, "Clear" is selected and the handwriting input is performed again (2311).

【0015】図7に実際の訂正処理中の表示例を示す。
図7は、訂正処理を行っているときの表示兼指示入力画
面5201である。図7(a)は、文字認識処理の処理
結果を表示している。図7(a)では、”し”が”ま”
に誤認識されているので、図7(b)のように電子ペン
5204で誤認識されている”ま”を指示すると、図7
(c)のようにメニューが開く。このメニューには、2
位からn位までの認識結果と”手書き入力”が表示され
る。図7(c)のように正しい文字がメニューに含まれ
ているときは、電子ペンによって、その文字もしくはそ
の文字が表示されている番号を指示すると、図7(d)
のように誤認識された文字と入れ替わり訂正が終了す
る。図7(c)のメニューにおいて正しい文字が含まれ
ていない場合には、”手書き入力”を電子ペンで指示す
ると図7(e)のように手書き文字認識のメニューが開
く。このメニューには、手書き文字用の枠があるので、
この枠内に正しい文字を電子ペンで書き込み、”認識”
を指示して書き込んだ枠内の文字を文字認識させる。正
しく文字認識できた場合は、”決定”を電子ペンで指示
すると図7(d)のように訂正処理が終了する。誤って
文字認識した場合は、”クリヤ”を選択して、もう一度
手書き入力を行う。
FIG. 7 shows a display example during the actual correction process.
FIG. 7 shows the display / instruction input screen 5201 when the correction process is being performed. FIG. 7A shows the processing result of the character recognition processing. In FIG. 7A, “shi” is “ma”.
7B, the electronic pen 5204 incorrectly recognizes “M” as shown in FIG. 7B.
The menu opens as shown in (c). This menu has 2
The recognition results from the first to the nth position and "handwriting input" are displayed. When correct characters are included in the menu as shown in FIG. 7C, the character or the number at which the character is displayed is designated by the electronic pen, and then FIG.
The characters are erroneously recognized as shown, and the correction ends. If the menu shown in FIG. 7C does not include the correct character, the handwriting recognition menu opens as shown in FIG. 7E when "handwriting input" is instructed with the electronic pen. Since there is a frame for handwritten characters in this menu,
Use the electronic pen to write the correct characters in this frame, and "recognize"
The character in the frame written by instructing is recognized. When the characters can be correctly recognized, if the "decision" is instructed with the electronic pen, the correction process is finished as shown in FIG. 7D. If the characters are mistakenly recognized, select "Clear" and perform handwriting again.

【0016】手書き文字認識には、概略的な解を求めて
からそれに修正を加えて徐々に真の解を求める弛緩法マ
ッチングを用いた、山本和彦:”弛緩整合法による手書
き教育漢字認識”、信学論(D)、vol.J65−
D、pp.351−358(1982)、あるいは、も
ともと音声認識用として開発されたDPマッチング(迫
江博昭、千葉成美:”動的計画法を利用した時間正規化
にもとずく連続単語認識”、日本音響学会誌、vol.
27、pp.483−490(1971))を文字認識
に応用した手法、あるいは、ニューラルネットを応用し
た、今井勝次、郷原一寿、内川嘉樹:”3層BPモデル
を用いたノイズのある原画像に対する手書き文字認
識”、信学論(D−II)、vol.J75−D−I
I、pp.314−323(1992)などをあげるこ
とができるが、どのような手法を用いてもよい。
Kazuhiko Yamamoto: "Handwriting Educational Kanji Recognition by Relaxation Matching Method", which uses relaxation method matching that seeks a rough solution and then corrects it to gradually obtain a true solution for handwritten character recognition. Argument theory (D), vol. J65-
D, pp. 351-358 (1982), or DP matching originally developed for speech recognition (Hiroaki Sakoe, Narumi Chiba: "Continuous word recognition based on time normalization using dynamic programming", ASJ Magazine, vol.
27, pp. 483-490 (1971)) applied to character recognition or neural network applied Katsuji Imai, Kazutoshi Gohara, Yoshiki Uchikawa: "Handwritten characters for noisy original images using 3-layer BP model" Cognition ", Theological Theory (D-II), vol. J75-D-I
I, pp. 314-323 (1992) and the like, but any method may be used.

【0017】手書き入力した訂正文字の認識を正確に行
わせるために、入力をアルファベットやカタカナに限定
することによって認識させる文字種類を少なくしてもよ
い。このとき、現在日本語ワードプロセッサに使用され
ている平仮名漢字変換等の手法を用いると所望の漢字を
得ることができる。また、文字認識処理において、1位
の認識結果のみを用いるn=1の場合には、訂正方法は
常に手書き文字認識となる。
In order to correctly recognize the corrected character input by handwriting, the type of character to be recognized may be reduced by limiting the input to alphabet or katakana. At this time, a desired kanji can be obtained by using a method such as hiragana-kanji conversion currently used in a Japanese word processor. Further, in the character recognition process, when n = 1 using only the first-ranked recognition result, the correction method is always handwritten character recognition.

【0018】誤認識訂正処理には手書き文字認識を用い
たが、タブレットにキーボードを表示させ、電子ペンで
訂正文字を選択してもよい。このとき、タブレットにす
べての漢字を表示させることはできないので、入力をア
ルファベットやカタカナに限定し、仮名漢字変換を用い
て漢字を得る。
Although the handwritten character recognition is used for the erroneous recognition correction process, the keyboard may be displayed on the tablet and the correction character may be selected with the electronic pen. At this time, since it is not possible to display all kanji on the tablet, input is limited to alphabets and katakana, and kana is obtained using kana-kanji conversion.

【0019】次に、編集処理2400について図8を用
いて説明する。編集処理では、領域分離処理で分離され
た文字列・図・写真の配置の変更と文字列の変更をおこ
なう。まず、配置の変更について説明する。図8(a)
は、タブレット装置52の表示兼指示入力画面5201
に表示された認識済みの文字と写真の例である。各々の
領域を囲む線は、領域分離処理で作成された境界線であ
る。電子ペン5204で変更したい領域を囲む線上を指
すと、その領域が移動可能になるので、電子ペンで領域
を囲む線を移動させ、領域を目的の場所に移す(図8
(b))。移動させた結果2つの領域が重なる場合は、
最後に移動させた領域を優先して表示させる。また、同
様のことを別の領域についても行う(図8(c))。次
に、文字列の変更について説明する。文字列を変更した
いときは、文字の部分を電子ペンで指定して消したり、
訂正の手段と同様に電子ペンでタブレット上に文字を書
いて文字認識させることにより、文字を消去したり、新
たに加えることができる。このように、文字認識を行っ
て文字をコード化するので、文字データを変更して、新
たな文章を作成することが可能である。編集処理を終了
すると、編集したデータが外部記憶装置51に記録され
る。
Next, the editing process 2400 will be described with reference to FIG. In the editing process, the arrangement of the character string / drawing / photo and the character string separated in the area separation process are changed. First, the change of arrangement will be described. Figure 8 (a)
Is a display / instruction input screen 5201 of the tablet device 52.
It is an example of the recognized characters and pictures displayed in. The line surrounding each area is a boundary line created by the area separation processing. By pointing on the line surrounding the area to be changed with the electronic pen 5204, the area becomes movable. Therefore, the line surrounding the area is moved with the electronic pen and the area is moved to the target location (FIG. 8).
(B)). If the two areas overlap as a result of the movement,
The last moved area is displayed with priority. Further, the same thing is performed for another area (FIG. 8C). Next, changing the character string will be described. When you want to change the character string, specify the character part with the electronic pen and erase it,
By writing a character on the tablet with an electronic pen and recognizing the character in the same manner as the correction means, the character can be erased or newly added. In this way, since character recognition is performed and characters are encoded, it is possible to change character data and create a new sentence. When the editing process is completed, the edited data is recorded in the external storage device 51.

【0020】次に、保存処理2500について説明す
る。保存処理では、領域分離後のイメージデータ及び編
集処理で編集したデータを外部記憶装置51に保存す
る。領域分離後の保存処理では、オペレータが保存処理
を指示したときに、文字領域と写真領域と図領域のイメ
ージデータを保存する。編集終了後の保存では、文字領
域のデータは文字認識処理と訂正処理によってコード化
されたデータを保存し、写真領域と図領域はイメージデ
ータを保存する。イメージデータは、ファクシミリの符
号化方式であるMR符号化、MMR符号化、あるいは、
エントロピー符号化などを用いてデータ圧縮したものを
保存してもよい。また、領域分離後のデータは、編集終
了後と比較して必要度が少ないので、領域分離後のデー
タを保存するときには、オペレータが指示をすることに
よって保存する。
Next, the saving process 2500 will be described. In the saving process, the image data after the area separation and the data edited in the editing process are saved in the external storage device 51. In the storage processing after the area separation, when the operator instructs the storage processing, the image data of the character area, the photograph area, and the drawing area is stored. In the storage after the editing is completed, the data in the character area stores the data encoded by the character recognition processing and the correction processing, and the photograph area and the drawing area store the image data. The image data may be MR encoding, MMR encoding, which is a facsimile encoding method, or
Data compressed using entropy coding may be stored. Further, since the data after the region separation is less necessary than the data after the editing is completed, when saving the data after the region separation, the data is saved by the operator's instruction.

【0021】次に、本発明の電子スクラップブックの外
観図を図9を用いて説明する。スキャナ61は画像入力
装置50に相当する。プリンタ出力端子62と画像入力
端子63と通信端子64は通信装置40の制御下で動作
する。プリンタ出力端子61はプリンタなどの印刷装置
と接続して編集結果を紙に印刷する。画像入力端子62
は、イメージスキャナ等と接続して、電子スクラップブ
ック搭載のイメージスキャナ61では読み込めない大き
いイメージデータ等を読み込むことができるほか、イメ
ージデータを記録してある外部記憶装置に接続してイメ
ージデータの読み込みも行う。通信端子64は、コンピ
ュータやワードプロセッサなどにつなげてデータの転送
を行う。
Next, an external view of the electronic scrapbook of the present invention will be described with reference to FIG. The scanner 61 corresponds to the image input device 50. The printer output terminal 62, the image input terminal 63, and the communication terminal 64 operate under the control of the communication device 40. The printer output terminal 61 is connected to a printing device such as a printer to print the edited result on paper. Image input terminal 62
Can be connected to an image scanner or the like to read large image data or the like that cannot be read by the image scanner 61 equipped with an electronic scrapbook, and can also be connected to an external storage device storing the image data to read the image data. Also do. The communication terminal 64 is connected to a computer or a word processor to transfer data.

【0022】本実施例では、編集処理は一つのイメージ
データ内での編集を説明したが、複数のイメージデータ
を読み込んでタブレット装置に表示させ、表示させたイ
メージデータ間の移動をおこなえば、複数のイメージデ
ータの情報を自由に編集できる。このとき、外部記憶装
置装置50から処理済みのデータを読み込めば、過去の
データとの編集ができる。また、通信端子64を用いて
他の装置から処理済みのデータを読み込み、それを編集
することも可能である。さらに、通信端子64を用いて
本発明の電子スクラップブックに記録してあるデータを
コンピュータ、ワードプロセッサに出力して、そのデー
タをオペレータが作成するデータの一部として利用する
ことができる。
In the present embodiment, the editing process has been described as editing within one image data, but if a plurality of image data are read and displayed on the tablet device and the displayed image data are moved, a plurality of image data can be displayed. You can freely edit the information of the image data of. At this time, if the processed data is read from the external storage device 50, the past data can be edited. It is also possible to read the processed data from another device using the communication terminal 64 and edit the data. Further, the data recorded in the electronic scrapbook of the present invention can be output to a computer or a word processor using the communication terminal 64 and used as a part of the data created by the operator.

【0023】本実施例では、各処理は、専用のモジュー
ルを用いて行ったが、各処理をROMを用いて行わせる
ほか、処理用のRAMを用意して外部記憶装置から動作
内容をRAMに読み込ませて処理を行わせてもよい。
In the present embodiment, each process was performed using a dedicated module, but in addition to using the ROM to perform each process, a RAM for the process is prepared and the operation content is transferred from the external storage device to the RAM. It may be read and processed.

【0024】(実施例2)実施例1において、領域分離
処理を自動で行う場合について図10を用いて説明す
る。領域分離処理は、イメージデータを入力した後、C
PU10が入力モジュールから領域分離モジュール21
に処理を移すことで行われる。領域分離の手段として
は、例えば、秋山照雄、”周辺分布、線密度、外接矩形
特徴を用いた文書画像からの領域抽出”、NTT研究実
用化報告、Vol.37、No.8、pp.409−4
16(1988)等を利用することができる。図10
は、この自動領域分離手法の流れ図である。入力された
イメージデータの1文字外接矩形を生成し(210
3)、 a)同一の大きさの外接矩形の出現頻度が高くかつ外接
矩形が小さい場合には(2104)、文字列であると判
定する(2105)。
(Embodiment 2) A case in which area separation processing is automatically performed in Embodiment 1 will be described with reference to FIG. In the area separation processing, after inputting the image data, C
The PU 10 switches the input module to the area separation module 21.
It is performed by transferring the process to. As means for region separation, for example, Teruo Akiyama, “Region Extraction from Document Image Using Marginal Distribution, Linear Density, and Circumscribing Rectangle Feature”, NTT Research Practical Report, Vol. 37, No. 8, pp. 409-4
16 (1988) and the like can be used. Figure 10
FIG. 6 is a flow chart of this automatic area separation method. Generate a one-character circumscribed rectangle of the input image data (210
3), a) If the circumscribing rectangle of the same size has a high appearance frequency and the circumscribing rectangle is small (2104), it is determined to be a character string (2105).

【0025】文字列であると判定されなかった場合に
は、1外接矩形中の線密度を測定し(2106)、 b)外接矩形の縦横比が異常でかつ線密度が小さい場合
は(2107)、罫線である(2108) c)外接矩形が大でかつ線密度が大の場合は(210
9、2110)、図表である(2111) d)外接矩形が大でかつ線密度が小の場合は(210
9、2110)、見出しである(2112)といった判
断をくりかえして、イメージデータの領域を分離する。
If it is not judged as a character string, the line density in one circumscribed rectangle is measured (2106), and b) if the aspect ratio of the circumscribed rectangle is abnormal and the line density is small (2107). , A ruled line (2108) c) If the circumscribed rectangle is large and the line density is large, (210
9, 2110), which is a chart (2111) d) When the circumscribed rectangle is large and the linear density is small, (210
9, 2110) and the heading (2112) are repeated to separate the image data areas.

【0026】領域分離処理は、自動領域分離処理と手動
領域分離処理の2つのモードを用意しておき、オペレー
タが選択できるようにしてもよい。
The area separation processing may be prepared in two modes of automatic area separation processing and manual area separation processing so that the operator can select the mode.

【0027】(実施例3)実施例1または2において、
タブレット装置ではなく、CRTとキーボードとマウス
を用いる場合について図10を用いて説明する。
(Example 3) In Example 1 or 2,
A case where a CRT, a keyboard and a mouse are used instead of the tablet device will be described with reference to FIG.

【0028】図10では、図1のブロック構成図のタブ
レット装置52をCRT装置53と指示入力装置54
(キーボード、マウス)に置き換えている。タブレット
装置52の表示はCRT装置53の表示で行う。実施例
1において、電子ペンで行っていた操作はマウスもしく
はキーボードを使用して行う。メニュー2201・23
01・2302の選択は、マウスのクリックを押したと
き有効にする。
In FIG. 10, the tablet device 52 of the block diagram of FIG. 1 is replaced with a CRT device 53 and an instruction input device 54.
It has been replaced with (keyboard, mouse). The tablet device 52 is displayed by the CRT device 53. The operation performed by the electronic pen in the first embodiment is performed by using the mouse or the keyboard. Menu 2201, 23
The selection of 012302 is valid when the mouse is clicked.

【0029】訂正処理は、手書き文字認識のみでなく、
キーボードからの打ち込み入力も行えるようにする。こ
のとき、漢字を得たいときは、仮名漢字変換を用いれば
よい。編集処理においても、変更したい文字は、手書き
文字認識のみでなく、キーボードからの打ち込みを行え
るようにする。
The correction process is not limited to handwriting character recognition.
It also enables typing input from the keyboard. At this time, if you want to obtain kanji, you can use kana-kanji conversion. In the editing process as well, the character to be changed can be typed from the keyboard as well as the handwritten character recognition.

【0030】[0030]

【発明の効果】以上のように本発明によれば、文字領域
のイメージデータを文字コードとして取り扱うので、文
字領域のデータ変更ができ、文字領域の一部分を他の文
章に貼り付けることも可能である。また、コード化した
文字データからキーワードを抜き出すことによって、編
集したイメージデータのデータベースの自動作成がで
き、このキーワードを用いてイメージデータの検索がで
きる。文字領域のデータがコード化されているので、翻
訳器に直接データを送ることができる。このとき、別の
言葉に翻訳された文章を、再び本発明の電子スクラップ
ブックに取り込んで、図と写真のデータを併せれば、文
章のみ別の言葉に変更されたデータを作ることができ
る。
As described above, according to the present invention, since the image data of the character area is handled as the character code, the data of the character area can be changed and a part of the character area can be pasted to another sentence. is there. Also, by extracting a keyword from the encoded character data, a database of edited image data can be automatically created, and the image data can be searched using this keyword. Since the data in the character area is encoded, the data can be sent directly to the translator. At this time, the sentence translated into another language can be taken into the electronic scrapbook of the present invention again, and the data of the drawing and the photograph can be combined to create data in which only the sentence is changed to another language.

【0031】文字領域は、コードのみを記録するので、
全てのデータをイメージデータとして記録するときと比
較してデータ量を削減できる。したがって、外部記憶装
置の小型化ができるほか、データの転送を高速に行うこ
とができる。
Since only the code is recorded in the character area,
The amount of data can be reduced compared to when all data is recorded as image data. Therefore, the external storage device can be downsized and data can be transferred at high speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本実施例のブロック構成図。FIG. 1 is a block diagram of the present embodiment.

【図2】 タブレットの概略図。FIG. 2 is a schematic diagram of a tablet.

【図3】 本実施例の処理のフローチャート。FIG. 3 is a flowchart of processing of this embodiment.

【図4】 領域分離処理の説明図。FIG. 4 is an explanatory diagram of region separation processing.

【図5】 手動の領域分離処理の説明図。FIG. 5 is an explanatory diagram of manual area separation processing.

【図6】 訂正処理のフローチャート。FIG. 6 is a flowchart of correction processing.

【図7】 訂正処理の説明図。FIG. 7 is an explanatory diagram of correction processing.

【図8】 編集処理の説明図。FIG. 8 is an explanatory diagram of editing processing.

【図9】 電子スクラップブックの外観図。FIG. 9 is an external view of an electronic scrapbook.

【図10】 自動の領域分離処理のフローチャート。FIG. 10 is a flowchart of automatic area separation processing.

【図11】 電子スクラップブックのブロック構成図。FIG. 11 is a block diagram of an electronic scrapbook.

【符号の説明】[Explanation of symbols]

10 CPU 20 画像入力モジュール 21 領域分離モジュール 22 文字認識モジュール 23 訂正モジュール 24 編集モジュール 25 保存モジュール 30 RAM装置 40 通信装置 50 画像入力装置 51 外部記憶装置 52 タブレット装置 53 CRT装置 54 指示入力装置(キーボード、マウス) 60 電子スクラップブック 61 イメージスキャナ 62 プリンタ出力端子 63 画像入力端子 64 通信端子 65 プリンタ 66 イメージスキャナ 67 コンピュータ・ワードプロセッサ等 2000 画像入力処理 2100 領域分離処理 2101 領域分離のメニュー 2200 文字認識処理 2300 訂正処理 2313 訂正処理のメニュー 2314 手書き入力のメニュー 2400 編集処理 2500 保存処理 5201 表示兼指示入力画面 5202 タブレット入力端子 5203 タブレット出力端子 5204 電子ペン 10 CPU 20 Image Input Module 21 Area Separation Module 22 Character Recognition Module 23 Correction Module 24 Editing Module 25 Storage Module 30 RAM Device 40 Communication Device 50 Image Input Device 51 External Storage Device 52 Tablet Device 53 CRT Device 54 Instruction Input Device (Keyboard, Mouse 60) Electronic scrapbook 61 Image scanner 62 Printer output terminal 63 Image input terminal 64 Communication terminal 65 Printer 66 Image scanner 67 Computer word processor, etc. 2000 Image input processing 2100 Area separation processing 2101 Area separation menu 2200 Character recognition processing 2300 Correction processing 2313 Correction processing menu 2314 Handwriting input menu 2400 Editing processing 2500 Saving processing 5201 Display / instruction The Power screen 5202 tablet input terminal 5203 tablet output terminal 5204 electronic pen

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 文字・図・写真を含む文書画像を画素毎
のイメージデータに変換して入力する画像入力手段と、 前記画像入力手段で入力されたイメージデータを文字領
域と図領域と写真領域に領域分離する領域分離手段と、 前記領域分離手段で文字領域に分離されたイメージデー
タの文字を切り出し特定の文字と認識する文字認識手段
と、 前記文字認識手段で誤認識された文字を訂正する訂正手
段と、 前記訂正手段で訂正した文字のデータと図と写真のイメ
ージデータを表示装置と指示入力装置を使用してオペレ
ータの指示により編集する編集手段と,前記領域分離で
領域分離されたデータ及び前記編集手段で編集したデー
タを保存する保存手段を備えていることを特徴とする電
子スクラップブック。
1. An image input unit for converting a document image including characters, drawings, and photographs into image data for each pixel and inputting the image data, and image data input by the image input unit for a character region, a drawing region, and a photograph region. Area separating means for separating areas, character recognizing means for recognizing a character of image data separated into character areas by the area separating means as a specific character, and correcting a character erroneously recognized by the character recognizing means. Correcting means, editing means for editing character data corrected by the correcting means and image data of figures and photographs according to an operator's instruction using a display device and an instruction input device; and data separated into areas by the area separation And an electronic scrapbook comprising a storage unit for storing the data edited by the editing unit.
【請求項2】 前記領域分離手段において、表示装置と
指示入力装置を使用して、領域分離をオペレータの指示
により行うことを特徴とする請求項1記載の電子スクラ
ップブック。
2. The electronic scrapbook according to claim 1, wherein the area separation means uses a display device and an instruction input device to perform area separation according to an operator's instruction.
【請求項3】 前記領域分離手段において、前記イメー
ジデータから特徴抽出することにより、領域分離を自動
的に行うことを特徴とする請求項1記載の電子スクラッ
プブック。
3. The electronic scrapbook according to claim 1, wherein the area separation means automatically performs area separation by extracting a feature from the image data.
【請求項4】 前記訂正手段において、訂正にオペレー
タによる手書き訂正を備えていることを特徴とする請求
項1記載の電子スクラップブック。
4. The electronic scrapbook according to claim 1, wherein the correction means includes handwriting correction by an operator for the correction.
JP4106894A 1992-04-24 1992-04-24 Electronic scrap book Pending JPH05303619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4106894A JPH05303619A (en) 1992-04-24 1992-04-24 Electronic scrap book

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4106894A JPH05303619A (en) 1992-04-24 1992-04-24 Electronic scrap book

Publications (1)

Publication Number Publication Date
JPH05303619A true JPH05303619A (en) 1993-11-16

Family

ID=14445184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4106894A Pending JPH05303619A (en) 1992-04-24 1992-04-24 Electronic scrap book

Country Status (1)

Country Link
JP (1) JPH05303619A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106503A (en) * 1994-10-05 1996-04-23 Focus Syst:Kk Document processing system
JP2007140784A (en) * 2005-11-16 2007-06-07 Nihon Daily Tsushinsha:Kk Advertisement data gathering system, advertisement data gathering method and program
JP2010205290A (en) * 2010-05-10 2010-09-16 Microsoft Corp Electronic ink processing
JP2013055668A (en) * 2012-10-10 2013-03-21 Olympus Imaging Corp Image reproduction device and image reproduction method
CN103377277A (en) * 2012-04-27 2013-10-30 京瓷办公信息系统株式会社 Document management apparatus and document management method
JP2014071539A (en) * 2012-09-27 2014-04-21 Sharp Corp Image data editing device, and method for editing image data
JP2014086021A (en) * 2012-10-26 2014-05-12 Toshiba Corp Electronic apparatus, handwritten document display method, and display program
JP2014146091A (en) * 2013-01-28 2014-08-14 Fuji Xerox Co Ltd Image processing apparatus and image processing program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106503A (en) * 1994-10-05 1996-04-23 Focus Syst:Kk Document processing system
JP2007140784A (en) * 2005-11-16 2007-06-07 Nihon Daily Tsushinsha:Kk Advertisement data gathering system, advertisement data gathering method and program
JP2010205290A (en) * 2010-05-10 2010-09-16 Microsoft Corp Electronic ink processing
CN103377277A (en) * 2012-04-27 2013-10-30 京瓷办公信息系统株式会社 Document management apparatus and document management method
JP2013232695A (en) * 2012-04-27 2013-11-14 Kyocera Document Solutions Inc Document management device and document management program
CN103377277B (en) * 2012-04-27 2017-03-01 京瓷办公信息系统株式会社 Document management apparatus and document management method
JP2014071539A (en) * 2012-09-27 2014-04-21 Sharp Corp Image data editing device, and method for editing image data
JP2013055668A (en) * 2012-10-10 2013-03-21 Olympus Imaging Corp Image reproduction device and image reproduction method
JP2014086021A (en) * 2012-10-26 2014-05-12 Toshiba Corp Electronic apparatus, handwritten document display method, and display program
US9304679B2 (en) 2012-10-26 2016-04-05 Kabushiki Kaisha Toshiba Electronic device and handwritten document display method
JP2014146091A (en) * 2013-01-28 2014-08-14 Fuji Xerox Co Ltd Image processing apparatus and image processing program

Similar Documents

Publication Publication Date Title
US5748805A (en) Method and apparatus for supplementing significant portions of a document selected without document image decoding with retrieved information
US5526259A (en) Method and apparatus for inputting text
JP4785655B2 (en) Document processing apparatus and document processing method
JPH0554073A (en) Digital translation device
JPH05303619A (en) Electronic scrap book
JP2000322417A (en) Device and method for filing image and storage medium
JPH08180068A (en) Electronic filing device
JPH0991371A (en) Character display device
JPH0554072A (en) Digital translation device
JP3083171B2 (en) Character recognition apparatus and method
JPH0451871B2 (en)
JP3424942B2 (en) Bilingual image forming device
JPH07262317A (en) Document processor
JPH06274551A (en) Image filing device
JP2829186B2 (en) Optical character reader
JP2904849B2 (en) Character recognition device
JPS594358Y2 (en) Character control device in character correction
JPH0581318A (en) Digital translating device
JPS61198376A (en) Optical character reader
JPS62134765A (en) Electronic retrieving method for dictionary of chinese character explained in japanese
JPH0678119A (en) Picture filing device and picture reading and processing device
JPH0589279A (en) Character recognizing device
JPS6327990A (en) Character recognizing method
JPH04293185A (en) Filing device
JPH03123968A (en) Western language word translation device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term