JP2007148585A - Image processor and program - Google Patents

Image processor and program Download PDF

Info

Publication number
JP2007148585A
JP2007148585A JP2005339401A JP2005339401A JP2007148585A JP 2007148585 A JP2007148585 A JP 2007148585A JP 2005339401 A JP2005339401 A JP 2005339401A JP 2005339401 A JP2005339401 A JP 2005339401A JP 2007148585 A JP2007148585 A JP 2007148585A
Authority
JP
Japan
Prior art keywords
image
character
image data
document
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005339401A
Other languages
Japanese (ja)
Inventor
Masahiko Kikuchi
雅彦 菊地
Hiroaki Yamamoto
博朗 山本
Terutake Hayashi
輝威 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005339401A priority Critical patent/JP2007148585A/en
Publication of JP2007148585A publication Critical patent/JP2007148585A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To make data quantity to be stored smaller than a conventional manner in the case of storing characters included in a document. <P>SOLUTION: An image processor 10 makes a scanner part 1 read a document, and generates image data showing the document content as an image, and performs character recognition processing to a text(characters) included in the document, and stores character codes showing each character in an HD 3 by associating the character codes with the image data of the whole document. An already known JIS code, EUC code or UNICODE or the like may be used as a character code. That is, a text(characters) included in the document is not stored as image data but stored as character codes. Thus, it is possible to make the data quantity of the image data of the characters sharply smaller than the data quantity of the character codes assigned to the characters, and to make the data quantity to be stored in the HD 3 smaller than a conventional manner. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、スキャナ装置などの画像読取装置によって読み取って得たデータを記憶するための技術に関する。   The present invention relates to a technique for storing data obtained by reading with an image reading device such as a scanner device.

膨大な数の文書群の中から利用者が所望する文書を抽出するための方法が従来から提案されている。例えば特許文献1に記載されたシステムでは、スキャナ等の画像読取装置によって文書を読み取り、その文書の内容を表す画像データを生成する。そして、この画像データを所定の領域単位に分割し、さらに各々の領域から比較的大きいサイズの文字を含むテキスト領域を抽出する。そして、抽出したテキスト領域の画像データをその文書全体の画像データと関連付けて記憶しておく。ここで「比較的大きいサイズの文字」とは、例えば文書のタイトルとか見出しなどのように、文書の内容を象徴的に表した文字を意図している。よって、これらの文字を含むテキスト領域のイメージを一覧形式で閲覧可能にすれば、利用者はこれらのイメージを次々と閲覧して自身が所望する内容の文書をおおよそ特定し、さらに特定した文書全体のイメージを参照することが可能となる。
特開平8−202859公報
Conventionally, a method for extracting a document desired by a user from an enormous number of document groups has been proposed. For example, in the system described in Patent Document 1, a document is read by an image reading device such as a scanner, and image data representing the content of the document is generated. Then, the image data is divided into predetermined area units, and a text area including a relatively large character is extracted from each area. The extracted image data of the text area is stored in association with the image data of the entire document. Here, “a relatively large size character” is intended to be a character that symbolically represents the content of the document, such as a document title or a headline. Therefore, if the image of the text area including these characters can be browsed in a list format, the user browses these images one after another, roughly identifies the document with the desired content, and further identifies the entire identified document. It is possible to refer to the image.
JP-A-8-202859

しかしながら、前述した特許文献1に記載の技術では、抽出したテキスト領域を画像データとして記憶しているため、記憶すべきデータ量が比較的大きくなるという問題がある。そのため、特許文献1に記載の技術では、記憶すべきデータ量をできるだけ少なくするために、文書のタイトルや見出しなどの特定サイズの文字を含むテキスト領域だけを抽出して記憶するようにしている。しかし、文書が違っていてもタイトルや見出しは共通である場合も少なくないから、利用者は文書のタイトル等を参照するだけでは、各々の文書内容の違いを正確に判断することができない。このため、利用者が所望の文書を特定するためには、文書全体のイメージを参照してその内容を逐一確認していく必要があり、この作業に相当の時間を要してしまうという問題がある。   However, the technique described in Patent Document 1 described above has a problem that the amount of data to be stored is relatively large because the extracted text region is stored as image data. For this reason, in the technique described in Patent Document 1, in order to reduce the amount of data to be stored as much as possible, only text regions including characters of a specific size such as document titles and headings are extracted and stored. However, even if the documents are different, the titles and headings are often the same, and the user cannot accurately determine the difference between the contents of each document only by referring to the titles of the documents. For this reason, in order for a user to specify a desired document, it is necessary to refer to the image of the entire document and confirm the contents one by one, and this work requires a considerable amount of time. is there.

本発明は上述した背景に鑑みてなされたものであり、その目的は、文書に含まれる文字を記憶する場合にその記憶すべきデータ量を従来よりも少なくすることにある。   The present invention has been made in view of the above-described background, and an object of the present invention is to reduce the amount of data to be stored when storing characters included in a document.

上記目的を達成するために、本発明は、画像読取手段によって読み取られた画像を表す画像データを記憶する記憶手段と、前記画像データが表す画像において、文字画像を含むテキスト領域と文字画像以外の画像を含むイメージ領域とを分離する分離手段と、前記分離手段によって得られたテキスト領域に含まれる文字を認識する文字認識手段と、前記文字認識手段によって認識された文字を表す文字コードを生成する文字コード化手段と、前記記憶手段に記憶されている画像データに対応付けて、前記文字コード化手段によって生成された文字コードを前記記憶手段に書き込む書込手段と、前記記憶手段に記憶されている画像データが表す画像と、当該画像データに対応付けられて前記記憶手段に書き込まれた文字コードが表す文字とを関連づけて表示手段に表示させる表示制御手段とを備えることを特徴とする画像処理装置を提供する。このように、従来のように文書に含まれる文字を画像データとして記憶するのではなく、その文字を文字コードとして記憶する。文字の画像データのデータ量よりも、その文字に割り当てられた文字コードのデータ量のほうが少ないから、本発明によれば、記憶すべきデータ量を従来よりも少なくすることができる。また、前記文字認識手段によって認識された文字の天地方向を特定し、その天地方向を前記記憶手段に記憶されている画像データが表す画像の天地方向であると判定する判定手段を備え、前記表示制御手段は、前記判定手段によって判定された天地方向が前記表示手段を利用者が参照する際の天地方向に一致するような状態で、前記記憶手段に記憶されている画像データが表す画像を前記表示手段に表示させることが望ましい。また、前記入力された画像データの解像度が小さくなるように当該画像データの解像度変換を行う変換手段を備え、前記記憶手段は、前記変換手段によって解像度変換された画像データを記憶することが望ましい。   In order to achieve the above object, the present invention provides a storage means for storing image data representing an image read by an image reading means, and a text area including a character image and a character image other than the character image in the image represented by the image data. Separating means for separating an image area including an image, character recognizing means for recognizing a character included in a text area obtained by the separating means, and a character code representing the character recognized by the character recognizing means Character encoding means, writing means for writing the character code generated by the character encoding means in association with the image data stored in the storage means, and storage means stored in the storage means The image represented by the existing image data and the character represented by the character code written in the storage means in association with the image data. Further comprising a display control means for displaying on the display unit in association to provide an image processing apparatus according to claim. Thus, instead of storing the characters included in the document as image data as in the prior art, the characters are stored as a character code. Since the data amount of the character code assigned to the character is smaller than the data amount of the character image data, according to the present invention, the data amount to be stored can be reduced as compared with the conventional case. The display device further includes a determination unit that identifies a top / bottom direction of the character recognized by the character recognition unit, and that determines that the top / bottom direction is a top / bottom direction of an image represented by image data stored in the storage unit. The control means displays the image represented by the image data stored in the storage means in a state where the top and bottom direction determined by the determination means matches the top and bottom direction when the user refers to the display means. It is desirable to display on the display means. Further, it is preferable that the image processing apparatus includes conversion means for converting the resolution of the input image data so that the resolution of the input image data is reduced, and the storage means stores the image data whose resolution is converted by the conversion means.

また、本発明は、コンピュータに、入力された画像データを記憶手段に書き込む機能と、前記画像データが表す画像において、文字画像を含むテキスト領域と文字画像以外の画像を含むイメージ領域とを分離する機能と、前記テキスト領域に含まれる文字を認識する機能と、認識された文字を表す文字コードを生成する機能と、前記記憶手段に記憶されている画像データに対応付けて、前記文字コード化手段によって生成された文字コードを前記記憶手段に書き込む機能と、前記記憶手段に記憶されている画像データが表す画像と、当該画像データに対応付けられて前記記憶手段に書き込まれた文字コードが表す文字とを関連づけて表示手段に表示させる機能とを実現させるためのプログラムを提供する。   In addition, the present invention separates a text area including a character image and an image area including an image other than a character image in an image represented by the image data, and a function of writing input image data into a storage unit in a computer. A function for recognizing a character included in the text area, a function for generating a character code representing the recognized character, and the character encoding means in association with the image data stored in the storage means The function of writing the character code generated by the storage means, the image represented by the image data stored in the storage means, and the character represented by the character code written in the storage means in association with the image data And a program for realizing the function of displaying on the display means.

以下、本発明に関する実施形態について図面を参照しながら説明する。
図1は、本発明の実施形態に係る画像処理装置10の構成の一例を示すブロック図である。この画像処理装置10はいわゆる複合機によって実現することができ、図1に示すように、文書上の像を読み取って画像データを生成するスキャナ部1と、キーボードやマウス等を備えた操作部2と、各種のデータや制御プログラムを記憶するためのHD(Hard Disk)3と、ワークメモリとして機能するメモリ4と、この画像処理装置10の全体を制御するCPU(Central Processing Unit)5と、液晶ディスプレイ装置のような表示部6とを備えている。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, embodiments of the invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating an example of a configuration of an image processing apparatus 10 according to an embodiment of the present invention. The image processing apparatus 10 can be realized by a so-called multifunction device. As shown in FIG. 1, a scanner unit 1 that reads an image on a document and generates image data, and an operation unit 2 that includes a keyboard, a mouse, and the like. An HD (Hard Disk) 3 for storing various data and control programs, a memory 4 functioning as a work memory, a CPU (Central Processing Unit) 5 for controlling the entire image processing apparatus 10, and a liquid crystal display And a display unit 6 such as a display device.

この画像処理装置10は、文書の像を表す画像データを生成し、その文書に含まれる文字に対して文字認識処理を行い、各々の文字を表す文字コードを、文書全体の画像データと関連付けてHD3に記憶する。ここで用いる文字コードとしては、周知のコードであるJISコードやEUCコード或いはunicodeなどが好適である。つまり、本実施形態では、従来のように文書に含まれる文字を画像データとして記憶するのではなく、その文字を文字コードで表現したコード情報として記憶する。文字の画像データのデータ量よりも、その文字に割り当てられた文字コードのデータ量のほうが格段に少ないから、本実施形態によれば、HD3に記憶すべきデータ量を従来よりも少なくすることができる。   The image processing apparatus 10 generates image data representing an image of a document, performs character recognition processing on characters included in the document, and associates a character code representing each character with image data of the entire document. Store in HD3. As the character code used here, a well-known code such as JIS code, EUC code or unicode is suitable. That is, in the present embodiment, characters included in a document are not stored as image data as in the prior art, but are stored as code information expressing the characters as character codes. Since the data amount of the character code assigned to the character is much smaller than the data amount of the character image data, according to the present embodiment, the data amount to be stored in the HD3 can be made smaller than before. it can.

以下、図2に示したフローチャート用いて、画像処理装置10の動作を具体的に説明する。以下の動作例では、図3の左方に示した文書Dを処理対象とする。この文書Dには、文字を含むテキスト領域t1〜t5と、文字以外の画像を含む画像領域i(以下、イメージ領域Iという)とが含まれている。なお、テキスト領域t1〜t5をそれぞれ囲む点線は、テキスト領域の位置及び範囲を指し示すためのものであり、このような点線が実際の文書Dに含まれているというわけではない。   The operation of the image processing apparatus 10 will be specifically described below using the flowchart shown in FIG. In the following operation example, the document D shown on the left side of FIG. The document D includes text areas t1 to t5 including characters and an image area i (hereinafter referred to as an image area I) including images other than characters. The dotted lines surrounding the text areas t1 to t5 are for indicating the position and range of the text area, and such dotted lines are not included in the actual document D.

利用者はまず文書Dをスキャナ部1にセットし、操作部2を用いて文書の読み取りを指示する。この操作に応じて、CPU5は、HD3から制御プログラムを読み出してメモリ4にロードし、このプログラムに記述された手順に従って図2に示す処理を開始する。まず、CPU5は、スキャナ部1に文書の読み取りを指示する(ステップS101)。この指示に応じて、スキャナ部1は、セットされた文書に光を照射し、その文書の像を光学的に読み取って画像データを生成し、これをCPU5に供給する。   The user first sets the document D in the scanner unit 1 and instructs the reading of the document using the operation unit 2. In response to this operation, the CPU 5 reads the control program from the HD 3 and loads it into the memory 4 and starts the processing shown in FIG. 2 according to the procedure described in this program. First, the CPU 5 instructs the scanner unit 1 to read a document (step S101). In response to this instruction, the scanner unit 1 emits light to the set document, optically reads an image of the document, generates image data, and supplies the image data to the CPU 5.

CPU5は、この画像データに対して、識別情報である画像ID(ここでは、「id01」とする)を割り当て、これらの画像データ及び画像IDをメモリ4に記憶する。次に、CPU5は、この画像データが表す画像に対して、いわゆるT(テキスト)/I(イメージ)分離を行ってテキスト領域とイメージ領域とを分離して、それぞれの領域が画像上のどこに位置するかということを認識する(ステップS102)。図3の例では、文書画像のほぼ中央に位置する木を示す画像オブジェクトがイメージ領域iであり、そのイメージ領域iの周辺に点在する「ABCDEFGHIJK」、「あいう」、「1234」、「LMNOPQR」、「えおかきくけこさしすせそ」と表記された領域がテキスト領域t1〜t5である。   The CPU 5 assigns an image ID (here, “id01”) as identification information to the image data, and stores the image data and the image ID in the memory 4. Next, the CPU 5 performs so-called T (text) / I (image) separation on the image represented by the image data to separate the text area from the image area, and where each area is located on the image. It is recognized whether to do (step S102). In the example of FIG. 3, an image object indicating a tree located substantially in the center of the document image is an image area i, and “ABCDEFGHIJK”, “Ah”, “1234”, “LMNOPQR” scattered around the image area i. ”And“ Eokaki Kokusashi Suseso ”are text regions t1 to t5.

次に、CPU5は、ステップS101において生成した画像データに対し、画素を間引くなどの解像度変換処理を施して、より解像度の低い画像データ(以下、圧縮画像データという)を生成し、この圧縮画像データを前述した画像ID「id01」とともにHD3に記憶する(ステップS103)。例えば図3の例の場合、文書Dの解像度を低くすることで、図3の右上方に示すような文書画像sdを表す圧縮画像データが生成され、これが画像ID「id01」と共にHD3に記憶されることになる。そして、CPU5は図4に示すような管理テーブルを作成してHD3に記憶する。この管理テーブルには、画像ID「id01」と、上記の圧縮画像データのHD3上の格納アドレス(ここでは「ad10001」とする)が対応付けられているほか、さらに後述する文字コードの格納アドレスも対応付けられている。   Next, the CPU 5 performs resolution conversion processing such as thinning out pixels on the image data generated in step S101 to generate lower resolution image data (hereinafter referred to as compressed image data), and this compressed image data. Is stored in the HD 3 together with the image ID “id01” described above (step S103). For example, in the example of FIG. 3, by reducing the resolution of the document D, compressed image data representing the document image sd as shown in the upper right of FIG. 3 is generated, and this is stored in the HD 3 together with the image ID “id01”. Will be. Then, the CPU 5 creates a management table as shown in FIG. 4 and stores it in the HD 3. In this management table, the image ID “id01” is associated with the storage address (here “ad10001”) of the above-described compressed image data on HD3, and further, the storage address of a character code described later is also stored. It is associated.

続いて、CPU5は、ステップS102においてT/I分離を行った結果に基づき、文書Dにテキスト領域が含まれているか否かを判断する(ステップS104)。テキスト領域が含まれていると判断した場合(ステップS104:YES)、CPU5は、そのテキスト領域に対してOCR(Optical Character Recognition)を施し、テキスト領域に含まれている各文字がどのような文字であるかを認識する(ステップS105)。そして、CPU5は、認識した文字を所定のコード体系に従って文字コードに変換する(ステップS106)。図3に示す例では、文書Dにおけるテキスト領域t1〜t5に含まれる各文字がCPU5によって文字コードに変換されることで、図3の右下方に示すように、「ABCDEFGHIJK あいう 1234 LMNOPQR えおかきくけこさしすせそ」という文字画像cを示す文字コードが得られることになる。   Subsequently, the CPU 5 determines whether or not the text area is included in the document D based on the result of the T / I separation in step S102 (step S104). When it is determined that the text area is included (step S104: YES), the CPU 5 performs OCR (Optical Character Recognition) on the text area, and what characters are included in the text area. Is recognized (step S105). Then, the CPU 5 converts the recognized character into a character code according to a predetermined code system (step S106). In the example shown in FIG. 3, each character included in the text areas t1 to t5 in the document D is converted into a character code by the CPU 5. A character code indicating the character image c “Koshishisoseso” is obtained.

そして、CPU5は、前述した画像ID及び圧縮画像データに対応付けて、ステップS106で生成した文字コードをHD3に記憶する(ステップS107)。そして、CPU5は、図4に示した管理テーブルに、上述した文字コードのHD3上の格納アドレス(ここでは「ad20001」とする)を書き込む。
なお、ステップS104において、CPU5によって文書Dにはテキスト領域が含まれていないと判断された場合には(ステップS104;NO)、CPU5の処理はそのまま終了する。この場合、HD3の管理テーブルには、図4の画像ID「id03」に対応するレコードのように、画像ID「id03」と圧縮画像データの格納アドレス「ad10003」とが対応付けられているが、文字コードの格納アドレスはブランクとなる。
Then, the CPU 5 stores the character code generated in step S106 in the HD 3 in association with the above-described image ID and compressed image data (step S107). Then, the CPU 5 writes the storage address of the character code described above on the HD 3 (here, “ad20001”) in the management table shown in FIG.
In step S104, when the CPU 5 determines that the text area is not included in the document D (step S104; NO), the processing of the CPU 5 is ended as it is. In this case, the HD3 management table associates the image ID “id03” and the compressed image data storage address “ad10003” as in the record corresponding to the image ID “id03” in FIG. The character code storage address is blank.

図2に示す処理が終了すると、前述した管理テーブルによって、画像IDと、圧縮画像データの格納アドレスと、文字コードの格納アドレスとが対応付けられることになる。CPU5はこの管理テーブルを用いて、利用者が文書検索に供するための画面を表示部6に表示することができる。具体的な動作は以下の通りである。
利用者によって文書の検索が指示されると、CPU5は、管理テーブルから「画像ID」と、「圧縮画像データ格納アドレス」と、「文字コード格納アドレス」を順次読み出していく。次に、CPU5は、読み出した圧縮画像データ格納アドレスから、圧縮画像データを読み出すとともに、読み出した文字コード格納アドレスから、文字コードを読み出す。そして、CPU5は、読み出した圧縮画像データに基づいて、図3の右上方に示すような文書画像sdを表示部6に表示するとともに、読み出した文字コードを解釈して図3の右下方に示すような文字画像cを生成し、これを文書画像sdと並列に表示部6に表示する。CPU5は、管理テーブルで管理されている全ての画像について上記のような処理を実行することで、文書画像sd及び文字画像cの一覧を表示することができる。利用者は、文字画像cを閲覧することで、自身が所望する内容の文書を特定することができる。そして、CPU5が特定された文書の全体画像を表示部6に拡大表示することにより、利用者は文書全体の内容を参照することが可能となる。
When the process shown in FIG. 2 is completed, the management table described above associates the image ID, the storage address of the compressed image data, and the storage address of the character code. Using this management table, the CPU 5 can display a screen for the user to search for documents on the display unit 6. The specific operation is as follows.
When an instruction to search for a document is given by the user, the CPU 5 sequentially reads “image ID”, “compressed image data storage address”, and “character code storage address” from the management table. Next, the CPU 5 reads the compressed image data from the read compressed image data storage address and reads the character code from the read character code storage address. Then, the CPU 5 displays a document image sd as shown in the upper right part of FIG. 3 on the display unit 6 based on the read compressed image data, interprets the read character code, and shows it in the lower right part of FIG. Such a character image c is generated and displayed on the display unit 6 in parallel with the document image sd. The CPU 5 can display a list of document images sd and character images c by executing the above-described processing for all images managed in the management table. The user can specify a document having the content desired by browsing the character image c. Then, the CPU 5 enlarges and displays the entire image of the specified document on the display unit 6 so that the user can refer to the contents of the entire document.

また、利用者が操作部2を操作して特定のキーワードを入力し、CPU5がこのキーワードを含む文書を検索して表示することも可能である。具体的には以下のような動作となる。利用者によってキーワードが指定されると、CPU5は、そのキーワードの文字を文字コードに変換してメモリ4に記憶する。そして、CPU4は、管理テーブルに記述された文字コード格納アドレスを参照し、この文字コード格納アドレスから文字コードを読み出す。そして、CPU5は、メモリ4に記憶したキーワードの文字コードと、読み出した文字コードとを比較し、一致するものがあるか否かを判断する。一致した文字コードがあれば、その文字コードの文字コード格納アドレスに対応する画像IDを管理テーブルから読み出す。次に、CPU5は、その画像IDに対応する圧縮画像データ格納アドレスから圧縮画像データを読み出し、その圧縮画像データに基づいて、図3の右上方に示すような文書画像sdを表示部6に表示するとともに、上記の文字コードを解釈して図3の右下方に示すような文字画像cを生成し、これを文書画像sdと並列に表示部6に表示する。これにより、利用者はキーワードを含む文書の内容を参照することが可能となる。   It is also possible for the user to input a specific keyword by operating the operation unit 2, and the CPU 5 can search for and display a document including the keyword. Specifically, the operation is as follows. When a keyword is designated by the user, the CPU 5 converts the character of the keyword into a character code and stores it in the memory 4. Then, the CPU 4 refers to the character code storage address described in the management table, and reads the character code from this character code storage address. Then, the CPU 5 compares the keyword character code stored in the memory 4 with the read character code, and determines whether there is a match. If there is a matching character code, the image ID corresponding to the character code storage address of the character code is read from the management table. Next, the CPU 5 reads the compressed image data from the compressed image data storage address corresponding to the image ID, and displays the document image sd as shown in the upper right of FIG. 3 on the display unit 6 based on the compressed image data. At the same time, the above character code is interpreted to generate a character image c as shown in the lower right part of FIG. 3, and this is displayed on the display unit 6 in parallel with the document image sd. As a result, the user can refer to the contents of the document including the keyword.

以上説明したように、本実施形態では、従来のように文書に含まれる文字を画像データとして記憶するのではなく、その文字を文字コードで表現したコード情報として記憶している。文字の画像データのデータ量よりも、その文字に割り当てられた文字コードのデータ量のほうが格段に少ないから、本実施形態によれば、HD3に記憶すべきデータ量を従来よりも少なくすることができる。また、従来は、文書のタイトルや見出しなどの特定のテキスト領域だけしか記憶していないため、各々の文書内容の違いを正確に判断することができなかったが、本実施形態では、文書に含まれる全ての文字を文字コードとして記憶するようにしているため、各々の文書の違いをより正確に判断することができ、利用者が文書全体のイメージを参照して内容を逐一確認していくといった手間が不要となる。よって、利用者の所望する文書を従来よりも正確且つ迅速に検索することが可能となる。   As described above, in this embodiment, characters included in a document are not stored as image data as in the prior art, but are stored as code information expressing the characters as character codes. Since the data amount of the character code assigned to the character is much smaller than the data amount of the character image data, according to the present embodiment, the data amount to be stored in the HD3 can be made smaller than before. it can. Conventionally, since only a specific text area such as a document title or headline is stored, the difference between the contents of each document cannot be accurately determined. However, in the present embodiment, it is included in the document. Since all characters are stored as character codes, the difference between each document can be judged more accurately, and the user can refer to the image of the entire document and check the contents one by one. There is no need for trouble. Therefore, it is possible to search for a document desired by the user more accurately and more quickly than before.

上述した実施形態を次のように変形してもよい。
実施形態では、画像処理装置1が複合機によって実現される例を説明したが、これに限らず、スキャナ装置とその装置に接続されたパーソナルコンピュータとからなるシステムによって画像処理装置1と同等の機能が実現されてもよい。
The above-described embodiment may be modified as follows.
In the embodiment, an example in which the image processing apparatus 1 is realized by a multifunction peripheral has been described. May be realized.

また、CPU5が文字認識処理を実行した際には各文字の天地方向を特定することができるから、その文字の天地方向に基づいて文書全体の天地方向を判定し、判定した天地方向が、表示部6を利用者が参照する際の天地方向に一致するような状態で、文書画像sdを表示部6に表示するようにしてもよい。この変形例について図5を参照して説明する。
図5において、スキャナ部5によって読み取られた文書画像d1と文書画像d2とは文書の内容が同じであるにも関わらず、スキャナ部5の読み取り方向(走査方向)が異なるために、違う文書画像として認識されてしまうことになる。そこで、CPU5は、図2のステップS105において文字認識処理を実行して各文字の天地方向を認識し、さらに、その文字の天地方向に基づいて文書全体の天地方向を判定する。これによって、CPU5は、図示のように、文書画像d1の天地方向が矢印a1の方向であり、文書画像d2の天地方向が矢印a2の方向であるということを認識することができる。そして、CPU5は、判定した天地方向a1,a2が、表示部6を利用者が参照する際の天地方向Aに一致するような状態で文書画像sdを表示部6に表示する。このようにすれば、文書の天地方向に対してそれぞれ異なる走査方向で読み取られた文書画像であっても、天地方向を揃えて表示部6に表示させることができ、利用者は各文書画像を見やすくなる。また、例えばCPU5が各文書画像の天地方向を揃えた状態でそれらの画像の一致度を求めることで、同一内容の文書を判別することができる。よって、CPU5は、文書画像d1と文書画像d2とをそれぞれ別々にHD3に記憶する必要が無く、いずれか一方の文書画像のみを記憶するだけで済む。よって、HD3に記憶すべきデータ量をより少なくすることが可能となる。
Further, when the CPU 5 executes the character recognition process, the top / bottom direction of each character can be specified. Therefore, the top / bottom direction of the entire document is determined based on the top / bottom direction of the character, and the determined top / bottom direction is displayed. The document image sd may be displayed on the display unit 6 in a state in which the unit 6 matches the vertical direction when the user refers. This modification will be described with reference to FIG.
In FIG. 5, the document image d1 and the document image d2 read by the scanner unit 5 have the same document contents, but the reading direction (scanning direction) of the scanner unit 5 is different. It will be recognized as. Therefore, the CPU 5 executes character recognition processing in step S105 in FIG. 2 to recognize the vertical direction of each character, and further determines the vertical direction of the entire document based on the vertical direction of the character. As a result, the CPU 5 can recognize that the vertical direction of the document image d1 is the direction of the arrow a1, and the vertical direction of the document image d2 is the direction of the arrow a2, as shown in the figure. Then, the CPU 5 displays the document image sd on the display unit 6 in a state where the determined top and bottom directions a1 and a2 coincide with the top and bottom direction A when the user refers to the display unit 6. In this way, even document images read in different scanning directions with respect to the vertical direction of the document can be displayed on the display unit 6 with the vertical direction aligned, and the user can view each document image. It becomes easy to see. Further, for example, the CPU 5 can determine documents having the same content by obtaining the degree of coincidence of the images in a state where the top and bottom directions of the document images are aligned. Therefore, the CPU 5 does not need to store the document image d1 and the document image d2 separately in the HD 3, and only stores one of the document images. Therefore, the amount of data to be stored in HD3 can be further reduced.

なお、CPU5は、図2のステップS101において生成した画像データに対し、画素を間引くなどの解像度変換処理を施して、より解像度の低い圧縮画像データを生成し記憶するようにしていたが、HD3の容量に余裕があるなら、図2のステップS101において生成した画像データをそのままHD3に記憶するようにしてもよい。   Note that the CPU 5 performs resolution conversion processing such as thinning out pixels on the image data generated in step S101 in FIG. 2 to generate and store compressed image data having a lower resolution. If the capacity is sufficient, the image data generated in step S101 in FIG. 2 may be stored in the HD 3 as it is.

本発明の実施形態である画像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image processing apparatus which is embodiment of this invention. 同実施形態に係る画像処理装置の制御部の実行手順を示すフローチャートである。4 is a flowchart illustrating an execution procedure of a control unit of the image processing apparatus according to the embodiment. 同実施形態に係る画像処理装置における処理の過程を説明する図である。It is a figure explaining the process of the process in the image processing apparatus which concerns on the same embodiment. 同実施形態に係る画像処理装置が記憶する管理テーブルの内容を示す図である。It is a figure which shows the content of the management table which the image processing apparatus which concerns on the same embodiment memorize | stores. 変形例に係る画像処理装置における処理の過程を説明する図である。It is a figure explaining the process of the process in the image processing apparatus which concerns on a modification.

符号の説明Explanation of symbols

1…スキャナ部、2…操作部、3…HD、4…メモリ、5…CPU、6…表示部。 DESCRIPTION OF SYMBOLS 1 ... Scanner part, 2 ... Operation part, 3 ... HD, 4 ... Memory, 5 ... CPU, 6 ... Display part.

Claims (4)

画像読取手段によって読み取られた画像を表す画像データを記憶する記憶手段と、
前記画像データが表す画像において、文字画像を含むテキスト領域と文字画像以外の画像を含むイメージ領域とを分離する分離手段と、
前記分離手段によって得られたテキスト領域に含まれる文字を認識する文字認識手段と、
前記文字認識手段によって認識された文字を表す文字コードを生成する文字コード化手段と、
前記記憶手段に記憶されている画像データに対応付けて、前記文字コード化手段によって生成された文字コードを前記記憶手段に書き込む書込手段と、
前記記憶手段に記憶されている画像データが表す画像と、当該画像データに対応付けられて前記記憶手段に書き込まれた文字コードが表す文字とを関連づけて表示手段に表示させる表示制御手段と
を備えることを特徴とする画像処理装置。
Storage means for storing image data representing an image read by the image reading means;
In the image represented by the image data, a separating unit that separates a text region including a character image from an image region including an image other than the character image;
Character recognition means for recognizing characters contained in the text region obtained by the separation means;
Character encoding means for generating a character code representing the character recognized by the character recognition means;
A writing unit that writes the character code generated by the character encoding unit in the storage unit in association with the image data stored in the storage unit;
Display control means for associating and displaying on the display means an image represented by the image data stored in the storage means and a character represented by the character code written in the storage means in association with the image data. An image processing apparatus.
前記文字認識手段によって認識された文字の天地方向を特定し、その天地方向を前記記憶手段に記憶されている画像データが表す画像の天地方向であると判定する判定手段を備え、
前記表示制御手段は、前記判定手段によって判定された天地方向が前記表示手段を利用者が参照する際の天地方向に一致するような状態で、前記記憶手段に記憶されている画像データが表す画像を前記表示手段に表示させることを特徴とする請求項1記載の画像処理装置。
A determination unit that identifies the top and bottom direction of the character recognized by the character recognition unit and determines that the top and bottom direction is the top and bottom direction of the image represented by the image data stored in the storage unit;
The display control means is an image represented by the image data stored in the storage means in such a state that the top and bottom direction determined by the determination means matches the top and bottom direction when the user refers to the display means. The image processing apparatus according to claim 1, wherein the image is displayed on the display unit.
前記入力された画像データの解像度が小さくなるように当該画像データの解像度変換を行う変換手段を備え、
前記記憶手段は、前記変換手段によって解像度変換された画像データを記憶することを特徴とする請求項1記載の画像処理装置。
Conversion means for converting the resolution of the image data so as to reduce the resolution of the input image data;
The image processing apparatus according to claim 1, wherein the storage unit stores image data whose resolution has been converted by the conversion unit.
コンピュータに、
入力された画像データを記憶手段に書き込む機能と、
前記画像データが表す画像において、文字画像を含むテキスト領域と文字画像以外の画像を含むイメージ領域とを分離する機能と、
前記テキスト領域に含まれる文字を認識する機能と、
認識された文字を表す文字コードを生成する機能と、
前記記憶手段に記憶されている画像データに対応付けて、生成された前記文字コードを前記記憶手段に書き込む機能と、
前記記憶手段に記憶されている画像データが表す画像と、当該画像データに対応付けられて前記記憶手段に書き込まれた文字コードが表す文字とを関連づけて表示手段に表示させる機能と
を実現させるためのプログラム。
On the computer,
A function of writing the input image data into the storage means;
In the image represented by the image data, a function of separating a text area including a character image and an image area including an image other than the character image;
A function of recognizing characters included in the text area;
A function for generating a character code representing a recognized character;
A function of writing the generated character code in the storage unit in association with the image data stored in the storage unit;
A function of associating the image represented by the image data stored in the storage unit with the character represented by the character code written in the storage unit in association with the image data and displaying the image on the display unit. Program.
JP2005339401A 2005-11-24 2005-11-24 Image processor and program Pending JP2007148585A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005339401A JP2007148585A (en) 2005-11-24 2005-11-24 Image processor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005339401A JP2007148585A (en) 2005-11-24 2005-11-24 Image processor and program

Publications (1)

Publication Number Publication Date
JP2007148585A true JP2007148585A (en) 2007-06-14

Family

ID=38209957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005339401A Pending JP2007148585A (en) 2005-11-24 2005-11-24 Image processor and program

Country Status (1)

Country Link
JP (1) JP2007148585A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077669A (en) * 2009-09-29 2011-04-14 Sharp Corp Document reader with preview function

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011077669A (en) * 2009-09-29 2011-04-14 Sharp Corp Document reader with preview function

Similar Documents

Publication Publication Date Title
US8107727B2 (en) Document processing apparatus, document processing method, and computer program product
JP4533273B2 (en) Image processing apparatus, image processing method, and program
JP2010020468A (en) Image processing apparatus, image processing method, its program, and storage medium
WO2000052645A1 (en) Document image processor, method for extracting document title, and method for imparting document tag information
US8218876B2 (en) Information processing apparatus and control method
US10638001B2 (en) Information processing apparatus for performing optical character recognition (OCR) processing on image data and converting image data to document data
JP2009031937A (en) Form image processing apparatus and form image processing program
JP2000322417A (en) Device and method for filing image and storage medium
JP2009266009A (en) Document processor, document summary preparation method, and document summary preparation program
JP4780184B2 (en) Image processing apparatus and image processing program
JP2007041709A (en) Document processing system, control method of document processing system, document processing device, computer program and computer readable storage medium
JP2007148585A (en) Image processor and program
JP2008225964A (en) Image processor, reading order setting method and program
JP7259403B2 (en) Information processing device and program
JP2002024761A (en) Image processing device, image processing method, and storage medium
JP4830763B2 (en) Image processing system and image processing program
JP2009140478A (en) Image processing apparatus and image processing method
JP4092849B2 (en) Form recognition device and recording medium
JP2019192959A (en) Information processing device and program
JP4592447B2 (en) Image data filing system
JP4043431B2 (en) Stamp processing apparatus, program, and recording medium
US11206336B2 (en) Information processing apparatus, method, and non-transitory computer readable medium
JP2008244612A (en) Image processing apparatus and method
JP2014044555A (en) Image processing apparatus, image processing system, and program
JP2007011472A (en) Information processing method and device, program and computer-readable memory