JP2001209645A - Filing system - Google Patents

Filing system

Info

Publication number
JP2001209645A
JP2001209645A JP2000015068A JP2000015068A JP2001209645A JP 2001209645 A JP2001209645 A JP 2001209645A JP 2000015068 A JP2000015068 A JP 2000015068A JP 2000015068 A JP2000015068 A JP 2000015068A JP 2001209645 A JP2001209645 A JP 2001209645A
Authority
JP
Japan
Prior art keywords
image data
search
keyword
storage device
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000015068A
Other languages
Japanese (ja)
Inventor
Teruyuki Maruyama
輝幸 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000015068A priority Critical patent/JP2001209645A/en
Publication of JP2001209645A publication Critical patent/JP2001209645A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Storing Facsimile Image Data (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a filing system capable of extracting document information from a stored document, converting it to voice information, storing it and confirming and reutilizing a retrieved document by voice. SOLUTION: When a retrieval image is displayed (S901), user authentication for specifying a user by a user ID and a password is performed (S902). When the user is specified, a keyword relating to a document desired to be retrieved is inputted (S903) and retrieval is started (S904). In the case that plural object documents are indicated by thinned images, the user specifies the document considered as appropriate by a mouse 312 (S905). The source image of the specified document is displayed on a display device (S906). In the case that sentences can not be confirmed due to the resolution of the display device, coordinates on the displayed source image are specified by the mouse 312 (S907), the sentences are confirmed by reading the sentences of a text area corresponding to the specified coordinates aloud (S908) and a processing is ended.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ファイリングシス
テムに係り、特に、文書の複写、ファクシミリ通信、ス
キャンなどのデータ処理を行う処理システムに適用さ
れ、データ処理によって取込まれたデータを自動的にバ
ックアップすると共に、再利用可能なファイリングシス
テムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a filing system, and more particularly, to a filing system, which is applied to a processing system for performing data processing such as copying of a document, facsimile communication, scanning, and the like. A filing system that can be backed up and reused.

【0002】[0002]

【従来の技術】従来、重要で保管が必要である文書(画
像や文字が表示された文書)や、将来使用する可能性の
ある文書などの書類は、紙に記録された状態のままファ
イルされて書棚等に整理されている。書類が膨大な事業
所などでは、その保管場所にかなり場所を取られてしま
うのと共に、所望の書類を探すのに手間が掛かってしま
う。近年では、データ処理技術の高度化・高速化と共
に、記憶手段の低価格化に伴って、保管書類の種類が膨
大な事業所などに限らず、スキャナ装置により読み取ら
せて大容量記憶装置に蓄積させておくファイリングシス
テムが広く利用されている。また、電子化した画像デー
タと同一のデータを蓄積手段に送って蓄積・保持させる
ファイリングシステムも利用されている。
2. Description of the Related Art Conventionally, documents such as documents that are important and need to be stored (images and characters are displayed) and documents that may be used in the future are filed as they are recorded on paper. Are arranged in bookcases. In an office or the like where a large number of documents are stored, the storage space is considerably occupied, and it takes time and effort to find a desired document. In recent years, with the advancement and speeding up of data processing technology and the lowering of the cost of storage means, the types of archived documents are not limited to business establishments with huge volumes, but are scanned by scanners and stored in large-capacity storage devices. The filing system that keeps it is widely used. Further, a filing system is also used in which the same data as the digitized image data is sent to a storage unit and stored and held.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、このよ
うな従来のファイリングシステムでは、スキャナ装置に
よって文書を保存の都度に読み取らせる必要があるた
め、作業が煩雑であるという問題があった。また、ファ
イル装置に保管する文書は、会議に使用する為に複写機
によりコピーした書類であったり、取引先とファクシミ
リ装置などにより送受信した書類であるので、電気信号
に変換処理する担当者の目に保管文書が少なくとも1回
以上触れてしまい、蓄積ファイルへアクセスする為のパ
スワード等も知られることとなり、セキュリティの面で
問題があった。さらに、従来のファイリングシステムで
は、検索文書の確認、再利用はパーソナルコンピュータ
のディスプレイまたは文書の再印刷によって行われるた
め、視覚に問題を持つユーザが利用しづらいという問題
があった。
However, such a conventional filing system has a problem that the work is complicated because the document must be read by the scanner device every time it is stored. Also, the documents stored in the file device are documents copied by a copier for use in a conference, or documents transmitted and received by a facsimile machine or the like to a business partner. The stored document is touched at least once, and a password or the like for accessing the stored file is also known, which has a problem in security. Further, in the conventional filing system, since the search document is confirmed and reused by reprinting the display of the personal computer or the document, there is a problem that it is difficult for a user having a visual problem to use the document.

【0004】そこで、本発明の第1の目的は、蓄積文書
からテキスト情報を抽出して音声データに変換して蓄積
し、検索文書の確認、再利用を音声で行うことができる
ファイリングシステムを提供することである。本発明の
第2の目的は、蓄積文書からテキスト情報を抽出して蓄
積し、検索文書の確認、再利用を音声で行うことができ
るファイリングシステムを提供することである。本発明
の第3の目的は、蓄積文書からテキスト情報を抽出し、
このテキスト情報を音声データに変換するプログラムを
蓄積し、検索文書の確認、再利用を音声で行うことがで
きるファイリングシステムを提供することである。
Accordingly, a first object of the present invention is to provide a filing system capable of extracting text information from a stored document, converting the text information into voice data, storing the text data, and confirming and reusing a search document by voice. It is to be. A second object of the present invention is to provide a filing system capable of extracting and storing text information from a stored document, and confirming and reusing a search document by voice. A third object of the present invention is to extract text information from a stored document,
An object of the present invention is to provide a filing system in which a program for converting text information into audio data is stored, and a search document can be confirmed and reused by voice.

【0005】[0005]

【課題を解決するための手段】請求項1記載の発明で
は、文書を画像データとして読み取る読取装置と、この
読取装置で読み取った画像データを蓄積する蓄積装置
と、この蓄積装置に画像データおよびキーワードの検索
依頼をする端末を有し、これらが回線を介してネットワ
ーク接続されているファイリングシステムにおいて、前
記読取装置は、読み取った画像データを回線を介して前
記蓄積装置に送信する送信手段を備え、前記蓄積装置
は、前記送信手段から送信された画像データや、前記端
末から検索依頼されるキーワードを受信する受信手段
と、前記受信手段が受信した画像データやキーワードに
文字認識処理して文章情報を抽出する文字認識手段と、
前記文字認識手段が抽出した文章情報を音声情報に変換
する音声生成手段と、前記音声生成手段で生成した音声
情報を前記受信手段で受信した画像データやキーワード
に関連づけて蓄積する蓄積手段と、前記蓄積手段に画像
データやキーワードに関連づけて蓄積された音声情報を
前記端末からのキーワードに基づいて検索し、検索結果
である画像データやキーワードに関連する音声情報を前
記端末に送信する検索手段を備え、前記端末は、ユーザ
が検索したいキーワードや文章を入力する入力手段と、
前記入力手段によって入力されたキーワードや文章を前
記蓄積手段に送信して検索を依頼する検索依頼手段と、
前記検索依頼手段が前記蓄積装置に検索依頼をした検索
結果を音声出力する音声出力手段と、前記音声出力手段
が音声出力するキーワードや文章を画面表示する表示手
段とを備え、前記検索依頼手段がキーワードによる検索
依頼を前記蓄積装置の送信手段に送信した場合、前記蓄
積装置が前記検索キーワードに関連する音声情報を前記
端末に送信し、前記音声出力手段が前記蓄積手段に蓄積
されている音声情報を音声出力することにより、前記第
1の目的を達成する。
According to the first aspect of the present invention, a reading device for reading a document as image data, a storage device for storing image data read by the reading device, and image data and keywords stored in the storage device. In a filing system having terminals for making a search request, and these are connected to a network via a line, the reading device includes a transmitting unit that transmits the read image data to the storage device via a line, The storage device is a receiving unit that receives the image data transmitted from the transmitting unit and a keyword requested to be searched by the terminal. The storage device performs character recognition processing on the image data and the keyword received by the receiving unit to process text information. Character recognition means to be extracted;
Voice generating means for converting the sentence information extracted by the character recognizing means into voice information; storing means for storing the voice information generated by the voice generating means in association with image data and keywords received by the receiving means; Search means for searching the storage means for voice information stored in association with image data and keywords based on the keyword from the terminal, and transmitting the search result image data and voice information related to the keyword to the terminal An input unit for inputting a keyword or a sentence that the user wants to search,
Search request means for requesting a search by transmitting the keyword or sentence input by the input means to the storage means,
The search request unit includes a voice output unit that outputs a search result of a search request to the storage device by voice, and a display unit that displays a keyword or a text output by the voice output unit on a screen, and the search request unit includes: When a search request by a keyword is transmitted to the transmission unit of the storage device, the storage device transmits voice information related to the search keyword to the terminal, and the voice output unit stores the voice information stored in the storage unit. To achieve the first object.

【0006】請求項2記載の発明では、文書を画像デー
タとして読み取る読取装置と、この読取装置で読み取っ
た画像データを蓄積する蓄積装置と、この蓄積装置に画
像データおよびキーワードの検索依頼をする端末を有
し、これらが回線を介してネットワーク接続されている
ファイリングシステムにおいて、前記読取装置は、読み
取った画像データを回線を介して前記蓄積装置に送信す
る送信手段を備え、前記蓄積装置は、前記送信手段から
送信された画像データや、前記端末から検索依頼される
キーワードを受信する受信手段と、前記受信手段が受信
した画像データやキーワードに文字認識処理して文章情
報を抽出する文字認識手段と、前記文字認識手段で抽出
した文章情報を前記受信手段で受信した画像データやキ
ーワードに関連づけて蓄積する蓄積手段と、前記蓄積手
段に画像データやキーワードに関連づけて蓄積された文
章情報を前記端末からのキーワードに基づいて検索し、
検索結果である画像データやキーワードに関連する文章
情報を前記端末に送信する検索手段とを備え、前記端末
は、ユーザが検索したいキーワードや文章を入力する入
力手段と、前記入力手段によって入力されたキーワード
や文章を前記蓄積手段に送信して検索を依頼する検索依
頼手段と、前記表示手段に表示された検索依頼手段が前
記蓄積装置に検索依頼をした検索結果を音声出力する音
声出力手段と、前記音声出力手段が音声出力するキーワ
ードや文章を画面表示する表示手段とを備え、前記検索
依頼手段がキーワードによる検索依頼を前記蓄積装置の
送信手段に送信した場合、前記蓄積装置が前記検索キー
ワードに関連する文章情報を前記端末に送信し、前記音
声出力手段が前記蓄積手段に蓄積されている文章情報を
音声出力することにより、前記第2の目的を達成する。
According to the present invention, a reading device for reading a document as image data, a storage device for storing image data read by the reading device, and a terminal for requesting the storage device to search for image data and keywords. In a filing system in which these are connected to a network via a line, the reading device includes transmitting means for transmitting the read image data to the storage device via a line, and the storage device includes: A receiving unit that receives the image data transmitted from the transmitting unit and a keyword requested to be searched by the terminal; and a character recognizing unit that performs character recognition processing on the image data and the keyword received by the receiving unit to extract text information. Associating the sentence information extracted by the character recognition means with the image data and keywords received by the reception means Means for storing the text information stored in association with the image data and keywords to search based on keywords from the terminal to the storage means,
A search unit that transmits text data related to image data and keywords as search results to the terminal, wherein the terminal is configured to input a keyword or a text that a user wants to search, and input by the input unit. A search request unit that transmits a keyword or a sentence to the storage unit to request a search, a voice output unit that outputs a search result in which the search request unit displayed on the display unit makes a search request to the storage device, Display means for displaying on screen a keyword or sentence output by the voice output means, and when the search request means transmits a search request based on a keyword to a transmission means of the storage apparatus, the storage apparatus transmits the search keyword to the search keyword. Transmitting relevant text information to the terminal, and the voice output means voice-outputting text information stored in the storage means; More, to achieve the second object.

【0007】請求項3記載の発明では、文書を画像デー
タとして読み取る読取装置と、この読取装置で読み取っ
た画像データを蓄積する蓄積装置と、この蓄積装置に画
像データおよびキーワードの検索依頼をする端末を有
し、これらが回線を介してネットワーク接続されている
ファイリングシステムにおいて、前記読取装置は、前記
画像入力手段が読み取った画像データを回線を介して前
記蓄積装置に送信する送信手段を備え、前記蓄積装置
は、前記送信手段から送信された画像データや、前記端
末から検索依頼されるキーワードを受信する受信手段
と、前記受信手段に受信された画像データやキーワード
に文字認識処理して文章情報を抽出する文字認識手段
と、前記文字認識手段で抽出した文章情報を前記受信手
段で受信した画像データやキーワードに関連づけて蓄積
する蓄積手段と、前記蓄積手段に画像データやキーワー
ドに関連づけて蓄積された文章情報を前記端末からのキ
ーワードに基づいて検索し、検索結果である画像データ
やキーワードに関連する文章情報を音声出力するプログ
ラムを前記端末に送信する検索手段とを備え、前記端末
は、ユーザが検索したいキーワードや文章を入力する入
力手段と、前記入力手段によって入力されたキーワード
や文章を前記蓄積手段に送信して検索を依頼する検索依
頼手段と、前記表示手段に表示された検索依頼手段が前
記蓄積装置に検索依頼をした検索結果を音声出力する音
声出力手段と、前記音声出力手段が音声出力するキーワ
ードや文章を画面表示する表示手段とを備え、前記検索
依頼手段がキーワードによる検索依頼を前記蓄積装置の
送信手段に送信した場合、前記蓄積装置が前記検索キー
ワードに関連する文章情報を前記端末に送信し、前記音
声出力手段が前記蓄積手段に蓄積されている文章情報を
前記検索手段から送信された音声出力プログラムに基づ
いて音声出力することにより、前記第3の目的を達成す
る。
According to the third aspect of the present invention, a reading device for reading a document as image data, a storage device for storing image data read by the reading device, and a terminal for requesting the storage device to search for image data and keywords. And a filing system in which these are network-connected via a line, wherein the reading device includes a transmission unit that transmits the image data read by the image input unit to the storage device via a line, A storage unit that receives the image data transmitted from the transmission unit and a keyword requested to be searched by the terminal; and performs character recognition processing on the image data and the keyword received by the reception unit to process text information. Character recognition means to be extracted, and text data extracted by the character recognition means, A storage means for storing in association with the keyword, text information stored in the storage means in association with the image data or the keyword, based on the keyword from the terminal, and a text associated with the image data or the keyword as a search result. Search means for transmitting a program for outputting information to the terminal by voice, the terminal comprising: an input means for inputting a keyword or a sentence that a user wants to search; and a storage means for storing the keyword or sentence inputted by the input means. Search request means for transmitting a search request to the storage device, sound output means for outputting a search result for which the search request means displayed on the display means has made a search request to the storage device, and sound output means for outputting sound Display means for displaying a keyword or a sentence to be displayed on a screen, wherein the search request means makes a search request by a keyword When transmitting to the transmission unit of the product, the storage unit transmits text information related to the search keyword to the terminal, and the voice output unit transmits the text information stored in the storage unit from the search unit. The third object is achieved by outputting voice based on the output voice output program.

【0008】請求項4記載の発明では、請求項1記載の
発明において、前記蓄積手段は、前記音声情報をさらに
画像データにおける座標情報に関連づけて蓄積し、前記
端末の前記表示手段における画像データの表示の際、ユ
ーザによって画像データ上の座標が指定された場合、こ
の座標に関連付けられた音声情報を前記音声出力手段が
音声出力することにより、前記第1の目的を達成する。
According to a fourth aspect of the present invention, in the first aspect of the present invention, the storage means further stores the audio information in association with coordinate information in the image data, and stores the image data in the display means of the terminal. At the time of display, when coordinates on the image data are designated by the user, the first object is achieved by the sound output means outputting sound information associated with the coordinates by sound.

【0009】請求項5記載の発明では、請求項2または
請求項3記載の発明において、前記蓄積手段は、文章情
報をさらに画像データにおける座標情報に関連づけて蓄
積し、前記端末の前記表示手段における画像データの表
示のの際、ユーザによって画像データ上の座標が指定さ
れた場合、この座標に関連付けられた文章情報を前記音
声出力手段が音声出力することにより、前記第2および
前記第3の目的を達成する。
According to a fifth aspect of the present invention, in the second or third aspect of the invention, the storage means further stores the text information in association with the coordinate information in the image data, and stores the text information in the display means of the terminal. When displaying the image data, when the coordinates on the image data are designated by the user, the voice output means outputs the voice of the text information associated with the coordinates, thereby providing the second and third objects. To achieve.

【0010】請求項6記載の発明では、請求項4または
請求項5記載の発明において、前記音声出力手段が音声
出力する際、画像データ上の前記座標位置または座標領
域を他の領域と区別して前記表示手段が表示することに
より、前記第1、前記第2および前記第3の目的を達成
する。
According to a sixth aspect of the present invention, in the fourth or fifth aspect of the present invention, when the audio output means outputs audio, the coordinate position or coordinate area on the image data is distinguished from other areas. The first, the second, and the third objects are achieved by the display means displaying.

【0011】[0011]

【発明の実施の形態】以下、本発明の好適な実施の形態
を図1ないし図15を参照して詳細に説明する。まず、
第1の実施の形態について説明をする。図1は、ファイ
リングシステムの全体構成および文書読取装置の構成を
示した図である。本実施形態のファイリングシステム
は、文書読取装置100、蓄積装置108および端末1
07によって構成されている。文書読取装置100は、
画像入力部101、印字部102、回線103aに接続
された送受信部103、操作パネル105からの操作に
よって各部を制御する中央制御部104および画像取込
み部106を備えている。画像入力部101、印字部1
02、送受信部103、中央制御部104および画像取
込み部106は画像バス106により相互に接続されて
いる。文書読取装置100は、ネットワーク109によ
って蓄積装置108および端末107に接続されてい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to FIGS. First,
The first embodiment will be described. FIG. 1 is a diagram showing an overall configuration of a filing system and a configuration of a document reading device. The filing system of the present embodiment includes a document reading device 100, a storage device 108, and a terminal 1
07. The document reading device 100
An image input unit 101, a printing unit 102, a transmitting / receiving unit 103 connected to the line 103a, a central control unit 104 for controlling each unit by an operation from an operation panel 105, and an image capturing unit 106 are provided. Image input unit 101, printing unit 1
02, the transmission / reception unit 103, the central control unit 104, and the image capturing unit 106 are interconnected by an image bus 106. The document reading device 100 is connected to a storage device 108 and a terminal 107 via a network 109.

【0012】図2は、蓄積装置108の構成を示したブ
ロック図である。本実施形態の蓄積装置108は、受信
部202、記憶部204、文字認識部205、記憶媒体
制御部206、記憶媒体207および音声生成部208
を備える。受信部202は、ネットワーク201(図1
のネットワーク109に相当)を介して文書読取装置1
00から画像データを受信する。記憶部204は、受信
部202が受信した画像データおよび付帯情報を一時的
に記憶する。文字認識部205は、受信した画像データ
からテキスト情報を抽出する。音声生成部208は、文
字認識部205が取り出したテキスト情報のテキストを
読み上げる音声情報を生成する。記憶媒体制御部206
は、記憶媒体207に圧縮画像データ、文字情報から抽
出されたキーワード、抽出されたテキスト情報の画像デ
ータにおける座標情報および生成された音声情報を書き
込み、あるいは記憶媒体から読み出す。
FIG. 2 is a block diagram showing the configuration of the storage device 108. The storage device 108 of the present embodiment includes a receiving unit 202, a storage unit 204, a character recognition unit 205, a storage medium control unit 206, a storage medium 207, and a voice generation unit 208.
Is provided. The receiving unit 202 is connected to the network 201 (FIG. 1).
Document reading device 1 via the network 109).
00, image data is received. The storage unit 204 temporarily stores the image data and the supplementary information received by the reception unit 202. The character recognition unit 205 extracts text information from the received image data. The voice generation unit 208 generates voice information for reading out the text of the text information extracted by the character recognition unit 205. Storage medium control unit 206
Writes the compressed image data, the keyword extracted from the character information, the coordinate information in the image data of the extracted text information, and the generated audio information into the storage medium 207, or reads out from the storage medium.

【0013】図3は、端末107の構成を示したブロッ
ク図である。本実施形態では、一例として端末107を
ユーザが検索、確認に用いるパーソナルコンピュータと
して説明する。端末(パーソナルコンピュータ)107
は、ネットワークコントローラ部302、CPU(中央
処理装置)303、主記憶部304、ディスプレイ制御
部305、記憶媒体制御部306、記憶媒体307、音
声出力制御部308およびマウス制御部310を備えて
いる。ディスプレイ制御部305はディスプレイ装置3
09を、マウス制御部310は、キーボード311およ
びマウス(座標指示デバイス)312を、音声出力制御
部308はスピーカ313を制御する。また、端末10
7は、ネットワーク301(図1のネットワーク109
に相当)によって文書読取装置100および蓄積装置1
08に接続されている。
FIG. 3 is a block diagram showing the configuration of terminal 107. In the present embodiment, as an example, the terminal 107 will be described as a personal computer used by a user for searching and checking. Terminal (personal computer) 107
Includes a network controller unit 302, a CPU (central processing unit) 303, a main storage unit 304, a display control unit 305, a storage medium control unit 306, a storage medium 307, an audio output control unit 308, and a mouse control unit 310. The display control unit 305 is the display device 3
09, the mouse control unit 310 controls the keyboard 311 and the mouse (coordinate indicating device) 312, and the audio output control unit 308 controls the speaker 313. Also, the terminal 10
7 is a network 301 (the network 109 in FIG. 1).
The document reading device 100 and the storage device 1
08.

【0014】次に、第1の実施形態における文書読取装
置100、蓄積装置108および端末107での各処理
について説明する。図4は、文書読取装置100による
文書の取り込み処理手順を示したフローチャートであ
る。まず、文書読取装置100は、画像入力部101お
よび印字部102による複写操作等を行う前に、複写操
作で扱われる画像データを再利用できる利用者を特定し
(ステップ401)、複写処理によって扱われる画像デ
ータを主記憶上に取込む(ステップ402)。この取り
込んだ画像をローカルの2次記憶装置にファイルとして
一時的に保存し(ステップ403)、特定された再利用
可能者に関する情報と複写条件等の取込情報を添付ファ
イルに書き込む(ステップ404)。文書読取装置10
0の画像取込み部106は、蓄積装置108にネットワ
ーク109を介して添付ファイルを先に送信し(ステッ
プ405)、続いて取込画像ファイルを送信する(ステ
ップ406)。そして、画像の受信、蓄積の処理を蓄積
装置108へ移し(ステップ407)、処理を終了す
る。
Next, each processing in the document reading device 100, the storage device 108, and the terminal 107 in the first embodiment will be described. FIG. 4 is a flowchart illustrating a procedure of a document reading process performed by the document reading apparatus 100. First, before performing a copy operation or the like by the image input unit 101 and the print unit 102, the document reading apparatus 100 specifies a user who can reuse image data handled in the copy operation (step 401) and handles the user by the copy process. The captured image data is fetched into the main memory (step 402). The captured image is temporarily stored in a local secondary storage device as a file (step 403), and the information on the specified reusable person and the capture information such as copy conditions are written in the attached file (step 404). . Document reading device 10
The first image capturing unit 106 transmits the attached file to the storage device 108 via the network 109 (step 405), and then transmits the captured image file (step 406). Then, the process of receiving and storing the image is transferred to the storage device 108 (step 407), and the process ends.

【0015】図5は、蓄積装置108における画像の受
信、蓄積の処理手順を示したフローチャートである。蓄
積装置108は、文書読取装置100から添付ファイル
および取込画像ファイルを受信して(ステップ50
1)、この画像ファイルに対して領域識別処理を施し
(ステップ502)、テキスト領域を抽出する。抽出し
た各テキスト領域の座標情報を保存して、各領域中の各
文字を切出し(ステップ503)、切出した各文字に対
して文字認識処理(いわゆるOCR処理)をして文字情
報に変換する(ステップ504)。変換された文字情報
に言語処理をすることによって適切なテキスト情報を抽
出する(ステップ505)。そして、抽出したテキスト
情報の中から出現頻度が高い単語や重要単語、または添
付ファイル内の読取条件等をキーワードとして抽出する
(ステップ506)。音声生成部208は、言語処理に
よって抽出されたテキスト情報を読み上げるための音声
情報を生成する(ステップ507)。
FIG. 5 is a flowchart showing a procedure for receiving and storing an image in the storage device 108. The storage device 108 receives the attached file and the captured image file from the document reading device 100 (step 50).
1) A region identification process is performed on this image file (step 502) to extract a text region. The extracted coordinate information of each text area is stored, each character in each area is cut out (step 503), and each cut out character is subjected to character recognition processing (so-called OCR processing) to be converted into character information ( Step 504). Appropriate text information is extracted by performing language processing on the converted character information (step 505). Then, from the extracted text information, words or important words having a high appearance frequency, reading conditions in the attached file, and the like are extracted as keywords (step 506). The voice generation unit 208 generates voice information for reading out the text information extracted by the language processing (step 507).

【0016】蓄積装置108は、画像情報を記憶媒体2
07に蓄積し、添付ファイルに書かれている再利用可能
者に対するアクセス権を付加し(ステップ508)、抽
出されたキーワードをこの画像情報に関連づけて蓄積す
る(ステップ509)。同様に、各テキスト領域の座標
情報をこの画像情報に関連づけて蓄積し(ステップ51
0)、生成されたテキスト毎の音声情報を各テキスト領
域の座標情報に関連づけて蓄積し(ステップ511)、
処理を終了する。なお、音声生成部208による音声情
報の生成は、音声合成手法によってテキスト情報から生
成することができ、生成された音声情報はユーザの端末
(パーソナルコンピュータ)107で再生可能なフォー
マットに変換され保存される。
The storage device 108 stores the image information in the storage medium 2
07, the access right to the reusable person written in the attached file is added (step 508), and the extracted keyword is stored in association with this image information (step 509). Similarly, the coordinate information of each text area is stored in association with this image information (step 51).
0), accumulating the generated voice information for each text in association with the coordinate information of each text area (step 511);
The process ends. Note that the voice information generated by the voice generation unit 208 can be generated from text information by a voice synthesis technique, and the generated voice information is converted into a format that can be reproduced by the user terminal (personal computer) 107 and stored. You.

【0017】図6は、蓄積装置108における蓄積文書
の検索および再利用の処理手順を示したフローチャート
である。蓄積装置108は、ユーザによって端末107
から検索依頼を指示されると、端末107から送られて
くるユーザIDおよびパスワードと、内部に登録されて
いるユーザIDおよびパスワードを用いてユーザの認証
を行う(ステップ601)。ユーザIDおよびパスワー
ドによって認証され、検索の利用が可能であると判定さ
れたならば(ステップ601;Y)、ユーザが検索した
いキーワードを受付け(ステップ602)、蓄積装置1
08の記録媒体207上に蓄積されている多くの文書の
中から、この検索したいキーワードに合致し、かつ、ユ
ーザにアクセス権が与えられている文書を検索する(ス
テップ603)。対象文書が検索されると、これらの文
書の間引き画像を作成し(ステップ604)、ユーザの
端末107に作成した間引き画像を転送する(ステップ
605)。端末107から文書が指定されると、この指
定文書を受付け(ステップ606)、指定文書の原画像
を端末107に転送する(ステップ607)。そして、
指定文書の原画像に関連づけて蓄積されていた各テキス
ト領域の座標情報を転送し(ステップ608)、さらに
各テキスト領域の座標情報に関連づけて蓄積されていた
音声情報を端末107に転送し(ステップ609)、処
理を終了する。
FIG. 6 is a flowchart showing a processing procedure for searching and reusing a stored document in the storage device 108. The storage device 108 is provided by the user to the terminal 107.
, A user is authenticated using the user ID and password transmitted from the terminal 107 and the internally registered user ID and password (step 601). If the user is authenticated by the user ID and the password and it is determined that the search can be used (step 601; Y), the keyword that the user wants to search is accepted (step 602).
08, a document that matches the keyword to be searched and to which the user has access right is searched for (step 603). When the target documents are searched, the thinned images of these documents are created (step 604), and the created thinned images are transferred to the user terminal 107 (step 605). When a document is designated from the terminal 107, the designated document is accepted (step 606), and the original image of the designated document is transferred to the terminal 107 (step 607). And
The coordinate information of each text area stored in association with the original image of the designated document is transferred (step 608), and the voice information stored in association with the coordinate information of each text area is transferred to the terminal 107 (step 608). 609), and the process ends.

【0018】図7は、端末107における文書検索、文
書確認の処理手順を示したフローチャートである。端末
107は、検索画面においてユーザIDとパスワードを
受付け(ステップ701)、受付けたユーザIDとパス
ワードを蓄積装置108に送って認証処理を依頼する
(ステップ702)。蓄積装置108の認証結果から検
索の利用が可能である場合(ステップ703;Y)、ユ
ーザはキーワードを入力し(ステップ704)、さらに
キーボードから検索開始指示を入力し、蓄積装置108
にキーワードと共に文書の検索依頼する(ステップ70
5)。蓄積装置108による検索終了を待って、蓄積装
置108の検索結果および対象文書の間引き画像を受信
し(ステップ706)、この間引き画像を表示装置に表
示する(ステップ707)。対象文書が複数ある場合、
ユーザによる文書の指定を受付けて(ステップ70
8)、文書の指定に関する情報を蓄積装置108に送る
(ステップ709)。これに応答して送られてくる指定
文書の原画像データ、座標情報及び音声情報を受け取っ
て(ステップ710)、表示装置に画像データを表示す
る(ステップ711)。
FIG. 7 is a flowchart showing the processing procedure of document search and document confirmation in the terminal 107. The terminal 107 receives the user ID and the password on the search screen (Step 701), sends the received user ID and the password to the storage device 108, and requests an authentication process (Step 702). If the search is available from the authentication result of the storage device 108 (step 703; Y), the user inputs a keyword (step 704), further inputs a search start instruction from the keyboard, and
To search for a document together with a keyword (step 70)
5). After the search by the storage device 108 is completed, the search result of the storage device 108 and the thinned image of the target document are received (step 706), and the thinned image is displayed on the display device (step 707). If there are multiple target documents,
Receiving the designation of the document by the user (step 70)
8) Then, information relating to the designation of the document is sent to the storage device 108 (step 709). The original image data, coordinate information, and audio information of the designated document sent in response thereto are received (step 710), and the image data is displayed on the display device (step 711).

【0019】図8は、ユーザの端末107上における文
書画像および音声による読み上げ箇所を示した図であ
る。ここで、マウス312により表示装置上の画像デー
タ801の座標802が指定されると(ステップ71
2)、この座標とステップ710で受付けた指定文書の
原画像データ、座標情報および音声情報を照合し、対応
するテキスト領域、対応する音声情報を見つけ出す(ス
テップ713)。この音声情報を音声出力制御部308
およびスピーカ313により音声出力し、指定テキスト
の読上げを行う(ステップ714)。また、表示装置上
の画像の表示において、指定テキスト領域を図8に示し
たように反転表示803をして(ステップ715)、検
索したい部分の座標指定が終了ならば(ステップ71
6;Y)、検索を終了するかどうか判断し(ステップ7
17)、処理を終了する。
FIG. 8 is a diagram showing portions read out by a document image and voice on the terminal 107 of the user. Here, when the coordinates 802 of the image data 801 on the display device are designated by the mouse 312 (step 71).
2) The coordinates are compared with the original image data, coordinate information, and audio information of the designated document received in step 710 to find a corresponding text area and corresponding audio information (step 713). This audio information is output to the audio output control unit 308
Then, a voice is output from the speaker 313 and the designated text is read out (step 714). In displaying the image on the display device, the designated text area is displayed in reverse video 803 as shown in FIG. 8 (step 715), and if the coordinate designation of the part to be searched is completed (step 71).
6; Y), and determine whether to end the search (step 7)
17), end the process.

【0020】図9は、ユーザが文書検索、文書確認する
場合の処理手順を示したフローチャートである。ユーザ
が端末107上で検索端末ソフトウエアを実行し、検索
画面が表示されると(ステップ901)、ユーザIDと
パスワードにより利用者を特定するユーザ認証を行う
(ステップ902)。利用者の特定ができると、検索し
たい文書に関するキーワードを入力し(ステップ90
3)、検索を開始する(ステップ904)。ここで、複
数の対象文書が間引き画像によって示されたならば、ユ
ーザはそのうち適当と思われる文書をマウス312のダ
ブルクリックにより指定する(ステップ905)。表示
装置上には指定した文書の原画像が表示される(ステッ
プ906)。ここで、表示装置の解像度により文章の確
認ができない場合、表示されている原画像上の座標をマ
ウス312によって指定し(ステップ907)、指定し
た座標に対応するテキスト領域の文章の読上げによっ
て、文章の確認を行い(ステップ908)、処理を終了
する。
FIG. 9 is a flowchart showing a processing procedure when the user searches for and confirms a document. When the user executes the search terminal software on the terminal 107 and the search screen is displayed (step 901), user authentication for specifying the user based on the user ID and the password is performed (step 902). When the user can be specified, a keyword relating to the document to be searched is input (step 90).
3) The search is started (step 904). Here, if a plurality of target documents are indicated by the thinned image, the user designates a document considered appropriate by double-clicking the mouse 312 (step 905). The original image of the specified document is displayed on the display device (step 906). If the text cannot be confirmed due to the resolution of the display device, the coordinates on the displayed original image are designated by the mouse 312 (step 907), and the text in the text area corresponding to the designated coordinates is read out. Is confirmed (step 908), and the process ends.

【0021】次に、第2の実施の形態について説明をす
る。図10は、第2の実施形態の蓄積装置1008の構
成を示した図である。第2の実施形態のファイリングシ
ステムは、図1の文書読取装置100、図10の蓄積装
置1008および図3のユーザが検索、確認に用いる端
末107を備えている。第2の実施形態の蓄積装置10
08は、文書読取装置100から画像データを受信する
受信部1002、受信した画像データおよび付帯情報を
一時的に記憶する記憶部1004、画像データからテキ
スト情報を抽出する文字認識部1005、記憶媒体10
07に圧縮画像データ、文字情報から抽出されたキーワ
ード、抽出されたテキスト情報の画像データにおける座
標情報およびテキスト情報を書き込み、あるいは記憶媒
体から読み出す記憶媒体制御部1006を備えている。
また、蓄積装置1008は、ネットワーク1001(図
1のネットワーク109に相当)によって、文書読取装
置100および端末107と接続されている。
Next, a second embodiment will be described. FIG. 10 is a diagram illustrating a configuration of the storage device 1008 according to the second embodiment. The filing system of the second embodiment includes the document reading device 100 in FIG. 1, the storage device 1008 in FIG. 10, and the terminal 107 used by the user in FIG. 3 for searching and checking. Storage device 10 of the second embodiment
08, a receiving unit 1002 for receiving image data from the document reading apparatus 100; a storage unit 1004 for temporarily storing the received image data and supplementary information; a character recognition unit 1005 for extracting text information from the image data;
A storage medium control unit 1006 writes or reads out the compressed image data, the keyword extracted from the character information, the coordinate information and the text information in the image data of the extracted text information, or reads out from the storage medium.
The storage device 1008 is connected to the document reading device 100 and the terminal 107 via a network 1001 (corresponding to the network 109 in FIG. 1).

【0022】次に、第2の実施形態における文書読取装
置100、蓄積装置1008および端末107での各処
理について説明する。図11は、第2の実施形態の蓄積
装置1008における画像の受信、蓄積の処理手順を示
したフローチャートである。蓄積装置1008は、文書
読取装置100から添付ファイルおよび取込画像ファイ
ルを受信し(ステップ1101)、この画像ファイルに
対して領域識別処理を施し(ステップ1102)、テキ
スト領域を抽出する。抽出した各テキスト領域の座標情
報を保存して、各テキスト領域中の各文字を切出し(ス
テップ1103)、切出した各文字に対して文字認識処
理(いわゆるOCR処理)をして文字情報に変換する
(ステップ1104)。変換された文字情報に言語処理
をすることによって適切なテキスト情報を抽出する(ス
テップ1105)。そして、抽出したテキスト情報の中
から出現頻度が高い単語や重要単語、または添付ファイ
ル内の読取条件等をキーワードとして抽出する(ステッ
プ1106)。蓄積装置1008は、画像情報を記憶媒
体1007に蓄積し、添付ファイルに書かれている再利
用可能者に対するアクセス権を付加し(ステップ110
7)、抽出されたキーワードをこの画像情報に関連づけ
て蓄積する(ステップ1108)。同様に、各テキスト
領域の座標情報をこの画像情報に関連づけて蓄積し(ス
テップ1109)、生成されたテキスト情報を座標情報
に関連づけて蓄積して(ステップ1110)、処理を終
了する。
Next, each processing in the document reading apparatus 100, the storage apparatus 1008, and the terminal 107 in the second embodiment will be described. FIG. 11 is a flowchart illustrating a procedure of receiving and storing an image in the storage device 1008 according to the second embodiment. The storage device 1008 receives the attached file and the captured image file from the document reading device 100 (step 1101), performs an area identification process on the image file (step 1102), and extracts a text area. The extracted coordinate information of each text area is stored, each character in each text area is cut out (step 1103), and each cut out character is subjected to character recognition processing (so-called OCR processing) to be converted into character information. (Step 1104). Appropriate text information is extracted by performing language processing on the converted character information (step 1105). Then, from the extracted text information, words having a high appearance frequency, important words, reading conditions in the attached file, and the like are extracted as keywords (step 1106). The storage device 1008 stores the image information in the storage medium 1007 and adds an access right to the reusable person described in the attached file (step 110).
7) The extracted keywords are stored in association with the image information (step 1108). Similarly, the coordinate information of each text area is stored in association with the image information (step 1109), the generated text information is stored in association with the coordinate information (step 1110), and the process is terminated.

【0023】図12は、第2の実施形態の蓄積装置10
08における蓄積文書の検索および再利用の処理手順を
示したフローチャートである。蓄積装置1008は、ユ
ーザによって端末107から検索依頼を指示されると、
端末107から送られてくるユーザIDおよびパスワー
ドと、内部に登録されているユーザIDおよびパスワー
ドを用いてユーザの認証を行う(ステップ1201)。
ユーザIDおよびパスワードによって認証され、検索の
利用が可能であると判定されたならば(ステップ120
1;Y)、ユーザが検索したいキーワードを受付け(ス
テップ1202)、このキーワードに合致し、かつ、ユ
ーザにアクセス権が与えられている文書を蓄積装置10
08の記録媒体1007上に蓄積されている多くの文書
の中から検索する(ステップ1203)。対象文書が検
索されると、これらの文書の間引き画像を作成し(ステ
ップ1204)、ユーザの端末107に間引き画像を転
送する(ステップ1205)。端末107から文書が指
定されると、この指定文書を受付け(ステップ120
6)、指定文書の原画像を端末107に転送する(ステ
ップ1207)。そして、指定画像の原画像に関連づけ
て蓄積されていた各テキスト領域の座標情報を転送し
(ステップ1208)、さらに各テキスト領域の座標情
報に関連づけて蓄積されていた文章情報であるテキスト
情報を端末107に転送する(ステップ1209)。
FIG. 12 shows a storage device 10 according to the second embodiment.
10 is a flowchart showing a processing procedure of searching and reusing a stored document in step 08. When receiving a search request from the terminal 107 by the user, the storage device 1008
User authentication is performed using the user ID and password sent from the terminal 107 and the internally registered user ID and password (step 1201).
If the user is authenticated by the user ID and the password and it is determined that the search can be used (step 120).
1; Y), a keyword that the user wants to search is accepted (step 1202), and a document that matches this keyword and for which the user has access right is stored in the storage device 10.
A search is made from among many documents stored on the recording medium 1007 (step 1203). When the target document is searched, a thinned image of these documents is created (step 1204), and the thinned image is transferred to the user terminal 107 (step 1205). When a document is designated from the terminal 107, the designated document is accepted (step 120).
6) Transfer the original image of the designated document to the terminal 107 (step 1207). Then, the coordinate information of each text area stored in association with the original image of the designated image is transferred (step 1208), and the text information, which is the text information stored in association with the coordinate information of each text area, is transmitted to the terminal. Transfer to 107 (step 1209).

【0024】図13は、第2の実施形態における文書検
索、文書確認の処理手順を示したフローチャートであ
る。端末107は、検索画面においてユーザIDとパス
ワードを受付け(ステップ1301)、受付けたユーザ
IDとパスワードを蓄積装置1008に送って認証処理
を依頼する(ステップ1302)。蓄積装置1008の
認証結果から検索の利用が可能である場合(ステップ1
303;Y)、ユーザはキーワードを入力し、さらにキ
ーボードからの検索開始指示を入力し、蓄積装置100
8にキーワードと共に文書の検索依頼する(ステップ1
305)。蓄積装置1008による検索終了を待って、
蓄積装置1008からの検索結果および対象文書の間引
き画像を受信し(ステップ1306)、この間引き画像
を表示装置に表示する(ステップ1307)。対象文書
が複数ある場合、ユーザによる文書の指定を受付けて
(ステップ1308)、文書の指定に関する情報を蓄積
装置1008に送り(ステップ1309)、これに応答
して送られてくる指定文書の原画像データ、座標情報お
よび文章情報を受け取って(ステップ1310)、表示
装置に該画像データを表示する(ステップ1311)。
FIG. 13 is a flowchart showing a document search and document confirmation processing procedure in the second embodiment. The terminal 107 receives the user ID and the password on the search screen (step 1301), sends the received user ID and password to the storage device 1008, and requests an authentication process (step 1302). When the search can be used from the authentication result of the storage device 1008 (step 1)
303; Y), the user inputs a keyword, further inputs a search start instruction from the keyboard, and
8 and a document search request together with the keyword (step 1)
305). Waiting for the end of the search by the storage device 1008,
The search result and the thinned image of the target document are received from the storage device 1008 (step 1306), and the thinned image is displayed on the display device (step 1307). When there are a plurality of target documents, the designation of the document by the user is accepted (step 1308), and information relating to the designation of the document is sent to the storage device 1008 (step 1309), and the original image of the designated document sent in response thereto The data, coordinate information and text information are received (step 1310), and the image data is displayed on the display device (step 1311).

【0025】ここで、マウス312により表示画像上の
画像データ801の座標802が指定されると(ステッ
プ1312)、この座標とステップ1310で受付けた
指定文書の原画像データ、座標情報および文章情報を照
合し、対応するテキスト領域、対応する文書情報を見つ
け出す(ステップ1313)。この文書情報を記憶媒体
307におかれている音声合成プログラムと音声出力制
御部308およびスピーカ313により音声出力し、指
定テキストの読上げを行う(ステップ1314)。ま
た、表示装置上の画像の表示において、指定テキスト領
域を図8に示したように反転表示をして(ステップ13
15)、検索したい部分の座標指定が終了ならば(ステ
ップ1316;Y)、検索を終了するかどうか判断し
(ステップ1317)、処理を終了する。
Here, when the coordinates 802 of the image data 801 on the display image are designated by the mouse 312 (step 1312), the coordinates and the original image data, coordinate information and text information of the designated document received in step 1310 are combined. By collating, a corresponding text area and corresponding document information are found (step 1313). This document information is output as a voice by the voice synthesis program stored in the storage medium 307 and the voice output control unit 308 and the speaker 313, and the designated text is read out (step 1314). Further, in displaying the image on the display device, the designated text area is displayed in reverse video as shown in FIG.
15) If the coordinate designation of the part to be searched is completed (step 1316; Y), it is determined whether to end the search (step 1317), and the process ends.

【0026】次に、第3の実施の形態について説明す
る。第3の実施形態のファイリングシステムは、図1の
文書読取装置100、図10の蓄積装置1008および
図3のユーザが検索、確認に用いる端末107を備えて
いる。第3の実施形態における文書読取装置100、蓄
積装置1008および端末107での各処理について説
明する。図14は、第3の実施形態における蓄積文書の
検索および再利用の処理手順を示したフローチャートで
ある。蓄積装置1008は、ユーザによって端末107
から検索依頼を指示されると、端末107から送られて
くるユーザIDおよびパスワードと、内部に登録されて
いるユーザIDおよびパスワードを用いてユーザの認証
を行う(ステップ1401)。ユーザIDおよびパスワ
ードによって認証され、検索の利用が可能であると判定
されたならば(ステップ1401;Y)、ユーザが検索
したいキーワードを受付け(ステップ1402)、この
キーワードに合致し、かつ、ユーザにアクセス権が与え
られている文書を蓄積装置1008の記録媒体1007
上に蓄積されている多くの文書の中から検索する(ステ
ップ1403)。対象文書が検索されると、これらの文
書の間引き画像を作成し(ステップ1404)、ユーザ
の端末107に間引き画像を転送する(ステップ140
5)。端末107から文書が指定されると、この指定文
書を受付け(ステップ1406)、指定文書の原画像を
端末107に転送する(ステップ1407)。そして、
指定画像の原画像に関連づけて蓄積されていた各テキス
ト領域の座標情報を転送し(ステップ1408)、さら
に、各テキスト領域の座標情報に関連づけて蓄積されて
いた文章情報であるテキスト情報と共に、音声合成用の
プログラム(例えば、JAVAバイナリファイル)を端
末107に転送する(ステップ1409)。
Next, a third embodiment will be described. The filing system according to the third embodiment includes the document reading device 100 in FIG. 1, the storage device 1008 in FIG. 10, and the terminal 107 used by the user in FIG. 3 for searching and checking. Each processing in the document reading device 100, the storage device 1008, and the terminal 107 in the third embodiment will be described. FIG. 14 is a flowchart illustrating a processing procedure for searching and reusing a stored document according to the third embodiment. The storage device 1008 is operated by the user through the terminal 107.
When a search request is issued from the terminal 107, the user is authenticated using the user ID and password sent from the terminal 107 and the internally registered user ID and password (step 1401). If the user is authenticated by the user ID and the password and it is determined that the search can be used (step 1401; Y), the user accepts a keyword to be searched (step 1402), and matches the keyword with the user. The document to which the access right is given is stored in the storage medium 1007 of the storage device 1008.
A search is made from among the many documents stored above (step 1403). When the target documents are searched, thinned images of these documents are created (step 1404), and the thinned images are transferred to the user terminal 107 (step 140).
5). When a document is designated from the terminal 107, the designated document is accepted (step 1406), and the original image of the designated document is transferred to the terminal 107 (step 1407). And
The coordinate information of each text area stored in association with the original image of the designated image is transferred (step 1408), and the text information, which is the text information stored in association with the coordinate information of each text area, is also transmitted. A combining program (for example, a JAVA binary file) is transferred to the terminal 107 (step 1409).

【0027】図15は、第3の実施形態における文書検
索、文書確認の処理手順を示したフローチャートであ
る。端末107は、検索画面においてユーザIDとパス
ワードを受付け(ステップ1501)、受付けたユーザ
IDとパスワードを蓄積装置1008に送って認証処理
を依頼する(ステップ1502)。蓄積装置1008の
認証結果から検索の利用が可能である場合(ステップ1
503;Y)、ユーザはキーワードを入力し、さらにキ
ーボードからの検索開始指示を入力し、蓄積装置100
8にキーワードと共に文書の検索依頼する(ステップ1
505)。蓄積装置1008による検索終了を待って、
蓄積装置1008からの検索結果および対象文書の間引
き画像を受信し(ステップ1506)、この間引き画像
を表示装置に表示する(ステップ1507)。対象文書
が複数ある場合、ユーザによる文書の指定を受付けて
(ステップ1508)、文書の指定に関する情報を蓄積
装置1008に送り(ステップ1509)、これに応答
して送られてくる指定文書の原画像データ、座標情報お
よび文章情報および音声合成プログラムを受け取って
(ステップ1510)、表示装置に画像データを表示す
る(ステップ1511)。
FIG. 15 is a flowchart showing a document search and document confirmation processing procedure in the third embodiment. The terminal 107 receives the user ID and password on the search screen (step 1501), sends the received user ID and password to the storage device 1008, and requests an authentication process (step 1502). When the search can be used from the authentication result of the storage device 1008 (step 1)
503; Y), the user inputs a keyword, further inputs a search start instruction from the keyboard, and
8 and a document search request together with the keyword (step 1)
505). Waiting for the end of the search by the storage device 1008,
The search result and the thinned image of the target document are received from the storage device 1008 (step 1506), and the thinned image is displayed on the display device (step 1507). If there are a plurality of target documents, the designation of the document by the user is accepted (step 1508), and information relating to the designation of the document is sent to the storage device 1008 (step 1509), and the original image of the designated document sent in response thereto The data, the coordinate information, the text information, and the speech synthesis program are received (step 1510), and the image data is displayed on the display device (step 1511).

【0028】ここで、マウス312により表示画像上の
画像データ801の座標802が指定されると(ステッ
プ1512)、この座標とステップ1310で受付けた
指定文書の原画像データ、座標情報および文章情報を照
合し、対応するテキスト領域、対応する文書情報を見つ
け出す(ステップ1513)。この文書情報を記憶媒体
307におかれている音声合成プログラムと音声出力制
御部308およびスピーカ313により音声出力し、指
定テキストの読上げを行う(ステップ1514)。ま
た、表示装置上の画像の表示において、指定テキスト領
域を図8に示したように反転表示をして(ステップ15
15)、検索したい部分の座標指定が終了ならば(ステ
ップ1516;Y)、検索を終了するかどうか判断し
(ステップ1517)、処理を終了する。
When the coordinates 802 of the image data 801 on the display image are designated by the mouse 312 (step 1512), the coordinates and the original image data, coordinate information, and text information of the designated document received in step 1310 are combined. By collating, a corresponding text area and corresponding document information are found (step 1513). The document information is output as a voice by the voice synthesis program stored in the storage medium 307 and the voice output control unit 308 and the speaker 313, and the designated text is read out (step 1514). Further, in displaying the image on the display device, the designated text area is displayed in reverse video as shown in FIG.
15) If the coordinate designation of the part to be searched is completed (step 1516; Y), it is determined whether to end the search (step 1517), and the process is ended.

【0029】[0029]

【発明の効果】請求項1記載の発明では、検索依頼手段
がキーワードによる検索依頼を蓄積装置に送信した場
合、蓄積装置が検索キーワードに関連する音声情報を端
末に送信し、音声出力手段が前記蓄積手段に蓄積されて
いる音声情報を音声出力するので、解像度の低い表示装
置しか持たないユーザや視力の弱いユーザ等にとっても
利便性の高いファイリングシステムとなることが可能で
ある。
According to the first aspect of the present invention, when the search request means transmits a search request based on a keyword to the storage device, the storage device transmits voice information related to the search keyword to the terminal, and the voice output means outputs the voice information. Since the voice information stored in the storage unit is output as voice, it is possible to provide a filing system with high convenience even for a user having only a display device with a low resolution or a user with weak vision.

【0030】請求項2記載の発明では、検索依頼手段が
キーワードによる検索依頼を蓄積装置に送信した場合、
蓄積装置が検索キーワードに関連する文章情報を端末に
送信し、音声出力手段が蓄積手段に蓄積されている文章
情報を音声出力するので、ファイリングシステムの蓄積
装置からユーザの端末に対して情報量の多い音声情報で
はなく、情報量の少ないテキスト情報が送ることがで
き、ネットワークの効率利用をすることが可能である。
According to the second aspect of the present invention, when the search request means transmits a search request using a keyword to the storage device,
The storage device transmits the text information related to the search keyword to the terminal, and the voice output means outputs the text information stored in the storage device by voice, so that the amount of information can be reduced from the storage device of the filing system to the user terminal. Text information with a small amount of information can be sent instead of a large amount of voice information, and efficient use of the network is possible.

【0031】請求項3記載の発明では、検索依頼手段が
キーワードによる検索依頼を蓄積装置に送信した場合、
蓄積装置が検索キーワードに関連する文章情報を端末に
送信し、音声出力手段が蓄積手段に蓄積されている文章
情報を検索手段から送信された音声出力プログラムに基
づいて音声出力するので、ファイリングシステムの蓄積
装置からユーザの端末に対して文章情報の他に、文章情
報を音声出力するプログラムが送られ、ユーザの各端末
に文章情報を音声出力するプログラムを用意する必要が
無くなる。
According to the third aspect of the present invention, when the search request means transmits a search request using a keyword to the storage device,
The storage device transmits the text information related to the search keyword to the terminal, and the voice output means voice-outputs the text information stored in the storage means based on the voice output program transmitted from the search means. In addition to the text information, a program for outputting text information by voice is sent from the storage device to the user's terminal, eliminating the need to prepare a program for voice output of text information to each user's terminal.

【0032】請求項4記載の発明では、請求項1記載の
発明において、蓄積手段は、音声情報をさらに画像デー
タにおける座標情報に関連づけて蓄積し、端末の前記表
示手段における画像データの表示の際、ユーザによって
画像データ上の座標が指定された場合、この座標に関連
付けられた音声情報を音声出力手段が音声出力するの
で、ユーザが画像データ上の座標をマウス等で指定する
と、指定された座標にかかる文章が音声で確認すること
ができ、解像度の低い表示装置しか持たないユーザや視
力の弱いユーザ等にとっても利便性の高いファイリング
システムを可能とすることができる。
According to a fourth aspect of the present invention, in the first aspect of the invention, the storage means further stores the voice information in association with the coordinate information in the image data, and stores the voice information when displaying the image data on the display means of the terminal. When the coordinates on the image data are specified by the user, the sound information associated with the coordinates is output by the sound output means. Therefore, when the user specifies the coordinates on the image data with a mouse or the like, the specified coordinates are displayed. Can be confirmed by voice, and a filing system that is highly convenient for a user who has only a display device with a low resolution or a user who has low visual acuity can be realized.

【0033】請求項5記載の発明では、請求項2または
請求項3記載の発明において、蓄積手段は、文章情報を
さらに画像データにおける座標情報に関連づけて蓄積
し、端末の表示手段における画像データの表示のの際、
ユーザによって画像データ上の座標が指定された場合、
この座標に関連付けられた文章情報を音声出力手段が音
声出力するので、ユーザが画像データ上の座標をマウス
等で指定すると、指定された座標にかかる文章が音声で
確認でき、解像度の低い表示装置しか持たないユーザや
視力の弱いユーザ等にとっても利便性の高いファイリン
グシステムを可能とすることができる。また、ファイリ
ングシステムの蓄積装置からユーザの端末に対して、情
報量の多い音声情報ではなく情報量の少ない文章情報が
送られるので、ネットワークの効率利用を図ることがで
きる。
According to a fifth aspect of the present invention, in the second or third aspect, the storage means further stores the text information in association with the coordinate information in the image data, and stores the text data in the display means of the terminal. When displaying,
When coordinates on the image data are specified by the user,
Since the voice output means outputs the text information associated with the coordinates by voice, when the user specifies the coordinates on the image data with a mouse or the like, the text related to the specified coordinates can be confirmed by voice, and a display device with a low resolution This makes it possible to provide a filing system that is highly convenient for users who have only a small number of users, users who have poor eyesight, and the like. Further, text information having a small amount of information is sent from the storage device of the filing system to the user terminal instead of voice information having a large amount of information, so that efficient use of the network can be achieved.

【0034】請求項6記載の発明では、請求項4または
請求項5記載の発明において、音声出力手段が音声出力
する際、画像データ上の座標位置または座標領域を他の
領域と区別して表示手段が表示するので、検索文書の音
声による確認において、音声によって出力されている文
章位置がディスプレイ上で確認でき、画像データ上の座
標を指定し易くすることができる。
According to a sixth aspect of the present invention, in the fourth aspect or the fifth aspect of the invention, when the voice output means outputs voice, the coordinate position or the coordinate area on the image data is distinguished from other areas. Is displayed, the position of the sentence output by voice can be confirmed on the display when the search document is verified by voice, making it easier to specify the coordinates on the image data.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ファイリングシステムの全体構成および文書読
取装置の構成を示した図である。
FIG. 1 is a diagram showing an overall configuration of a filing system and a configuration of a document reading device.

【図2】蓄積装置の構成を示したブロック図である。FIG. 2 is a block diagram illustrating a configuration of a storage device.

【図3】端末の構成を示したブロック図である。FIG. 3 is a block diagram showing a configuration of a terminal.

【図4】文書読取装置による文書の取り込み処理手順を
示したフローチャートである。
FIG. 4 is a flowchart illustrating a document reading process performed by the document reading apparatus.

【図5】蓄積装置における画像の受信、蓄積の処理手順
を示したフローチャートである。
FIG. 5 is a flowchart illustrating a procedure of receiving and storing an image in the storage device.

【図6】蓄積装置における蓄積文書の検索および再利用
の処理手順を示したフローチャートである。
FIG. 6 is a flowchart illustrating a processing procedure for searching and reusing a stored document in a storage device.

【図7】端末における文書検索、文書確認の処理手順を
示したフローチャートである。
FIG. 7 is a flowchart showing a document search and document confirmation processing procedure in the terminal.

【図8】ユーザの端末上における文書画像および音声に
よる読み上げ箇所を示した図である。
FIG. 8 is a diagram showing portions read out by a document image and voice on a user terminal.

【図9】ユーザが文書検索、文書確認する場合の処理手
順を示したフローチャートである。
FIG. 9 is a flowchart showing a processing procedure when a user searches for and confirms a document.

【図10】第2の実施形態の蓄積装置の構成を示した図
である。
FIG. 10 is a diagram illustrating a configuration of a storage device according to a second embodiment.

【図11】第2の実施形態の蓄積装置における画像の受
信、蓄積の処理手順を示したフローチャートである。
FIG. 11 is a flowchart illustrating a procedure of receiving and storing an image in the storage device according to the second embodiment.

【図12】第2の実施形態の蓄積装置における蓄積文書
の検索および再利用の処理手順を示したフローチャート
である。
FIG. 12 is a flowchart illustrating a processing procedure for searching and reusing a stored document in a storage device according to a second embodiment.

【図13】第2の実施形態における文書検索、文書確認
の処理手順を示したフローチャートである。
FIG. 13 is a flowchart illustrating a document search and document confirmation processing procedure according to the second embodiment.

【図14】第3の実施形態における蓄積文書の検索およ
び再利用の処理手順を示したフローチャートである。
FIG. 14 is a flowchart illustrating a processing procedure for searching and reusing a stored document according to the third embodiment.

【図15】第3の実施形態における文書検索、文書確認
の処理手順を示したフローチャートである。
FIG. 15 is a flowchart illustrating a document search and document confirmation processing procedure according to the third embodiment.

【符号の説明】[Explanation of symbols]

100 文書読取装置 101 画像入力部 102 印字部 103 送受信部 104 中央制御部 105 操作パネル 106 画像取込み部 107 端末 108 蓄積装置 REFERENCE SIGNS LIST 100 Document reading device 101 Image input unit 102 Printing unit 103 Transmission / reception unit 104 Central control unit 105 Operation panel 106 Image capture unit 107 Terminal 108 Storage device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/62 330G ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 15/62 330G

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 文書を画像データとして読み取る読取装
置と、この読取装置で読み取った画像データを蓄積する
蓄積装置と、この蓄積装置に画像データおよびキーワー
ドの検索依頼をする端末を有し、これらが回線を介して
ネットワーク接続されているファイリングシステムにお
いて、 前記読取装置は、読み取った画像データを回線を介して
前記蓄積装置に送信する送信手段を備え、 前記蓄積装置は、前記送信手段から送信された画像デー
タや、前記端末から検索依頼されるキーワードを受信す
る受信手段と、前記受信手段が受信した画像データやキ
ーワードに文字認識処理して文章情報を抽出する文字認
識手段と、前記文字認識手段が抽出した文章情報を音声
情報に変換する音声生成手段と、前記音声生成手段で生
成した音声情報を前記受信手段で受信した画像データや
キーワードに関連づけて蓄積する蓄積手段と、前記蓄積
手段に画像データやキーワードに関連づけて蓄積された
音声情報を前記端末からのキーワードに基づいて検索
し、検索結果である画像データやキーワードに関連する
音声情報を前記端末に送信する検索手段を備え、 前記端末は、ユーザが検索したいキーワードや文章を入
力する入力手段と、前記入力手段によって入力されたキ
ーワードや文章を前記蓄積手段に送信して検索を依頼す
る検索依頼手段と、前記検索依頼手段が前記蓄積装置に
検索依頼をした検索結果を音声出力する音声出力手段
と、前記音声出力手段が音声出力するキーワードや文章
を画面表示する表示手段とを備え、 前記検索依頼手段がキーワードによる検索依頼を前記蓄
積装置の送信手段に送信した場合、前記蓄積装置が前記
検索キーワードに関連する音声情報を前記端末に送信
し、前記音声出力手段が前記蓄積手段に蓄積されている
音声情報を音声出力することを特徴とするファイリング
システム。
1. A reading device for reading a document as image data, a storage device for storing image data read by the reading device, and a terminal for requesting the storage device to search for image data and keywords. In a filing system connected to a network via a line, the reading device includes a transmission unit that transmits the read image data to the storage device via a line, and the storage device transmits the read image data from the transmission unit. A receiving unit that receives image data and a keyword requested to be searched by the terminal; a character recognizing unit that performs character recognition processing on the image data and the keyword received by the receiving unit to extract sentence information; Voice generating means for converting the extracted sentence information into voice information; and receiving the voice information generated by the voice generating means. Means for storing the image data and keywords received by the means in association with the image data and keywords, and searching for the voice information stored in the storage means in association with the image data and keywords based on the keywords from the terminal, and an image as a search result. A search unit that transmits voice information related to data or a keyword to the terminal; the terminal includes an input unit that inputs a keyword or a sentence that a user wants to search, and stores the keyword or the sentence input by the input unit; Search request means for transmitting a search request to the storage means, voice output means for outputting the search result of which the search request means has made a search request to the storage device, and keywords and sentences which are output by the voice output means. Display means for displaying a screen, wherein the search request means transmits a search request by a keyword to the storage device Wherein the storage device transmits voice information related to the search keyword to the terminal, and the voice output means voice-outputs voice information stored in the storage means. .
【請求項2】 文書を画像データとして読み取る読取装
置と、この読取装置で読み取った画像データを蓄積する
蓄積装置と、この蓄積装置に画像データおよびキーワー
ドの検索依頼をする端末を有し、これらが回線を介して
ネットワーク接続されているファイリングシステムにお
いて、 前記読取装置は、読み取った画像データを回線を介して
前記蓄積装置に送信する送信手段を備え、 前記蓄積装置は、前記送信手段から送信された画像デー
タや、前記端末から検索依頼されるキーワードを受信す
る受信手段と、前記受信手段が受信した画像データやキ
ーワードに文字認識処理して文章情報を抽出する文字認
識手段と、前記文字認識手段で抽出した文章情報を前記
受信手段で受信した画像データやキーワードに関連づけ
て蓄積する蓄積手段と、前記蓄積手段に画像データやキ
ーワードに関連づけて蓄積された文章情報を前記端末か
らのキーワードに基づいて検索し、検索結果である画像
データやキーワードに関連する文章情報を前記端末に送
信する検索手段とを備え、 前記端末は、ユーザが検索したいキーワードや文章を入
力する入力手段と、前記入力手段によって入力されたキ
ーワードや文章を前記蓄積手段に送信して検索を依頼す
る検索依頼手段と、前記表示手段に表示された検索依頼
手段が前記蓄積装置に検索依頼をした検索結果を音声出
力する音声出力手段と、前記音声出力手段が音声出力す
るキーワードや文章を画面表示する表示手段とを備え、 前記検索依頼手段がキーワードによる検索依頼を前記蓄
積装置の送信手段に送信した場合、前記蓄積装置が前記
検索キーワードに関連する文章情報を前記端末に送信
し、前記音声出力手段が前記蓄積手段に蓄積されている
文章情報を音声出力することを特徴とするファイリング
システム。
2. A reading device for reading a document as image data, a storage device for storing image data read by the reading device, and a terminal for requesting the storage device to search for image data and keywords. In a filing system connected to a network via a line, the reading device includes a transmission unit that transmits the read image data to the storage device via a line, and the storage device transmits the read image data from the transmission unit. A receiving unit that receives image data and a keyword requested to be searched by the terminal; a character recognizing unit that performs character recognition processing on the image data and the keyword received by the receiving unit to extract text information; Accumulating means for accumulating the extracted text information in association with the image data and keywords received by the receiving means; Search means for searching text information stored in association with image data and keywords in the storage means based on the keyword from the terminal, and transmitting text data related to the image data and keywords as search results to the terminal; and The terminal comprises: an input unit for inputting a keyword or a sentence that a user wants to search; a search requesting unit for requesting a search by transmitting a keyword or a sentence input by the input unit to the storage unit; The search request means displayed on the means comprises: a voice output means for outputting a search result for which a search request has been made to the storage device; anda display means for displaying, on a screen, a keyword or a text output by the voice output means. When the search request unit transmits a search request using a keyword to the transmission unit of the storage device, the storage device transmits the search keyword. A filing system, wherein text information related to the above is transmitted to the terminal, and the voice output means voice-outputs the text information stored in the storage means.
【請求項3】 文書を画像データとして読み取る読取装
置と、この読取装置で読み取った画像データを蓄積する
蓄積装置と、この蓄積装置に画像データおよびキーワー
ドの検索依頼をする端末を有し、これらが回線を介して
ネットワーク接続されているファイリングシステムにお
いて、 前記読取装置は、前記画像入力手段が読み取った画像デ
ータを回線を介して前記蓄積装置に送信する送信手段を
備え、 前記蓄積装置は、前記送信手段から送信された画像デー
タや、前記端末から検索依頼されるキーワードを受信す
る受信手段と、前記受信手段に受信された画像データや
キーワードに文字認識処理して文章情報を抽出する文字
認識手段と、前記文字認識手段で抽出した文章情報を前
記受信手段で受信した画像データやキーワードに関連づ
けて蓄積する蓄積手段と、前記蓄積手段に画像データや
キーワードに関連づけて蓄積された文章情報を前記端末
からのキーワードに基づいて検索し、検索結果である画
像データやキーワードに関連する文章情報を音声出力す
るプログラムを前記端末に送信する検索手段とを備え、 前記端末は、ユーザが検索したいキーワードや文章を入
力する入力手段と、前記入力手段によって入力されたキ
ーワードや文章を前記蓄積手段に送信して検索を依頼す
る検索依頼手段と、前記表示手段に表示された検索依頼
手段が前記蓄積装置に検索依頼をした検索結果を音声出
力する音声出力手段と、前記音声出力手段が音声出力す
るキーワードや文章を画面表示する表示手段とを備え、 前記検索依頼手段がキーワードによる検索依頼を前記蓄
積装置の送信手段に送信した場合、前記蓄積装置が前記
検索キーワードに関連する文章情報を前記端末に送信
し、前記音声出力手段が前記蓄積手段に蓄積されている
文章情報を前記検索手段から送信された音声出力プログ
ラムに基づいて音声出力することを特徴とするファイリ
ングシステム。
3. A reading device for reading a document as image data, a storage device for storing image data read by the reading device, and a terminal requesting the storage device to search for image data and keywords. In a filing system connected to a network via a line, the reading device includes a transmitting unit that transmits the image data read by the image input unit to the storage device via a line, and the storage device transmits the image data. Receiving means for receiving the image data transmitted from the means and a keyword requested to be searched by the terminal; and character recognition means for performing character recognition processing on the image data and the keyword received by the receiving means to extract text information. The text information extracted by the character recognition means is associated with the image data and the keyword received by the reception means. A storage unit for stacking, and searching the text information stored in the storage unit in association with the image data and the keyword based on the keyword from the terminal, and outputting text data related to the image data and the keyword as a search result by voice Search means for transmitting a program to the terminal, the input means for inputting a keyword or text that the user wants to search, and a keyword or text input by the input means is transmitted to the storage means. Search request means for requesting a search, voice output means for outputting a search result in which the search request means displayed on the display means makes a search request to the storage device, and keywords and sentences which the voice output means outputs as voice Display means for displaying a message on the screen, wherein the search request means sends a search request using a keyword to the transmission means of the storage device. When receiving the sentence, the storage device transmits text information related to the search keyword to the terminal, and the voice output unit transmits the text information stored in the storage unit to a voice output program transmitted from the search unit. A filing system for outputting a sound based on the filing.
【請求項4】 前記蓄積手段は、前記音声情報をさらに
画像データにおける座標情報に関連づけて蓄積し、前記
端末の前記表示手段における画像データの表示の際、ユ
ーザによって画像データ上の座標が指定された場合、こ
の座標に関連付けられた音声情報を前記音声出力手段が
音声出力することを特徴とする請求項1記載のファイリ
ングシステム。
4. The storage means further stores the audio information in association with coordinate information in the image data, and when displaying the image data on the display means of the terminal, a coordinate on the image data is designated by a user. 2. The filing system according to claim 1, wherein in the case where the voice information is output, the voice output means outputs voice information associated with the coordinates.
【請求項5】 前記蓄積手段は、文章情報をさらに画像
データにおける座標情報に関連づけて蓄積し、前記端末
の前記表示手段における画像データの表示のの際、ユー
ザによって画像データ上の座標が指定された場合、この
座標に関連付けられた文章情報を前記音声出力手段が音
声出力することを特徴とする請求項2または請求項3記
載のファイリングシステム。
5. The storage means further stores text information in association with coordinate information in the image data, and when displaying the image data on the display means of the terminal, a coordinate on the image data is designated by a user. 4. The filing system according to claim 2, wherein the text output unit outputs the text information associated with the coordinates by voice.
【請求項6】 前記音声出力手段が音声出力する際、画
像データ上の前記座標位置または座標領域を他の領域と
区別して前記表示手段が表示することを特徴とする請求
項4または請求項5記載のファイリングシステム。
6. The display device according to claim 4, wherein, when the audio output unit outputs the audio, the display unit displays the coordinate position or the coordinate area on the image data in a manner different from other areas. The filing system described.
JP2000015068A 2000-01-24 2000-01-24 Filing system Pending JP2001209645A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000015068A JP2001209645A (en) 2000-01-24 2000-01-24 Filing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000015068A JP2001209645A (en) 2000-01-24 2000-01-24 Filing system

Publications (1)

Publication Number Publication Date
JP2001209645A true JP2001209645A (en) 2001-08-03

Family

ID=18542424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000015068A Pending JP2001209645A (en) 2000-01-24 2000-01-24 Filing system

Country Status (1)

Country Link
JP (1) JP2001209645A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100368961C (en) * 2005-03-16 2008-02-13 富士通株式会社 Apparatus for presenting information and method thereof
JP2011204190A (en) * 2010-03-26 2011-10-13 Nippon Telegr & Teleph Corp <Ntt> Document-processing method and document-processing system
JP2011204189A (en) * 2010-03-26 2011-10-13 Nippon Telegr & Teleph Corp <Ntt> Document-processing method and document-processing system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100368961C (en) * 2005-03-16 2008-02-13 富士通株式会社 Apparatus for presenting information and method thereof
US7925142B2 (en) 2005-03-16 2011-04-12 Fujitsu Limited Apparatus for presenting information and method thereof
JP2011204190A (en) * 2010-03-26 2011-10-13 Nippon Telegr & Teleph Corp <Ntt> Document-processing method and document-processing system
JP2011204189A (en) * 2010-03-26 2011-10-13 Nippon Telegr & Teleph Corp <Ntt> Document-processing method and document-processing system

Similar Documents

Publication Publication Date Title
JP4886312B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP4881915B2 (en) Printing system, print management server, control method therefor, and program
JPH01144171A (en) Electronic filing device
JPH10222526A (en) Simplified filing device
JPH11196247A (en) File system and recording medium recording program used for the system
US10423825B2 (en) Retrieval device, retrieval method, and computer-readable storage medium for computer program
JP2007213511A (en) Conference support system
JP2001265753A (en) Method and system for applying notes to document and computer readable recording medium
JP2014056556A (en) Document management server, control method for document management server, program therefor, document management system, control method for document management system, and program therefor
JP2001209645A (en) Filing system
US8130408B2 (en) Image forming system and data processing method
JP2006229305A (en) Network document management system
JP2006331274A (en) Network document management system, control method for it, and storage medium
JP2010140136A (en) Image processing apparatus, image data management method, and computer program
JP2002032386A (en) Method and device for data processing and recording medium recorded with program for performing the method thereon
JP4780009B2 (en) Electronic data storage support apparatus, image forming apparatus, electronic data storage method, and computer program
JP2009088876A (en) Information processing system
JP2011170392A (en) System, method and program for retrieving image
JP2011170393A (en) Image search system, image search method and image search program
JP2001101213A (en) Information processor, document managing device, information processing sysetm, information managing method and storage medium
JPH10254895A (en) Document information management system and method for generating medium paper
JP3072518B2 (en) Recognition result display device
JP2000066783A (en) Data management device and utilization method for the device
JP2002132755A (en) Document processing system
JP2024071951A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050223

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080512

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080710

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080818