JP5223284B2 - Information retrieval apparatus, method and program - Google Patents

Information retrieval apparatus, method and program Download PDF

Info

Publication number
JP5223284B2
JP5223284B2 JP2007262885A JP2007262885A JP5223284B2 JP 5223284 B2 JP5223284 B2 JP 5223284B2 JP 2007262885 A JP2007262885 A JP 2007262885A JP 2007262885 A JP2007262885 A JP 2007262885A JP 5223284 B2 JP5223284 B2 JP 5223284B2
Authority
JP
Japan
Prior art keywords
information
search
screen
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007262885A
Other languages
Japanese (ja)
Other versions
JP2008140377A (en
Inventor
マートリッチ ファブリス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007262885A priority Critical patent/JP5223284B2/en
Priority to US11/935,615 priority patent/US8726178B2/en
Priority to CN2007101695258A priority patent/CN101178725B/en
Publication of JP2008140377A publication Critical patent/JP2008140377A/en
Application granted granted Critical
Publication of JP5223284B2 publication Critical patent/JP5223284B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ネットワーク上の情報を検索する情報検索装置、方法およびプログラムに関するものである。   The present invention relates to an information search apparatus, method, and program for searching for information on a network.

従来、文書を検索する情報検索装置としては、PCを使用して、すでに登録されている登録文書に対してキーワードとなる文字列を文字コードでキーワードとして入力し、格納しているデジタルデータと参照して情報を取得する方式が知られていた。   2. Description of the Related Art Conventionally, as an information retrieval apparatus for retrieving a document, a character string as a keyword is input as a keyword with a character code to a registered document already registered using a PC, and the stored digital data and reference And the method of acquiring information was known.

例えば、特許文献1に記載された技術では、検索対象文書とは別に管理されている複数のスケジュール情報を取得し、取得した複数のスケジュール情報を表示し、表示された複数のスケジュール情報中から一つのスケジュール情報が選択されると、選択されたスケジュール情報からキーワードにする文字列を抽出し、抽出された文字列をキーワードとして検索対象文書中のデジタル文書を検索する。   For example, in the technique described in Patent Document 1, a plurality of schedule information managed separately from the search target document is acquired, the acquired plurality of schedule information is displayed, and one of the displayed plurality of schedule information is selected. When one piece of schedule information is selected, a character string to be used as a keyword is extracted from the selected schedule information, and a digital document in the search target document is searched using the extracted character string as a keyword.

特開2000−231568号公報JP 2000-231568 A

特許文献1の技術は、複数のスケジュール情報に対して、そのうちのいずれかを選択した場合に、関連する文書を検索して表示するというものだった。しかしながら、実際に現実世界に存在する一般的な情報は、デジタルベースの情報よりもデジタル化される以前の例えば新聞雑誌などのように印刷媒体などの情報がはるかに多い。上記の特許文献1の技術は、このように現実世界に非常に多く存在するデジタル化以前の情報に対して関連する情報を検索することは不可能であるという問題があった。   The technique of Patent Document 1 is to search and display related documents when any one of a plurality of schedule information is selected. However, the general information that actually exists in the real world has much more information on print media such as newspaper magazines before being digitized than digital-based information. The technique of the above-mentioned Patent Document 1 has a problem that it is impossible to search for information related to pre-digitization information that exists in a large amount in the real world.

また、デジタル文書を検索して取得するのであれば、取得したデジタル文書を再利用することも望まれている。   If a digital document is retrieved and acquired, it is also desired to reuse the acquired digital document.

本発明はこのような問題を解決するためになされ、その目的は、非デジタル情報を取得して自動的にネットワーク上に格納されたデジタル情報を検索して取得することができるとともに取得したデジタル情報の再利用を図ることができる情報検索装置、情報検索方法、およびその方法をコンピュータに実行させるプログラムを提供することである。   The present invention has been made to solve such a problem, and an object of the present invention is to acquire non-digital information and automatically search and acquire digital information stored on a network, and the acquired digital information. Information retrieval apparatus, information retrieval method, and program for causing a computer to execute the method.

上述した課題を解決し、目的を達成するために、本発明にかかる情報検索装置は、入力部により入力された入力情報を表示する第1画面と検索指定または検索結果を表示する第2画面とを表示可能であり、前記第1画面または前記第2画面からの利用者よる入力操作が可能な表示入力装置と、前記入力情報を、前記入力情報を構成する情報の属性に基づいて、文字領域と画像領域の複数の領域に分割する領域分割部と、前記入力情報から、分割された領域単位に検索キーを抽出する抽出部と、分割された領域を前記第1画面に表示し、前記第1画面の前記画像領域を通過するように複数の領域に指を接触させながら移動させることによって前記画像領域に関する文字領域を指定して前記第2画面に移動する入力を受け付ける表示入力制御部と、前記第2画面に移動された前記領域の情報に含まれる前記検索キーに基づいてネットワークを介して検索対象情報を検索する検索部と、を備え、前記表示入力制御部は、検索された前記検索対象情報を、前記画像領域に並列させて表示することを特徴とする。 In order to solve the above-described problems and achieve the object, an information search apparatus according to the present invention includes a first screen that displays input information input by an input unit, and a second screen that displays search designation or search results. and can display, the display input device capable of inputting operation by the user from the first screen or the second screen, the input information, based on the attribute information constituting the input information, character area A region dividing unit that divides the image region into a plurality of regions, an extraction unit that extracts a search key for each divided region from the input information, and displays the divided regions on the first screen, 1 and the display input control unit of the image region by specifying a character area for said image area by moving while contacting a finger into a plurality of regions so as to pass through receiving an input to move to the second screen of the screen A search unit for searching for search target information via a network based on the search key included in the information of the area moved to the second screen, and the display input control unit is configured to search the search The target information is displayed in parallel with the image area .

また、本発明は、上記情報検索装置で実行される情報検索方法およびプログラムである。   The present invention is also an information search method and program executed by the information search apparatus.

本発明によれば、入力情報を構成する情報の属性に基づいて、複数の領域に分割し、入力情報から、分割された領域単位に検索キーを抽出し、分割された領域を第1画面に表示し、第1画面の前記領域を指定して第2画面に移動する入力を受け付け、第2画面に移動された前記領域の情報に含まれる検索キーに基づいてネットワークを介して検索対象情報を検索し、検索された検索対象情報を表示することで、入力情報から自動的に原稿に関連する検索対象情報を検索してその検索結果を表示することができ、利用者にとって簡便になるとともに検索結果として表示された検索対象情報の再利用を図ることができるという効果を奏する。   According to the present invention, the input information is divided into a plurality of areas based on the attributes of the information, the search key is extracted from the input information in units of divided areas, and the divided areas are displayed on the first screen. Display, specify the area of the first screen, accept input to move to the second screen, and search target information via the network based on the search key included in the information of the area moved to the second screen By searching and displaying the searched search target information, the search target information related to the manuscript can be automatically searched from the input information and the search result can be displayed. The search target information displayed as a result can be reused.

以下に添付図面を参照して、この発明にかかる情報検索装置、方法およびプログラムの最良な実施の形態を、実施の形態1〜10、および変形例1〜3に沿って詳細に説明する。   Exemplary embodiments of an information search apparatus, method, and program according to the present invention will be described below in detail along with Embodiments 1 to 10 and Modifications 1 to 3.

(1.実施の形態1)
実施の形態1による文書検索装置は、画像形成装置に組み込まれて、スキャンした原稿から自動的に文字情報を読み出しキーワードを抽出し、このキーワードによってネットワーク上の他のデータベース装置を検索して関連する文書情報を取得して、表示する。このように、この文書検索装置が組み込まれた画像形成装置は、原稿をスキャンするだけで、煩雑なキーボード操作の必要なく、容易に原稿に記載された内容に関連する情報をネットワーク上のデータベースから取得することができる。以下、画像形成装置に組み込まれた構成として、文書検索装置を説明する。
(1. Embodiment 1)
The document search apparatus according to the first embodiment is incorporated in an image forming apparatus, automatically reads out character information from a scanned document, extracts keywords, searches other database apparatuses on the network using the keywords, and relates to them. Acquire and display document information. As described above, the image forming apparatus in which the document search apparatus is incorporated simply scans a document, and can easily retrieve information related to the contents described in the document from a database on the network without requiring a complicated keyboard operation. Can be acquired. Hereinafter, a document search apparatus will be described as a configuration incorporated in the image forming apparatus.

図1は実施の形態1による文書検索装置を備えた画像形成装置の機能的ブロック図である。画像形成装置は、スキャナ1、画像処理部2、画像出力部3、および文書検索装置10を備える。また、画像形成装置は、ネットワーク4を介してデータベース装置5に接続する。   FIG. 1 is a functional block diagram of an image forming apparatus including a document search apparatus according to the first embodiment. The image forming apparatus includes a scanner 1, an image processing unit 2, an image output unit 3, and a document search device 10. The image forming apparatus is connected to the database apparatus 5 via the network 4.

文書検索装置10は、領域分割部11、キーワード抽出部12、検索部13、表示制御部14、操作表示部15、および入出力部16を備える。スキャナ1によって読み込まれた原稿画像情報は、画像形成装置の有する画像処理部2によって、デジタル変換、ガンマ変換など画像処理特有の処理を施され、例えばビットマップイメージのような画像情報として入出力部16を介して文書検索装置10に受信される。操作表示部15は、情報を表示するモニタ15b、および各種の設定を受け付ける操作部15aを有する。   The document search apparatus 10 includes an area dividing unit 11, a keyword extraction unit 12, a search unit 13, a display control unit 14, an operation display unit 15, and an input / output unit 16. The document image information read by the scanner 1 is subjected to processing specific to image processing such as digital conversion and gamma conversion by the image processing unit 2 of the image forming apparatus, and is input / output unit as image information such as a bitmap image, for example. 16 is received by the document search device 10. The operation display unit 15 includes a monitor 15b that displays information and an operation unit 15a that receives various settings.

領域分割部11は、スキャナ1が読み取って入出力部16が受信した原稿情報を文字領域と文字情報以外の領域とに分割する。領域分割部11は、入力する情報を解析し、文書情報を構成する要素である文書構成要素を抽出する。文書構成要素とは、例えば、読み取った原稿の段落、写真画像、図表、あるいは見出しなど、一定の領域を情報が占めていて、文書を構成している要素である。   The area dividing unit 11 divides the document information read by the scanner 1 and received by the input / output unit 16 into a character area and an area other than the character information. The area dividing unit 11 analyzes input information and extracts document constituent elements that are constituent elements of the document information. A document constituent element is an element that constitutes a document by occupying a certain area such as a paragraph, a photographic image, a chart, or a heading of a read original.

領域分割部11は、文書構成要素の属性を解析し、属性ごとの分割領域を取得する。即ち、文字情報の分割領域、図表情報の分割領域、写真などの画像情報の分割領域、およびその他の分割領域に分ける。   The area dividing unit 11 analyzes the attribute of the document component and acquires a divided area for each attribute. That is, it is divided into character information division regions, chart information division regions, image information division regions such as photographs, and other division regions.

図2は、領域分割部11の機能的ブロック図である。領域分割部11は、領域識別部11aおよび属性解析部11bを有する。領域識別部11aは、スキャンされた文書データの各領域を識別する。領域識別部11aは、スキャンされた情報を、原稿における情報の領域ごとに識別する。一般的に、文字属性の場合は段落ごと、写真画像および図表画像属性の場合はそれぞれ写真画像および図表画像ごとに領域を形成している。このように情報として形成されている領域を識別して分割する。   FIG. 2 is a functional block diagram of the area dividing unit 11. The area dividing unit 11 includes an area identifying unit 11a and an attribute analyzing unit 11b. The area identifying unit 11a identifies each area of the scanned document data. The area identifying unit 11a identifies the scanned information for each area of information in the document. In general, an area is formed for each paragraph in the case of character attributes, and for each photographic image and chart image in the case of photographic image and chart image attributes. Thus, the area formed as information is identified and divided.

領域識別部11aは、文書データの濃度変化、エッジ部の検出、および中間調領域の検出などを検出して文書データの領域を識別する。領域識別部11aは、例えば、濃度差の検出によって文字であると判定した部分が連続した状態であることを検知して、文字領域を識別する。また、中間調画素が連続することを検出して、写真画像の領域であると識別することができる。また、エッジ部と、濃淡の差が激しいことを検出することによって、図表画像の領域であることを識別できる。それ以外については、文字、写真、および図表の組み合わせ、あるいはそれ以外であると判定し、領域識別処理を施す。これらは公知技術であるので詳細な説明を省略する。   The area identifying unit 11a identifies the area of the document data by detecting changes in the density of the document data, detection of the edge part, detection of the halftone area, and the like. For example, the region identifying unit 11a identifies a character region by detecting that a portion determined to be a character by detecting a density difference is in a continuous state. In addition, it is possible to detect that a halftone pixel is continuous and identify it as a region of a photographic image. Further, it is possible to identify the region of the chart image by detecting that the difference between the edge portion and the shading is significant. For other cases, it is determined that the combination is a combination of characters, photographs, and charts, or other combinations, and region identification processing is performed. Since these are well-known techniques, detailed description thereof is omitted.

属性解析部11bは、領域識別部11aによって識別される領域の情報が文字、写真画像、中間調画像、図表画像、およびその他の画像のうちいずれの属性の情報であるかを解析する。この結果、識別される領域がその領域ごとに属性解析されるため、属性ごとに領域分割されることになる。属性ごとに領域分割された要素は文書構成要素となる。   The attribute analysis unit 11b analyzes which attribute information is character, photographic image, halftone image, chart image, or other image information of the region identified by the region identifying unit 11a. As a result, the area to be identified is subjected to attribute analysis for each area, so that the area is divided for each attribute. Elements divided into regions for each attribute become document constituent elements.

図3は、属性解析部11bの機能的ブロック図である。属性解析部11bは、レイアウト解析部11b1と、文字認識部11b2とを有する。レイアウト解析部11b1は、領域識別部11aによって抽出された文書構成要素に対して、文書中におけるレイアウト構造を解析する処理を施す。レイアウト解析部11b1が行うレイアウト解析は、例えばエッジ検出、中間調検出、画素位置の検出などの検出情報を、公知のアルゴリズムに当てはめて、それぞれの分割領域のレイアウトを解析する。   FIG. 3 is a functional block diagram of the attribute analysis unit 11b. The attribute analysis unit 11b includes a layout analysis unit 11b1 and a character recognition unit 11b2. The layout analysis unit 11b1 performs a process of analyzing the layout structure in the document on the document component extracted by the region identification unit 11a. The layout analysis performed by the layout analysis unit 11b1 analyzes the layout of each divided region by applying detection information such as edge detection, halftone detection, and pixel position detection to a known algorithm.

図4は、文字認識部11b2の機能的ブロック図である。文字認識部11b2は、文字切り出し部11b21、スプラインベクトル変換部11b22、および光学的読取(OCR)部11b23、を有する。   FIG. 4 is a functional block diagram of the character recognition unit 11b2. The character recognition unit 11b2 includes a character cutout unit 11b21, a spline vector conversion unit 11b22, and an optical reading (OCR) unit 11b23.

文字認識部11b2は、属性解析部11bによって文字属性であると解析された文書構成要素に対して、文字認識処理を施して文字要素を機械処理可能なフォーマットに変換する。   The character recognizing unit 11b2 performs character recognition processing on the document constituent element analyzed as having the character attribute by the attribute analyzing unit 11b to convert the character element into a format that can be machine-processed.

文字切り出し部11b21は、濃淡検出によって文字を切り出す。文字切り出し部11b21を有することによって、正確に文字を切り出して文字解析を行うことができる。   The character cutout unit 11b21 cuts out a character by detecting shading. By having the character cutout unit 11b21, it is possible to cut out characters accurately and perform character analysis.

スプラインベクトル変換部11b22は、切り出された文字に対してスプライン整形処理を施す。スプラインベクトル変換部11b22によって、文字の表示をより滑らかにすることができる。   The spline vector conversion unit 11b22 performs a spline shaping process on the extracted character. Character display can be made smoother by the spline vector converter 11b22.

OCR部11b23は、画像として読み取られ、スプライン整形処理を施された文字に対して、光学的読み取りを行って文字認識処理を施す。OCR部11b23は、文字認識処理によって文字画像をテキスト情報として抽出する。   The OCR unit 11b23 performs character recognition processing by optically reading characters read as an image and subjected to spline shaping processing. The OCR unit 11b23 extracts a character image as text information through character recognition processing.

文字認識部11b2は、文字要素を機械処理可能なフォーマットに変換するので、キーワード抽出部が行うキーワード抽出処理を正確で迅速なものとし得る。ここで文字認識処理は、公知のアルゴリズムを適用することによって可能である。   Since the character recognition unit 11b2 converts the character element into a format that can be machine-processed, the keyword extraction processing performed by the keyword extraction unit can be made accurate and quick. Here, the character recognition process can be performed by applying a known algorithm.

操作表示部15は、図1に示すように、操作者による操作入力を受け付ける操作部15a、および入力情報や検索結果情報を表示するモニタ15bを有する。   As illustrated in FIG. 1, the operation display unit 15 includes an operation unit 15 a that receives an operation input by an operator, and a monitor 15 b that displays input information and search result information.

表示制御部14は、領域分割部11が、情報の属性によって分割した分割領域を、モニタ15bに表示させる。さらに、領域分割部11は、操作表示部15の操作部15aが受け付ける操作者による属性についての設定入力によって、分割領域の属性を決定する構成とすることができる。例えば、操作者が表示された画面から操作者自身の判断によって、領域分割部11によって解析されて表示された文字画像は実は写真画像であると判断して、操作者が写真画像である旨の入力を行った場合、領域分割部11は、この写真画像である属性の入力を受け付けて写真画像であると設定する。   The display control unit 14 causes the monitor 15b to display the divided areas divided by the area dividing unit 11 according to the information attributes. Further, the region dividing unit 11 can be configured to determine the attribute of the divided region by setting input about the attribute received by the operator received by the operation unit 15a of the operation display unit 15. For example, it is determined by the operator's own determination from the screen on which the operator is displayed that the character image analyzed and displayed by the area dividing unit 11 is actually a photographic image, and the operator is a photographic image. When the input is performed, the area dividing unit 11 receives the input of the attribute that is the photographic image and sets the photographic image.

また、操作表示部15から、文字読み取りのミス等に対して操作者の判断によって修正入力が受け付けられた場合、文字認識部11b2は、受け付けた修正の文字情報を設定する。これによって、分割された領域である文書構成要素の属性を、操作者の入力によって変更することができ、また文字の読み取りミスも修正することができる。   When a correction input is received from the operation display unit 15 for an error in character reading or the like based on the operator's judgment, the character recognition unit 11b2 sets the received correction character information. As a result, the attribute of the document component, which is the divided area, can be changed by an operator input, and a character reading error can be corrected.

図5は、キーワード抽出部12の機能的ブロック図である。キーワード抽出部12は、キーワード辞書12aを有する。キーワード辞書12aは、特定の文字情報をキーワードとしてメモリに格納している。   FIG. 5 is a functional block diagram of the keyword extraction unit 12. The keyword extraction unit 12 includes a keyword dictionary 12a. The keyword dictionary 12a stores specific character information as a keyword in a memory.

キーワード抽出部12は、文字領域の文字列を形態素解析により形態素ごとの文字列に分割する。そして、キーワード抽出部12は、形態素ごとの文字列とキーワード辞書12aに格納されているキーワードと比較し、一致するか否かを判定する。一致した場合、キーワード抽出部12は、一致した文字列をキーワード候補として抽出する。また、キーワード抽出部12は、キーワード辞書12aによって抽出されたキーワード候補に対して、レイアウト解析で得られたレイアウトおよび出現頻度などの条件を加味したアルゴリズムによってキーワードをさらに絞り込んで判定することもできる。   The keyword extraction unit 12 divides the character string in the character area into character strings for each morpheme by morphological analysis. Then, the keyword extraction unit 12 compares the character string for each morpheme with the keyword stored in the keyword dictionary 12a, and determines whether or not they match. If they match, the keyword extraction unit 12 extracts the matched character string as a keyword candidate. In addition, the keyword extraction unit 12 can further determine and determine keywords by using an algorithm in which conditions such as the layout obtained by layout analysis and the appearance frequency are added to the keyword candidates extracted by the keyword dictionary 12a.

検索部13は、キーワード抽出部12が抽出したキーワード、およびキーワードによる検索命令情報を、入出力部16を介してネットワーク4に接続されているWeb上のデータベース装置5に送信する。   The search unit 13 transmits the keyword extracted by the keyword extraction unit 12 and search command information based on the keyword to the database device 5 on the Web connected to the network 4 via the input / output unit 16.

ネットワーク4上のデータベース装置5は、キーワード情報および検索命令情報を受信した場合、キーワードに基づいて検索を実行し、実行して得た検索結果の情報をHTML(HyperText Markup Language)形式で、ネットワーク4を介して文書検索装置10に対して送信する。文書検索装置10は、データベース装置5がネットワーク4を経由して送信してくる検索結果の情報を、入出力部16を介して受信する。   When the database device 5 on the network 4 receives the keyword information and the search command information, the database device 5 executes the search based on the keyword, and the search result information obtained by executing the search in the HTML (HyperText Markup Language) format in the network 4 Is transmitted to the document search apparatus 10 via. The document search apparatus 10 receives information on search results transmitted from the database apparatus 5 via the network 4 via the input / output unit 16.

表示制御部14は、データベース装置5からの検索結果情報をHTML形式のファイルで受信し、モニタ15bに表示させる。ここで、表示制御部14は、検索結果の情報を、モニタ15b上にWebブラウザビューワで表示させる。これによって操作者は、通常のPC(パーソナルコンピュータ)を利用したWeb上の検索のように、検索結果を操作表示部15のモニタ15bにおいてブラウザ形式で視認することができる。   The display control unit 14 receives the search result information from the database device 5 as an HTML file and displays it on the monitor 15b. Here, the display control unit 14 causes the search result information to be displayed on the monitor 15b by the Web browser viewer. As a result, the operator can view the search result in the browser format on the monitor 15b of the operation display unit 15 like a search on the Web using a normal PC (personal computer).

図6は、操作表示部15を示す模式図である。操作表示部15において操作部15aは押下ボタン、接触入力、テンキー方式などによって、操作者からの操作を受け付ける。モニタ15bは、スキャナが読み取った画像、各種の設定項目、および検索結果を表示する。モニタ15bは、また、接触による設定、およびドラッグアンドドロップ操作などの手動による接触入力を受け付ける。   FIG. 6 is a schematic diagram showing the operation display unit 15. In the operation display unit 15, the operation unit 15a accepts an operation from the operator by a push button, contact input, a numeric keypad method, or the like. The monitor 15b displays an image read by the scanner, various setting items, and a search result. The monitor 15b also accepts manual contact inputs such as contact settings and drag and drop operations.

モニタ15bは、ここで、左右に異なる画面を並列して表示している。全体の表示画面601のうち左側の画面610は、スキャナで読み取った原稿画像を表示したものである。右側の画面630は、データベース装置5から受信した検索結果情報を、表示したものである。   Here, the monitor 15b displays different screens in parallel on the left and right. The screen 610 on the left side of the entire display screen 601 displays a document image read by the scanner. The screen 630 on the right side displays search result information received from the database device 5.

ここで、左側の画面610は、領域分割部11がスキャナ1で読み取った情報を属性により領域分割し、表示制御部14がモニタ15b上に表示している。例えば分割領域611、612は、写真による画像領域である。分割領域613は、文字情報による領域である。   Here, the screen 610 on the left side divides the information read by the area dividing unit 11 with the scanner 1 into areas based on attributes, and the display control unit 14 displays the information on the monitor 15b. For example, the divided areas 611 and 612 are image areas based on photographs. The divided area 613 is an area based on character information.

キーワード抽出部12は、領域分割部11によって領域分割された情報のうちの文字情報からキーワードを抽出し、検索部13がキーワードに基づいてWeb上のデータベース装置5で検索を行わせる。画面610における文字情報の分割領域において、キーワードである「森」、「紙」、「パルプ」、および「材料」という言葉が抽出されたことが示されている。   The keyword extraction unit 12 extracts a keyword from character information in the information divided by the region division unit 11, and the search unit 13 causes the database apparatus 5 on the Web to perform a search based on the keyword. It is shown that the keywords “forest”, “paper”, “pulp”, and “material” are extracted in the divided area of the character information on the screen 610.

図7は、入力情報および検索結果情報をモニタで表示した一例の模式図である。左側の画面710は、スキャナ1が読み取った画面である。領域分割部11によって、読み取られた情報は属性に従って領域に分割される。ここで、写真画像711、文字画像712などのように属性に従って領域分割されて表示される。   FIG. 7 is a schematic diagram of an example in which input information and search result information are displayed on a monitor. A screen 710 on the left side is a screen read by the scanner 1. The information read by the area dividing unit 11 is divided into areas according to the attributes. Here, a region such as a photographic image 711 and a character image 712 is divided according to the attribute and displayed.

ここで表示制御部14は、分割領域の周囲に枠を描くようにして表示させている。表示制御部14は、枠で示した表示ではなく領域自体を点滅させて表示させ、あるいは影を付けて表示させることにしてもよい。どのような表示形態であっても、分割領域であることを強調した態様で表示することが望ましい。   Here, the display control unit 14 displays the frame by drawing a frame around the divided area. The display control unit 14 may display the area itself by blinking or displaying it with a shadow instead of the display indicated by the frame. In any display form, it is desirable to display in a manner that emphasizes that it is a divided area.

また、表示制御部14は、キーワード抽出部12によって抽出されたキーワードに対して、キーワードの周囲を枠で表示させ、点滅させて表示させ、あるいは影を付けて表示させることが望ましい。抽出されたキーワードであることを強調した態様で表示し、操作者によって視認しやすいからである。   In addition, it is desirable that the display control unit 14 displays the surroundings of the keyword with a frame, blinks, or displays a shadow with respect to the keyword extracted by the keyword extraction unit 12. This is because the extracted keyword is displayed in an emphasized manner and is easily visible by the operator.

ここで、文書検索装置10は、スキャナ1によって、読み取ると同時に検索部13が検索動作を開始する構成としても良い。そして、読み取った画像を表示しない構成とすることもできる。読み取る原稿は手元にあって、重要なのは取得された検索結果情報である場合が多いため、簡略で見易い表示となるからである。   Here, the document search device 10 may be configured such that the search unit 13 starts the search operation simultaneously with reading by the scanner 1. And it can also be set as the structure which does not display the read image. This is because the document to be read is at hand and what is important is often the acquired search result information, so that the display is simple and easy to see.

今、右側の画面730は、検索された結果の情報を表示している。しかし、最初スキャナで情報を読み込んだ時は、この部分には検索結果情報は取得されていないので、表示されていなく、ただ、検索画面である表示がなされている。   Now, the screen 730 on the right side displays information on the retrieved results. However, when the information is first read by the scanner, the search result information is not acquired in this portion, so it is not displayed, but only a search screen is displayed.

検索を開始させる操作入力として、特定の文字領域、例えば領域712に対して、操作者の指先などによる接触入力によって、右側の検索画面にドラッグアンドドロップ操作し、このドラッグアンドドロップ操作によってドラッグされる分割領域におけるキーワードに基づいて検索を開始する構成とすることができる。   As an operation input for starting a search, a specific character area, for example, an area 712, is dragged and dropped to the search screen on the right side by a contact input by an operator's fingertip or the like, and is dragged by this drag and drop operation. It can be set as the structure which starts a search based on the keyword in a division area.

また、複数の文字領域、例えば領域712および713が選択され、選択された状態で検索画面730にドラッグアンドドロップ操作されることによって、同様に選択された領域から抽出されたキーワードに基づいて検索動作を開始する構成とすることができる。これによって、分割領域の選択とキーワード抽出を連続した操作で実行できて、作業能率が高まるからである。   In addition, when a plurality of character areas, for example, areas 712 and 713 are selected and dragged and dropped on the search screen 730 in the selected state, a search operation is performed based on keywords extracted from the selected area in the same manner. Can be configured to start. This is because the selection of divided areas and keyword extraction can be executed by successive operations, and the work efficiency is increased.

ここで、操作表示部15は、モニタに表示された分割領域に対して、検索指定としての選択の指定、および選択された指定の解除を受け付ける。表示制御部14は、操作表示部15が選択を受け付けた領域を、選択前とは異なった態様で表示させることが望ましい。操作者からの選択により分割領域が指定されて選択された分割領域からキーワード検索を行うことによって、より絞り込んだ的確な検索機能を実行することができるからである。   Here, the operation display unit 15 accepts selection designation as a search designation and cancellation of the selected designation for the divided region displayed on the monitor. It is desirable for the display control unit 14 to display the area that the operation display unit 15 has received the selection in a mode different from that before selection. This is because a more narrow and accurate search function can be executed by performing a keyword search from the selected divided region by specifying the divided region by the selection from the operator.

この場合、操作表示部15は、人間の指、スタイラスペンなどの接触入力、およびマウスによる入力によって操作を受け付けることが望ましい。より人間の日常的な操作に近い操作方式が可能となるからである。   In this case, it is desirable that the operation display unit 15 accepts an operation by a contact input such as a human finger or a stylus pen and an input by a mouse. This is because an operation method closer to human daily operation is possible.

また、特定の分割領域を指定しない場合は、キーワード抽出部12は、読み込んだ情報全てからキーワードを抽出する構成とする。これにより、特に分割領域を指定しない場合は、読み込んだ全体から関連する情報を自動的に検索して取得することができるからである。   When a specific divided area is not designated, the keyword extraction unit 12 is configured to extract a keyword from all the read information. As a result, when no divided area is specified, related information can be automatically searched and acquired from the entire read area.

画面730は、検索部13がキーワードに基づいてWeb上のデータベース装置5が検索した情報を受信して、表示制御部14がブラウザ形式で表示している。   On the screen 730, the search unit 13 receives information searched by the database device 5 on the Web based on the keyword, and the display control unit 14 displays the information in a browser format.

(実施の形態1による文書検索手順)
図8は、実施の形態1による文書検索手順を説明するフローチャートである。入出力部16は、スキャナ1からの読み込み情報を受信したか否かを検出し(ステップS101)、検出した場合(ステップS101のYes)、入出力部16は、検出した読み込み情報を領域分割部11に送信する。
(Document Search Procedure According to Embodiment 1)
FIG. 8 is a flowchart for explaining a document search procedure according to the first embodiment. The input / output unit 16 detects whether or not the read information from the scanner 1 has been received (step S101), and if it is detected (Yes in step S101), the input / output unit 16 converts the detected read information into an area dividing unit. 11 to send.

領域分割部11は、スキャナ1からのビットマップイメージなどの読み込み情報に対して、領域識別処理を施す(ステップS102)。そして、領域分割部11は、識別された領域について、領域を構成する情報の属性を解析する。即ち、文字、写真、図表、その他種々の組み合わせからなる領域であることを解析し、当該分割領域の情報の属性を解析する(ステップS103)。   The area dividing unit 11 performs area identification processing on read information such as a bitmap image from the scanner 1 (step S102). Then, the area dividing unit 11 analyzes the attribute of the information constituting the area for the identified area. That is, it is analyzed that the region is composed of characters, photographs, charts, and other various combinations, and the attribute of the information of the divided region is analyzed (step S103).

ここで、特に、領域分割部11は、文字情報による分割領域を特定する(ステップS104)。キーワードを抽出するためである。   Here, in particular, the area dividing unit 11 specifies a divided area based on character information (step S104). This is to extract keywords.

表示制御部14は、入力情報をモニタに表示する設定であるか、表示しない設定であるかを判定する(ステップS105)。入力情報をモニタに表示しない設定である場合(ステップS105のNo)、表示制御部14は、入力情報をモニタに表示せずに、キーワード抽出部12は、読み込んだ情報全てからキーワードを抽出する(ステップS109)。   The display control unit 14 determines whether the input information is set to be displayed on the monitor or not to be displayed (step S105). When the setting is such that the input information is not displayed on the monitor (No in step S105), the display control unit 14 does not display the input information on the monitor, and the keyword extraction unit 12 extracts keywords from all the read information ( Step S109).

一方、表示制御部14は、入力情報をモニタに表示する設定であると判定した場合(ステップS105のYes)、表示制御部14は、入力情報をモニタに表示する(ステップS106)。例えば図7の画面701における左側の画面710である。   On the other hand, when the display control unit 14 determines that the input information is set to be displayed on the monitor (Yes in step S105), the display control unit 14 displays the input information on the monitor (step S106). For example, the screen 710 on the left side of the screen 701 in FIG.

操作表示部15は、分割領域の指定を受け付けたか否かを検出し(ステップS107)、操作者からの指定入力を受け付けなかった場合(ステップS107のNo)、読み込んだ情報全てからキーワードを検出する(ステップS109)。   The operation display unit 15 detects whether or not the designation of the divided area has been accepted (step S107). When the designation input from the operator is not accepted (No in step S107), the operation display unit 15 detects the keyword from all the read information. (Step S109).

操作表示部15は、分割領域の指定を受け付けた場合(ステップS107のYes)、キーワード抽出部12は、指定された分割領域からキーワードを抽出する。指定された分割領域を操作者の指などで右の検索画面にドラッグアンドドロップ操作されて検索動作を開始するようにしても良い(ステップS108)。   When the operation display unit 15 receives designation of a divided region (Yes in step S107), the keyword extraction unit 12 extracts a keyword from the designated divided region. The designated divided area may be dragged and dropped to the right search screen with the operator's finger or the like to start the search operation (step S108).

検索部13は、抽出されたキーワードに基づいてWeb上で検索を行う。即ち、検索部13は、抽出されたキーワードおよび該キーワードによる検索命令情報を、Web上のデータベース装置5に送信し、受信するデータベース装置5に当該キーワードによる検索を実行させる。データベース装置5は、検索結果情報をネットワーク4を介して文書検索装置10に送信する(ステップS110)。   The search unit 13 performs a search on the Web based on the extracted keyword. That is, the search unit 13 transmits the extracted keyword and search command information based on the keyword to the database apparatus 5 on the Web, and causes the database apparatus 5 that receives the keyword to execute a search based on the keyword. The database device 5 transmits the search result information to the document search device 10 via the network 4 (step S110).

入出力部16がWeb上からの検索結果を受信した場合(ステップS111のYes)、表示制御部14は、検索結果情報をモニタの例えば図7の画面730のように、モニタ15b上に検索結果画面として表示する(ステップS112)。   When the input / output unit 16 receives a search result from the Web (Yes in step S111), the display control unit 14 displays the search result information on the monitor 15b, for example, a screen 730 of FIG. A screen is displayed (step S112).

このようにして、実施の形態1による文書検索装置10は、スキャナで読み込んだ原稿の情報に対して領域分割、文字情報の解析、キーワードの抽出、Web上での検索、そして検索結果の表示を1つのアプリケーションで実行することができる。   In this way, the document search apparatus 10 according to the first embodiment performs region segmentation, character information analysis, keyword extraction, Web search, and search result display for document information read by a scanner. It can be executed by one application.

ここで、スキャナで読み込んだ画像と、検索した情報とを操作表示部15の表示画面に並列して表示させることによって、もとの原稿画像と、この原稿に基づいて自動的にWeb上で検索された結果とを、対比して観察することができる。   Here, the image read by the scanner and the searched information are displayed in parallel on the display screen of the operation display unit 15 to automatically search on the Web based on the original document image and this document. The observed results can be compared with each other.

ここで、表示制御部14は、検索部13が新たに検索を行った場合、新たな検索結果を更新して表示することが望ましい。ユーザの利便性のためである。   Here, when the search unit 13 newly searches, the display control unit 14 desirably updates and displays a new search result. This is for the convenience of the user.

また、スキャナで読み込む画像を表示しない構成とすることもできる。読み込んで、検索結果だけを見たい場合には、モニタ15bでの表示を簡略なものとして、検索結果のみを表示することによって簡明な表示とすることができる。   In addition, an image read by the scanner may not be displayed. When it is desired to read only the search result, the display on the monitor 15b can be simplified, and only the search result can be displayed to make the display simple.

このように、実施の形態1の文書検索装置10が組み込まれた画像形成装置は、原稿をスキャンするだけで、煩雑なキーボード操作の必要なく、容易に原稿に記載された内容に関連する情報を、ネットワーク上に豊富に存在するデータベース装置から取得することができるので、簡易な操作によって原稿内容に関連する情報を電子媒体の形でネットワーク装置から取得することができる。   As described above, the image forming apparatus in which the document search apparatus 10 according to the first embodiment is incorporated simply scans a document, and easily obtains information related to the contents described in the document without requiring a complicated keyboard operation. Since it can be acquired from abundant database devices on the network, information related to the document content can be acquired from the network device in the form of an electronic medium by a simple operation.

このように本実施の形態では、入力情報を構成する情報の属性に基づいて、複数の領域に分割し、入力情報から、分割された領域単位に検索キーを抽出し、分割された領域をに左側の画面(第1の画面)に表示し、当該画面の領域を指定して検索画面(第2の画面)に移動する入力を受け付け、検索画面に移動された領域の情報に含まれる検索キーに基づいてネットワークを介して検索対象の文書を検索し、検索された文書を検索画面に表示しているので、入力情報から自動的に原稿に関連する検索対象の文書を検索してその検索結果を表示することができ、利用者にとって簡便になるとともに検索結果として表示された検索対象の文書の再利用を図ることができる。   As described above, in the present embodiment, based on the attributes of the information constituting the input information, it is divided into a plurality of areas, the search key is extracted from the input information in units of divided areas, and the divided areas are A search key that is displayed on the left screen (first screen), receives an input to move to the search screen (second screen) by designating the area of the screen, and is included in the information of the area moved to the search screen The search target document is searched via the network based on the search result, and the searched document is displayed on the search screen. Therefore, the search target document related to the manuscript is automatically searched from the input information, and the search result Can be displayed, which is convenient for the user and allows the search target document displayed as the search result to be reused.

(情報入力の方式)
図9は、文書検索装置に情報入力する他の装置を示す図である。入出力部16には、被写体の撮像情報を取得するCCD(Charge Coupled Device)カメラ1aを接続する構成とすることができる。領域分割部11は、CCDカメラ1aが撮像した撮像情報を受け付けて領域分割し、この撮像情報から抽出されたキーワードに基づいて関連する情報をネットワークから検索することができる。
(Information input method)
FIG. 9 is a diagram showing another apparatus for inputting information to the document search apparatus. The input / output unit 16 may be connected to a CCD (Charge Coupled Device) camera 1a that acquires imaging information of a subject. The area dividing unit 11 receives image information captured by the CCD camera 1a and divides the area, and can search related information from the network based on keywords extracted from the image information.

また、入出力部16には、手書き情報を文字として受け付ける手書き入力タブレット1bを接続する構成とすることができる。領域分割部11はこの手書き入力タブレット1bから手書き入力する情報を領域分割し、OCR機能を実行して文字認識した情報から抽出されたキーワードに基づいて、関連する情報をネットワーク上から検索することができる。また、手書き入力タブレット1bから文字入力を受け付けてキーワードを設定したり、文字情報に対して修正を加えたりすることができる。   The input / output unit 16 can be connected to a handwriting input tablet 1b that accepts handwritten information as characters. The area dividing unit 11 divides the information input by handwriting from the handwriting input tablet 1b into areas, and searches the network for related information based on keywords extracted from the information recognized by executing the OCR function. it can. In addition, it is possible to accept a character input from the handwriting input tablet 1b and set a keyword, or to modify character information.

また、入出力部16は、CD(Compact Disc)、DVD(Digital Versatile Disc)、CF(Compact Flash)カード、およびSD(Secure Digital)メモリカード等の記憶媒体を読み込みまた書き込むカードリーダ・ライタ1cを接続することができる。領域分割部11は、これらの記録媒体に格納された情報を入力して領域分割し、この読み込み情報から抽出されるキーワードに基づいて関連する情報をネットワークから検索することができる。   The input / output unit 16 also has a card reader / writer 1c for reading and writing a storage medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), a CF (Compact Flash) card, and an SD (Secure Digital) memory card. Can be connected. The area dividing unit 11 can input information stored in these recording media and divide the area, and search related information from the network based on keywords extracted from the read information.

以上は、情報の入力方式について説明したが、出力についても同様である。即ち、検索部13によって検索して取得した検索結果情報を、上記の記憶手段であるCD、DVD、CFカード、およびSDカード等の記憶媒体にカードリーダ・ライタによって書き込む構成とすることができる。   The information input method has been described above, but the same applies to output. That is, the search result information obtained by searching by the search unit 13 can be written to a storage medium such as a CD, DVD, CF card, and SD card as the storage means by a card reader / writer.

さらに、入出力部16は、ネットワーク4経由で情報を入力し、検索してその検索結果を入出力部16からネットワーク4経由で送信することもできる。また、検索結果を画像出力部3を介して記録紙などに画像出力することもできる。   Further, the input / output unit 16 can also input information via the network 4, search, and transmit the search result from the input / output unit 16 via the network 4. Further, the search result can be output as an image on a recording sheet or the like via the image output unit 3.

(キーワード検索について)
ここで、キーワード辞書12aに格納されているキーワードは、アクセスの度にアクセス回数がカウントされ、該キーワードとアクセス数情報とが関連付けられて格納されることが望ましい。これによって、アクセス頻度順に配列することによって、より迅速にキーワードを抽出することができる。
(About keyword search)
Here, as for the keyword stored in the keyword dictionary 12a, it is desirable to count the number of accesses every time it is accessed and store the keyword and the number-of-accesses information in association with each other. Thus, keywords can be extracted more quickly by arranging them in order of access frequency.

また、キーワード辞書12aは、それぞれのキーワードを分野ごとに分類して格納しておくことが望ましい。より高速の検索が可能になるからである。   In addition, the keyword dictionary 12a desirably stores each keyword classified for each field. This is because faster search is possible.

また、キーワード抽出部12は、キーワード抽出処理を実行するごとに、所定の回数および所定の文法的条件を満たす文字列情報については、キーワード辞書12aに登録することが望ましい。キーワードは、時間とともに、あるいは検索する文書情報の種類とともに、新たに出現し、あるいは出現頻度が変化するからである。   Moreover, it is desirable that the keyword extraction unit 12 registers character string information satisfying a predetermined number of times and a predetermined grammatical condition in the keyword dictionary 12a every time the keyword extraction process is executed. This is because the keyword newly appears or the appearance frequency changes with time or with the type of document information to be searched.

また、キーワード抽出部12は、分割領域の文字情報の中から出現頻度が所定のしきい値を超えるものを、キーワードとして抽出することが望ましい。出現頻度の低い文字情報は、一般的にキーワードでない可能性が高いからである。   In addition, it is desirable that the keyword extraction unit 12 extracts, as keywords, characters whose appearance frequency exceeds a predetermined threshold value from the character information of the divided areas. This is because character information having a low appearance frequency is generally not a keyword.

また、操作表示部15は、抽出しようとするキーワードの数の設定入力を受け付ける構成とすることができる。キーワードの数を調整することによって、絞り込み検索、その逆に拡散した範囲の検索が可能になるからである。   Further, the operation display unit 15 can be configured to accept a setting input of the number of keywords to be extracted. This is because, by adjusting the number of keywords, it becomes possible to perform a narrow search and vice versa.

また、キーワード抽出部12は、文字領域の単語数が設定されたキーワードの数よりも少ない場合、文字として表れている当該単語をキーワードとして抽出することが望ましい。これは、例えば、写真や図表の多い原稿に対してキーワード検索を行う場合、短い見出しだけの場合もあるからである。このような場合は、検出されている文字全てをキーワードとして選択することによって、適切なキーワード検索が可能になる。   In addition, when the number of words in the character area is smaller than the set number of keywords, the keyword extraction unit 12 desirably extracts the words appearing as characters as keywords. This is because, for example, when a keyword search is performed on a manuscript with many photographs and diagrams, there may be only a short heading. In such a case, an appropriate keyword search can be performed by selecting all detected characters as keywords.

(画像形成装置への適用)
図10は、実施の形態1による文書検索装置を備える画像形成装置の画像形成動作を説明する図である。画像形成装置の画像形成動作については、公知技術であるので、以下、簡略な説明にとどめる。
(Application to image forming device)
FIG. 10 is a diagram for explaining an image forming operation of the image forming apparatus including the document search apparatus according to the first embodiment. Since the image forming operation of the image forming apparatus is a known technique, only a brief description will be given below.

ここで、画像形成装置は、デジタル複写機である。デジタル複写機100は本体110、大量記録紙供給装置(以下LCT)111、ソート、穴あけ、ステイプルなどを行うフィニッシャー112を備え、本体110の上部には原稿を載置し読み取るための自動原稿供給装置(以下ADFと称する)113、および読み取りのためのモード、複写倍率の設定、給紙段の設定、フィニッシャー112で後処理の設定、オペレータに対する表示などを行う操作部114を備えている。操作部114は、操作表示部15を兼ねることができる。   Here, the image forming apparatus is a digital copying machine. The digital copying machine 100 includes a main body 110, a mass recording paper supply apparatus (hereinafter referred to as LCT) 111, and a finisher 112 that performs sorting, punching, stapling, and the like, and an automatic original supply apparatus for placing and reading an original on the main body 110. (Hereinafter referred to as ADF) 113, and an operation unit 114 for performing a reading mode, setting of a copying magnification, setting of a paper feed stage, setting of post-processing by the finisher 112, display to an operator, and the like. The operation unit 114 can also serve as the operation display unit 15.

本体110の下側には給紙部115があり、フィニッシャー112には排紙部117を備えている。デジタル複写機100の内部は露光光学系、給紙搬送系、現像系、定着系、排紙系等のデジタル複写機の公知の機構、制御装置が内蔵されており、複写機としての動作を実現している。   A paper feed unit 115 is provided below the main body 110, and a paper discharge unit 117 is provided in the finisher 112. The inside of the digital copying machine 100 incorporates well-known mechanisms and control devices of the digital copying machine such as an exposure optical system, a paper feeding / conveying system, a developing system, a fixing system, and a paper discharging system, thereby realizing operation as a copying machine. doing.

原稿をADF113の上に載置し、操作部114上のコピー開始キーを押下することにより、ADF113の下の図示しないコンタクトガラス上に原稿が供給され、その原稿を図示しない照明系、結像光学系により読み取る。通常の画像形成動作においては、このまま読み取った画像データに対して様々な補正・処理を行った後、その画像データに基づいて書き込み系においてレーザーダイオードによりビームを照射し、図示しない感光体へ静電潜像を形成する。   By placing a document on the ADF 113 and pressing a copy start key on the operation unit 114, the document is supplied onto a contact glass (not shown) under the ADF 113, and the document is illuminated with an illumination system and imaging optics (not shown). Read by system. In a normal image forming operation, the image data read as it is is subjected to various corrections and processing, and then a beam is irradiated by a laser diode in a writing system based on the image data to electrostatically apply to a photoreceptor (not shown). A latent image is formed.

実施の形態1による文書検索装置を備えるデジタル複写機100では、上記の動作によって読み取られた画像情報に対して、領域分割部11、キーワード抽出部12、検索部13、および表示制御部14がそれぞれ既に説明した機能を実行して検索結果情報をモニタ15bに表示する。   In the digital copying machine 100 provided with the document search device according to the first embodiment, the area dividing unit 11, the keyword extracting unit 12, the search unit 13, and the display control unit 14 respectively apply to the image information read by the above operation. The search function information is displayed on the monitor 15b by executing the function already described.

その後はいわゆる電子写真のプロセスを経て、操作部114により指示されて給紙部115または116から給紙した記録紙にコピー画像を形成し、あるいは取得された検索情報を印刷し、フィニッシャー112にてソート、穴あけ、ステイプルなどの後処理を行った後、排紙部117に排出する。   Thereafter, through a so-called electrophotographic process, a copy image is formed on the recording paper fed from the paper feed unit 115 or 116 as instructed by the operation unit 114, or the obtained search information is printed, and the finisher 112 After post-processing such as sorting, punching, and stapling, the paper is discharged to the paper discharge unit 117.

(2.実施の形態2)
図11は、実施の形態2による文書検索装置20の機能的ブロック図である。実施の形態2による文書検索装置20は、URL(Uniform Resource Locator)アクセス部27をさらに備え、検索部13が取得する検索情報からURL(Uniform Resource Locator)情報を抽出し、抽出したURLへアクセスして当該URLに公開されている情報をダウンロードする。表示制御部24は、URLアクセス部27がURLからダウンロードした情報を、モニタ15bにブラウザ表示させる。
(2. Embodiment 2)
FIG. 11 is a functional block diagram of the document search apparatus 20 according to the second embodiment. The document search device 20 according to the second embodiment further includes a URL (Uniform Resource Locator) access unit 27, extracts URL (Uniform Resource Locator) information from the search information acquired by the search unit 13, and accesses the extracted URL. To download the information published at the URL. The display control unit 24 causes the monitor 15b to display the information downloaded from the URL by the URL access unit 27 on the browser.

図12は、検索結果画面のURLをクリックして得られダウンロード情報を表示した模式図である。抽出したキーワードによってWeb上から得られた情報の多くは、URL情報を含んでいる。検索結果情報は、モニタ15bの右側の画面1210に表示される。ここで表示されている例えばURL1211を接触入力によってダブルクリックすると、モニタ15bはこの操作入力を受け付ける。URLアクセス部27は、入出力部16を介して受け付けられたURLにアクセスし、当該URLにアップされている情報をダウンロードして左側の画面1220にブラウザ表示する。   FIG. 12 is a schematic diagram showing download information obtained by clicking the URL on the search result screen. Most of the information obtained from the Web by the extracted keyword includes URL information. The search result information is displayed on the screen 1210 on the right side of the monitor 15b. For example, when the URL 1211 displayed here is double-clicked by contact input, the monitor 15b accepts this operation input. The URL access unit 27 accesses the URL received via the input / output unit 16, downloads the information uploaded to the URL, and displays it on the screen 1220 on the left side.

画面1210で表示された検索情報の文章の欄外にURLが表示されている場合も同様に、ダブルクリックでURLにアップされている情報をダウンロードして表示する構成とする。   Similarly, when the URL is displayed outside the text of the search information displayed on the screen 1210, the information uploaded to the URL is downloaded and displayed by double-clicking.

このように、URLアクセス部27が、検索結果に表れたURL情報に基づいて、URLに公開されている情報をネットワーク4を介して取得することによって、より詳細な検索情報を取得することができる。   As described above, the URL access unit 27 can acquire more detailed search information by acquiring the information disclosed in the URL via the network 4 based on the URL information appearing in the search result. .

(3.実施の形態3)
図13は、実施の形態3による文書検索装置の機能的ブロック図である。実施の形態3による文書検索装置は、操作表示部35の操作部35aは、表示される複数のキーワードの組み合わせの指定を受け付け、検索部33は、受け付けたキーワードの組み合わせに従って検索する命令情報を生成し、キーワードと関連付けてデータベース装置5に送信する。これによって、検索の範囲を広げたり、狭めたり、あるいは広げた範囲の中で絞り込むなど、操作者の必要に応じた検索範囲を設定して、この設定に応じた検索結果を取得することができる。
(3. Embodiment 3)
FIG. 13 is a functional block diagram of the document search apparatus according to the third embodiment. In the document search apparatus according to the third embodiment, the operation unit 35a of the operation display unit 35 receives designation of a combination of a plurality of keywords to be displayed, and the search unit 33 generates command information to be searched according to the received keyword combination. Then, it is transmitted to the database device 5 in association with the keyword. As a result, the search range can be set according to the operator's needs, such as expanding or narrowing the search range, or narrowing down within the expanded range, and search results according to this setting can be acquired. .

ここで、操作部35aは、表示される複数のキーワードに対して、and検索およびor検索の指定を受け付ける。また、and検索およびor検索の組み合わせの指定を受け付ける。このような検索範囲の指定を、検索部33は、検索命令情報として生成することによって、より精密な検索動作が可能になる。   Here, the operation unit 35a accepts designation of and search and or search for a plurality of displayed keywords. It also accepts designation of a combination of and search and or search. The search unit 33 generates such a search range specification as search command information, thereby enabling a more precise search operation.

あるいは、操作部35aは、複数の分割領域の指定を受け付け、受け付けた分割領域の組み合わせ指定を受け付ける。例えば、図7における文字領域712と文字領域713をand結合して、両方の領域において共通に抽出されるキーワードについて、検索部33は検索を実行する。or検索については、両方の領域のいずれかに含まれるキーワードについて検索処理を施す。このように、領域単位の組み合わせによって、領域で抽出されるキーワードを組み合わせて検索を実行することができるので、領域単位でキーワードを絞り込みあるいは検索範囲を広げるという、より自由度の高いかつ絞り込みが可能な検索を実行することができる。   Alternatively, the operation unit 35a accepts designation of a plurality of divided areas and accepts designation of a combination of accepted divided areas. For example, the character area 712 and the character area 713 in FIG. 7 are combined with each other, and the search unit 33 performs a search for keywords extracted in common in both areas. For the or search, search processing is performed for keywords included in either of the two areas. In this way, the search can be executed by combining the keywords extracted in the region by the combination of the region unit, so that the keyword can be narrowed down or the search range can be expanded in a more flexible and narrower range. Search can be performed.

検索部33は、このように分割領域の組み合わせを設定しても、この分割領域から抽出されるキーワードについて組み合わせ検索命令を検索命令情報として記述することによって、可能となる。しかし、操作者の設定操作としては、分割領域だけの選択指定であるので、キーワードそのものをいちいち組み合わせ設定する必要がないので、この設定方式は利便性が高いものとなる。   Even if the search unit 33 sets a combination of divided areas in this way, it is possible by describing a combination search command as search command information for a keyword extracted from the divided area. However, since the operator's setting operation is to select and specify only the divided areas, it is not necessary to set the keywords themselves in combination, so this setting method is highly convenient.

ここで、操作表示部35は、キーフレーズの選択入力を受け付ける構成とすることができる。これは、キーフレーズ自体が重要なキーワードとなっている場合があり、このような選択入力を受け付けることができれば、より的確な検索が可能となるからである。そして、検索部13は、受け入れられたキーフレーズによって検索を行う。キーフレーズ検索の実施技術としては、例えば、複数のキーワードの順番を固定してand検索することによって実施可能である。   Here, the operation display unit 35 may be configured to accept a key phrase selection input. This is because the key phrase itself may be an important keyword, and if such a selection input can be accepted, a more accurate search is possible. Then, the search unit 13 performs a search using the accepted key phrase. As an implementation technique of the key phrase search, for example, it is possible to perform an and search by fixing the order of a plurality of keywords.

ここで、モニタ15bに表示された画像の近傍にある文字領域に対する指定が受け付けられた場合、指定が受け付けられたテキスト領域におけるキーワードを抽出し、抽出されたキーワードを画像に関連付けしてこのキーワードに基づいて検索する。このような検索方式によって、画像に関連して抽出されたキーワードに基づいて検索することができる。   Here, when a designation for a character area in the vicinity of the image displayed on the monitor 15b is accepted, a keyword in the text area for which the designation is accepted is extracted, and the extracted keyword is associated with the image and assigned to this keyword. Search based on. By such a search method, it is possible to perform a search based on keywords extracted in association with images.

例えば、図7において、写真画像領域711を通過するように指で複数の分割領域を接触しながら移動することによって、写真画像711に関する文字の分割領域を指定し、右側の検索画面730にドラッグアンドドロップ操作をすることによって、この指定された分割領域からキーワードを抽出して検索することができる。   For example, in FIG. 7, by moving a plurality of divided areas with a finger so as to pass through the photographic image area 711, a character divided area relating to the photographic image 711 is designated, and dragged and dragged to the search screen 730 on the right side. By performing a drop operation, it is possible to extract a keyword from the designated divided area and perform a search.

検索結果の画面としては、この場合、画像711を右側の検索結果の画面に表示して、この写真画像に関連して検索して得られた情報を並列する形で表示することによって、写真画像711に関連する検索結果の情報であることを、明確に表示することができる。   As a search result screen, in this case, the image 711 is displayed on the search result screen on the right side, and the information obtained by searching in relation to the photo image is displayed in a parallel manner. It can be clearly displayed that the information is the search result information related to H.711.

(4.実施の形態4)
図14は、実施の形態4による文書検索装置40の機能的ブロック図である。実施の形態4は、スキャナで読み込んだ画像情報と、データベース装置5から受信する検索結果の情報とが一致したものか否かを判定する同一性判定部47を備える。そして、表示制御部44は、同一性判定部47がスキャナで読み込んだ画像と受信した検索情報とが一致したと判定した場合、当該一致した検索結果を他の検索結果と異なる態様でモニタ15b上に表示させる。
(4. Embodiment 4)
FIG. 14 is a functional block diagram of the document search apparatus 40 according to the fourth embodiment. The fourth embodiment includes an identity determination unit 47 that determines whether the image information read by the scanner matches the search result information received from the database device 5. When the identity control unit 47 determines that the image read by the scanner matches the received search information, the display control unit 44 displays the matched search result on the monitor 15b in a manner different from other search results. To display.

同一性判定部47は、読み込んだ画像における所定数の文字列と、取得するHTML形式の文字列とを比較する。この比較は、文字コードの一致を比較するので、内容的な一致の判定が容易に可能である。即ち、キーワード検索して取得した情報に対して、当該キーワードの前後の所定の文字列を対比することによって、一致したか否かを判定することができる。   The identity determination unit 47 compares a predetermined number of character strings in the read image with a character string in the HTML format to be acquired. Since this comparison compares character code matches, it is easy to determine content matches. That is, it is possible to determine whether or not there is a match by comparing a predetermined character string before and after the keyword with respect to information acquired by keyword search.

この構成によって、例えばスキャナ1で読み込んだ新聞記事を、Web上で検索して該当する記事を電子データの形式で取得できた場合、当該電子データであることを表示することができるので、スキャナ1で読み込むことによって該当する同一内容の電子データを取得できた場合はその旨が表示されるので、実質的にアナログ情報からデジタル情報に変換することができる利便性の高い文書検索装置となる。   With this configuration, for example, when a newspaper article read by the scanner 1 is searched on the Web and the corresponding article can be acquired in the form of electronic data, the fact that the electronic data is available can be displayed. When the electronic data having the same content can be acquired by reading in, a message to that effect is displayed, so that it becomes a highly convenient document search apparatus that can substantially convert analog information into digital information.

(変形例1)
ここで、実施の形態4の変形例1として、データベース装置5が受信したキーワードを含む原稿画像と検索結果情報とが一致したか否かを判定し、一致した場合に、一致した旨の情報を返信する場合、同一性判定部47を備えずに、表示制御部44が、一致したことを示す旨の情報を検索結果情報とともに表示させる。
(Modification 1)
Here, as a first modification of the fourth embodiment, it is determined whether or not the document image including the keyword received by the database device 5 matches the search result information. When replying, the display control unit 44 does not include the identity determination unit 47, and displays information indicating that they match together with the search result information.

ここでは、検索部13は、キーワードとともに該キーワードの前後の所定の文字列を送信する。データベース装置5においては、キーワード検索して取得した情報に対して、受信する当該キーワードの前後の所定の文字列を対比することによって、検索して得た情報と一致したか否かを判定することができる。そして、一致した時はその旨の情報を検索結果とともに返信する。   Here, the search unit 13 transmits a predetermined character string before and after the keyword together with the keyword. In the database device 5, it is determined whether or not the information obtained by the keyword search is matched by comparing a predetermined character string before and after the received keyword with the information obtained by the keyword search. Can do. When they match, information to that effect is returned along with the search result.

この構成によって、例えば、スキャナ1で読み込んだ新聞記事をWeb上で検索して該当する記事を電子データの形式で取得できた場合、当該電子データであることを表示することができるので、スキャナ1で読み取った内容のものと同一内容の電子情報を、Webから取得することができる。この際に、文書検索装置側においては、同一性判定部47を必要としない構成とすることができる。   With this configuration, for example, when a newspaper article read by the scanner 1 is searched on the Web and the corresponding article can be acquired in the form of electronic data, the fact that the electronic data is available can be displayed. The electronic information having the same content as the content read in step 1 can be acquired from the Web. At this time, the document search apparatus can be configured such that the identity determination unit 47 is not required.

(5.実施の形態5)
実施の形態5による文書検索装置においては、表示制御部が、複数のキーワードを表示部にトグルボタン(ウィジェット)でツールバー形式で表示させ、操作部15aは、表示されるトグルボタンからキーワードの選択を受け付ける。そして、検索部13は、受け付けられたトグルボタンに対応するキーワードに基づいて検索機能を実行する。実施の形態5による文書検索装置の機能的ブロック図は、図14を参照する。ここで、トグルボタンは、キーワードを指定するための画面構成要素である。
(5. Embodiment 5)
In the document search apparatus according to the fifth embodiment, the display control unit displays a plurality of keywords on the display unit in the form of a toolbar with a toggle button (widget), and the operation unit 15a selects a keyword from the displayed toggle buttons. Accept. And the search part 13 performs a search function based on the keyword corresponding to the accepted toggle button. FIG. 14 is referred to for a functional block diagram of the document search apparatus according to the fifth embodiment. Here, the toggle button is a screen component for designating a keyword.

図15−1は、実施の形態5による文書検索装置において、抽出されたキーワードをトグルボタンで表示した一例の模式図である。表示制御部44は、モニタ15b上に、左側に読み込んだ情報を領域分割して表示した画面1510を表示する。この読み込み画面1510には、キーワード抽出部12が抽出したキーワードを、トグルボタンでツールバー1520内に収める態様で表示する。そして、モニタ15b上のツールバー1520内に表示されたキーワード1521〜1524のうちから、例えば接触入力によって選択が指定されたキーワードに対して、検索部13が検索し、検索結果を表示制御部44が右側の検索結果画面1530として表示する。   FIG. 15A is a schematic diagram of an example in which extracted keywords are displayed with a toggle button in the document search apparatus according to the fifth embodiment. The display control unit 44 displays on the monitor 15b a screen 1510 on which information read on the left side is divided and displayed. On the reading screen 1510, the keyword extracted by the keyword extracting unit 12 is displayed in a manner of being stored in the toolbar 1520 with a toggle button. Then, the search unit 13 searches, for example, a keyword designated by contact input from the keywords 1521 to 1524 displayed in the toolbar 1520 on the monitor 15b, and the display control unit 44 displays the search result. The search result screen 1530 on the right side is displayed.

ここで、ツールバー1520に表示されるキーワードのトグルボタンは、複数を選択してand検索、あるいはor検索を指定する構成とすることができる。   Here, a keyword toggle button displayed on the tool bar 1520 can be configured to select a plurality of keyword toggle buttons and specify an AND search or an OR search.

また、ユーザが新たにキーワードを入力して、入力されたキーワードを指定する新たなトグルボタンとしてツールバー1520に追加して表示することもできる。この場合、キーワードの入力は任意に行うことができる。また、入出力部16として、手書き情報を文字として受け付ける手書き入力タブレット1bを接続して用いる場合には、ユーザが手書き入力タブレット1bから入力した手書き描画によるキーワードを文字認識して、新たなキーワードとして用いても良い。   In addition, a new keyword can be input by the user, and a new toggle button for designating the input keyword can be added to the toolbar 1520 and displayed. In this case, the keyword can be input arbitrarily. When the handwriting input tablet 1b that accepts handwritten information as characters is connected and used as the input / output unit 16, the handwritten drawing keyword input by the user from the handwriting input tablet 1b is recognized as a new keyword. It may be used.

例えば、任意の画面で、ユーザは、手書き入力の指示を所定のボタンを指定することにより行う。これにより、表示制御部44は、モニタ15bに図15−2に示すキーワード手書き入力画面を表示する。そして、ユーザは手書き入力タブレット1bから、この画面の手書き入力フィールにキーワードとして追加したい文字を手書きで描画する。そして、手書きで入力された画像に対し文字認識を施す文字認識部を設け、文字認識部は、手書きで入力された画像を文字認識してキーワードを出力する。キーワードとして出力された文字は、キーワード手書き入力画面の文字認識結果に表示される。そして、文字認識結果が正しければ、ユーザはOKボタンを指定する。これにより、手書き入力され、かつ文字認識されたキーワードのトグルボタンがツールバー1530に追加されることになる。   For example, on an arbitrary screen, the user performs a handwriting input instruction by designating a predetermined button. As a result, the display control unit 44 displays the keyword handwriting input screen shown in FIG. 15B on the monitor 15b. And a user draws the character which he wants to add as a keyword to the handwriting input field of this screen by handwriting from the handwriting input tablet 1b. And the character recognition part which performs character recognition with respect to the image input by handwriting is provided, a character recognition part recognizes the image input by handwriting, and outputs a keyword. The characters output as keywords are displayed in the character recognition result on the keyword handwriting input screen. If the character recognition result is correct, the user designates an OK button. As a result, a toggle button of a keyword that is input by handwriting and recognized by a character is added to the toolbar 1530.

一方、文字認識結果が誤っていれば、ユーザはキャンセルボタンを指定する。これにより、キーワード手書き入力画面は消去される。このため、再度、手書き入力の指示を行う必要がある。   On the other hand, if the character recognition result is incorrect, the user designates a cancel button. As a result, the keyword handwriting input screen is deleted. For this reason, it is necessary to instruct handwriting input again.

(変形例2)
図16は、変形例2による文書検索装置が、検索結果をトグルボタン表示する一例の模式図である。変形例2による文書検索装置では、表示制御部44は、表示された検索結果情報を、トグルボタンの態様でモニタ15bに表示させる。そして、このトグルボタンをクリックすることによって、トグルボタンで表現されている検索情報が画面全体に表示される(不図示)構成とすることができる。
(Modification 2)
FIG. 16 is a schematic diagram of an example in which the document search apparatus according to the second modification displays a search result as a toggle button. In the document search device according to the second modification, the display control unit 44 displays the displayed search result information on the monitor 15b in the form of a toggle button. By clicking the toggle button, the search information represented by the toggle button can be displayed on the entire screen (not shown).

右側の画面1610は、検索された結果情報である。左側の画面1620において表示されているトグルボタン1621〜1624は、検索結果の画面1610において表示されているそれぞれの検索情報に対応するトグルボタンである。さらに、例えば、トグルボタン1621をクリックすることによって、該当する検索結果の○○新聞の記事が、左側の画面トグルボタンの下部分に全面的に展開されて表示される(不図示)。   A screen 1610 on the right side is searched result information. Toggle buttons 1621 to 1624 displayed on the left screen 1620 are toggle buttons corresponding to the respective search information displayed on the search result screen 1610. Further, for example, when a toggle button 1621 is clicked, an article of the corresponding search result XX newspaper is fully expanded and displayed in the lower part of the left screen toggle button (not shown).

この変形例2による文書検索装置によって、検索結果の一覧をトグルボタンを使用することによって見易く表示することができる。また、特定のトグルボタンを選択して該トグルボタンに対応するもとの検索情報の詳細を表示させることができる。この場合、読み取った原稿画像、あるいはトグルボタンの一覧表示は最小化することによって、画面から直接には視認されない態様で、モニタ15bの表示から隠すことが可能な構成としても良い。   With the document search device according to the second modification, a list of search results can be displayed in an easy-to-read manner by using a toggle button. In addition, a specific toggle button can be selected to display details of the original search information corresponding to the toggle button. In this case, the read document image or the list display of the toggle button may be minimized so that it can be hidden from the display of the monitor 15b in a form that is not directly visible from the screen.

ここで、特に、表示制御部44は、検索部によって検索された情報のうちURL(Uniform Resource Locator)情報を、トグルボタンにより表示させる。そして、トグルボタンで表現されたURL情報をクリックすることによって、当該URLにアクセスして情報をダウンロードする構成とすることができる。   Here, in particular, the display control unit 44 displays URL (Uniform Resource Locator) information among the information searched by the search unit using a toggle button. Then, by clicking the URL information expressed by the toggle button, the URL can be accessed to download the information.

またここで、表示制御部44は、検索情報のうちから、ドラッグアンドドロップ操作で左の画面にドロップしたものについてのみトグルボタン表現する構成とすることができる。このように、操作者が必要と判断した情報のみをトグルボタン表示させることによって、簡略な表示とすることができる。   Here, the display control unit 44 can be configured to express toggle buttons only for the search information that is dropped on the left screen by a drag-and-drop operation. In this way, by displaying only the information that the operator has determined to be necessary, the display can be simplified.

(6.実施の形態6)
図17は実施の形態6による文書検索装置の機能的ブロック図である。実施の形態6による文書検索装置60は、入出力部66が、検索部13によって検索された情報のうちURL情報を、他のネットワークで接続する情報処理装置、例えばパーソナルコンピュータ(PC)6に送信する。ネットワークを介して接続するPC6は、検索結果情報のうちURL情報を自動的に受信することができ、ネットワーク上の情報を共有することができる。
(6. Embodiment 6)
FIG. 17 is a functional block diagram of the document search apparatus according to the sixth embodiment. In the document search device 60 according to the sixth embodiment, the input / output unit 66 transmits the URL information among the information searched by the search unit 13 to an information processing device connected via another network, for example, a personal computer (PC) 6. To do. The PC 6 connected via the network can automatically receive URL information among the search result information, and can share information on the network.

すでに、実施の形態5による文書検索装置において、表示制御部44は、検索部13によって検索された情報のうちURL情報を、トグルボタンにより表示させる例を説明したが、入出力部66は、このトグルボタンで表現されたURL情報を、PC6に送信する構成とすることができる。これによってネットワークを介して接続するPC6は、検索して取得したURL情報をネットワーク上で共有することができる。トグルボタンで表現されたURL情報の送信は、操作部15aからの操作入力によって送信しても良く、あるいはツールバーに入った時点で自動的に送信する構成としても良い。   In the document search apparatus according to the fifth embodiment, the display control unit 44 has already explained the example of displaying the URL information among the information searched by the search unit 13 with the toggle button. The URL information expressed by the toggle button can be transmitted to the PC 6. As a result, the PC 6 connected via the network can share the URL information retrieved and acquired on the network. The URL information expressed by the toggle button may be transmitted by an operation input from the operation unit 15a, or may be automatically transmitted when entering the toolbar.

また、実施の形態6による文書検索装置60は、取得した検索結果情報を保持する保持部67を、さらに備え、入出力部66は、保持部67に保持された検索結果情報をPC6に送信する。この構成によって、ネットワークを介して接続するPC6は、検索結果情報を自動的に受信することができ、ネットワーク上の情報を共有することができる。   The document search device 60 according to the sixth embodiment further includes a holding unit 67 that holds the acquired search result information, and the input / output unit 66 transmits the search result information held in the holding unit 67 to the PC 6. . With this configuration, the PC 6 connected via the network can automatically receive the search result information and can share information on the network.

PC6は、受信して共有するトグルボタン、トグルボタンに対応する情報、あるいは検索結果情報を、ツールバー形式でPC6のモニタ画面に表示することが望ましい。また、表示されたトグルボタンなどから、ドラッグアンドドロップ操作によってオープンしているアプリケーションに挿入する構成とすることが望ましい。これによって、ネットワークで接続する情報機器間で、検索された情報を共有して自由に使用することができるからである。   It is desirable that the PC 6 displays a toggle button to be received and shared, information corresponding to the toggle button, or search result information on the monitor screen of the PC 6 in a toolbar format. In addition, it is desirable that the displayed insert button is inserted into an open application by a drag and drop operation. This is because the retrieved information can be shared and freely used between information devices connected via a network.

図18は、実施の形態6による文書検索装置よって検索された結果情報を表示する一例の模式図である。ここで、表示制御部64は、検索結果情報のそれぞれをトグルボタン情報で示し、コンテンツバーに収める態様で表示させている。画面1810は検索結果を表示している。トグルボタンバー1820は、検索された情報を表現するトグルボタン1821〜1824を収める形で表示するコンテンツバーである。   FIG. 18 is a schematic diagram illustrating an example of displaying result information searched by the document search apparatus according to the sixth embodiment. Here, the display control unit 64 displays each of the search result information as toggle button information and displays it in a form that fits in the content bar. A screen 1810 displays search results. The toggle button bar 1820 is a content bar that is displayed in a form that accommodates toggle buttons 1821 to 1824 representing the searched information.

ここで、入出力部66は、検索情報トグルボタンバー1820に収められたトグルボタン1821〜1824およびそれぞれに対応する検索情報を、他のPC6に送信する。ネットワークを介して接続するPC6は、検索結果情報を示すトグルボタンおよび対応する検索情報を自動的に受信することができ、検索情報をネットワーク上で共通に表示して、かつ共有することができる。   Here, the input / output unit 66 transmits the toggle buttons 1821 to 1824 accommodated in the search information toggle button bar 1820 and the search information corresponding to each to the other PCs 6. The PC 6 connected via the network can automatically receive the toggle button indicating the search result information and the corresponding search information, and can display and share the search information in common on the network.

トグルボタン情報を受信するPC6は、受信するトグルボタンを図18に示すツールバー形式で表示させる。検索されて共有する情報を使用する自由度が高まるからである。   The PC 6 that receives the toggle button information displays the received toggle button in the toolbar format shown in FIG. This is because the degree of freedom to use information that is searched and shared increases.

(7.実施の形態7)
図19は、実施の形態7による文書検索装置の機能的ブロック図である。実施の形態7による文書検索装置70は、モニタ15bで表示する検索結果に対して、操作表示部15からの編集操作を受け付けて編集処理を施す編集部77を、さらに備え、表示制御部74は、編集部77によって編集処理を施された画面をモニタ15bに表示する。また、編集部77によって、編集された内容を電子メール情報に生成する電子メール生成部78を有する。
(7. Embodiment 7)
FIG. 19 is a functional block diagram of the document search apparatus according to the seventh embodiment. The document search apparatus 70 according to the seventh embodiment further includes an editing unit 77 that receives an editing operation from the operation display unit 15 and performs an editing process on the search result displayed on the monitor 15b, and the display control unit 74 includes The screen subjected to the editing process by the editing unit 77 is displayed on the monitor 15b. In addition, the editing unit 77 includes an e-mail generation unit 78 that generates the edited content as e-mail information.

入出力部76は、編集部77によって編集され、表示制御部74に表示されている編集結果情報を出力する。これによって、編集結果を表示しながら編集し、編集した結果を他の用途に使用することができる。電子メール生成部78は、編集部77によって受け付けられた編集画面を、電子メールとして生成し、入出力部76は、生成された電子メールを送信する。   The input / output unit 76 outputs the editing result information edited by the editing unit 77 and displayed on the display control unit 74. Thus, editing can be performed while displaying the edited result, and the edited result can be used for other purposes. The e-mail generation unit 78 generates the edit screen received by the editing unit 77 as an e-mail, and the input / output unit 76 transmits the generated e-mail.

図20は、実施の形態7による文書検索装置において、検索結果を編集して生成した電子メールを表示する模式図である。ここで、左側の画面2010は検索結果を表示している。このうち画像2011を電子メール編集画面の添付ファイル欄にドラッグアンドドロップし、文字領域2012を文字編集画面にドラッグアンドドロップする。この操作によって、電子メール生成部78は、電子メール編集画面2020において文字情報2021を有し、画像情報2022が添付された電子メールファイルを生成する。   FIG. 20 is a schematic diagram for displaying an electronic mail generated by editing a search result in the document search apparatus according to the seventh embodiment. Here, the screen 2010 on the left displays search results. Of these, the image 2011 is dragged and dropped onto the attached file field on the e-mail editing screen, and the character area 2012 is dragged and dropped onto the character editing screen. By this operation, the e-mail generation unit 78 generates an e-mail file having the character information 2021 on the e-mail editing screen 2020 and attached with the image information 2022.

ここで、電子メールファイルとしては、XMLファイル、HTMLファイル、テキストファイルなど、どのような形式でも良い。また、画像情報については、電子メール本体に添付する添付ファイル形式で送信することができる。また、電子メール生成部78は、表示される電子メール編集画面の内容を、MIME(Multipurpose Internet Mail Extensions)変換によって電子メールを生成することもできる。   Here, the e-mail file may have any format such as an XML file, an HTML file, or a text file. The image information can be transmitted in the form of an attached file attached to the e-mail body. The e-mail generation unit 78 can also generate an e-mail by MIME (Multipurpose Internet Mail Extensions) conversion of the content of the displayed e-mail editing screen.

このように実施の形態7による文書検索装置は、単一のアプリケーションによって、スキャナ1によって読み込み、自動的にキーワードを抽出してWeb上で検索し、検索した結果を表示して操作者が編集を加えた内容を、電子メールとして送信することができる利便性の高いものとなる。   As described above, the document search apparatus according to the seventh embodiment is read by the scanner 1 by a single application, automatically extracts keywords, searches on the Web, displays the search results, and is edited by the operator. The added content can be transmitted as an electronic mail with high convenience.

(8.実施の形態8)
図21は、実施の形態8による文書検索装置の機能的ブロック図である。実施の形態8による文書検索装置は、領域分割部11によって分割された画像領域から当該画像情報の特徴量を抽出する画像特徴量抽出部87を、さらに備え、検索部83は、抽出された特徴量情報および検索命令情報をネットワークを介してデータベース装置85に送信し、データベース装置85が特徴量情報と検索命令情報に基づいて検索した画像情報を、表示制御部84は検索結果としてモニタ15bに表示させる。
(8. Embodiment 8)
FIG. 21 is a functional block diagram of the document search apparatus according to the eighth embodiment. The document search apparatus according to the eighth embodiment further includes an image feature amount extraction unit 87 that extracts a feature amount of the image information from the image region divided by the region division unit 11, and the search unit 83 extracts the extracted feature. The amount information and the search command information are transmitted to the database device 85 via the network, and the display control unit 84 displays the image information searched by the database device 85 based on the feature amount information and the search command information as a search result on the monitor 15b. Let

画像特徴量算出部87は、領域分割部11によって画像情報であると解析された分割領域の画像情報に対して、例えば画像のパターンから算出される特徴量、色彩から算出される特徴量、およびコントラストから算出される特徴量を取得する。あるいは、画像に関連する文字情報から抽出する特徴量を取得する。   The image feature amount calculation unit 87 performs, for example, a feature amount calculated from an image pattern, a feature amount calculated from a color, and the image information of a divided region analyzed as image information by the region dividing unit 11; The feature amount calculated from the contrast is acquired. Or the feature-value extracted from the character information relevant to an image is acquired.

画像特徴量算出部87が取得したこれらの画像特徴量は、当該画像の検索キーとなるベクトル値である。検索部83は、この画像情報について取得したベクトル値を当該画像の特徴量情報として、入出力部86からネットワーク4を介してデータベース装置85に送信する。   These image feature amounts acquired by the image feature amount calculation unit 87 are vector values serving as search keys for the image. The search unit 83 transmits the vector value acquired for the image information as feature amount information of the image from the input / output unit 86 to the database device 85 via the network 4.

データベース装置85は、画像検索機能として、例えば、受信する画像特徴量のベクトル値を、保有する画像情報の中から、このベクトル空間において設定された距離が最短となる画像情報を選び出し、検索された画像情報として文書検索装置80に送信する。このような画像検索技術は公知のものであるので詳細な説明は省略する。   As the image search function, the database device 85 selects, for example, image information that has the shortest distance set in this vector space from image information that holds the vector value of the received image feature quantity. The image information is transmitted to the document search device 80. Since such an image search technique is well known, detailed description thereof will be omitted.

図22は、実施の形態8の文書検索装置80が検索した画像情報を表示する画面の模式図である。スキャナ1で読み込まれた情報を表示した左側の画面2210から、領域分割部11が写真画像2211および2212を画像情報による分割領域と解析し、検索部83は、写真画像2211および2212の画像特徴量を算出する。算出された画像特徴量はベクトル値である。   FIG. 22 is a schematic diagram of a screen that displays image information searched by the document search device 80 according to the eighth embodiment. The area dividing unit 11 analyzes the photographic images 2211 and 2212 as divided areas based on the image information from the screen 2210 on the left side on which information read by the scanner 1 is displayed, and the search unit 83 is an image feature amount of the photographic images 2211 and 2212. Is calculated. The calculated image feature amount is a vector value.

データベース装置85の画像検索機能によって、検索対象の画像特徴量ベクトルと最短距離にある画像が選択されて、検索画像情報として送信される。モニタ15b上に表示される右側の画面2220は、データベース装置85が画像検索して送信してきた情報を受信して、表示制御部84が表示させたものである。   The image having the shortest distance from the image feature amount vector to be searched is selected by the image search function of the database device 85 and transmitted as search image information. The screen 2220 on the right side displayed on the monitor 15b is displayed by the display control unit 84 after receiving information transmitted from the database device 85 through image search.

この構成によって、スキャナで読み取った原稿画像から自動的に画像特徴量を取得し、該画像情報の特徴量に基づいてネットワーク上で画像を検索して、検索された画像情報をダウンロードして画像表示することができる。即ち、実施の形態8による文書検索装置によると、画像を読み取るだけで、ネットワーク上から関連する画像情報を取得することができる。   With this configuration, the image feature amount is automatically acquired from the original image read by the scanner, the image is searched on the network based on the feature amount of the image information, the searched image information is downloaded, and the image is displayed. can do. That is, according to the document search apparatus according to the eighth embodiment, it is possible to acquire related image information from the network only by reading an image.

この場合、表示制御部84は、スキャナにより入力した画像情報、および検索部83の検索によって取得した画像情報を、既に説明したように並列する態様でモニタ15bに表示させることが望ましい。画像の検索は、文字の検索に比較して、特徴量という不確定な要素の大きな量によって検索するため、結果の画像情報を並列して視認できるようにする場合の利便性は高いからである。   In this case, it is desirable that the display control unit 84 displays the image information input by the scanner and the image information acquired by the search of the search unit 83 on the monitor 15b in a manner in which they are arranged in parallel as already described. This is because the image search is performed by a large amount of uncertain elements such as feature amounts compared to the character search, so that the convenience of making the resulting image information visible in parallel is high. .

(変形例3)
変形例3による文書検索装置は、複数の検索方式を備え、複数の検索方式によって検索した結果情報を取得して表示する。ここで、複数の検索方式を実行する各部の機能・動作については、既述の図21を参照しながら説明する。
(Modification 3)
The document search apparatus according to the modified example 3 includes a plurality of search methods, and acquires and displays result information searched by the plurality of search methods. Here, the function and operation of each unit that executes a plurality of search methods will be described with reference to FIG. 21 described above.

検索部83は、文書情報については、抽出されたキーワードを使用して検索し、画像情報については画像特徴量算出部87によって取得された画像特徴量を使用して検索する。さらに、検索部83は、データベース装置85において文書情報を検索する場合における検索対象となる文書情報の範囲を限定する検索命令情報を生成する。   The search unit 83 searches the document information using the extracted keyword, and searches the image information using the image feature amount acquired by the image feature amount calculation unit 87. Further, the search unit 83 generates search command information that limits the range of document information to be searched when the database device 85 searches for document information.

ここで、限定された範囲とは、例えば、文字情報の検索対象として、新聞記事、週刊誌記、あるいは一般のWeb上に公開されている情報などの範囲に限定することである。データベース装置85は、この検索対象を限定する命令情報を受信して、限定された検索範囲において文書情報を検索する。また、画像については、実施の形態8で既に説明した画像検索方式によって検索する。   Here, the limited range is, for example, limiting the search target of character information to a range of newspaper articles, weekly journals, or information published on the general Web. The database device 85 receives the command information that limits the search target, and searches the document information within the limited search range. The image is searched by the image search method already described in the eighth embodiment.

図23は、変形例3による文書検索装置が検索した結果を表示する一例の模式図である。スキャナで読み込んだ画像が左側に領域分割されて表示されるのは、これまでに説明した例と同様である。ここで、操作者によってこの画面が、右側の検索画面2320にドラッグアンドドロップ操作される。   FIG. 23 is a schematic diagram of an example in which a result of retrieval by the document retrieval device according to the third modification is displayed. The image read by the scanner is divided into regions on the left side and displayed in the same way as the examples described so far. Here, this screen is dragged and dropped by the operator onto the search screen 2320 on the right side.

操作者によって、Web検索画面2321にドラッグされると、Web上の情報が検索され、取得された場合、表示される。ニュース検索画面2322にドラッグされると、ニュース記事の情報が検索され、取得された場合、表示される。画像検索画面2323にドラッグされると、画像情報が検索され、取得された場合、表示される。それぞれの検索結果情報が表示されることについては、既に述べた通りであるので図示を省略する。   When the operator drags to the Web search screen 2321, information on the Web is searched and displayed when acquired. When dragged to the news search screen 2322, news article information is searched and displayed when acquired. When dragged to the image search screen 2323, the image information is searched and displayed when acquired. Since the display of each search result information is as described above, the illustration is omitted.

ここで、操作部表示部15は、選択を受け付けた領域を表示された複数の検索方式へドラッグアンドドロップする操作を受け付けて、検索部83が、モニタ15bに表示された複数の検索方式に対応する領域へのドラッグアンドドロップ操作に対応した検索方式で検索を開始する。   Here, the operation unit display unit 15 accepts an operation of dragging and dropping the selected region to the displayed plurality of search methods, and the search unit 83 supports the plurality of search methods displayed on the monitor 15b. The search is started with a search method corresponding to the drag and drop operation to the area to be performed.

ここで、文字情報による検索結果および画像情報による検索結果を並行して表示する構成とすることができる。これによって、文書情報と画像情報という異なる属性の情報でありながらも、内容的に同じものを並行して検索結果を表示することによって、文字および画像のような異なる属性であっても同じ検索テーマの情報を対比して表示することができる。   Here, the search result based on the character information and the search result based on the image information can be displayed in parallel. As a result, the same search theme can be used for different attributes such as text and images by displaying the search results in parallel with the same content but with different attributes such as document information and image information. Can be displayed in contrast.

(9.実施の形態9)
実施の形態9による文書検索装置が実施の形態1と異なる点は、パーソナル・コンピュータ(PC)として実施した点である。PCにあっては、例えば、PCにプリンタドライバをインストールし、印刷出力すべき情報をモニタ画面に表示させ、モニタ画面において表示された分割領域への設定入力、あるいはマウスとポインターを使用する設定入力によって指定し、指定された分割領域のキーワードを抽出し、このキーワードによってネットワーク上で検索し、得られた検索結果情報を表示する。
(9. Embodiment 9)
The document search apparatus according to the ninth embodiment is different from the first embodiment in that it is implemented as a personal computer (PC). In the case of a PC, for example, a printer driver is installed in the PC, information to be printed is displayed on the monitor screen, and settings are input to the divided areas displayed on the monitor screen, or settings are input using a mouse and a pointer. The keyword of the designated divided region is extracted, and a search is performed on the network using this keyword, and the obtained search result information is displayed.

図24は、実施の形態9によるPCの機能的ブロック図である。PC90は、入出力インタフェースを兼ねる入出力部96、キーボード95a1、マウス95a2、モニタ95b、HDD7、および画像出力3を備える。画像出力部3は、画像出力の処理を施すと共に、インタフェースの機能を有し、各種の出力装置が接続可能である。ここでは一例として、画像出力3にプリンタ6’が接続されているものとする。図中同じ符号は、今までと同様の構成である。以後、異なる符号の構成について主に説明する。   FIG. 24 is a functional block diagram of a PC according to the ninth embodiment. The PC 90 includes an input / output unit 96 that also serves as an input / output interface, a keyboard 95a1, a mouse 95a2, a monitor 95b, an HDD 7, and an image output 3. The image output unit 3 performs image output processing, has an interface function, and can connect various output devices. Here, as an example, it is assumed that a printer 6 ′ is connected to the image output 3. The same reference numerals in the figure have the same configurations as before. Hereinafter, the configuration of different codes will be mainly described.

PC90は領域分割部91、キーワード検出部92、検索部93、および表示制御部94を備える。これらの各部が実行する文書検索機能は、PCの有するCPU(不図示)が文書検索プログラムをHDD7から読み出してRAM(不図示)上に展開して、実行する。   The PC 90 includes an area division unit 91, a keyword detection unit 92, a search unit 93, and a display control unit 94. The document search function executed by each of these units is executed by a CPU (not shown) of the PC that reads a document search program from the HDD 7 and develops it on a RAM (not shown).

入出力部96は、ここでは、PDL(Page Description Language、ページ記述言語)で記述されたデータを入力する。PDL言語は、テキスト、図表、ビットマップのような画像データなどに分類されてデータが記述されている。従って、領域分割部91は、各々の領域において、PDL言語による記述を読み取ることによって、テキストや画像などのデータの属性情報を取得できる。そして領域分割部91は、読み取った情報の属性および、この属性ごとの領域を読み取ることによって属性ごとの領域に分割することができる。   Here, the input / output unit 96 inputs data described in PDL (Page Description Language). In the PDL language, data is described by being classified into image data such as text, charts, and bitmaps. Therefore, the area dividing unit 91 can acquire attribute information of data such as text and images by reading the description in the PDL language in each area. Then, the area dividing unit 91 can divide into areas for each attribute by reading the attribute of the read information and the area for each attribute.

例えば、PDLデータの例として、
72 72 moveto
/Times-Bolditalic 24 selectfont
(Taro Yamada)
show
showpage
というデータを受け取った場合、表示制御部94は、この文字列をPDL言語によって、位置(72,72)からタイムズボールドイタリックフォント24を選択して、「Taro Yamada」という表示がなされることを読み取る。
For example, as an example of PDL data:
72 72 moveto
/ Times-Bolditalic 24 selectfont
(Taro Yamada)
show
showpage
When the data is received, the display control unit 94 selects the Times bold italic font 24 from the position (72, 72) by the PDL language and reads that the display “Taro Yamada” is displayed. .

あるいは、
newpath
144 72 moveto
144 432 lineto
stroke
showpage
というデータを受け取った場合、表示制御部94は、この文字列をPDL言語によって、位置(144,72)から位置(144,432)まで直線を引く、という表示がなされることを読み取る。
Or
newpath
144 72 moveto
144 432 lineto
stroke
showpage
When the data is received, the display control unit 94 reads that this character string is displayed by drawing a straight line from the position (144, 72) to the position (144, 432) using the PDL language.

したがって、領域分割機能をPCで実行する場合は、これまでの実施の形態におけるように画像情報から各領域の属性を解析して文字認識機能を実行する必要はない。PCに適用した場合、PDL言語によって記述された情報を読み取ることによって、これまでの実施の形態よりもはるかに簡単に属性ごとの領域分割を実行できる。   Therefore, when the area division function is executed by the PC, it is not necessary to execute the character recognition function by analyzing the attributes of each area from the image information as in the previous embodiments. When applied to a PC, by reading information described in the PDL language, area division for each attribute can be executed much more easily than in the previous embodiments.

表示制御部94は、このようにPDL言語によるデータを読み取り属性ごとに領域分割し、モニタ95b上に分割して表示させる。モニタ95bに表示された分割領域に対しては、キーボード95a1、マウス95a2、あるいはモニタ95b上からの接触入力などの入力を介して操作者は領域の選択設定や、命令を入力することができる。   In this way, the display control unit 94 divides the data in the PDL language into regions for each reading attribute, and displays the divided data on the monitor 95b. With respect to the divided areas displayed on the monitor 95b, the operator can select and set the area and input a command via an input such as contact input from the keyboard 95a1, the mouse 95a2, or the monitor 95b.

キーワード検出部92がキーワードを検出し、検索部93がネットワーク4を介してデータベースサーバであるデータベース装置5に、キーワードと該検索命令と送信して検索させ、検索結果を受信して表示制御部94がモニタ95bに表示させる動作は、実施の形態1による説明と同様である。また、PDL言語で読み取った入力情報と、検索後の情報とを並列して表示させる態様も、既に実施の形態において説明したのと同様である。   The keyword detection unit 92 detects the keyword, and the search unit 93 transmits the keyword and the search command to the database device 5 which is a database server via the network 4 to search, receives the search result, and receives the search result. The operation to be displayed on the monitor 95b is the same as that described in the first embodiment. The aspect in which the input information read in the PDL language and the information after the search are displayed in parallel are the same as those already described in the embodiment.

モニタ95b上で検索結果情報が表示された場合、画像出力部3が、操作者からのキーボード95a1などからの印刷出力命令を受け付けると、ドライバプログラムによってプリンタ6’による出力処理を施し、検索情報を表示された形態で印刷出力する。あるいは、既述のように、画面を見ながら検索結果情報から電子メールを編集し、編集された電子メールを送信する構成とすることもできる。   When the search result information is displayed on the monitor 95b, when the image output unit 3 receives a print output command from the keyboard 95a1 or the like from the operator, the image output unit 3 performs an output process by the printer 6 'by the driver program, and the search information is displayed. Print out the displayed form. Alternatively, as described above, the electronic mail can be edited from the search result information while viewing the screen, and the edited electronic mail can be transmitted.

図25は、実施の形態9による文書検索手順を説明するフローチャートである。領域分割部91は、PDL言語による情報を受信してPDL言語による記述に従って情報の属性と領域とを読み取る(ステップS201)。そして、領域分割部91は、PDL言語によって読み取った属性と領域によって、情報を属性に従って領域に分割する(ステップS202)。これ以降の手順は、実施の形態1におけるステップS104と同様であるので説明を省略する。   FIG. 25 is a flowchart for explaining a document search procedure according to the ninth embodiment. The area dividing unit 91 receives information in the PDL language and reads information attributes and areas in accordance with the description in the PDL language (step S201). Then, the area dividing unit 91 divides the information into areas according to the attributes based on the attributes and areas read in the PDL language (step S202). Since the subsequent procedure is the same as step S104 in the first embodiment, the description thereof is omitted.

このように、実施の形態9によるPCは、PDL言語によるデータを受け取ると、PDL言語による記述を読み取って領域ごとの属性を読み取り、属性ごとに領域分割し、文字情報からキーワードを抽出して検索する。従って、PDL言語で記述した情報を入力した場合、煩雑なキーボード操作の必要なく、容易に原稿に記載された内容に関連する情報を、ネットワーク上に豊富に存在するデータベース装置から取得することができるので、簡易な操作によって原稿内容に関連する情報を電子媒体の形で取得することができるPCを提供できる。   As described above, when the PC according to the ninth embodiment receives the data in the PDL language, the PC reads the description in the PDL language, reads the attribute for each area, divides the area for each attribute, extracts the keyword from the character information, and searches. To do. Therefore, when information described in the PDL language is input, information related to the contents described in the manuscript can be easily obtained from a database device that exists abundantly on the network without requiring a complicated keyboard operation. Therefore, it is possible to provide a PC that can acquire information related to document contents in the form of an electronic medium by a simple operation.

但し、PDL言語による情報だけに限られず、他の形態の情報、例えば情報の属性と領域の既述をアプリケーションによって読み取ることができる形態の情報であれば、このアプリケーションを使用することによって、容易に属性に従って領域分割をすることができる。   However, the information is not limited to information in the PDL language, and other forms of information, for example, information in a form that allows the application to read the attributes of the information and the description of the area, can be easily used by using this application. The area can be divided according to the attribute.

(10.実施の形態10)
実施の形態10による携帯電話は、CCDカメラ、および情報を表示するモニタを有する携帯電話機であって、CCDカメラが撮影した画像情報からキーワードを抽出してネットワーク上で情報を検索し、該検索された情報を受信してモニタで表示させる。
(10. Embodiment 10)
The cellular phone according to the tenth embodiment is a cellular phone having a CCD camera and a monitor for displaying information. The keyword is extracted from the image information photographed by the CCD camera and searched for information on the network. Received information is displayed on the monitor.

図26は、実施の形態10による携帯電話機の機能的ブロック図である。携帯電話機150は、CCDカメラ151、画像処理部152、領域分割部161、キーワード抽出部162、検索部163、表示制御部164、モニタ165b、操作部165a、入出力部166、およびアンテナ153を備える。   FIG. 26 is a functional block diagram of the mobile phone according to the tenth embodiment. The cellular phone 150 includes a CCD camera 151, an image processing unit 152, an area dividing unit 161, a keyword extracting unit 162, a search unit 163, a display control unit 164, a monitor 165 b, an operation unit 165 a, an input / output unit 166, and an antenna 153. .

CCDカメラ151によって撮影された撮影画像情報は、画像処理部152によって、デジタル変換、ガンマ変換など画像処理特有の処理を施され、例えばビットマップイメージのような画像情報として入出力部166を介して領域分割部161に受信される。   The captured image information captured by the CCD camera 151 is subjected to processing specific to image processing, such as digital conversion and gamma conversion, by the image processing unit 152, for example, as image information such as a bitmap image, via the input / output unit 166. It is received by the area dividing unit 161.

領域分割部161が、受信した画像情報から文字および文字以外の情報に領域分割する動作については、すでに説明したように、撮像装置による画像から領域分割する動作と同様であり、さらにキーワード抽出部162がキーワード抽出する動作も同様であり、また検索部163がキーワードに基づいて検索する動作についても同様であり、また表示制御部164が検索結果情報を受信してモニタ165bに表示する動作についても同様であるので、ここでは説明を省略する。   The operation of the region dividing unit 161 to divide the received image information into characters and information other than characters is the same as the operation of dividing the region from the image by the imaging device, as described above, and further the keyword extracting unit 162. The same applies to the operation of extracting the keyword, the operation of the search unit 163 to search based on the keyword, and the operation of the display control unit 164 to receive the search result information and display it on the monitor 165b. Therefore, the description is omitted here.

ここでは、携帯電話であるので、入出力部166は、アンテナ153を介してネットワーク上の情報を授受する。また入出力部166は、イヤフォーンを介して音声情報を出力し、またスピーカを介して音声情報を取得し、またアンテナ153を介して通信回線上で例えばCELP(Code Excited Linear Prediction)方式の音声変換によって通信を行う。   Here, since it is a mobile phone, the input / output unit 166 sends and receives information on the network via the antenna 153. The input / output unit 166 outputs audio information via an earphone, acquires audio information via a speaker, and receives, for example, CELP (Code Excited Linear Prediction) audio on a communication line via an antenna 153. Communicate by conversion.

実施の形態10による携帯電話機は、この構成によってCCDカメラ151によって撮影し、撮影された画像からキーワードを抽出してネットワーク上4で検索し、検索結果をモニタ165b上で表示することができる利便性の高いものとなる。   The mobile phone according to the tenth embodiment is convenient in that it can be photographed by the CCD camera 151 with this configuration, extract a keyword from the photographed image, search on the network 4, and display the search result on the monitor 165b. Will be expensive.

あるいは、検索部163において、画像特徴量算出機能を備えて、撮影した画像をネットワーク上のデータベース装置5で検索させて検索された画像情報を受信して、検索された画像を表示する構成とすることもできる。   Alternatively, the search unit 163 includes an image feature amount calculation function, and searches for the captured image by the database device 5 on the network, receives the searched image information, and displays the searched image. You can also.

(文書検索装置を組み込んだ画像形成装置のハードウェア構成など)
図27は、実施の形態1による文書検索装置を備える画像形成装置のハードウェア構成を示すブロック図である。この画像形成装置は、ファックスやスキャナなどの複合的機能を備える複合機(MFP)として構成されている。図に示すように、このMFPは、コントローラ1210とエンジン部1260とをPCI(Peripheral Component Interconnect)バスで接続した構成となる。コントローラ1210は、MFP全体の制御、画像表示制御、各種制御、画像処理制御、文書検索制御など、FCUI/F1230、操作部1220からの入力を制御するコントローラである。エンジン部1260は、PCIバスに接続可能な画像処理エンジンなどであり、例えば取得した画像データに対して誤差拡散やガンマ変換などの画像処理部分が含まれる。
(Hardware configuration of an image forming apparatus incorporating a document search device)
FIG. 27 is a block diagram illustrating a hardware configuration of an image forming apparatus including the document search apparatus according to the first embodiment. This image forming apparatus is configured as a multifunction peripheral (MFP) having multiple functions such as a fax machine and a scanner. As shown in the figure, this MFP has a configuration in which a controller 1210 and an engine unit 1260 are connected by a PCI (Peripheral Component Interconnect) bus. The controller 1210 is a controller that controls inputs from the FCUI / F 1230 and the operation unit 1220 such as control of the entire MFP, image display control, various controls, image processing control, and document search control. The engine unit 1260 is an image processing engine or the like that can be connected to the PCI bus, and includes, for example, an image processing part such as error diffusion and gamma conversion for acquired image data.

コントローラ1210は、CPU1211と、ノースブリッジ(NB)1213と、システムメモリ(MEM−P)1212と、サウスブリッジ(SB)1214と、ローカルメモリ(MEM−C)1217と、ASIC(Application Specific Integrated Cercuit)1216と、ハードディスクドライブ1218とを有し、ノースブリッジ1213とASIC1216との間をAGP(Accelerated Graphics Port)バス1215で接続した構成となる。また、MEM−P1212は、ROM(Read Only Memory)1212aと、RAM(Random Access Memory)1212bとをさらに有する。   The controller 1210 includes a CPU 1211, a North Bridge (NB) 1213, a system memory (MEM-P) 1212, a South Bridge (SB) 1214, a local memory (MEM-C) 1217, and an ASIC (Application Specific Integrated Circuit). 1216 and a hard disk drive 1218, and the North Bridge 1213 and the ASIC 1216 are connected by an AGP (Accelerated Graphics Port) bus 1215. The MEM-P 1212 further includes a ROM (Read Only Memory) 1212 a and a RAM (Random Access Memory) 1212 b.

CPU1211は、MFPの全体制御を行うものであり、NB1213、MEM−P1212およびSB1214からなるチップセットを有し、このチップセットを介して他の機器と接続される。   The CPU 1211 performs overall control of the MFP, has a chip set including the NB 1213, the MEM-P 1212, and the SB 1214, and is connected to other devices via the chip set.

NB1213は、CPU1211とMEM−P1212、SB1214、AGPバス1215とを接続するためのブリッジであり、MEM−P1212に対する読み書きなどを制御するメモリコントローラと、PCIマスタおよびAGPターゲットとを有する。   The NB 1213 is a bridge for connecting the CPU 1211 to the MEM-P 1212, the SB 1214, and the AGP bus 1215, and includes a memory controller that controls reading and writing to the MEM-P 1212, a PCI master, and an AGP target.

MEM−P1212は、プログラムやデータの格納用メモリ、プログラムやデータの展開用メモリなどとして用いるシステムメモリであり、ROM1212aとRAM1212bとからなる。ROM1212aは、プログラムやデータの格納用メモリとして用いる読み出し専用のメモリであり、RAM1212bは、プログラムやデータの展開用メモリ、画像処理時の画像描画メモリなどとして用いる書き込みおよび読み出し可能なメモリである。   The MEM-P 1212 is a system memory used as a memory for storing programs and data, a memory for developing programs and data, and the like, and includes a ROM 1212a and a RAM 1212b. The ROM 1212a is a read-only memory used as a memory for storing programs and data, and the RAM 1212b is a writable and readable memory used as a memory for developing programs and data, an image drawing memory during image processing, and the like.

SB1214は、NB1213とPCIデバイス、周辺デバイスとを接続するためのブリッジである。このSB1214は、PCIバスを介してNB1213と接続されており、このPCIバスには、FCUI/F1230なども接続される。   The SB 1214 is a bridge for connecting the NB 1213 to a PCI device and peripheral devices. The SB 1214 is connected to the NB 1213 via a PCI bus, and an FCUI / F 1230 is also connected to the PCI bus.

ASIC1216は、マルチメディア情報処理用のハードウェア要素を有するマルチメディア情報処理用途向けのIC(Integrated Circuit)であり、AGPバス1215、PCIバス、HDD1218およびMEM−C1217をそれぞれ接続するブリッジの役割を有する。   The ASIC 1216 is an IC (Integrated Circuit) for multimedia information processing having hardware elements for multimedia information processing, and has a role of a bridge for connecting the AGP bus 1215, the PCI bus, the HDD 1218, and the MEM-C 1217, respectively. .

このASIC1216は、PCIターゲットおよびAGPマスタと、ASIC1216の中核をなすアービタ(ARB)と、MEM−C1217を制御するメモリコントローラと、ハードウェアロジック等により画像データの回転などを行う複数のDMAC(Direct Memory Access Controller)と、エンジン部1260との間でPCIバスを介してUSB(Universal Serial Bus)1240、IEEE(the Institute of Electrical and Electronics Engineers)1394インタフェース1250が接続される。   The ASIC 1216 includes a PCI target and an AGP master, an arbiter (ARB) that forms the core of the ASIC 1216, a memory controller that controls the MEM-C 1217, and a plurality of DMACs (Direct Memory) that perform rotation of image data by hardware logic or the like. A universal serial bus (USB) 1240 and an IEEE (the Institute of Electrical Engineers) 1394 interface 1250 are connected via a PCI bus between the access controller and the engine unit 1260.

MEM−C1217は、送信用画像バッファ、符号バッファとして用いるローカルメモリであり、HDD1218は、画像データの蓄積、プログラムの蓄積、フォントデータの蓄積、フォームの蓄積を行うためのストーレジである。   The MEM-C 1217 is a local memory used as a transmission image buffer and a code buffer, and the HDD 1218 is a storage for storing image data, programs, font data, and forms.

AGPバス1215は、グラフィック処理を高速化するために提案されたグラフィックスアクセラレータカード用のバスインタフェースであり、MEM−P1212に高スループットで直接アクセスすることにより、グラフィクスアクセラレータカードを高速にするものである。   The AGP bus 1215 is a bus interface for a graphics accelerator card that has been proposed to speed up graphics processing. The AGP bus 1215 speeds up the graphics accelerator card by directly accessing the MEM-P 1212 with high throughput.

ASIC1216に接続する操作部(タッチパネル)1220は、操作者からの操作入力を受け付けて、ASIC1216に受け付けられた操作入力情報を送信する。   The operation unit (touch panel) 1220 connected to the ASIC 1216 receives an operation input from the operator and transmits the operation input information received by the ASIC 1216.

なお、実施の形態1のMFPで実行される文書検索プログラムは、ROM等に予め組み込まれて提供される。   The document search program executed by the MFP according to the first embodiment is provided by being incorporated in advance in a ROM or the like.

実施の形態1のMFPで実行される文書検索プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   A document search program executed by the MFP according to the first embodiment is a computer in an installable or executable format, such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). The information may be provided by being recorded on a recording medium that can be read by the user.

さらに、実施の形態1によるMFPで実行される文書検索プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、実施の形態1のMFPで実行される画像表示プログラムおよび画像形成プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Further, the document search program executed by the MFP according to the first embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The image display program and the image forming program executed by the MFP according to the first embodiment may be provided or distributed via a network such as the Internet.

実施の形態のMFPで実行される文書検索プログラムは、上述した各部(領域分割部11、キーワード抽出部12、検索部13、および表示制御部14など)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記ROMから文書検索プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、領域分割部11、キーワード抽出部12、検索部13、および表示制御部14などが主記憶装置上に生成されるようになっている。   The document search program executed by the MFP according to the embodiment has a module configuration including the above-described units (region division unit 11, keyword extraction unit 12, search unit 13, display control unit 14, and the like). As the hardware, a CPU (processor) reads out and executes a document search program from the ROM, and the above-described units are loaded on the main storage device. The region dividing unit 11, the keyword extracting unit 12, the searching unit 13, and display control are performed. The unit 14 and the like are generated on the main storage device.

(文書検索機能を実行するPCのハードウェア構成など)
図28は、実施の形態9によるパーソナルコンピュータ(PC)のハードウェア構成を示す図である。実施の形態9によるPCは、図28に示すように、CPU(Central Processing Unit)2301などの制御装置と、ROM(Read Only Memory)2302やRAM(Random Access Memory)2303などの記憶装置と、HDD(Hard Disk Drive)、CD(Compact Disk)ドライブ装置等の外部記憶装置2304と、モニタ等の表示装置2305と、キーボードやマウス等の入力装置2306と、通信I/F2307と、これらを接続するバス2308を備えており、通常のコンピュータを利用したハードウェア構成となっている。
(Hardware configuration of PC that executes document search function)
FIG. 28 is a diagram illustrating a hardware configuration of a personal computer (PC) according to the ninth embodiment. As shown in FIG. 28, the PC according to the ninth embodiment includes a control device such as a CPU (Central Processing Unit) 2301, a storage device such as a ROM (Read Only Memory) 2302 and a RAM (Random Access Memory) 2303, and an HDD. (Hard Disk Drive), an external storage device 2304 such as a CD (Compact Disk) drive device, a display device 2305 such as a monitor, an input device 2306 such as a keyboard and a mouse, a communication I / F 2307, and a bus connecting them 2308, and has a hardware configuration using a normal computer.

実施の形態9によるPCで実行される文書検索プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The document search program executed on the PC according to the ninth embodiment is an installable or executable file, and is a computer such as a CD-ROM, flexible disk (FD), CD-R, DVD (Digital Versatile Disk). Recorded on a readable recording medium.

また、実施の形態9によるPCで実行される文書検索プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、実施の形態9によるPCで実行される文書検索プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。また、実施の形態による文書検索プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   Further, the document search program executed on the PC according to the ninth embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. The document search program executed on the PC according to the ninth embodiment may be provided or distributed via a network such as the Internet. Further, the document search program according to the embodiment may be provided by being incorporated in advance in a ROM or the like.

実施の形態9によるPCで実行される文書検索プログラムは、上述した各部(領域分割部11、キーワード抽出部12、検索部13、および表示制御部14など)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から情報抽出プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、領域分割部11、キーワード抽出部12、検索部13、および表示制御部14などが主記憶装置上に生成されるようになっている。   The document search program executed on the PC according to the ninth embodiment has a module configuration including the above-described units (region dividing unit 11, keyword extracting unit 12, search unit 13, display control unit 14 and the like). As the hardware of the CPU, a CPU (processor) reads out and executes an information extraction program from the storage medium, whereby the above-described units are loaded onto the main storage device, and an area dividing unit 11, a keyword extracting unit 12, a searching unit 13, and A display control unit 14 and the like are generated on the main storage device.

以上、本発明について実施の形態として、画像形成装置、PC、および携帯電話機として説明したが、説明した実施の形態あるいは変形例は説明のための一例であって、本発明はここに説明したこれらの具体例に限定されるものではない。   As described above, the present invention has been described as the image forming apparatus, the PC, and the mobile phone as the embodiment. However, the described embodiment or modification is an example for description, and the present invention is described here. It is not limited to the specific example.

以上のように、本発明にかかる情報検索装置、方法およびプログラムは、文書検索技術に有用であり、特に、非デジタル情報からデジタル情報を取得する技術に適している。   As described above, the information search apparatus, method, and program according to the present invention are useful for document search technology, and are particularly suitable for technology for acquiring digital information from non-digital information.

実施の形態1による文書検索装置を備えた画像形成装置の機能的ブロック図である。1 is a functional block diagram of an image forming apparatus including a document search apparatus according to Embodiment 1. FIG. 領域分割部11の機能的ブロック図である。3 is a functional block diagram of an area dividing unit 11. FIG. 属性解析部11bの機能的ブロック図である。It is a functional block diagram of the attribute analysis part 11b. 文字認識部11b2の機能的ブロック図である。It is a functional block diagram of the character recognition part 11b2. キーワード抽出部12の機能的ブロック図である。3 is a functional block diagram of a keyword extraction unit 12. FIG. 操作表示部15を示す模式図である。FIG. 4 is a schematic diagram showing an operation display unit 15. 入力情報および検索結果情報をモニタで表示した一例の模式図である。It is a schematic diagram of an example which displayed input information and search result information on the monitor. 実施の形態1による文書検索手順を説明するフローチャートである。6 is a flowchart illustrating a document search procedure according to the first embodiment. 文書検索装置に情報入力する他の装置を示す図である。It is a figure which shows the other apparatus which inputs information into a document search apparatus. 実施の形態1による文書検索装置を備える画像形成装置の画像形成動作を説明する図である。6 is a diagram illustrating an image forming operation of the image forming apparatus including the document search device according to Embodiment 1. FIG. 実施の形態2による文書検索装置20の機能的ブロック図である。It is a functional block diagram of the document search apparatus 20 by Embodiment 2. FIG. 検索結果画面のURLをクリックして得られダウンロード情報を表示した模式図である。It is the schematic diagram which displayed download information obtained by clicking URL of a search result screen. 実施の形態3による文書検索装置の機能的ブロック図である。FIG. 10 is a functional block diagram of a document search device according to Embodiment 3. 実施の形態4による文書検索装置40の機能的ブロック図である。It is a functional block diagram of the document search device 40 by Embodiment 4. 実施の形態5による文書検索装置において、抽出されたキーワードをトグルボタンで表示した一例の模式図である。In the document search apparatus by Embodiment 5, it is a schematic diagram of an example which displayed the extracted keyword with the toggle button. キーワード手書き入力画面の一例を示す模式図である。It is a schematic diagram which shows an example of a keyword handwriting input screen. 変形例2による文書検索装置が、検索結果をトグルボタンで表示する一例の模式図である。It is a schematic diagram of an example in which the document search device according to the modification 2 displays a search result with a toggle button. 実施の形態6による文書検索装置の機能的ブロック図である。FIG. 10 is a functional block diagram of a document search device according to a sixth embodiment. 実施の形態6による文書検索装置よって検索された結果情報を表示する一例の模式図である。FIG. 20 is a schematic diagram illustrating an example of displaying result information searched by the document search device according to the sixth embodiment. 実施の形態7による文書検索装置の機能的ブロック図である。FIG. 20 is a functional block diagram of a document search device according to a seventh embodiment. 実施の形態7による文書検索装置において、検索結果を編集して生成した電子メールを表示する模式図である。FIG. 20 is a schematic diagram for displaying an electronic mail generated by editing a search result in the document search device according to the seventh embodiment. 実施の形態8による文書検索装置の機能的ブロック図である。FIG. 20 is a functional block diagram of a document search device according to an eighth embodiment. 実施の形態8の文書検索装置80が検索した画像情報を表示する画面の模式図である。FIG. 20 is a schematic diagram of a screen that displays image information searched by the document search device 80 according to the eighth embodiment. 変形例3による文書検索装置が検索した結果を表示する一例の模式図である。It is a schematic diagram of an example which displays the result searched by the document search device by the modification 3. 実施の形態9によるPCの機能的ブロック図である。FIG. 20 is a functional block diagram of a PC according to a ninth embodiment. 実施の形態9による文書検索手順を説明するフローチャートである。20 is a flowchart illustrating a document search procedure according to the ninth embodiment. 実施の形態10による携帯電話機の機能的ブロック図である。FIG. 38 is a functional block diagram of a mobile phone according to a tenth embodiment. 実施の形態1による文書検索装置を備える画像形成装置のハードウェア構成を示すブロック図である。2 is a block diagram illustrating a hardware configuration of an image forming apparatus including a document search apparatus according to Embodiment 1. FIG. 実施の形態9によるパーソナルコンピュータ(PC)のハードウェア構成を示す図である。FIG. 20 is a diagram illustrating a hardware configuration of a personal computer (PC) according to a ninth embodiment.

符号の説明Explanation of symbols

1 スキャナ
2 画像処理部
3 画像出力部
4 ネットワーク
5 データベース装置
10 文書検索装置
11 領域分割部
12 キーワード抽出部
13 検索部
14 表示制御部
15 操作表示部
15a 操作部
15b モニタ
DESCRIPTION OF SYMBOLS 1 Scanner 2 Image processing part 3 Image output part 4 Network 5 Database apparatus 10 Document search apparatus 11 Area division part 12 Keyword extraction part 13 Search part 14 Display control part 15 Operation display part 15a Operation part 15b Monitor

Claims (16)

入力部により入力された入力情報を表示する第1画面と検索指定または検索結果を表示する第2画面とを表示可能であり、前記第1画面または前記第2画面からの利用者よる入力操作が可能な表示入力装置と、
前記入力情報を、前記入力情報を構成する情報の属性に基づいて、文字領域と画像領域の複数の領域に分割する領域分割部と、
前記入力情報から、分割された領域単位に検索キーを抽出する抽出部と、
分割された領域を前記第1画面に表示し、前記第1画面の前記画像領域を通過するように複数の領域に指を接触させながら移動させることによって前記画像領域に関する文字領域を指定して前記第2画面に移動する入力を受け付ける表示入力制御部と、
前記第2画面に移動された前記領域の情報に含まれる前記検索キーに基づいてネットワークを介して検索対象情報を検索する検索部と、を備え、
前記表示入力制御部は、検索された前記検索対象情報を、前記画像領域に並列させて表示することを特徴とする情報検索装置。
A first screen for displaying input information input by the input unit and a second screen for displaying search designation or search results can be displayed, and an input operation by a user from the first screen or the second screen can be performed. Possible display input devices,
An area dividing unit that divides the input information into a plurality of areas of a character area and an image area based on attributes of information constituting the input information;
An extraction unit for extracting a search key for each divided region from the input information;
The divided area is displayed on the first screen, and the character area related to the image area is specified by moving the plurality of areas while touching a plurality of areas so as to pass through the image area of the first screen. A display input control unit for receiving an input to move to the second screen;
A search unit for searching for search target information via a network based on the search key included in the information of the area moved to the second screen,
The information search device, wherein the display input control unit displays the searched information to be searched in parallel with the image area .
記抽出部は、分割された前記文字領域の文字情報から前記検索キーとして、キーワードを抽出し、
前記検索部は、前記第2画面に移動された前記領域の情報に含まれる前記キーワードに基づいてネットワークを介して前記検索対象情報を検索することを特徴とする請求項1に記載の情報検索装置。
Before SL extraction unit as the search key from the text information divided the character regions, and extracts the keyword,
The information search device according to claim 1, wherein the search unit searches the search target information via a network based on the keyword included in the information of the area moved to the second screen. .
前記表示入力制御部は、さらに、抽出した前記キーワードを指定するための画面構成要素である指示情報を、前記第1画面に表示することを特徴とする請求項2に記載の情報検索装置。   The information search apparatus according to claim 2, wherein the display input control unit further displays instruction information that is a screen component for designating the extracted keyword on the first screen. 前記検索部は、前記第1画面から利用者により前記指示情報を指示された場合に、前記指示情報で指定される前記キーワードに基づいてネットワークを介して前記検索対象情報を検索することを特徴とする請求項3に記載の情報検索装置。   The search unit searches the search target information via a network based on the keyword specified by the instruction information when the instruction information is instructed by a user from the first screen. The information search device according to claim 3. 前記表示入力制御部は、複数の前記キーワードが抽出された場合、抽出した複数の前記キーワードのそれぞれを指定するための画面構成要素である複数の指示情報を、前記第1画面に表示し、
前記検索部は、前記第1画面から利用者により複数の前記指示情報を指示された場合に、複数の前記指示情報で指定される複数の前記キーワードを用いたand検索またはor検索によりネットワークを介して前記検索対象情報を検索することを特徴とする請求項4に記載の情報検索装置。
When a plurality of the keywords are extracted, the display input control unit displays a plurality of instruction information that is a screen component for designating each of the extracted plurality of keywords on the first screen,
The search unit, when instructed by the user from the first screen, a plurality of the instruction information, via an or search or a search using a plurality of the keywords specified by the plurality of instruction information via the network The information search apparatus according to claim 4, wherein the search target information is searched.
前記表示入力制御部は、さらに、利用者により新たなキーワードの入力を受付け、受け付けた前記新たなキーワードを前記指示情報として前記第1画面に表示することを特徴とする請求項3に記載の情報検索装置。   The information according to claim 3, wherein the display input control unit further receives an input of a new keyword by a user and displays the received new keyword on the first screen as the instruction information. Search device. 画像の文字認識を行う文字認識部を更に備え、
前記表示入力制御部は、前記新たなキーワードの入力を利用者による手書き描画によって受付け、
前記文字認識部は、前記手書き描画による画像に文字認識を施して前記キーワードして出力することを特徴とする請求項5に記載の情報検索装置。
A character recognition unit for recognizing characters of the image;
The display input control unit accepts input of the new keyword by handwritten drawing by a user,
The information search apparatus according to claim 5, wherein the character recognition unit performs character recognition on the image by the handwritten drawing and outputs the image as the keyword.
記抽出部は、分割された前記画像領域の画像情報から前記検索キーとして、前記画像の特徴量を抽出し、
前記検索部は、前記第2画面に移動された前記領域の画像情報の前記特徴量に基づいてネットワークを介して前記検索対象情報を検索することを特徴とする請求項1に記載の情報検索装置。
Before SL extraction unit as the search key from the image information of the divided the image area, it extracts the feature value of the image,
The information search apparatus according to claim 1, wherein the search unit searches the search target information via a network based on the feature amount of the image information of the area moved to the second screen. .
前記表示入力制御部は、さらに、前記第1画面に表示された前記領域に対して、選択、および選択の解除を受け付け、選択を受け付けた領域を、選択前とは異なった態様で前記表示入力装置に表示させ、
前記抽出部は、選択を受け付けられた前記領域の情報から前記検索キーを抽出することを特徴とする請求項1に記載の情報検索装置。
The display input control unit further accepts selection and deselection of the area displayed on the first screen, and the display input is performed in a manner different from that before selection. Display on the device,
The information search apparatus according to claim 1, wherein the extraction unit extracts the search key from information on the region for which selection has been accepted.
前記検索部は、複数の検索方式による検索が可能であり、
前記表示入力部は、前記表示入力装置に前記複数の検索方式を表示させ、
前記表示入力制御部は、さらに、選択を受け付けた領域を該表示された複数の検索方式へ移動する入力を受け付け、
前記検索部は、移動により指定された前記検索方式で前記検索対象情報を検索することを特徴とする請求項1に記載の情報検索装置。
The search unit is capable of searching by a plurality of search methods,
The display input unit displays the plurality of search methods on the display input device,
The display input control unit further accepts an input for moving the selected region to the displayed plurality of search methods,
The search unit, the information retrieval apparatus according to claim 1, characterized in that searching for the search target information in the search method specified by the mobile.
前記表示入力制御部は、前記第1画面の前記領域を指定して前記第2画面に移動する入力を、前記領域の指定から前記第2画面までの移動の間のタッチ入力により受け付けることを特徴とする請求項1に記載の情報検索装置。   The display input control unit receives an input for designating the area of the first screen and moving to the second screen by a touch input during the movement from the designation of the area to the second screen. The information search device according to claim 1. 前記表示入力制御部は、前記第1画面の前記領域を指定して前記第2画面に移動する入力を、ポインティングデバイスによるドラッグアンドドロップ操作入力により受け付けることを特徴とする請求項1に記載の情報検索装置。   2. The information according to claim 1, wherein the display input control unit accepts an input to move to the second screen by designating the area of the first screen by a drag-and-drop operation input by a pointing device. Search device. 前記入力情報は、前記入力部として原稿をスキャンして画像を読み込む画像読取装置かにより読み込まれた画像情報であることを特徴とする請求項1に記載の情報検索装置。   The information search apparatus according to claim 1, wherein the input information is image information read by an image reading apparatus that scans a document and reads an image as the input unit. 前記入力情報は、前記入力部として画像を撮像する撮像装置により撮像された画像情報であることを特徴とする請求項1に記載の情報検索装置。   The information search apparatus according to claim 1, wherein the input information is image information captured by an imaging apparatus that captures an image as the input unit. 情報検索装置で実行される情報検索方法であって、
前記情報検索装置は、入力部により入力された入力情報を表示する第1画面と検索指定または検索結果を表示する第2画面とを表示可能であり、前記第1画面または前記第2画面からの利用者よる入力操作が可能な表示入力装置を備え、
領域分割部が、前記入力情報を、前記入力情報を構成する情報の属性に基づいて、文字領域と画像領域の複数の領域に分割する領域分割ステップと、
抽出部が、前記入力情報から、分割された領域単位に検索キーを抽出する抽出部と、
表示入力制御が、分割された領域を前記第1画面に表示し、前記第1画面の前記画像領域を通過するように複数の領域に指を接触させながら移動させることによって前記画像領域に関する文字領域を指定して前記第2画面に移動する入力を受け付ける表示入力制御ステップと、
検索部が、前記第2画面に移動された前記領域の情報に含まれる前記検索キーに基づいてネットワークを介して検索対象情報を検索する検索ステップと
前記表示入力制御部が、検索された前記検索対象情報を、前記画像領域に並列させて表示する表示ステップと、
を含むことを特徴とする情報検索方法。
An information search method executed by an information search device,
The information search device is capable of displaying a first screen that displays input information input by an input unit and a second screen that displays search designation or search results, from the first screen or the second screen. Equipped with a display input device that can be input by the user,
A region dividing step in which the region dividing unit divides the input information into a plurality of regions of a character region and an image region based on attributes of information constituting the input information;
An extracting unit that extracts a search key in units of divided areas from the input information; and
The display input control unit displays the divided areas on the first screen, and moves characters while touching a plurality of areas so as to pass through the image areas of the first screen. A display input control step of accepting an input to move to the second screen by designating an area ;
A search step for searching for search target information via a network based on the search key included in the information of the area moved to the second screen ;
A display step the display input control unit, which the search target information search and display by parallel to the image area,
An information search method characterized by including :
コンピュータに実行させるためのプログラムであって、
前記コンピュータは、入力部により入力された入力情報を表示する第1画面と検索指定または検索結果を表示する第2画面とを表示可能であり、前記第1画面または前記第2画面からの利用者よる入力操作が可能な表示入力装置を備え、
前記入力情報を、前記入力情報を構成する情報の属性に基づいて、文字領域と画像領域の複数の領域に分割する領域分割ステップと、
前記入力情報から、分割された領域単位に検索キーを抽出する抽出部と、
分割された領域を前記第1画面に表示し、前記第1画面の前記画像領域を通過するように複数の領域に指を接触させながら移動させることによって前記画像領域に関する文字領域を指定して前記第2画面に移動する入力を受け付ける表示入力制御ステップと、
前記第2画面に移動された前記領域の情報に含まれる前記検索キーに基づいてネットワークを介して検索対象情報を検索する検索ステップと、
検索された前記検索対象情報を、前記画像領域に並列させて表示する表示ステップと、
を前記コンピュータに実行させるためのプログラム。
A program for causing a computer to execute,
The computer can display a first screen that displays input information input by the input unit and a second screen that displays search designation or search results, and a user from the first screen or the second screen. Equipped with a display input device that can be input by
A region dividing step of dividing the input information into a plurality of regions of a character region and an image region based on attributes of information constituting the input information;
An extraction unit for extracting a search key for each divided region from the input information;
The divided area is displayed on the first screen, and the character area related to the image area is specified by moving the plurality of areas while touching a plurality of areas so as to pass through the image area of the first screen. A display input control step for accepting an input to move to the second screen;
A search step of searching for search target information via a network based on the search key included in the information of the area moved to the second screen;
A display step of displaying the searched information to be searched in parallel with the image area;
Program for causing the computer to perform the.
JP2007262885A 2006-11-10 2007-10-09 Information retrieval apparatus, method and program Expired - Fee Related JP5223284B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007262885A JP5223284B2 (en) 2006-11-10 2007-10-09 Information retrieval apparatus, method and program
US11/935,615 US8726178B2 (en) 2006-11-10 2007-11-06 Device, method, and computer program product for information retrieval
CN2007101695258A CN101178725B (en) 2006-11-10 2007-11-09 Device and method for information retrieval

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006305835 2006-11-10
JP2006305835 2006-11-10
JP2007262885A JP5223284B2 (en) 2006-11-10 2007-10-09 Information retrieval apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2008140377A JP2008140377A (en) 2008-06-19
JP5223284B2 true JP5223284B2 (en) 2013-06-26

Family

ID=39404980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007262885A Expired - Fee Related JP5223284B2 (en) 2006-11-10 2007-10-09 Information retrieval apparatus, method and program

Country Status (2)

Country Link
JP (1) JP5223284B2 (en)
CN (1) CN101178725B (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110035662A1 (en) 2009-02-18 2011-02-10 King Martin T Interacting with rendered documents using a multi-function mobile device, such as a mobile phone
JP2010055259A (en) * 2008-08-27 2010-03-11 Konica Minolta Business Technologies Inc Image processing apparatus, image processing program, and image processing method
US8055638B2 (en) * 2008-12-11 2011-11-08 Microsoft Corporation Providing recent history with search results
JP2010218322A (en) * 2009-03-18 2010-09-30 Nec Corp Portable communication terminal, communication destination information acquisition method used therefor, and program thereof
WO2011039848A1 (en) 2009-09-29 2011-04-07 株式会社 東芝 Region-of-interest extracting device and program
JP5355345B2 (en) * 2009-10-21 2013-11-27 富士フイルム株式会社 Document browsing system and control method thereof
KR101721535B1 (en) * 2009-12-01 2017-03-31 삼성전자주식회사 Method And Apparatus For Displaying Pop-up
JP5484113B2 (en) * 2010-02-12 2014-05-07 日本電信電話株式会社 Document image related information providing apparatus and document image related information acquisition system
JP2011216071A (en) * 2010-03-15 2011-10-27 Sony Corp Device and method for processing information and program
US8930360B2 (en) * 2010-05-28 2015-01-06 Yahoo! Inc. System and method for online handwriting recognition in web queries
JP4712118B1 (en) * 2010-08-12 2011-06-29 ヤフー株式会社 Mobile terminal, application selection method and program
CN103020084A (en) * 2011-09-23 2013-04-03 联想(北京)有限公司 Data display method and device and electronic device
CN103092972A (en) * 2013-01-24 2013-05-08 华为技术有限公司 Searching method and device based on clue objects
EP2829962A3 (en) 2013-07-24 2015-05-27 Kyocera Document Solutions Inc. Retrieval device for retrieving data specific information used for identifying data of data group
JP6196101B2 (en) 2013-09-02 2017-09-13 株式会社東芝 Information processing apparatus, method, and program
US9886461B1 (en) 2014-07-11 2018-02-06 Google Llc Indexing mobile onscreen content
US10970646B2 (en) 2015-10-01 2021-04-06 Google Llc Action suggestions for user-selected content
US10055390B2 (en) 2015-11-18 2018-08-21 Google Llc Simulated hyperlinks on a mobile device based on user intent and a centered selection of text
SG10202111510VA (en) * 2017-06-01 2021-12-30 Interactive Solutions Inc Search document information storage device
WO2019090772A1 (en) * 2017-11-13 2019-05-16 华为技术有限公司 Image processing method and apparatus for terminal
CN108520254B (en) * 2018-03-01 2022-05-10 腾讯科技(深圳)有限公司 Text detection method and device based on formatted image and related equipment
JP7491107B2 (en) 2020-07-14 2024-05-28 株式会社リコー Information processing device, information processing method, information processing program, and information processing system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1329323A (en) * 2001-07-31 2002-01-02 郭根龙 Automatic scanning identification and management method for credentials and its system
JP2003050817A (en) * 2001-08-07 2003-02-21 Canon Inc Information processor and method therefor
JP4349183B2 (en) * 2004-04-01 2009-10-21 富士ゼロックス株式会社 Image processing apparatus and image processing method
JP2006018630A (en) * 2004-07-02 2006-01-19 Canon Inc Method, device, program and computer-readable memory for data retrieval
JP2006146628A (en) * 2004-11-22 2006-06-08 Hitachi Ltd Method and apparatus for retrieving document by content image

Also Published As

Publication number Publication date
JP2008140377A (en) 2008-06-19
CN101178725A (en) 2008-05-14
CN101178725B (en) 2011-08-17

Similar Documents

Publication Publication Date Title
JP5223284B2 (en) Information retrieval apparatus, method and program
US8726178B2 (en) Device, method, and computer program product for information retrieval
US9060085B2 (en) Image forming apparatus, electronic mail delivery server, and information processing apparatus
JP4405831B2 (en) Image processing apparatus, control method therefor, and program
JP4533273B2 (en) Image processing apparatus, image processing method, and program
JP2007034847A (en) Retrieval apparatus and retrieval method
JP2007286864A (en) Image processor, image processing method, program, and recording medium
JP2007042106A (en) Document processing method, document processing media, document management method, document processing system, and document management system
US8255832B2 (en) Image processing device, image processing method, and storage medium
JP2010072842A (en) Image processing apparatus and image processing method
US11243670B2 (en) Information processing system, information processing apparatus, information processing method and non-transitory computer readable medium
EP2884425B1 (en) Method and system of extracting structured data from a document
US20090327246A1 (en) Information processing apparatus, information processing method and medium storing program thereof
US8339622B2 (en) Image processing apparatus and integrated document generating method
US11146705B2 (en) Character recognition device, method of generating document file, and storage medium
US10853002B2 (en) Filling blank areas on a page with print data for printing
JP5077105B2 (en) Image processing apparatus, image processing program, and image processing system
JP2006093917A (en) Image reading apparatus and image processor, and image forming apparatus
JP4811133B2 (en) Image forming apparatus and image processing apparatus
JP6601143B2 (en) Printing device
US20230077608A1 (en) Information processing apparatus, information processing method, and storage medium
JP4281719B2 (en) File processing apparatus, file processing method, and file processing program
JP2006333248A (en) Image processing apparatus, image processing method, program and storage medium
JP6205973B2 (en) Change history output device, program
JP7533044B2 (en) Programs and Devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130225

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees