JP5169596B2 - Information management apparatus, information management method, and program - Google Patents

Information management apparatus, information management method, and program Download PDF

Info

Publication number
JP5169596B2
JP5169596B2 JP2008200037A JP2008200037A JP5169596B2 JP 5169596 B2 JP5169596 B2 JP 5169596B2 JP 2008200037 A JP2008200037 A JP 2008200037A JP 2008200037 A JP2008200037 A JP 2008200037A JP 5169596 B2 JP5169596 B2 JP 5169596B2
Authority
JP
Japan
Prior art keywords
information
image data
feature amount
time
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008200037A
Other languages
Japanese (ja)
Other versions
JP2010039643A (en
Inventor
禎郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008200037A priority Critical patent/JP5169596B2/en
Publication of JP2010039643A publication Critical patent/JP2010039643A/en
Application granted granted Critical
Publication of JP5169596B2 publication Critical patent/JP5169596B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報管理装置、情報管理方法、及びプログラムに関する。   The present invention relates to an information management apparatus, an information management method, and a program.

近年、文書等は電子的に作成及び管理されることが一般的になる一方で、依然として手書きの文書も存在している。特に、手書きは簡単なメモ等を作成する際に便利である。   In recent years, while documents and the like are generally created and managed electronically, handwritten documents still exist. In particular, handwriting is convenient when creating a simple memo or the like.

ところで、電子文書と手書きの文書との間で関連性が存在する場合がある。例えば、電子ファイルがプロジェクタによって投影された映像や、電子ファイルに基づいて印刷された配付資料を参照した会議が行われている際に、手帳等の用紙に対してメモ等を手書きで記載することがある。この場合、投影されている電子文書又は配布元の電子文書と、会議中に手書きされたメモ等は関連性が有るといえる。   Incidentally, there may be a relationship between an electronic document and a handwritten document. For example, when a meeting is being conducted with reference to an image in which an electronic file is projected by a projector or a distribution material printed based on the electronic file, a memo or the like is written by hand on paper such as a notebook There is. In this case, it can be said that the projected electronic document or the electronic document of the distribution source and the memo handwritten during the meeting are related.

そこで、従来、関連性を有する電子文書と手書きの文書とを関連付けて管理する技術が検討されている(例えば、特許文献1、特許文献2)。
特開2004−080601号公報 特開2007−048217号公報 特開2006−260522号公報
Therefore, conventionally, techniques for associating and managing related electronic documents and handwritten documents have been studied (for example, Patent Document 1 and Patent Document 2).
JP 2004-080601 A JP 2007-048217 A JP 2006-260522 A

しかしながら、従来の技術では、例えば、手帳やノート等に対して行われた手書きのメモと当該電子文書とを関連付けて管理するのは困難であった。また、関連付けのためにはバーコードが印字されている用紙に対して手書きが行われる必要がある等、各種の制限が存在していた。   However, with the conventional technology, for example, it is difficult to associate and manage a handwritten memo made on a notebook or notebook and the electronic document. In addition, various restrictions exist such that it is necessary to perform handwriting on a paper on which a barcode is printed for association.

本発明は、上記の点に鑑みてなされたものであって、電子ファイルの操作に関連して作成された手書きの情報と当該電子ファイルとを適切に関連付けることのできる情報管理装置、情報管理方法、及びプログラムの提供を目的とする。   The present invention has been made in view of the above points, and is an information management apparatus and an information management method capable of appropriately associating handwritten information created in connection with an operation of an electronic file and the electronic file. And to provide a program.

そこで上記課題を解決するため、本発明は、情報蓄積手段と情報検索手段とを有する情報管理装置であって、前記情報蓄積手段は、電子データに対する操作の発生に応じ、当該電子データの識別情報と前記操作の発生時期を示す時期情報とを関連付けて記憶装置に記録する操作時期記録手段と、少なくとも一部が手書きの紙文書が撮像された画像データを画像入力装置より取得する第一の画像データ取得手段と、前記画像データの特徴量を抽出する第一の特徴量抽出手段と、前記画像データの取得の時期を示す時期情報と前記特徴量とを関連付けて前記記憶装置に記録する特徴量記録手段とを有し、前記情報検索手段は、画像入力装置より入力される画像データの特徴量を抽出する第二の特徴量抽出手段と、抽出された特徴量と合致する特徴量を前記記憶装置より検索する検索手段と、検索された特徴量に関連付けられている前記時期情報が示す時期から所定の期間内の時期に係る前記時期情報に関連付けられている前記識別情報を前記記憶装置より取得する関連情報取得手段と、取得された前記識別情報に基づく情報を表示させる表示制御手段とを有することを特徴とする。   Accordingly, in order to solve the above-described problem, the present invention provides an information management apparatus having an information storage unit and an information search unit, wherein the information storage unit identifies the electronic data according to the occurrence of an operation on the electronic data. And an operation timing recording means for associating the operation timing with the timing information indicating the occurrence timing of the operation, and a first image for acquiring, from the image input device, image data obtained by capturing at least a part of a handwritten paper document A feature quantity that is recorded in the storage device in association with data acquisition means, first feature quantity extraction means for extracting the feature quantity of the image data, timing information indicating the acquisition timing of the image data, and the feature quantity Recording means, wherein the information search means is a second feature quantity extraction means for extracting feature quantities of image data input from the image input device, and features that match the extracted feature quantities Search means from the storage device, and the identification information associated with the time information related to a time within a predetermined period from the time indicated by the time information associated with the searched feature amount It has a related information acquisition means acquired from an apparatus, and a display control means for displaying information based on the acquired identification information.

このような情報管理装置では、電子ファイルの操作に関連して作成された手書きの情報と当該電子ファイルとを適切に関連付けることができる。   In such an information management apparatus, handwritten information created in association with the operation of the electronic file can be appropriately associated with the electronic file.

本発明によれば、電子ファイルの操作に関連して作成された手書きの情報と当該電子ファイルとを適切に関連付けることのできる情報管理装置、情報管理方法、及びプログラムを提供することができる。   According to the present invention, it is possible to provide an information management apparatus, an information management method, and a program capable of appropriately associating handwritten information created in connection with an operation of an electronic file and the electronic file.

以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態における情報管理装置のハードウェア構成例を示す図である。同図において情報管理装置10は、それぞれバスBで相互に接続されているドライブ装置100と、補助記憶装置102と、メモリ装置103と、CPU104と等を有する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a hardware configuration example of an information management apparatus according to an embodiment of the present invention. In FIG. 1, an information management apparatus 10 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, and the like that are mutually connected by a bus B.

情報管理装置10での処理を実現するプログラムは、CD−ROM等の記録媒体101によって提供される。プログラムを記録した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。   A program for realizing processing in the information management apparatus 10 is provided by a recording medium 101 such as a CD-ROM. When the recording medium 101 on which the program is recorded is set in the drive device 100, the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100. However, the program need not be installed from the recording medium 101 and may be downloaded from another computer via a network. The auxiliary storage device 102 stores the installed program and also stores necessary files and data.

メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムにしたがって情報管理装置10に係る機能を実現する。   The memory device 103 reads the program from the auxiliary storage device 102 and stores it when there is an instruction to start the program. The CPU 104 realizes functions related to the information management apparatus 10 according to a program stored in the memory device 103.

また、情報管理装置10は、所定のハードウェアインタフェース(例えばUSB(Universal Serial Bus)コネクタ等)を介して表示装置106、入力装置107、投影装置108、及び画像入力装置109等と接続可能である。表示装置106は、例えば、CRTディスプレイ又は液晶ディスプレイであり、プログラムによるGUI(Graphical User Interface)等を表示する。入力装置107はキーボード及びマウス等で構成され、様々な操作指示を入力させるために用いられる。投影装置108は、いわゆるプロジェクタであり、投影対象とされた画像(例えば、表示装置106において表示されている画像)を投影する。画像入力装置109は、例えば、スキャナ、デジタルカメラ、又はカメラ付き携帯電話等であり、被写体の画像を撮像する。なお、投影装置108及び画像入力装置109は、情報管理装置10に常時接続されている必要はなく、必要なとき(画像の投影時又は画像の入力時等)に接続されればよい。   The information management apparatus 10 can be connected to the display device 106, the input device 107, the projection device 108, the image input device 109, and the like via a predetermined hardware interface (for example, a USB (Universal Serial Bus) connector). . The display device 106 is, for example, a CRT display or a liquid crystal display, and displays a GUI (Graphical User Interface) or the like by a program. The input device 107 includes a keyboard and a mouse, and is used for inputting various operation instructions. The projection device 108 is a so-called projector, and projects an image to be projected (for example, an image displayed on the display device 106). The image input device 109 is, for example, a scanner, a digital camera, a mobile phone with a camera, or the like, and takes an image of a subject. Note that the projection device 108 and the image input device 109 do not need to be always connected to the information management device 10, and may be connected when necessary (when an image is projected or when an image is input).

図2は、本発明の実施の形態における情報管理装置のソフトウェア構成例を示す図である。同図において、情報管理装置10は、情報蓄積部11、情報検索部12、イベントデータベース13、関連付けデータベース14、及びOS(Operating System)15等を有する。   FIG. 2 is a diagram illustrating a software configuration example of the information management apparatus according to the embodiment of the present invention. In FIG. 1, the information management apparatus 10 includes an information storage unit 11, an information search unit 12, an event database 13, an association database 14, an OS (Operating System) 15, and the like.

情報蓄積部11は、補助記憶装置102に保存されている電子ファイル(電子文書)に対する操作や、画像入力装置109からの画像データの入力等に応じて当該電子ファイル又は当該画像データ(以下、両者を区別しない場合、「電子データ」という。)に関する情報をイベントデータベース13及び関連付けデータベース14に蓄積(記録)する。同図において情報蓄積部11は、イベント取得部111、ラスター化部112、特徴量抽出部113、画像取得部114、画像合成部115、情報記録部116、及び関連生成部117等を含む。   The information storage unit 11 performs the electronic file or the image data (hereinafter referred to as both) in response to an operation on an electronic file (electronic document) stored in the auxiliary storage device 102, an input of image data from the image input device 109, or the like. Information is stored (recorded) in the event database 13 and the association database 14. In the figure, the information storage unit 11 includes an event acquisition unit 111, a rasterization unit 112, a feature amount extraction unit 113, an image acquisition unit 114, an image synthesis unit 115, an information recording unit 116, a relation generation unit 117, and the like.

一方、情報検索部12は、画像入力装置109から入力される画像データに関連する情報の検索要求の入力に応じ、イベントデータベース13に蓄積されている電子データに関する情報の中から当該画像データに関連する情報を検索する。同図において情報検索部12は、画像入力部121、フレーム選択部122、特徴量抽出部123、特徴量比較部124、関連情報検索部125、及び検索結果表示部126等を含む。   On the other hand, in response to an input of a search request for information related to image data input from the image input device 109, the information search unit 12 relates to the image data from information related to electronic data stored in the event database 13. Search the information you want. In the figure, the information search unit 12 includes an image input unit 121, a frame selection unit 122, a feature amount extraction unit 123, a feature amount comparison unit 124, a related information search unit 125, a search result display unit 126, and the like.

イベントデータベース13は、情報蓄積部11によって電子データに関する情報が蓄積されるデータベースであり、補助記憶装置102内に構築(記録)される。関連付けデータベース14は、イベントデータベース13に記録された情報の関連付け情報を保持するデータベースであり、補助記憶装置102内に構築(記録)される。   The event database 13 is a database in which information related to electronic data is stored by the information storage unit 11, and is constructed (recorded) in the auxiliary storage device 102. The association database 14 is a database that holds association information of information recorded in the event database 13, and is constructed (recorded) in the auxiliary storage device 102.

なお、図2では、情報蓄積部11と情報検索部12とが同一の装置(情報管理装置10)内に含まれている例が示されているが、それぞれはネットワークを介して接続される別個の装置に実装されていてもよい。すなわち、本実施の形態における情報管理装置10は、複数の装置(コンピュータ)からなるシステムをも表現する。   FIG. 2 shows an example in which the information storage unit 11 and the information search unit 12 are included in the same device (information management device 10), but each is separately connected via a network. It may be mounted on the device. That is, the information management apparatus 10 in the present embodiment also represents a system composed of a plurality of apparatuses (computers).

以下、情報管理装置10の処理手順について、情報蓄積時と情報検索時とに分けて説明する。   Hereinafter, the processing procedure of the information management apparatus 10 will be described separately for information storage and information search.

図3は、情報蓄積時における情報管理装置の処理手順を説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining the processing procedure of the information management apparatus during information accumulation.

イベント取得部111は、操作者による操作入力(操作入力に基づくOS15からのイベントの通知)を常時監視している(S101、S102)。イベント取得部111は、操作者による操作入力(イベント)を検知すると(S102でYes)、イベントの種別に応じて処理を分岐させる。   The event acquisition unit 111 constantly monitors operation input by the operator (event notification from the OS 15 based on the operation input) (S101, S102). When the event acquisition unit 111 detects an operation input (event) by the operator (Yes in S102), the event acquisition unit 111 branches the process according to the event type.

例えば、非図示のアプリケーションプログラムによって補助記憶装置102に保存されている電子ファイルが開かれると、イベント取得部111は、電子ファイルが開かれた(オープンされた)ことを示すイベントを検知する。この場合(S103でYes)、イベント取得部111は、電子ファイルのファイル名、イベント(電子ファイルのオープン)の発生日時、及び電子ファイルの内容を取得する(S104)。また、イベント取得部111は、イベントの発生日時が属する時間帯を判定する。ここで、時間帯とは、例えば、1日の24時間を所定の単位を区切ることによって規定される期間を示す情報をいう。例えば、所定の単位を2時間とする場合、1〜12の時間帯が規定される。続いて、情報記録部116は、イベント取得部111によって取得された情報等を1つのレコード(エントリー)としてイベントデータベース13に登録(記録)する(S105)。   For example, when an electronic file saved in the auxiliary storage device 102 is opened by an application program (not shown), the event acquisition unit 111 detects an event indicating that the electronic file has been opened (opened). In this case (Yes in S103), the event acquisition unit 111 acquires the file name of the electronic file, the occurrence date and time of the event (electronic file open), and the contents of the electronic file (S104). In addition, the event acquisition unit 111 determines the time zone to which the event occurrence date / time belongs. Here, the time zone refers to information indicating a period defined by dividing a predetermined unit into 24 hours in a day, for example. For example, when the predetermined unit is 2 hours, a time period of 1 to 12 is defined. Subsequently, the information recording unit 116 registers (records) the information acquired by the event acquisition unit 111 in the event database 13 as one record (entry) (S105).

図4は、イベントデータベースの構成例を示す図である。同図においてイベントデータベース13は、イベント毎にイベントID、ファイル名、イベント種別、発生日時、時間帯、特徴量、及びラスター画像を管理可能なように構成されている。イベントIDは、イベントごと(イベントデータベース13のレコード(行)ごと)に一意なIDであり、情報記録部116によって割り当てられる。ファイル名は、イベントの対象とされたファイル名であり、イベント取得部111によって取得された値が登録される。イベント種別は、イベントの種別であり、ここではファイルのオープン(「開く」)が該当する。発生日時、時間帯は、イベントの発生日時、当該発生日時が属する時間帯であり、イベント取得部111によって取得された値が登録される。特徴量及びラスター画像については後述する。なお、イベントデータベース13のレコードを、以下「イベントレコード」という。   FIG. 4 is a diagram illustrating a configuration example of the event database. In the figure, the event database 13 is configured to manage an event ID, a file name, an event type, an occurrence date and time, a time zone, a feature amount, and a raster image for each event. The event ID is a unique ID for each event (each record (row) of the event database 13) and is assigned by the information recording unit 116. The file name is the name of the file that is the subject of the event, and the value acquired by the event acquisition unit 111 is registered. The event type is a type of event, and corresponds to file open (“open”) here. The occurrence date / time and time zone are the event occurrence date / time and the time zone to which the occurrence date / time belongs, and the value acquired by the event acquisition unit 111 is registered. The feature amount and the raster image will be described later. The records in the event database 13 are hereinafter referred to as “event records”.

また、開かれていた電子ファイルが閉じられた場合も同様の処理が実行される(S111〜S113)。したがって、この場合、イベント種別が「閉じる」のイベントレコードがイベントデータベース13に登録される。   The same processing is executed when the opened electronic file is closed (S111 to S113). Therefore, in this case, an event record whose event type is “close” is registered in the event database 13.

また、電子ファイルについて印刷が実行されると、イベント取得部111は、電子ファイルが印刷されたことを示すイベントを検知する。この場合(S121でYes)、イベント取得部111は、印刷された電子ファイルのファイル名、イベント(電子ファイルの印刷)の発生日時、電子ファイルの内容、及び印刷ページ等を取得する(S122)。また、イベント取得部111は、イベントの発生日時が属する時間帯を判定する。続いて、ラスター化部112は、電子ファイルにおいて印刷ページに係るデータを画像データ(ラスター画像)に変換する(S123)。続いて、特徴量抽出部113は、ラスター化部112によって生成された画像データの特徴量を抽出(生成)する(S124)。特徴量の詳細については後述する。   When printing is performed for an electronic file, the event acquisition unit 111 detects an event indicating that the electronic file has been printed. In this case (Yes in S121), the event acquisition unit 111 acquires the file name of the printed electronic file, the occurrence date and time of the event (electronic file printing), the contents of the electronic file, the print page, and the like (S122). In addition, the event acquisition unit 111 determines the time zone to which the event occurrence date / time belongs. Subsequently, the rasterization unit 112 converts data relating to the print page in the electronic file into image data (raster image) (S123). Subsequently, the feature amount extraction unit 113 extracts (generates) the feature amount of the image data generated by the rasterization unit 112 (S124). Details of the feature amount will be described later.

続いて、情報記録部116は、ステップS105又はS113等と同様に、イベント取得部111によって取得された情報を1つのイベントレコードとしてイベントデータベース13に追加登録する(S125)。但し、この場合(印刷の場合)、ラスター化部112によって生成された画像データ(ラスター画像)及び当該画像データの特徴量も同一イベントレコードに登録される。   Subsequently, the information recording unit 116 additionally registers the information acquired by the event acquisition unit 111 in the event database 13 as one event record, similarly to step S105 or S113 (S125). However, in this case (in the case of printing), the image data (raster image) generated by the rasterizing unit 112 and the feature amount of the image data are also registered in the same event record.

また、投影装置108による投影が開始されると(すなわち、投影装置108に映像が出力されると)、イベント取得部111は、投影の開始(プロジェクタへの映像の出力)を示すイベントを検知する。この場合(S131でYes)、イベント取得部111は、投影装置108へ出力される映像に含まれるアクティブな(操作対象とされている)アプリケーションによって開かれている電子ファイルのファイル名、イベント(映像の出力)の発生日時、及び電子ファイルの内容等を取得する(S132)。また、イベント取得部111は、イベントの発生日時が属する時間帯を判定する。続いて、ラスター化部112は、電子ファイルにおいて現在表示(投影)されているページに係るデータを画像データ(ラスター画像)に変換する(S133)。続いて、特徴量抽出部113は、ラスター化部112によって生成された画像データの特徴量を抽出(生成)する(S134)。続いて、情報記録部116は、ステップS125と同様に、イベント取得部111によって取得された情報、画像データ、及び特徴量を1イベントレコードとしてイベントデータベース13に追加登録する(S135)。   When the projection by the projection device 108 is started (that is, when an image is output to the projection device 108), the event acquisition unit 111 detects an event indicating the start of projection (output of the image to the projector). . In this case (Yes in S131), the event acquisition unit 111 includes the file name and event (video) of an electronic file opened by an active (targeted operation) application included in the video output to the projection device 108. The date and time of occurrence of the output and the contents of the electronic file are acquired (S132). In addition, the event acquisition unit 111 determines the time zone to which the event occurrence date / time belongs. Subsequently, the rasterizing unit 112 converts the data related to the page currently displayed (projected) in the electronic file into image data (raster image) (S133). Subsequently, the feature amount extraction unit 113 extracts (generates) the feature amount of the image data generated by the rasterization unit 112 (S134). Subsequently, as in step S125, the information recording unit 116 additionally registers the information, image data, and feature amount acquired by the event acquisition unit 111 in the event database 13 as one event record (S135).

更に、画像入力装置109より紙文書の画像データが撮像され、当該画像データが情報管理装置10入力されると、イベント取得部111は、画像データの入力を示すイベントを検知する。この場合(S141でYes)、画像取得部114は、入力される画像データを取得し、メモリ装置103に記録する。なお、画像入力装置109からの画像データの入力は、有線に限られず、Bluetoothや赤外線などの無線通信が利用されてもよい。また、画像入力装置109としての位置付けとして、画像データが記録された記録媒体(メモリカード等)、画像データを管理する外部コンピュータ等であってもよい。   Furthermore, when image data of a paper document is captured from the image input device 109 and the image data is input to the information management device 10, the event acquisition unit 111 detects an event indicating input of the image data. In this case (Yes in S141), the image acquisition unit 114 acquires input image data and records it in the memory device 103. Note that image data input from the image input device 109 is not limited to wired communication, and wireless communication such as Bluetooth or infrared may be used. The positioning as the image input device 109 may be a recording medium (memory card or the like) on which image data is recorded, an external computer that manages the image data, or the like.

ところで、画像入力装置109からは、1枚以上の静止画データ又は動画データが入力されうる。紙文書のように静止している被写体について動画データが入力されうるのは、紙文書の一部を連続的に撮像しながらカメラを移動させて紙文書の全面又は一部を撮像するというケースである。こうすることによりカメラの解像度が低い場合であっても、高解像度の画像を得ることができる。   Incidentally, one or more still image data or moving image data can be input from the image input device 109. Moving image data can be input for a stationary subject such as a paper document when the camera is moved while the part of the paper document is continuously imaged to capture the entire surface or part of the paper document. is there. By doing so, a high-resolution image can be obtained even when the resolution of the camera is low.

画像取得部114が取得した画像データが静止画データある場合(S142でYes)、画像取得部114は、メモリ装置103に記録されている画像データを補助記憶装置102にファイルとして保存(記録)する(S143)。したがって、当該画像データにはファイル名が自動的に又は操作者からの入力に基づいて割り当てられる。また、イベント取得部111は、当該画像データのファイル名及びイベント(画像データの入力)の発生日時を取得する。更に、イベント取得部111は、イベントの発生日時が属する時間帯を判定する。   When the image data acquired by the image acquisition unit 114 is still image data (Yes in S142), the image acquisition unit 114 saves (records) the image data recorded in the memory device 103 as a file in the auxiliary storage device 102. (S143). Therefore, a file name is assigned to the image data automatically or based on an input from the operator. Further, the event acquisition unit 111 acquires the file name of the image data and the date and time of occurrence of the event (input of image data). Furthermore, the event acquisition unit 111 determines the time zone to which the event occurrence date belongs.

続いて、特徴量抽出部113は、ファイルに保存された画像データの特徴量を抽出(生成)する(S144)。続いて、情報記録部116は、イベント取得部111によって取得された情報、画像データ、及び特徴量を1イベントレコードとしてイベントデータベース13に追加登録する(S145)。   Subsequently, the feature amount extraction unit 113 extracts (generates) the feature amount of the image data stored in the file (S144). Subsequently, the information recording unit 116 additionally registers the information acquired by the event acquisition unit 111, the image data, and the feature amount in the event database 13 as one event record (S145).

一方、画像取得部114が取得した画像データが動画データである場合(S142でNo)、画像合成部115は、動画データから一枚の静止画データを生成する(S151)。当該静止画データは、紙文書上においてカメラが移動された領域(例えば、全面)に対する画像データとなる。動画データから一枚の大きな静止画データを作るには、特開2004−334843号公報等に記載されている、複数の部分画像を合成して大きな画像を生成する技術等を利用すればよい。   On the other hand, when the image data acquired by the image acquisition unit 114 is moving image data (No in S142), the image composition unit 115 generates one piece of still image data from the moving image data (S151). The still image data is image data for an area (for example, the entire surface) where the camera is moved on the paper document. In order to create one piece of large still image data from moving image data, a technique described in Japanese Patent Application Laid-Open No. 2004-334843 and the like that generates a large image by combining a plurality of partial images may be used.

続いて、画像合成部115は、生成した画像データ(静止画データ)を補助記憶装置102にファイルとして保存する(S152)。また、イベント取得部111は、当該画像データのファイル名及びイベント(画像データの入力)の発生日時を取得する。更に、イベント取得部111は、イベントの発生日時が属する時間帯を判定する。続いて、特徴量抽出部113は、ファイルに保存された画像データの特徴量を抽出(生成)する(S153)。続いて、情報記録部116は、イベント取得部111によって取得された情報、画像データ、及び特徴量を1イベントレコードとしてイベントデータベース13に追加登録する(S154)。   Subsequently, the image composition unit 115 stores the generated image data (still image data) as a file in the auxiliary storage device 102 (S152). Further, the event acquisition unit 111 acquires the file name of the image data and the date and time of occurrence of the event (input of image data). Furthermore, the event acquisition unit 111 determines the time zone to which the event occurrence date belongs. Subsequently, the feature amount extraction unit 113 extracts (generates) the feature amount of the image data stored in the file (S153). Subsequently, the information recording unit 116 additionally registers the information, image data, and feature amount acquired by the event acquisition unit 111 as one event record in the event database 13 (S154).

ステップS145又はステップS154に続いて、関連生成部117は、今回の画像データの入力に応じて登録されたイベントレコード(以下、「キーイベントレコード」という。)と関連を有する他のイベントレコード(以下、「関連イベントレコード」という。)を検索する(S155)。当該ステップの詳細を説明する。   Subsequent to step S145 or step S154, the association generation unit 117 performs another event record (hereinafter referred to as “key event record”) registered in response to the input of the current image data (hereinafter referred to as “key event record”). , "Related event record") is searched (S155). Details of this step will be described.

図5は、関連生成部による関連イベントレコードの検索処理を説明するためフローチャートである。   FIG. 5 is a flowchart for explaining the related event record search processing by the relation generation unit.

まず、キーイベントレコードの特徴量と合致する特徴量を有するイベントレコードを検索し(S201)、検索されたイベントレコードが有る場合(S202でYes)、当該イベントレコードを関連イベントレコードとする(S203)。なお、合致には、完全一致だけでなく、特徴量が類似又は近似している状態を含めてもよい。類似又は近似の判断は、特徴量の性質又は構成等によって異なるが、採用する特徴量に関する閾値に基づいて行えばよい。   First, an event record having a feature amount that matches the feature amount of the key event record is searched (S201). If there is a searched event record (Yes in S202), the event record is set as a related event record (S203). . Note that the match may include not only a perfect match but also a state in which the feature amount is similar or approximate. The determination of similarity or approximation differs depending on the characteristics or configuration of the feature amount, but may be performed based on a threshold value regarding the feature amount to be adopted.

続いて、キーイベントレコードの時間帯と同じ又は近い時間帯に係るイベントレコードを検索し(S204)、検索されたイベントレコードが有る場合(S205でYes)、当該イベントレコードを関連イベントレコードとする(S206)。なお、近い時間帯は、予め補助記憶装置102に設定されている閾値に基づいて判定すればよい。例えば、近い時間帯を判定するための閾値が「2」の場合、同一の時間帯と、一つ前の時間帯に係るイベントレコードが関連イベントレコードとされる。   Subsequently, an event record related to a time zone that is the same as or close to the time zone of the key event record is searched (S204). If there is a searched event record (Yes in S205), the event record is set as a related event record ( S206). The close time zone may be determined based on a threshold value set in advance in the auxiliary storage device 102. For example, when the threshold value for determining the near time zone is “2”, the event record relating to the same time zone and the previous time zone is set as the related event record.

すなわち、キーイベントレコードと関連イベントレコードとの関連とは、特徴量が一致すること、又は時間帯が近い(所定の範囲内である)ことをいう。なお、関連イベントレコードは複数検索されうる。   That is, the relationship between the key event record and the related event record means that the feature amounts match or the time zone is close (within a predetermined range). A plurality of related event records can be searched.

図3に戻る。関連イベントレコードが検索された場合、関連生成部117は、キーイベントレコードと、関連イベントレコードとの関連付け情報を示すレコード(以下、「関連付けレコード」という。)を関連付けデータベース14に登録する(S156)。   Returning to FIG. When the related event record is searched, the relationship generation unit 117 registers a record indicating the association information between the key event record and the related event record (hereinafter referred to as “association record”) in the association database 14 (S156). .

図6は、関連付けデータベースの構成例を示す図である。同図において関連付けデータベース14は、関連付け情報(関連付けレコード)ごとに、リレーションID、キーイベントID、関連数、ID列、関連種別、発生日、及び時間帯を管理可能なように構成されている。リレーションIDは、関連付け情報ごとに一意なIDである。キーイベントIDは、キーイベントレコードのイベントIDである。関連数は、キーイベントレコードに基づいて関連を有すると判定されたイベントレコードの数であり、同図の例では、キーイベントレコード自体もカウントされている。関連ID列は、関連イベントレコードのIDの集合であり、同図の例では、キーイベントIDも含まれている。関連種別は、特徴量又は時間のいずれに基づいて関連付けられたかを示す情報である。特徴量に基づいて関連付けられた場合は、関連イベントレコードのイベント種別が登録される。すなわち、一つのキーイベントレコードに対する複数の関連イベントレコードが複数種類のイベント種別に分類される場合、関連付けレコードはイベント種別ごとに複数登録される。発生日は、キーイベントレコードに係るイベントの発生日である。時間帯は、関連付けられたイベントレコードが属する時間帯である。   FIG. 6 is a diagram illustrating a configuration example of the association database. In the figure, the association database 14 is configured to be able to manage relation ID, key event ID, number of associations, ID string, association type, date of occurrence, and time zone for each association information (association record). The relation ID is a unique ID for each association information. The key event ID is the event ID of the key event record. The number of associations is the number of event records that are determined to be associated based on the key event records. In the example of the figure, the key event records themselves are also counted. The related ID column is a set of IDs of related event records, and in the example of FIG. The association type is information indicating whether the association is associated based on the feature amount or the time. When the association is performed based on the feature amount, the event type of the related event record is registered. That is, when a plurality of related event records for one key event record are classified into a plurality of types of event types, a plurality of association records are registered for each event type. The occurrence date is the occurrence date of the event related to the key event record. The time zone is a time zone to which the associated event record belongs.

例えば、画像入力された紙文書が既に印刷されたことのある電子ファイルに係るものである場合には、特徴量の一致に基づいて入力された画像データとその元となる電子ファイルとが関連付けられることになる(ケースA)。また、入力された画像データと、当該画像データの入力の時間帯と近い時間帯に操作(オープン、クローズ、印刷、投影等)された電子ファイルとが関連付けられることになる(ケースB)。   For example, when a paper document with an image input relates to an electronic file that has already been printed, the input image data is associated with the original electronic file based on the matching of the feature amounts. (Case A). Further, the input image data is associated with an electronic file operated (opened, closed, printed, projected, etc.) in a time zone close to the input time zone of the image data (Case B).

ケースAの場合は、電子ファイルの印刷物である紙文書に対して行った手書きメモと当該電子ファイルとを関連付けることができる。ケースBの場合は、電子ファイルの操作中にノートや手帳等、電子ファイルの印刷物以外の用紙に対して行った手書きメモと、当該電子ファイルとを関連付けることができる。   In case A, a handwritten memo made on a paper document that is a printed matter of an electronic file can be associated with the electronic file. In case B, the electronic file can be associated with a handwritten memo made on a sheet other than the printed matter of the electronic file, such as a notebook or a notebook during the operation of the electronic file.

なお、各操作に応じたイベントは、OS15に対して、入力装置106、投影装置108、画像入力装置109等からの割り込みが発生することにより検知される。すなわち、イベント取得部111は、OS15に対する割り込みの発生を監視することにより各イベントを検知する。   Note that an event corresponding to each operation is detected when an interrupt is generated from the input device 106, the projection device 108, the image input device 109, or the like to the OS 15. That is, the event acquisition unit 111 detects each event by monitoring the occurrence of an interrupt to the OS 15.

例えば、操作者が入力装置107に対して入力を行ったときは、入力装置107から情報管理装置10に当該入力に対応するデータが入力され、当該データに基づいて、表示装置106への映像の出力が行われる。これらの入出力に対応するイベント情報は、OS15から取得可能である。したがって、イベント取得部111は、斯かるイベント情報を参照することにより、イベントの種別を判定することができる。   For example, when the operator inputs to the input device 107, data corresponding to the input is input from the input device 107 to the information management device 10, and based on the data, an image is displayed on the display device 106. Output is done. Event information corresponding to these inputs and outputs can be acquired from the OS 15. Therefore, the event acquisition unit 111 can determine the event type by referring to such event information.

ところで、図4のイベントデータベース13は、次のような具体例に対応する。まず、aaa.pptが2008年2月1日13時55分に開かれる。aaa.pptの編集後、14時20分に印刷が行われ、ファイルが閉じられる。なお、aaa.pptの印刷物は会議の配付資料として利用される。続いて、15時からの会議でaaa.pptが15時2分に開かれ、投影装置108で投影される。会議中には、aaa.pptの印刷物(配布資料)や、ノート等の用紙に対してメモ書きが行われる。会議が終了し、16時4分にaaa.pptが閉じられる。その後、会議中にメモ書きが行われた用紙の画像データ(以下、「画像データA」という。)が画像入力装置109(スキャナ又はデジタルカメラ等)から入力され、still1.jpgとして保存される。また、aaa.pptの印刷物(配布資料)に対してメモ書きが行われたものの画像データ(以下、「画像データB」という。)が動画形式で画像入力装置109より入力され、画像合成によって1枚の大きなサイズの静止画データのファイル(combined1.jpg)として保存される。   Incidentally, the event database 13 in FIG. 4 corresponds to the following specific example. First, aaa. The ppt will be opened on February 1, 2008 at 13:55. aaa. After editing the ppt, printing is performed at 14:20 and the file is closed. Note that aaa. The printed matter of ppt is used as handout material for the conference. Subsequently, at the meeting from 15:00, aaa. The ppt is opened at 15: 2 and projected by the projector 108. During the meeting, aaa. Memo writing is performed on printed materials (distributed materials) of ppt and paper such as notebooks. The meeting ends and at 16: 4 aaa. ppt is closed. Thereafter, image data (hereinafter referred to as “image data A”) on which paper was written during the meeting is input from the image input device 109 (scanner, digital camera, or the like), and still1. Saved as jpg. Also, aaa. Image data (hereinafter referred to as “image data B”) of which a memo has been written on a printed material (distributed material) of ppt is input from the image input device 109 in a moving image format, and one large size is obtained by image synthesis. Is stored as a still image data file (combined1.jpg).

画像データAが入力されたとき(イベントID=7のイベントレコードが作成されたとき)には、特徴量検索が行われる。画像データAは、配布資料とは別の用紙を撮像したものであるため、特徴量検索では関連イベントレコードは検索されない。続いて、時間帯検索が行われ、イベントID=4〜7のイベントレコードが関連イベントレコードとして検索される。当該検索結果は、リレーションID=1の関連付けレコードとして関連付けデータベース14に登録される。   When image data A is input (when an event record with event ID = 7 is created), a feature amount search is performed. Since the image data A is obtained by imaging a sheet different from the distribution material, the related event record is not searched in the feature amount search. Subsequently, a time zone search is performed, and event records with event IDs 4 to 7 are searched as related event records. The search result is registered in the association database 14 as an association record with relation ID = 1.

画像データBが入力されたとき(イベントID=7のイベントレコードが作成されたとき)にも、特徴量検索が行われる。画像データBは、配布資料(aaa.pptの印刷物)に対してメモ書きを行ったものが動画形式で入力され、静止画データに合成されたものである。したがって、特徴量検索によってaaa.pptの特徴量を有しているイベントID=2、イベントID=5の二つのイベントレコードが関連イベントレコードとして検索される。二つの関連イベントレコードのイベント種別は異なるため、それぞれの関連イベントレコードに対して、リレーションID=2、リレーションID=3の関連付けレコードが登録される。続いて、時間帯検索が行われ、イベントID=4〜7のイベントレコードが関連イベントレコードとして検索される。当該検索結果は、リレーションID=4の関連付けレコードとして関連付けデータベース14に登録される。   A feature amount search is also performed when image data B is input (when an event record with event ID = 7 is created). The image data B is obtained by writing a note on the distribution material (printed material of aaa.ppt), which is input in a moving image format and synthesized into still image data. Therefore, aaa. Two event records having event ID = 2 and event ID = 5 having a feature quantity of ppt are searched as related event records. Since the event types of the two related event records are different, an association record with relation ID = 2 and relation ID = 3 is registered for each related event record. Subsequently, a time zone search is performed, and event records with event IDs 4 to 7 are searched as related event records. The search result is registered in the association database 14 as an association record with relation ID = 4.

次に、情報検索時について説明する。例えば、数日後、会議中の手書きメモが記載された手帳やノート又は会議の配付資料等の紙文書等が手元に有り、当該紙文書に関連する情報(電子ファイル等)を検索したい場合である。   Next, information retrieval will be described. For example, a few days later, you have a notebook or notebook with handwritten notes in a meeting, or paper documents such as handouts for meetings, and you want to search for information (such as electronic files) related to the paper documents. .

図7は、情報検索時における情報管理装置の処理手順を説明するためのフローチャートである。   FIG. 7 is a flowchart for explaining the processing procedure of the information management apparatus during information retrieval.

ステップS301において、手帳やノートの手書きメモ、又は会議の配布資料が画像入力装置109によって撮像されると、画像データ入力部121は、撮像された画像データ(静止画データ又は動画データ)を画像入力装置109より情報管理装置10に入力し(取り込み)、メモリ装置103に記録する。入力画像が動画データである場合(S302でNo)、フレーム選択部122は、動画データの画像シーケンス(フレーム)中の一枚のフレームを選択し、選択されたフレームに係る画像データを特徴量抽出部123に入力する(S303)。フレーム選択部122によるフレームの選択は、例えば、各フレームについてエッジ強度抽出行い、その結果が所定の条件(例えば、各画素の微分値の総和が所定値以上であること)を満たすか否かによって行えばよい。この場合、当該所定の条件を満たすフレームが選択される。   In step S <b> 301, when a notebook, a handwritten memo of a notebook, or a conference distribution material is captured by the image input device 109, the image data input unit 121 inputs the captured image data (still image data or moving image data). The information is input (captured) from the device 109 to the information management device 10 and recorded in the memory device 103. When the input image is moving image data (No in S302), the frame selection unit 122 selects one frame in the image sequence (frame) of the moving image data, and extracts the feature amount of the image data related to the selected frame. The data is input to the unit 123 (S303). The frame selection by the frame selection unit 122 is performed by, for example, performing edge strength extraction for each frame and determining whether the result satisfies a predetermined condition (for example, the sum of differential values of each pixel is equal to or greater than a predetermined value). Just do it. In this case, a frame that satisfies the predetermined condition is selected.

一方、入力画像が静止画データである場合は(S302でYes)、当該静止画データが特徴量抽出部123にそのまま入力される。   On the other hand, when the input image is still image data (Yes in S302), the still image data is input to the feature amount extraction unit 123 as it is.

続いて、特徴量抽出部123は、で入力された画像データの特徴量を、情報蓄積部11の特徴量抽出部113による方法と同じ方法で抽出(生成)する(S304)。ここで抽出された特徴量を以下、「カレント特徴量」という。続いて、特徴量比較部124は、カレント特徴量とイベントデータベース13に登録されている特徴量とを比較し、カレント特徴量に合致(近似又は類似も含む。)する特徴量に係るイベントレコードを検索する(S305)。   Subsequently, the feature amount extraction unit 123 extracts (generates) the feature amount of the image data input in (1) by the same method as the method by the feature amount extraction unit 113 of the information storage unit 11 (S304). The feature amount extracted here is hereinafter referred to as “current feature amount”. Subsequently, the feature amount comparison unit 124 compares the current feature amount with the feature amount registered in the event database 13 and determines an event record related to the feature amount that matches (including approximate or similar) the current feature amount. Search is performed (S305).

検索されたイベントレコードが有る場合(S306でYes)、関連情報検索部125は、当該イベントレコードのイベントIDを関連ID列に含む関連付けレコードを関連付けデータベース14より検索し、当該関連付けレコードの関連ID列を取得する(S307)。続いて、関連情報検索部125は、取得された関連ID列に含まれる各イベントIDに係るイベントレコードをイベントデータベースより検索する(S308)。続いて、検索結果表示部126は、検索されたイベントレコードに基づいて、検索結果画面を表示装置106に表示させる(S309)。   When there is a searched event record (Yes in S306), the related information search unit 125 searches the related database 14 for a related record including the event ID of the event record in the related ID column, and the related ID column of the related record Is acquired (S307). Subsequently, the related information search unit 125 searches the event database for event records related to each event ID included in the acquired related ID string (S308). Subsequently, the search result display unit 126 displays a search result screen on the display device 106 based on the searched event record (S309).

図8は、検索結果画面の表示例を示す図である。同図において検索結果画面510には、カレント特徴量と一致した特徴量に係るイベントレコードのファイル名(still.jpg)と、当該イベントレコードと関連付けられているイベントレコードのファイル名、イベント種別、時間帯の一覧が表示されている。また、検索結果画面510の左側には、当該イベントの発生日が表示されている。なお、表示項目は、運用に応じて適宜変更すればよい。少なくとも、操作者が、検索の種として入力された画像データと関連付けられている電子ファイルを識別可能な情報(すなわち、電子ファイルの識別情報。本実施の形態ではファイル名)が表示されればよい。また、電子ファイルのサムネイル画像を生成し、当該サムネイル画像を検索結果画面510に表示させるようにしてもよい。   FIG. 8 is a diagram illustrating a display example of the search result screen. In the same figure, the search result screen 510 displays the file name (still.jpg) of the event record related to the feature quantity that matches the current feature quantity, and the file name, event type, and time of the event record associated with the event record. A list of bands is displayed. In addition, the occurrence date of the event is displayed on the left side of the search result screen 510. In addition, what is necessary is just to change a display item suitably according to operation | use. At least information that allows the operator to identify the electronic file associated with the image data input as the seed of the search (that is, identification information of the electronic file; in this embodiment, the file name) may be displayed. . Alternatively, a thumbnail image of an electronic file may be generated and displayed on the search result screen 510.

操作者は、このような検索結果画面510を参照することによって、手書きのメモ等に関連付けられている電子ファイルを容易に特定することができる。   The operator can easily specify an electronic file associated with a handwritten memo or the like by referring to such a search result screen 510.

続いて、操作者によって、検索結果画面510に表示された一覧の中から所望の行が選択されると、検索結果表示部126は、選択された行のファイル名に係る電子ファイルを表示装置106に表示させる(S310)。   Subsequently, when the operator selects a desired line from the list displayed on the search result screen 510, the search result display unit 126 displays the electronic file related to the file name of the selected line on the display device 106. (S310).

上述したように、本実施の形態における情報管理装置10によれば、手書きが行われたメモ又は印刷物と、それらと同じ時間帯に扱われていた電子ファイルとを適切に関連付けることができる。したがって、ユーザは、手書きのメモ等に基づいて、当該メモが作成されていたときに利用されていた電子ファイルを容易に検索することができる。   As described above, according to the information management apparatus 10 in the present embodiment, it is possible to appropriately associate a handwritten memo or printed matter with an electronic file that has been handled in the same time zone. Therefore, the user can easily search for an electronic file used when the memo was created based on a handwritten memo or the like.

なお、関連付けデータベース14は、必ずしも必要ではない。情報検索時において、関連付けデータベース14への登録処理に対応する処理が行われてもよい。但し、関連付けデータベース14を情報蓄積時に生成しておくことで、手書きが行われたメモ又は印刷物と関連する電子ファイル等を高速に検索することができる。   The association database 14 is not always necessary. At the time of information retrieval, processing corresponding to registration processing in the association database 14 may be performed. However, by creating the association database 14 when accumulating information, it is possible to quickly search for electronic files and the like related to handwritten memos or printed matter.

なお、特徴量抽出部113又は特徴量抽出部123による特徴量の抽出方法を以下に説明する。図9は、本実施の形態における特徴量の抽出方法を説明するためのフローチャートである。   A feature amount extraction method by the feature amount extraction unit 113 or the feature amount extraction unit 123 will be described below. FIG. 9 is a flowchart for explaining a feature amount extraction method according to this embodiment.

まず、入力画像(特徴量の抽出対象の画像データ。ここでは、テキスト書類の画像データであるとする。)を二値化する(S401)。二値化には例えば特許第4018310号に記載された記述を用いればよい。続いて、二値画像に対して距離変換を適用し、距離画像を生成する(S402)。距離変換とは、二値画像の各画素から黒画素までの最短距離を求め、それを画素の値とする処理である。距離画像では、テキスト書類の文字の隙間や行間に尾根状に極大値が現れる。続いて、距離画像の極大値をスケルトン化して、一画素幅の線(尾根)の連結を作成する。続いて、当該線が交差(T字交差、十字交差等)する点を特徴点とする(S404)。したがって、複数の特徴点が検出されうる。   First, an input image (image data from which feature amounts are extracted. Here, it is assumed that the image data is a text document) is binarized (S401). For example, the description described in Japanese Patent No. 4018310 may be used for binarization. Subsequently, distance conversion is applied to the binary image to generate a distance image (S402). The distance conversion is a process of obtaining the shortest distance from each pixel of the binary image to the black pixel and using it as the pixel value. In the distance image, a local maximum appears in the form of a ridge between the gaps and lines of the text document. Subsequently, the maximum value of the distance image is skeletonized to create a connection of lines (ridges) having a width of one pixel. Subsequently, a point where the line intersects (T-shaped intersection, cross intersection, etc.) is defined as a feature point (S404). Therefore, a plurality of feature points can be detected.

当該特徴点は、テキスト書類の空白スペース内にある又は一様な色の領域内に存在する。したがって、当該特徴点の利用は、それらが安定性及び反復可能性において優れている。すなわち、テキスト書類において、テキスト部分は多くの場合高周波の画像成分(high frequency image content)を含み、その画像成分は容易に劣化する。これに対して、テキスト書類中の白色空間(背景部分)は殆ど安定的であり、周波数領域で殆どDCである成分を含む。白色空間中のノイズは、特徴的な場所に影響を及ぼさずに容易に選別できる。当該特徴点の位置は、各特徴点付近のテキストは通常同じように劣化するので、ノイズに対して堅牢(ロバスト的)である。   The feature points are in a blank space of the text document or in an area of uniform color. Therefore, the use of the feature points is superior in stability and repeatability. That is, in a text document, the text portion often includes a high frequency image content, and the image component easily deteriorates. On the other hand, the white space (background portion) in the text document is almost stable and includes a component that is almost DC in the frequency domain. Noise in the white space can be easily selected without affecting the characteristic location. The location of the feature points is robust (robust) against noise because text near each feature point usually degrades in the same way.

続いて、各特徴点のスケール(特徴スケール)を判定する(S405)。特徴点での距離変換値は、各特徴点に固有である。したがって特徴スケールは、特徴点の距離変換値に因子αを乗算した値として割り当てられる。   Subsequently, the scale (feature scale) of each feature point is determined (S405). The distance conversion value at the feature point is unique to each feature point. Therefore, the feature scale is assigned as a value obtained by multiplying the distance conversion value of the feature point by the factor α.

特徴点を中心とし特徴スケールを半径とする円の内側の内容は、カメラの面内回転及びズーム(又は、カメラの光軸が紙に垂直な場合、紙文書までの距離)に対して不変である。この特徴は局所的、即ち、当該円は小さいので、この特徴も、用紙に対するカメラの視野角の変化(面外回転)に対して堅牢である。言い換えれば、全体的な投影歪みが生じても、そのような投影歪みは局所的には非常に小さく、特徴スケールに及ぶ影響は、広範囲に亘るカメラの面外回転に関して無視できる。このように、特徴点の位置と同様に、特徴スケールも安定的で反復可能である。特徴スケールは、スケルトンに基づいて計算され、それ故に安定的になる。   The content inside the circle centered on the feature point and radiused on the feature scale is invariant to the in-plane rotation and zoom of the camera (or the distance to the paper document if the camera's optical axis is perpendicular to the paper). is there. This feature is local, i.e. the circle is small, so this feature is also robust against changes in the viewing angle of the camera relative to the paper (out-of-plane rotation). In other words, even if overall projection distortion occurs, such projection distortion is very small locally, and the effect on the feature scale is negligible for wide-range camera out-of-plane rotation. Thus, the feature scale is stable and repeatable, as is the location of the feature points. The feature scale is calculated based on the skeleton and therefore becomes stable.

続いて、各特徴点について、スケルトンの線が伸びている方向(特徴方向)を判定(抽出)する(S406)。各特徴点に関する2次元局所座標系は、特徴点を原点とし、局所的な向きをx軸とするように決定される。特徴方向は、この局所的な座標系に基づいて計算される。特徴方向を導出するため、特徴点を中心とし、その特徴スケールで決定される半径の円を計算する。当該円は、いくつかの位置でスケルトンの線と交わる。(スケルトンと交わる円周上の点全てのペアの中で)最も離れた2つの交点の位置を特徴方向とする。同様な距離のペアが2つあった場合、より水平方向に近いペアを選択する。例えば、当該円とスケルトンの線とが三つの点A、B、及びCにおいて交わるとする。二つの点A及びBが最も長い距離を有する場合、線分ABの方向が特徴方向となる。   Subsequently, for each feature point, the direction (feature direction) in which the skeleton line extends is determined (extracted) (S406). The two-dimensional local coordinate system for each feature point is determined so that the feature point is the origin and the local direction is the x-axis. The feature direction is calculated based on this local coordinate system. In order to derive the feature direction, a circle having a radius determined by the feature scale with the feature point as the center is calculated. The circle intersects the skeleton line at several positions. The feature direction is the position of the two most distant intersection points (among all pairs of points on the circumference that intersect the skeleton). When there are two pairs having similar distances, a pair closer to the horizontal direction is selected. For example, assume that the circle and the skeleton line intersect at three points A, B, and C. When the two points A and B have the longest distance, the direction of the line segment AB is the feature direction.

局所的な向きは、ノイズに敏感であり、いくつかの向きは異常値にさえなる可能性があるので、全体的な向き(global orientation)の推定を利用する。特に、局所的方向を伴う特徴点により、画像の全体的な向きを推定することができる。この推定は、局所的な特徴方向の数を360ビン(各ビンにつき1度)にわたって計数することで行われる(投票)。向きのヒストグラムの最大値は、全体的な方向として選択される。投票の後、全特徴点は、選択された全体的な向きに一致した向きに割り当て直される。本実施の形態では、ヒストグラムについて数を数える際、粗分割の手法を使用し、ノイズで乱される場合でもヒストグラムが円滑に変化することを保証する。   Since the local orientation is sensitive to noise and some orientations can even be outliers, global orientation estimation is utilized. In particular, the overall orientation of the image can be estimated from feature points with local directions. This estimation is done by counting the number of local feature directions over 360 bins (once for each bin) (voting). The maximum value of the orientation histogram is selected as the overall direction. After voting, all feature points are reassigned to an orientation that matches the selected overall orientation. In this embodiment, when counting the number of histograms, a coarse division method is used to ensure that the histograms change smoothly even when disturbed by noise.

特徴方向はスケルトンによって決定され、スケルトンは上述したように安定的である。したがって、特徴方向も安定的になる。   The feature direction is determined by the skeleton, and the skeleton is stable as described above. Therefore, the characteristic direction is also stable.

以上において導出された、特徴点ごとの位置及び方向の集合(配列)が入力画像の特徴量となる。   A set (array) of positions and directions for each feature point derived as described above is a feature amount of the input image.

続いて、斯かる特徴量のマッチング方法について説明する。比較される二つの画像データから抽出される特徴量は、上記のように特徴点ごとの位置と方向(各特徴点の属性情報)の集合(配列)である。したがって、特徴量のマッチングは、二つの配列を照合することにより行われる。一方の配列が他方の配列の少なくとも一部に合致すれば、一方の画像データは、他方の画像データの少なくとも一部であること、及び当該一部の位置を判定することができる。なお、特徴点の位置と方向との比較は、完全一致のみならず、所定の閾値の範囲内であれば合致すると判定するようにするとよい。   Next, a feature value matching method will be described. The feature amount extracted from the two image data to be compared is a set (array) of positions and directions (attribute information of each feature point) for each feature point as described above. Therefore, feature amount matching is performed by matching two arrays. If one array matches at least a part of the other array, it is possible to determine that one image data is at least a part of the other image data and the position of the part. Note that the comparison between the position and direction of the feature point may be determined not only as a complete match but also as a match within a predetermined threshold range.

以上のような特徴量によれば、完全一致のみならず類似の判定も可能である。また、一部と全体との比較も可能である。具体的には、情報蓄積時に紙面の一部のみの画像データが撮像され、情報検索時に紙面全面の画像データが撮像された場合や、その逆の場合(情報蓄積時に紙面全面の画像データが撮像され、情報検索時に紙面の一部の画像データが撮像された場合)であっても、両者をマッチングすることができる。したがって、例えば、情報検索時にカメラ付き携帯電話等によってメモ等の一部を手軽に撮像し、当該メモ等に関連する電子ファイルを検索することもできる。但し、本発明に適用可能な特徴量を以下のものに限定する趣旨ではない。例えば、ハッシュ値等を特徴量として用いてもよい。   According to the above feature amount, not only perfect matching but also similar determination is possible. It is also possible to compare a part with the whole. Specifically, image data of only a part of the paper surface is captured during information storage, and image data of the entire paper surface is captured during information retrieval, or vice versa (image data of the entire paper surface is captured during information storage). Even when a part of the image data of the paper is captured at the time of information retrieval), both can be matched. Therefore, for example, when searching for information, a part of a memo or the like can be easily captured by a mobile phone with a camera or the like, and an electronic file related to the memo or the like can be searched. However, the feature quantity applicable to the present invention is not limited to the following. For example, a hash value or the like may be used as the feature amount.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.

本発明の実施の形態における情報管理装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the information management apparatus in embodiment of this invention. 本発明の実施の形態における情報管理装置のソフトウェア構成例を示す図である。It is a figure which shows the software structural example of the information management apparatus in embodiment of this invention. 情報蓄積時における情報管理装置の処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the process sequence of the information management apparatus at the time of information storage. イベントデータベースの構成例を示す図である。It is a figure which shows the structural example of an event database. 関連生成部による関連イベントレコードの検索処理を説明するためフローチャートである。It is a flowchart for demonstrating the search process of the related event record by a related production | generation part. 関連付けデータベースの構成例を示す図である。It is a figure which shows the structural example of an association database. 情報検索時における情報管理装置の処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the process sequence of the information management apparatus at the time of an information search. 検索結果画面の表示例を示す図である。It is a figure which shows the example of a display of a search result screen. 本実施の形態における特徴量の抽出方法を説明するためのフローチャートである。It is a flowchart for demonstrating the extraction method of the feature-value in this Embodiment.

符号の説明Explanation of symbols

10 情報管理装置
11 情報蓄積部
12 情報検索部
13 イベントデータベース
14 関連付けデータベース
15 OS(Operating System)
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
106 表示装置
107 入力装置
108 投影装置
109 画像入力装置
111 イベント取得部
112 ラスター化部
113 特徴量抽出部
114 画像取得部
115 画像合成部
116 情報記録部
117 関連生成部
B バス
DESCRIPTION OF SYMBOLS 10 Information management apparatus 11 Information storage part 12 Information search part 13 Event database 14 Association database 15 OS (Operating System)
100 drive device 101 recording medium 102 auxiliary storage device 103 memory device 104 CPU
106 display device 107 input device 108 projection device 109 image input device 111 event acquisition unit 112 rasterization unit 113 feature quantity extraction unit 114 image acquisition unit 115 image composition unit 116 information recording unit 117 relation generation unit B bus

Claims (12)

情報蓄積手段と情報検索手段とを有する情報管理装置であって、
前記情報蓄積手段は、
電子データに対する操作の発生に応じ、当該電子データの識別情報と前記操作の発生時期を示す時期情報とを関連付けて記憶装置に記録する操作時期記録手段と、
少なくとも一部が手書きの紙文書が撮像された画像データを画像入力装置より取得する第一の画像データ取得手段と、
前記画像データの特徴量を抽出する第一の特徴量抽出手段と、
前記画像データの取得の時期を示す時期情報と前記特徴量とを関連付けて前記記憶装置に記録する特徴量記録手段とを有し、
前記情報検索手段は、
画像入力装置より入力される画像データの特徴量を抽出する第二の特徴量抽出手段と、
抽出された特徴量と合致する特徴量を前記記憶装置より検索する検索手段と、
検索された特徴量に関連付けられている前記時期情報が示す時期から所定の期間内の時期に係る前記時期情報に関連付けられている前記識別情報を前記記憶装置より取得する関連情報取得手段と、
取得された前記識別情報に基づく情報を表示させる表示制御手段とを有する情報管理装置。
An information management device having information storage means and information search means,
The information storage means includes
Operation time recording means for associating the identification information of the electronic data with the time information indicating the time of occurrence of the operation in association with the time of occurrence of the operation on the electronic data;
First image data acquisition means for acquiring, from an image input device, image data obtained by capturing at least a part of a handwritten paper document;
First feature amount extraction means for extracting feature amounts of the image data;
Feature amount recording means for associating and recording the time information indicating the acquisition time of the image data and the feature amount in the storage device;
The information search means includes
Second feature amount extraction means for extracting feature amounts of image data input from the image input device;
Search means for searching the storage device for feature quantities that match the extracted feature quantities;
Related information acquisition means for acquiring, from the storage device, the identification information associated with the time information relating to the time within a predetermined period from the time indicated by the time information associated with the searched feature amount;
An information management apparatus comprising display control means for displaying information based on the acquired identification information.
前記操作時期記録手段は、前記電子データに係る画像データが出力装置より出力されるときに当該電子データの識別情報と出力された時期を示す時期情報とを関連付けて記憶装置に記録し、
前記第一の特徴量抽出手段は、前記出力装置より出力された画像データの特徴量を抽出し、
前記特徴量記録手段は、前記画像データの出力の時期を示す時期情報と前記特徴量とを関連付けて前記記憶装置に記録することを特徴とする請求項1記載の情報管理装置。
The operation time recording means records the electronic data identification information and the time information indicating the output time in the storage device in association with each other when the image data related to the electronic data is output from the output device,
The first feature amount extraction unit extracts a feature amount of the image data output from the output device,
The information management apparatus according to claim 1, wherein the feature quantity recording unit records the timing information indicating the output timing of the image data in association with the feature quantity in the storage device.
前記情報蓄積手段は、
前記記憶装置に記録された前記特徴量の中で合致する特徴量を検索し、検索された特徴量に係る情報の関連付け情報を前記記憶装置に記録する関連付け手段を有することを特徴とする請求項1又は2記載の情報管理装置。
The information storage means includes
The information processing apparatus includes an association unit that searches for a matching feature quantity among the feature quantities recorded in the storage device and records association information of information related to the searched feature quantity in the storage device. The information management apparatus according to 1 or 2.
前記特徴量は、前記画像データにおける複数の特徴点に関する属性情報の集合であることを特徴とする請求項1乃至3いずれか一項記載の情報管理装置。   The information management apparatus according to claim 1, wherein the feature amount is a set of attribute information related to a plurality of feature points in the image data. 情報蓄積手段と情報検索手段とを有する情報管理装置による情報管理方法あって、
前記情報蓄積手段が、電子データに対する操作の発生に応じ、当該電子データの識別情報と前記操作の発生時期を示す時期情報とを関連付けて記憶装置に記録する操作時期記録手順と、
前記情報蓄積手段が、少なくとも一部が手書きの紙文書が撮像された画像データを画像入力装置より取得する第一の画像データ取得手順と、
前記情報蓄積手段が、前記画像データの特徴量を抽出する第一の特徴量抽出手順と、
前記情報蓄積手段が、前記画像データの取得の時期を示す時期情報と前記特徴量とを関連付けて前記記憶装置に記録する特徴量記録手順と、
前記情報検索手段が、画像入力装置より入力される画像データの特徴量を抽出する第二の特徴量抽出手順と、
前記情報検索手段が、抽出された特徴量と合致する特徴量を前記記憶装置より検索する検索手順と、
前記情報検索手段が、検索された特徴量に関連付けられている前記時期情報が示す時期から所定の期間内の時期に係る前記時期情報に関連付けられている前記識別情報を前記記憶装置より取得する関連情報取得手順と、
前記情報検索手段が、取得された前記識別情報に基づく情報を表示させる表示制御手順とを有する情報管理方法。
An information management method by an information management apparatus having an information storage means and an information search means,
An operation timing recording procedure in which the information storage means records in the storage device the identification information of the electronic data and the timing information indicating the occurrence timing of the operation in association with the occurrence of the operation on the electronic data;
A first image data acquisition procedure for acquiring, from the image input device, image data in which the information storage means captures at least a part of a handwritten paper document;
A first feature amount extraction procedure in which the information storage means extracts a feature amount of the image data;
A feature amount recording procedure in which the information storage means records the time information indicating the acquisition time of the image data in association with the feature amount in the storage device;
A second feature amount extraction procedure in which the information search means extracts a feature amount of image data input from an image input device;
A search procedure in which the information search means searches the storage device for a feature quantity that matches the extracted feature quantity;
A relationship in which the information search means acquires from the storage device the identification information associated with the time information relating to a time within a predetermined period from the time indicated by the time information associated with the searched feature amount. Information acquisition procedure;
An information management method comprising: a display control procedure in which the information search means displays information based on the acquired identification information.
前記操作時期記録手順は、前記電子データに係る画像データが出力装置より出力されるときに当該電子データの識別情報と出力された時期を示す時期情報とを関連付けて記憶装置に記録し、
前記第一の特徴量抽出手順は、前記出力装置より出力された画像データの特徴量を抽出し、
前記特徴量記録手順は、前記画像データの出力の時期を示す時期情報と前記特徴量とを関連付けて前記記憶装置に記録することを特徴とする請求項5記載の情報管理方法。
In the operation time recording procedure, when the image data related to the electronic data is output from the output device, the electronic data identification information and the time information indicating the output time are recorded in the storage device in association with each other,
The first feature amount extraction procedure extracts a feature amount of image data output from the output device,
6. The information management method according to claim 5, wherein in the feature quantity recording procedure, timing information indicating a timing of outputting the image data and the feature quantity are associated and recorded in the storage device.
前記情報蓄積手段が、前記記憶装置に記録された前記特徴量の中で合致する特徴量を検索し、検索された特徴量に係る情報の関連付け情報を前記記憶装置に記録する関連付け手順を有することを特徴とする請求項5又は6記載の情報管理方法。   The information storage means has an association procedure for searching for a matching feature amount among the feature amounts recorded in the storage device and recording association information of information relating to the searched feature amount in the storage device. 7. The information management method according to claim 5 or 6, wherein: 前記特徴量は、前記画像データにおける複数の特徴点に関する属性情報の集合であることを特徴とする請求項5乃至7いずれか一項記載の情報管理方法。   The information management method according to claim 5, wherein the feature amount is a set of attribute information regarding a plurality of feature points in the image data. コンピュータを情報蓄積手段と情報検索手段として機能させるためのプログラムであって、
前記情報蓄積手段は、
電子データに対する操作の発生に応じ、当該電子データの識別情報と前記操作の発生時期を示す時期情報とを関連付けて記憶装置に記録する操作時期記録手段と、
少なくとも一部が手書きの紙文書が撮像された画像データを画像入力装置より取得する第一の画像データ取得手段と、
前記画像データの特徴量を抽出する第一の特徴量抽出手段と、
前記画像データの取得の時期を示す時期情報と前記特徴量とを関連付けて前記記憶装置に記録する特徴量記録手段とを有し、
前記情報検索手段は、
画像入力装置より入力される画像データの特徴量を抽出する第二の特徴量抽出手段と、
抽出された特徴量と合致する特徴量を前記記憶装置より検索する検索手段と、
検索された特徴量に関連付けられている前記時期情報が示す時期から所定の期間内の時期に係る前記時期情報に関連付けられている前記識別情報を前記記憶装置より取得する関連情報取得手段と、
取得された前記識別情報に基づく情報を表示させる表示制御手段とを有するプログラム。
A program for causing a computer to function as information storage means and information search means,
The information storage means includes
Operation time recording means for associating the identification information of the electronic data with the time information indicating the time of occurrence of the operation in association with the time of occurrence of the operation on the electronic data;
First image data acquisition means for acquiring, from an image input device, image data obtained by capturing at least a part of a handwritten paper document;
First feature amount extraction means for extracting feature amounts of the image data;
Feature amount recording means for associating and recording the time information indicating the acquisition time of the image data and the feature amount in the storage device;
The information search means includes
Second feature amount extraction means for extracting feature amounts of image data input from the image input device;
Search means for searching the storage device for feature quantities that match the extracted feature quantities;
Related information acquisition means for acquiring, from the storage device, the identification information associated with the time information relating to the time within a predetermined period from the time indicated by the time information associated with the searched feature amount;
A display control means for displaying information based on the acquired identification information.
前記操作時期記録手段は、前記電子データに係る画像データが出力装置より出力されるときに当該電子データの識別情報と出力された時期を示す時期情報とを関連付けて記憶装置に記録し、
前記第一の特徴量抽出手段は、前記出力装置より出力された画像データの特徴量を抽出し、
前記特徴量記録手段は、前記画像データの出力の時期を示す時期情報と前記特徴量とを関連付けて前記記憶装置に記録することを特徴とする請求項9記載のプログラム。
The operation time recording means records the electronic data identification information and the time information indicating the output time in the storage device in association with each other when the image data related to the electronic data is output from the output device,
The first feature amount extraction unit extracts a feature amount of the image data output from the output device,
The program according to claim 9, wherein the feature amount recording unit records the timing information indicating the output timing of the image data in association with the feature amount in the storage device.
前記情報蓄積手段は、
前記記憶装置に記録された前記特徴量の中で合致する特徴量を検索し、検索された特徴量に係る情報の関連付け情報を前記記憶装置に記録する関連付け手段を有することを特徴とする請求項9又は10記載のプログラム。
The information storage means includes
The information processing apparatus includes an association unit that searches for a matching feature quantity among the feature quantities recorded in the storage device and records association information of information related to the searched feature quantity in the storage device. The program according to 9 or 10.
前記特徴量は、前記画像データにおける複数の特徴点に関する属性情報の集合であることを特徴とする請求項9乃至11いずれか一項記載のプログラム。   The program according to claim 9, wherein the feature amount is a set of attribute information related to a plurality of feature points in the image data.
JP2008200037A 2008-08-01 2008-08-01 Information management apparatus, information management method, and program Expired - Fee Related JP5169596B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008200037A JP5169596B2 (en) 2008-08-01 2008-08-01 Information management apparatus, information management method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008200037A JP5169596B2 (en) 2008-08-01 2008-08-01 Information management apparatus, information management method, and program

Publications (2)

Publication Number Publication Date
JP2010039643A JP2010039643A (en) 2010-02-18
JP5169596B2 true JP5169596B2 (en) 2013-03-27

Family

ID=42012144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008200037A Expired - Fee Related JP5169596B2 (en) 2008-08-01 2008-08-01 Information management apparatus, information management method, and program

Country Status (1)

Country Link
JP (1) JP5169596B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3850047B2 (en) * 1994-08-17 2006-11-29 富士ゼロックス株式会社 Reference history display device
JP2002207726A (en) * 2000-11-10 2002-07-26 Ricoh Co Ltd Document controller, method of extracting related document, and method of supporting document operation
JP2004220215A (en) * 2003-01-14 2004-08-05 Hitachi Ltd Operation guide and support system and operation guide and support method using computer
JP2006126962A (en) * 2004-10-26 2006-05-18 Just Syst Corp Document creation apparatus, document creation method, and document creation program
US20080072225A1 (en) * 2006-09-19 2008-03-20 Tetsuro Nagatsuka Information processing apparatus, information processing method, program, and recording medium

Also Published As

Publication number Publication date
JP2010039643A (en) 2010-02-18

Similar Documents

Publication Publication Date Title
JP5095535B2 (en) Image processing method, image processing system, image processing apparatus, and program
JP5181888B2 (en) Method and system for generating a graphical user interface
US7587412B2 (en) Mixed media reality brokerage network and methods of use
US7769772B2 (en) Mixed media reality brokerage network with layout-independent recognition
US7672543B2 (en) Triggering applications based on a captured text in a mixed media environment
US7991778B2 (en) Triggering actions with captured input in a mixed media environment
US7812986B2 (en) System and methods for use of voice mail and email in a mixed media environment
US7920759B2 (en) Triggering applications for distributed action execution and use of mixed media recognition as a control input
EP1783681A1 (en) Retrieval system and retrieval method
US20100092093A1 (en) Feature matching method
US20070047816A1 (en) User Interface for Mixed Media Reality
US20070165904A1 (en) System and Method for Using Individualized Mixed Document
JP2010518507A (en) Feature matching method
JP2007286767A (en) Image retrieval system, image retrieval server, control method therefor, computer program and computer-readable storage medium
JP2009020890A (en) Method and system for recognizing and tracking electronic document
JP2002132547A (en) Server for electronics information control, client therefor, method therefor and readable record medium recording program therefor
JP2013109773A (en) Feature matching method and article recognition system
JP2008046823A (en) Image interpretation device, image interpretation method and program
WO2017158800A1 (en) Mobile terminal, image processing method, and program
WO2014086266A1 (en) Professional notebook convenient for electronization and method for displaying electronic thumbnail thereof
JP5169596B2 (en) Information management apparatus, information management method, and program
Yang et al. Effective geometric restoration of distorted historical document for large‐scale digitisation
US20110161443A1 (en) Data management systems and methods for mobile devices
US20150085307A1 (en) Management system, image forming device, and terminal device
US20140184811A1 (en) Image processing apparatus, image processing method, and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121217

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees