JP2009259121A - Data management device, method, and program - Google Patents

Data management device, method, and program Download PDF

Info

Publication number
JP2009259121A
JP2009259121A JP2008109540A JP2008109540A JP2009259121A JP 2009259121 A JP2009259121 A JP 2009259121A JP 2008109540 A JP2008109540 A JP 2008109540A JP 2008109540 A JP2008109540 A JP 2008109540A JP 2009259121 A JP2009259121 A JP 2009259121A
Authority
JP
Japan
Prior art keywords
data
content
extraction rule
extraction
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008109540A
Other languages
Japanese (ja)
Inventor
Tsuneichi Arai
常一 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008109540A priority Critical patent/JP2009259121A/en
Publication of JP2009259121A publication Critical patent/JP2009259121A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a data management device, method and program that allow easily selection of a group of data to which additional information should be provided. <P>SOLUTION: The data management device designates one or a plurality of data from a group of data, creates an extraction rule based on additional information provided to the data designated, extracts one or a plurality of data from the group of data based on the extraction rule created, and extracts from the group of data the one or the plurality of data to which the additional information capable of varying the extraction rule has been provided. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、データに付与される付加情報に基づいてデータを管理する技術に関する。   The present invention relates to a technique for managing data based on additional information added to data.

近年、デジタルカメラやワープロ、音声作成装置、音楽作成装置などの手軽なデータ作成装置が発達している。更に、大容量の記憶装置を持つコンピュータ及びコンピュータを内蔵する製品の発達により、コンピュータ及びコンピュータを内蔵する製品の記憶装置内に大量のデータを蓄積することが急増している。   In recent years, simple data creation devices such as digital cameras, word processors, sound creation devices, music creation devices have been developed. Furthermore, with the development of computers having large-capacity storage devices and products incorporating computers, the accumulation of large amounts of data in the storage devices of computers and products incorporating computers has increased rapidly.

このような現状から、記憶装置に蓄積された大量のデータの中から所望するデータを選択する必要性が生じている。しかし、一つ一つのデータを確認しながら、所望するデータを選択するのは労力と時間がかかり大変困難となる。そこで、特許文献1には、選択される検索キーの組み合わせが変更される都度、当該検索キーの組み合わせに該当するデータの件数を更新して表示する技術が提案されている。   Under such circumstances, there is a need to select desired data from a large amount of data stored in the storage device. However, it is very difficult to select desired data while checking each piece of data because it takes labor and time. Therefore, Patent Literature 1 proposes a technique of updating and displaying the number of data corresponding to the search key combination every time the selected search key combination is changed.

しかし、データがテキストデータであれば、文字列検索を利用すれば、比較的容易に所望のデータを選択できることになるが、画像データなどのテキストデータを持たないデータの場合には、データを一つ一つ目で確認しなければならず、その作業は煩雑となる。   However, if the data is text data, it is possible to select desired data relatively easily by using a character string search. However, if the data does not have text data, such as image data, the data can be It must be confirmed one at a time, and the work becomes complicated.

従来、このような問題に対処するため、データに対して関連する情報(メタデータ)を付与し、その情報に基づいてデータを管理したり検索したりする技術が知られている。特許文献2には、撮影データへのメタデータの付与に際して、当該撮影データの直前のデータに付与された撮影シーン情報と撮影時刻とから付与する確率の高いメタデータを推定して提示する技術が提案されている。
特開平06−332960号公報 特開2005−065121号公報
2. Description of the Related Art Conventionally, in order to cope with such a problem, a technique is known in which related information (metadata) is assigned to data, and data is managed or searched based on the information. Patent Document 2 discloses a technique for estimating and presenting metadata having a high probability to be given from shooting scene information and shooting time given to data immediately before the shooting data when metadata is given to the shooting data. Proposed.
Japanese Patent Laid-Open No. 06-332960 Japanese Patent Laying-Open No. 2005-0665121

上記した特許文献1で提案される技術では、検索の条件となる検索キー(例えば、単語、データの値)が予め分かっていれば、その検索キーを入力することで検索数を確認できる。しかし、ある画像データ(写真)をユーザの曖昧な記憶から探すケース等では、検索キーの指定が行なえず、所望のデータを見つけることはできない。   In the technique proposed in Patent Document 1 described above, if a search key (for example, a word or data value) that serves as a search condition is known in advance, the number of searches can be confirmed by inputting the search key. However, in a case where a certain image data (photograph) is searched from an ambiguous memory of the user, a search key cannot be designated and desired data cannot be found.

また、上記した特許文献2で提案される技術では、所定のシナリオに沿って撮影を行ったケース等を想定しているため、シナリオが無いような撮影対象に対しては対応することができない。   Further, since the technique proposed in the above-mentioned Patent Document 2 assumes a case where shooting is performed according to a predetermined scenario, it is not possible to deal with a shooting target without a scenario.

そこで、本発明は上記問題点に鑑みてなされたものであり、付加情報の付与対象となるデータ群を容易に選択できるようにしたデータ管理装置、方法及びプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a data management apparatus, method, and program capable of easily selecting a data group to which additional information is to be given.

上記目的を達成するため、本発明の一態様によるデータ管理装置は、データ群から1又は複数のデータを指定する第1のデータ指定手段と、前記第1のデータ指定手段により指定されたデータに付与されている付加情報に基づいて抽出ルールを作成する作成手段と、前記作成手段により作成された抽出ルールに基づき前記データ群から1又は複数のデータを抽出する第2のデータ抽出手段と、前記作成手段により作成された抽出ルールを変更させることのできる付加情報が付与された1又は複数のデータを前記データ群から抽出する第3のデータ抽出手段とを具備することを特徴とする。   In order to achieve the above object, a data management apparatus according to an aspect of the present invention includes a first data designating unit that designates one or more data from a data group, and data designated by the first data designating unit. Creating means for creating an extraction rule based on the given additional information; second data extracting means for extracting one or more data from the data group based on the extraction rule created by the creating means; And a third data extracting means for extracting one or a plurality of data to which additional information that can change the extraction rule created by the creating means is extracted from the data group.

また、本発明の一態様によるデータ管理方法は、データ群から指定された1又は複数のデータに付与されている付加情報に基づいて抽出ルールを作成する第1の工程と、前記第1の工程により作成された抽出ルールに基づき前記データ群から1又は複数のデータを抽出する第2の工程と、前記第1の工程により作成された抽出ルールを変更させることのできる付加情報が付与された1又は複数のデータを前記データ群から抽出する第3の工程とを含むことを特徴とする。   The data management method according to an aspect of the present invention includes a first step of creating an extraction rule based on additional information given to one or a plurality of data designated from a data group, and the first step A second step of extracting one or a plurality of data from the data group based on the extraction rule created by 1 and additional information that can change the extraction rule created by the first step are given 1 Or a third step of extracting a plurality of data from the data group.

また、本発明の一態様によるプログラムは、コンピュータを、データ群から1又は複数のデータを指定する第1のデータ指定手段、前記第1のデータ指定手段により指定されたデータに付与されている付加情報に基づいて抽出ルールを作成する作成手段、前記作成手段により作成された抽出ルールに基づき前記データ群から1又は複数のデータを抽出する第2のデータ抽出手段、前記作成手段により作成された抽出ルールを変更させることのできる付加情報が付与された1又は複数のデータを前記データ群から抽出する第3のデータ抽出手段として機能させる。   According to another aspect of the present invention, there is provided a program that adds a computer to first data designating means for designating one or a plurality of data from a data group and to data designated by the first data designating means. Creation means for creating an extraction rule based on information, second data extraction means for extracting one or more data from the data group based on the extraction rule created by the creation means, and extraction created by the creation means It is made to function as a 3rd data extraction means which extracts the 1 or several data provided with the additional information which can change a rule from the said data group.

本発明によれば、付加情報の付与対象となるデータ群を容易に選択できる。これにより、大量データの分類に際して、専門的な知識や慣れを必要とせずに、ユーザの意図する分類分けが容易に行なえる。   According to the present invention, it is possible to easily select a data group to which additional information is to be given. As a result, when a large amount of data is classified, the classification intended by the user can be easily performed without requiring specialized knowledge or familiarity.

以下、本発明に係わるデータ管理装置、方法及びプログラムの一実施の形態について添付図面を参照して詳細に説明する。なお、以下、実施形態においては、本発明に係わるデータ管理装置をリモートコントローラに適用した場合を例に挙げて説明する。   Hereinafter, an embodiment of a data management apparatus, method, and program according to the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, a case where the data management apparatus according to the present invention is applied to a remote controller will be described as an example.

(実施形態1)
図1は、本発明の実施の一形態に係わるシステムの全体構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram showing an example of the overall configuration of a system according to an embodiment of the present invention.

1は、デジタルTVであり、表示部、CPU、ROM、RAM、HD、記録メディアの差し込みスロット、ネットワークインターフェイス、等から構成される。デジタルTV1には、例えば、ネットワーク上の他装置に蓄積された静止画や動画等のデータ(以下、コンテンツと言う)を表示再生するソフトウェアが組込まれている。   A digital TV 1 includes a display unit, a CPU, a ROM, a RAM, an HD, a recording medium insertion slot, a network interface, and the like. For example, software that displays and reproduces data (hereinafter referred to as content) such as still images and moving images stored in other devices on the network is incorporated in the digital TV 1.

2は、一般的なローカルエリアネットワークである。デジタルTV1は、このネットワーク2によりメディアサーバ3や、ハードディスクレコーダー等の動画や静止画の記録蓄積装置等と接続される。   Reference numeral 2 denotes a general local area network. The digital TV 1 is connected to the media server 3 and a moving / still image recording / storage device such as a hard disk recorder through the network 2.

3は、一般的なメディアサーバであり、ローカルエリアネットワーク等を介してデジタルTV1等と接続されている。メディアサーバ3には、静止画や動画が記録されており、ローカルエリアネットワークを介して送られてくるデータの送信要求に応じて当該要求元に静止画等のデータを応答する。   A general media server 3 is connected to the digital TV 1 or the like via a local area network or the like. The media server 3 records still images and moving images, and responds to the request source with data such as still images in response to a data transmission request sent via the local area network.

4は、一般的なAVリモートコントローラ(以下、リモコンと言う)であり、表示部、キースィッチ、CPU、メモリ、無線LANチップ等から構成される。リモコン4は、デジタルTV1と対応付けられており、リモコン4からのユーザの操作によりデジタルTV1に各種指示を与えることができる。   Reference numeral 4 denotes a general AV remote controller (hereinafter referred to as a remote controller), which includes a display unit, a key switch, a CPU, a memory, a wireless LAN chip, and the like. The remote controller 4 is associated with the digital TV 1, and can give various instructions to the digital TV 1 by user operations from the remote controller 4.

図2は、図1に示すリモコン4のハードウェア構成の一例を示すブロック図である。   FIG. 2 is a block diagram showing an example of a hardware configuration of the remote controller 4 shown in FIG.

リモコン4は、指示入力部6、表示部7、CPU8、RAM9、ROM10、フラッシュメモリ11、無線LAN12を具備して構成される。なお、これら各部は、システムバス5を介して接続されている。   The remote controller 4 includes an instruction input unit 6, a display unit 7, a CPU 8, a RAM 9, a ROM 10, a flash memory 11, and a wireless LAN 12. These units are connected via the system bus 5.

指示入力部6は、キースィッチ(矢印キー、OKボタン、メニューボタン等を含む)等で構成され、キースィッチからのキー入力コードをシステムバス5を経由してCPU8に入力する。例えば、矢印キーの押下により表示部7に表示されたカーソルを移動させることができる。また、例えば、OKボタン、メニューボタン等の押下により、表示部7にメニュー画面等を表示させることができる。   The instruction input unit 6 includes key switches (including an arrow key, an OK button, a menu button, and the like) and the like, and inputs a key input code from the key switch to the CPU 8 via the system bus 5. For example, the cursor displayed on the display unit 7 can be moved by pressing an arrow key. For example, a menu screen or the like can be displayed on the display unit 7 by pressing an OK button, a menu button, or the like.

表示部7は、液晶表示素子、液晶制御回路、表示メモリ等から構成され、CPU8からの指示に基づき各種画像を表示する。   The display unit 7 includes a liquid crystal display element, a liquid crystal control circuit, a display memory, and the like, and displays various images based on instructions from the CPU 8.

CPU8は、RAM(Random Access Memory)9をワーク領域としてROM(Read Only Memory)10に記憶されているプログラムを実行し、リモコン4における動作を統括制御する。   The CPU 8 executes a program stored in a ROM (Read Only Memory) 10 using a RAM (Random Access Memory) 9 as a work area, and performs overall control of operations in the remote controller 4.

フラッシュメモリ11は、各種情報を記憶し、システムバス5を経由してCPU8に接続されている。フラッシュメモリ11には、例えば、静止画や動画等のコンテンツ、設定情報等が記憶される。   The flash memory 11 stores various information and is connected to the CPU 8 via the system bus 5. The flash memory 11 stores content such as still images and moving images, setting information, and the like.

無線LAN(Local Area Network)12は、パーソナルコンピュータやAV機器との通信を司る通信インターフェースである。例えば、リモコン4と、デジタルTV1やメディアサーバ3との間のデータの授受は、この無線LAN12により実現される。なお、通信インターフェースは、無線LANに限られず、例えば、赤外線等であってもよいし、また、無線に限られず有線であってもよい。   A wireless local area network (LAN) 12 is a communication interface that manages communication with a personal computer and AV equipment. For example, data exchange between the remote controller 4 and the digital TV 1 or the media server 3 is realized by the wireless LAN 12. Note that the communication interface is not limited to a wireless LAN, and may be, for example, infrared rays, or may be wired without being limited to wireless.

図3は、図1に示すリモコン4における機能的な構成の一例を示すブロック図である。なお、リモコン4における機能的な構成は、例えば、ROM10に記憶されている制御プログラムがCPU8により実行されることで実現される。   FIG. 3 is a block diagram showing an example of a functional configuration of the remote controller 4 shown in FIG. Note that the functional configuration of the remote controller 4 is realized by the CPU 8 executing a control program stored in the ROM 10, for example.

リモコン4は、第1のデータ指定部51と、抽出ルール作成部52と、第2のデータ抽出部53と、第3のデータ抽出部54と、表示処理部55と、制御部56とを具備して構成される。   The remote controller 4 includes a first data specifying unit 51, an extraction rule creation unit 52, a second data extraction unit 53, a third data extraction unit 54, a display processing unit 55, and a control unit 56. Configured.

第1のデータ指定部51は、リモコン4上の選択キー等からの指示により抽出ルールの作成元となるコンテンツを指定(選択)する。このコンテンツの指定は、例えば、メディアサーバ3に格納されたコンテンツ群から行なわれる。   The first data designating unit 51 designates (selects) the content from which the extraction rule is created in accordance with an instruction from a selection key or the like on the remote controller 4. This content designation is performed from, for example, a content group stored in the media server 3.

抽出ルール作成部52は、第1のデータ指定部51により指定された1又は複数のコンテンツの付加情報(詳細は後述する)に基づき抽出ルールを作成する。また、第2のデータ抽出部53は、抽出ルール作成部52により作成された抽出ルールに合致するコンテンツを抽出する。   The extraction rule creation unit 52 creates an extraction rule based on additional information (details will be described later) of one or more contents designated by the first data designation unit 51. Further, the second data extraction unit 53 extracts content that matches the extraction rule created by the extraction rule creation unit 52.

第3のデータ抽出部54は、抽出ルール作成部52により作成された抽出ルールを変更させることのできるコンテンツを抽出する。すなわち、第1のデータ指定部51により指定されたコンテンツとは異なる付加情報を有するコンテンツを抽出する。   The third data extraction unit 54 extracts content that can change the extraction rule created by the extraction rule creation unit 52. That is, content having additional information different from the content specified by the first data specifying unit 51 is extracted.

表示処理部55は、コンテンツを含む各種画面を表示させる。なお、本実施形態においては、表示処理部55による表示がリモコン4の表示部7に対して行なわれる場合について説明するが、これに限られない。例えば、デジタルTV1の画面上に各種画面を表示させてもよい。   The display processing unit 55 displays various screens including content. In the present embodiment, a case where display by the display processing unit 55 is performed on the display unit 7 of the remote controller 4 will be described, but the present invention is not limited to this. For example, various screens may be displayed on the screen of the digital TV 1.

制御部56は、リモコン4におけるコンテンツ処理に係わる動作を統括制御する。この図3に示す機能構成は、この制御部56からの指示に従って動作する。制御部56では、例えば、各機能間で発生するデータの入出力の制御も行なう。   The control unit 56 comprehensively controls operations related to content processing in the remote controller 4. The functional configuration shown in FIG. 3 operates in accordance with an instruction from the control unit 56. The control unit 56 also controls input / output of data generated between the functions, for example.

図4は、図1に示すリモコン4の表示部7に表示されるコンテンツ取り込み画面の一例を示す図である。   FIG. 4 is a diagram showing an example of a content capturing screen displayed on the display unit 7 of the remote controller 4 shown in FIG.

コンテンツ取り込み画面は、サムネール表示領域20と、メニュー表示領域21とに大きく分けられる。サムネール表示領域20は、デジタルカメラ等から取り込まれたコンテンツのサムネールが表示される領域である。25は、サムネール表示領域20の表示をスクロールさせるスクロールバーである。   The content capture screen is roughly divided into a thumbnail display area 20 and a menu display area 21. The thumbnail display area 20 is an area in which thumbnails of content captured from a digital camera or the like are displayed. Reference numeral 25 denotes a scroll bar for scrolling the display of the thumbnail display area 20.

また、メニュー表示領域21は、例えば、リモコン4上からメニューボタンが押下されることにより表示される。メニュー表示領域21には、メタデータ作成ボタン22、削除ボタン23、印刷ボタン24等が設けられる。メタデータ作成ボタン22が押下された場合、サムネール表示領域20内で選択されているコンテンツがメタデータ作成用のコンテンツとして選ばれる。削除ボタン23が押下された場合には、サムネール表示領域20内で選択されているコンテンツが削除される。また、印刷ボタン24が押下された場合には、選択されているコンテンツが印刷される。   The menu display area 21 is displayed when a menu button is pressed from the remote controller 4, for example. The menu display area 21 is provided with a metadata creation button 22, a delete button 23, a print button 24, and the like. When the metadata creation button 22 is pressed, the content selected in the thumbnail display area 20 is selected as the content for creating metadata. When the delete button 23 is pressed, the content selected in the thumbnail display area 20 is deleted. When the print button 24 is pressed, the selected content is printed.

ここで、メタデータ作成ボタン22が押下された場合の処理について簡単に説明する。このボタンが押下されると、サムネール表示領域20内でユーザにより選択されたコンテンツと同じ条件のコンテンツが当該選択されたコンテンツに基づいて作成された抽出ルールにより検索される。そして、その検索されたコンテンツにユーザの所望する情報が付与される。例えば、サムネール表示領域20内でフィンランド旅行の撮影写真を2つ選択し、フィンランド旅行と入力すると、当該選択された写真と同じ条件、例えば、撮影日が同一となる写真に対してメタデータ「フィンランド旅行」を設定できる。なお、これ以外にも例えば、サムネール表示領域20内でセルフタイマーで撮った集合写真を選択し、集合写真と入力すると、セルフタイマーで撮った全写真に集合写真というメタデータを設定することもできる。   Here, a process when the metadata creation button 22 is pressed will be briefly described. When this button is pressed, the content having the same condition as the content selected by the user in the thumbnail display area 20 is searched by the extraction rule created based on the selected content. Then, information desired by the user is given to the searched content. For example, if two photographed photographs of a Finnish trip are selected in the thumbnail display area 20 and entered as a Finnish trip, the metadata “Finland” is applied to the photograph having the same conditions as the selected photograph, for example, the photographed date. "Travel" can be set. In addition to this, for example, when a group photo taken by the self-timer in the thumbnail display area 20 is selected and entered as a group photo, metadata called group photo can be set for all the photos taken by the self-timer. .

図5は、1又は複数のコンテンツに基づき抽出ルールを作成する際の処理の流れを示すフローチャートである。   FIG. 5 is a flowchart showing a flow of processing when creating an extraction rule based on one or a plurality of contents.

図4に示すコンテンツ取り込み画面において、例えば、ユーザによるリモコン操作によりサムネール表示領域20から1又は複数枚の写真が選択され、メタデータ作成ボタン22が押下されると、この処理は開始される。   In the content capture screen shown in FIG. 4, for example, when one or more photos are selected from the thumbnail display area 20 by a remote control operation by the user and the metadata creation button 22 is pressed, this process is started.

この処理が開始されると、リモコン4はまず、制御部56において、ユーザにより選択されたコンテンツの数が1個であるか、複数であるかの判定を行なう。この判定を行うのは、選択されたコンテンツが1個である場合と複数である場合とでは、処理内容が異なるためである。   When this processing is started, the remote controller 4 first determines in the control unit 56 whether the number of contents selected by the user is one or more. This determination is made because the processing contents differ between the case where there is one selected content and the case where there are a plurality of selected contents.

判定の結果、選択されたコンテンツが1個である場合には(ステップS5−1でYES)、リモコン4は、制御部56において、当該選択されたコンテンツから付加情報を読み取る(ステップS5−3)。付加情報とは、例えば、属性情報やメタデータ等のコンテンツに対して付与された情報のことを指す。本実施形態においては、コンテンツがJPEGであるものとし、EXIF(Exchangeable Image File Format)が付加情報である場合について説明する。EXIFには、撮影日の情報、撮影場所のGPS情報、撮影機種の情報、レンズ情報、絞りやISO感度の情報、フラッシュのON/OFF情報、撮影距離等の情報が含まれている。なお、本実施形態においては説明を簡略化するために、選択されたコンテンツがJPEGであり、付加情報として、撮影日時、撮影機種、GPS情報が読み取られるものとする。   As a result of the determination, if there is one selected content (YES in step S5-1), the remote controller 4 reads additional information from the selected content in the control unit 56 (step S5-3). . Additional information refers to information given to content such as attribute information and metadata. In the present embodiment, a case will be described in which the content is JPEG and EXIF (Exchangeable Image File Format) is additional information. The EXIF includes information such as shooting date information, shooting location GPS information, shooting model information, lens information, aperture and ISO sensitivity information, flash ON / OFF information, shooting distance, and the like. In the present embodiment, to simplify the description, it is assumed that the selected content is JPEG, and the shooting date and time, the shooting model, and GPS information are read as additional information.

付加情報の読み取りが済むと、リモコン4は、抽出ルール作成部52において、当該読み取った付加情報から抽出ルールを作成する(ステップS5−4)。例えば、撮影日時が2007年1月1日であり、撮影機種がカメラAである場合には、その日時及び機種と同一となり、更に同一のGPS情報を有するコンテンツを抽出するための抽出ルールを作成する。なお、多少許容値を持たせて抽出ルールを作成してもよい。例えば、撮影日時情報の場合には、時間情報を切り捨て日付情報のみを活かして抽出ルールを作成してもよい。GPS情報の場合も同様に、当該情報により指し示される位置から1km程度の範囲を許容して抽出ルールを作成してもよい。   When the additional information is read, the remote controller 4 causes the extraction rule creation unit 52 to create an extraction rule from the read additional information (step S5-4). For example, if the shooting date is January 1, 2007 and the shooting model is Camera A, an extraction rule is created to extract content that is the same as the date and model and that has the same GPS information. To do. Note that the extraction rule may be created with some tolerance. For example, in the case of shooting date / time information, the extraction rule may be created by cutting off the time information and using only the date information. Similarly, in the case of GPS information, an extraction rule may be created while allowing a range of about 1 km from the position indicated by the information.

また、ステップS5−1において、選択されたコンテンツが複数あると判定された場合には(ステップS5−1でNO)、リモコン4は、制御部56において、共通条件モードであるか否かの判定を行なう。この判定では、最初に複数のコンテンツが選択された場合に共通条件モードと判定され、選択されたコンテンツに異なるコンテンツが追加して選択された場合は非共通条件モードと判定される。   If it is determined in step S5-1 that there are a plurality of selected contents (NO in step S5-1), the remote controller 4 determines whether or not the control unit 56 is in the common condition mode. To do. In this determination, the common condition mode is determined when a plurality of contents are initially selected, and the non-common condition mode is determined when a different content is selected in addition to the selected contents.

ここで、共通条件モードであると判定された場合には(ステップS5−2でYES)、リモコン4は、制御部56において、ユーザにより選択された複数コンテンツから付加情報を読み取る(ステップS5−5)。そして、この複数コンテンツから読み取った付加情報の中から共通する情報(共通情報)を取得する(ステップS5−6)。例えば、複数コンテンツ全てがカメラAで撮影されたものであれば、共通情報として撮影機種:カメラAが取得される。共通情報が取得されると、この共通情報に基づき抽出ルールが作成される(ステップS5−7)。その後、ワーク領域等が開放され、この処理は終了する。   If it is determined that the common condition mode is selected (YES in step S5-2), the remote controller 4 reads additional information from a plurality of contents selected by the user in the control unit 56 (step S5-5). ). Then, common information (common information) is acquired from the additional information read from the plurality of contents (step S5-6). For example, if all of the plurality of contents are taken by the camera A, the shooting model: camera A is acquired as common information. When the common information is acquired, an extraction rule is created based on the common information (step S5-7). Thereafter, the work area and the like are released, and this process ends.

また、ステップS5−2において、共通条件モードでないと判定された場合には(ステップS5−2でNO)、リモコン4は、制御部56において、ユーザにより選択された複数コンテンツから付加情報を読み取る(ステップS5−8)。そして、この複数コンテンツから読み取った付加情報の中から共通する情報(共通情報)と共通しない情報(非共通情報)の両方を取得する(ステップS5−9及びステップS5−10)。なお、共通情報は、上記ステップS5−6で取得した情報と同様である。非共通情報とは、例えば、2つのコンテンツがあり、それぞれカメラA及びカメラBで撮影されたものであれば、撮影機種がカメラA、カメラBとなり非共通となるが、これを両方含む情報である。   When it is determined in step S5-2 that the mode is not the common condition mode (NO in step S5-2), the remote controller 4 reads additional information from the plurality of contents selected by the user in the control unit 56 ( Step S5-8). Then, both common information (common information) and non-common information (non-common information) are acquired from the additional information read from the plurality of contents (steps S5-9 and S5-10). The common information is the same as the information acquired in step S5-6. Non-common information is, for example, information that includes two contents and is photographed with camera A and camera B, respectively, and the photographing model is camera A and camera B, but is not common. is there.

このようにして共通情報、非共通情報を取得すると、リモコン4は、抽出ルール作成部52において、両情報に基づく抽出ルールを作成する(ステップS5−11)。なお、非共通情報の場合には、各条件を論理和(OR条件)で括ったものが抽出ルールとなる。そして、ワーク領域等が開放された後、この処理は終了する。   When the common information and the non-common information are acquired in this way, the remote controller 4 creates an extraction rule based on both pieces of information in the extraction rule creation unit 52 (step S5-11). In the case of non-common information, an extraction rule is obtained by enclosing each condition with a logical sum (OR condition). Then, after the work area or the like is released, this process ends.

図6は、図1に示すリモコン4の表示部7に表示されるコンテンツ修正指示画面の一例を示す図である。   FIG. 6 is a diagram showing an example of a content correction instruction screen displayed on the display unit 7 of the remote controller 4 shown in FIG.

コンテンツ修正指示画面は、第1の領域26と、第2の領域27と、第3の領域28とに大きく分けられる。コンテンツ修正指示画面では、第1の領域26に表示されたコンテンツに基づき抽出ルールが作成される。この作成された抽出ルールに合致するコンテンツが第2の領域27に表示される。なお、抽出ルールは、上記図5で説明した手順で作成される。   The content correction instruction screen is roughly divided into a first area 26, a second area 27, and a third area 28. On the content correction instruction screen, an extraction rule is created based on the content displayed in the first area 26. Content that matches the created extraction rule is displayed in the second area 27. The extraction rule is created by the procedure described with reference to FIG.

第3の領域28には、当該作成された抽出ルールを変更させることのできる付加情報を有するコンテンツが表示される。すなわち、第3の領域28に表示されたコンテンツを、第1の領域26に移動させ、その状態で新たに抽出ルールが作成された場合、当該コンテンツ移動前とは異なる抽出ルールが作成されることになる。   In the third area 28, content having additional information that can change the created extraction rule is displayed. That is, when the content displayed in the third area 28 is moved to the first area 26 and a new extraction rule is created in that state, an extraction rule different from that before the content movement is created. become.

29は、カーソル表示である。この場合、カーソルは、第3の領域28を指し示している。30は、スクロールバーであり、ここが動かされることで第3の領域28の表示がスクロールされる。   Reference numeral 29 denotes a cursor display. In this case, the cursor points to the third area 28. Reference numeral 30 denotes a scroll bar, and when this is moved, the display of the third area 28 is scrolled.

図7は、第3の領域28にコンテンツを表示する際の処理の流れを示すフローチャートである。   FIG. 7 is a flowchart showing a flow of processing when content is displayed in the third area 28.

この処理が開始されると、リモコン4はまず、制御部56において、RAM9等のワーク領域を初期化するとともに、現在の抽出ルールに合致しないコンテンツを当該ワーク領域に展開する(ステップS7−1)。例えば、現在の抽出ルールが撮影日時:2007年1月4日であれば、それ以外の撮影日のコンテンツ全てがワーク領域に展開される。なお、現在の抽出ルールとは、第1の領域26に現時点で表示されているコンテンツに基づき作成された抽出ルールのことを指す。   When this process is started, the remote controller 4 first initializes a work area such as the RAM 9 in the control unit 56 and develops content that does not match the current extraction rule in the work area (step S7-1). . For example, if the current extraction rule is shooting date and time: January 4, 2007, all other shooting date contents are expanded in the work area. Note that the current extraction rule refers to an extraction rule created based on the content currently displayed in the first area 26.

次に、リモコン4は、制御部56において、ワーク領域に展開されたコンテンツの中から1つコンテンツを取得する(ステップS7−2)。そして、抽出ルール作成部52において、当該取得したコンテンツと、第1の領域26に表示されたコンテンツとから抽出ルールを作成する(ステップS7−3)。例えば、現在の抽出ルールが撮影日時:2006年1月1日、撮影機種:カメラAであり、読み取ったコンテンツの付加情報が撮影日時:2006年1月2日、撮影機種情報:カメラB、GPS情報:なしであったとする。この場合、これらコンテンツに基づく抽出ルールでは、撮影日時が2006年1月1日から1月2日であり、撮影機種がカメラA又はカメラBとなる。   Next, the remote controller 4 acquires one content from the content expanded in the work area in the control unit 56 (step S7-2). Then, the extraction rule creation unit 52 creates an extraction rule from the acquired content and the content displayed in the first area 26 (step S7-3). For example, the current extraction rule is shooting date / time: January 1, 2006, shooting model: camera A, and additional information of the read content is shooting date / time: January 2, 2006, shooting model information: camera B, GPS Information: Suppose there was none. In this case, in the extraction rules based on these contents, the shooting date and time is from January 1 to January 2, 2006, and the shooting model is camera A or camera B.

このようにして抽出ルールが作成されると、リモコン4は、制御部56において、当該作成された抽出ルールと同一の抽出ルールが既に存在しているかチェックする。この判定を行なうのは、第3の領域28に、同一の抽出ルールに変更させるためのコンテンツが複数表示されるのを防ぐためである。   When the extraction rule is created in this way, the remote controller 4 checks in the control unit 56 whether the same extraction rule as the created extraction rule already exists. This determination is performed in order to prevent a plurality of contents for changing to the same extraction rule from being displayed in the third area 28.

ここで、同一の抽出ルールがなければ(ステップS7−4でNO)、リモコン4は、制御部56において、作成した抽出ルールと、ステップS7−2で取得したコンテンツのサムネールとを対応付けてRAM9等に記憶させる(ステップS7−5)。   If there is no identical extraction rule (NO in step S7-4), the remote controller 4 associates the created extraction rule with the thumbnail of the content acquired in step S7-2 in the control unit 56 in the RAM 9 (Step S7-5).

続いて、リモコン4は、制御部56において、当該記憶した抽出ルール及びコンテンツのサムネールを抽出ルールの変化量に基づきソートする(ステップS7−6)。ここで、このソートについて簡単に説明する。例えば、現在の抽出ルールが撮影日:2007年1月1日、撮影機種:カメラAであり、当該抽出ルールを変更させられるコンテンツとしてコンテンツA〜Cがあるとする。ここで例えば、コンテンツAを加えて抽出ルールを作成した場合、撮影日が2007年1月1日〜2日に変更されるとする。また、コンテンツBを加えて抽出ルールを作成した場合、撮影日が2007年1月1日〜7日に変更されるとする。また、コンテンツCを加えて抽出ルールを作成した場合、撮影日が2007年1月1日〜1月10日となり、撮影機種がカメラA又はカメラBに変更されるとする。この場合、抽出ルールの変化量の大きさ順にこれらコンテンツをソートしたとすると、コンテンツA、B、Cの順にソートされる。すなわち、このソート処理では、抽出ルールの変化量が少ない順にコンテンツが並び替えられる。   Subsequently, the remote controller 4 sorts the stored extraction rules and content thumbnails based on the change amount of the extraction rules in the control unit 56 (step S7-6). Here, this sort will be briefly described. For example, it is assumed that the current extraction rule is shooting date: January 1, 2007, shooting model: camera A, and contents A to C are contents that can change the extraction rule. Here, for example, when the extraction rule is created by adding the content A, it is assumed that the shooting date is changed from January 1 to 2, 2007. In addition, when the extraction rule is created by adding the content B, it is assumed that the shooting date is changed from January 1 to 7, 2007. Further, when the extraction rule is created by adding the content C, the shooting date is January 1 to January 10, 2007, and the shooting model is changed to the camera A or the camera B. In this case, if these contents are sorted in the order of the change amount of the extraction rule, the contents are sorted in the order of contents A, B, and C. That is, in this sorting process, the contents are rearranged in the order from the smallest change amount of the extraction rule.

ソートが済むと、リモコン4は、制御部56において、未処理のコンテンツがあるかチェックを行なう。未処理のコンテンツがあれば(ステップS7−7でYES)、再度、ステップS7−2の処理に戻る。一方、全てのコンテンツに対する処理が済んでいれば(ステップS7−7でNO)、リモコン4は、表示処理部55において、ステップS7−5で記憶したコンテンツをステップS7−6でソートした順番で表示させる(ステップS7−8)。すなわち、図6に示す第3の領域28に現在の抽出ルールを変更させることのできる付加情報を持つコンテンツがリモコン4の表示部7に表示される。その後、ワーク領域が開放され、この処理は終了する。   After sorting, the remote controller 4 checks the control unit 56 for unprocessed content. If there is unprocessed content (YES in step S7-7), the process returns to step S7-2 again. On the other hand, if all the contents have been processed (NO in step S7-7), the remote controller 4 displays the contents stored in step S7-5 in the order sorted in step S7-6 in the display processing unit 55. (Step S7-8). That is, content having additional information that can change the current extraction rule in the third area 28 shown in FIG. 6 is displayed on the display unit 7 of the remote controller 4. Thereafter, the work area is released, and this process ends.

なお、上記説明では、抽出ルールの変化量でソートする場合について説明したが、ステップS7−5で記憶された抽出ルールに合致するコンテンツの数でソートするようにしてもよい。   In the above description, the case of sorting by the change amount of the extraction rule has been described. However, the sorting may be performed by the number of contents that match the extraction rule stored in step S7-5.

また、上記説明では、ステップS7−1で現在の抽出ルールに合致しないコンテンツを全てワーク領域に展開させていたが、展開するコンテンツに条件を設けてもよい。例えば、現在の抽出ルール内に撮影日時があれば、その日時から前後1時間、3日以内、1年以内等をユーザに指示させ、展開させるコンテンツを絞り込むようにしてもよい。また、例えば、現在の抽出ルール内に撮影機種があれば、その機種名をユーザに指示させ、展開させるコンテンツを絞り込むようにしてもよい。また、例えば、現在の抽出ルール内に赤色の画像という条件があれば、追加色を選択させるためのユーザインターフェースを提供するなどして、ユーザに画像色の追加を指示させ、展開させるコンテンツを絞り込むようにしてもよい。この他、変更後の抽出ルールに合致するコンテンツ数の閾値を入力させるためのユーザインターフェースを提供し、当該インターフェースを介して入力された閾値に収まる数のコンテンツを第3の領域28に表示させるようにしてもよい。   In the above description, all contents that do not match the current extraction rule are expanded in the work area in step S7-1. However, conditions may be provided for the expanded contents. For example, if there is a shooting date and time in the current extraction rule, the user may be instructed to indicate the hour before and after that date, within 3 days, within 1 year, etc., and narrow down the content to be developed. For example, if there is a shooting model in the current extraction rule, the user may be prompted to specify the model name, and the content to be developed may be narrowed down. In addition, for example, if there is a condition of a red image in the current extraction rule, a user interface for selecting an additional color is provided, and the user is instructed to add an image color to narrow down contents to be developed. You may do it. In addition, a user interface for inputting a threshold value for the number of contents that matches the extracted extraction rule is provided, and a number of contents that fall within the threshold value input via the interface are displayed in the third area 28. It may be.

図8は、変更後の抽出ルールを仮抽出ルールとして表示する際の処理の流れを示すフローチャートである。   FIG. 8 is a flowchart showing the flow of processing when displaying the changed extraction rule as a temporary extraction rule.

この処理が開始されると、リモコン4はまず、制御部56において、RAM9等のワーク領域を初期化するとともに、第1の領域26に表示されたコンテンツのいずれか或いは全てが選択状態にあるか否かの判定を行なう。   When this processing is started, the remote controller 4 first initializes the work area such as the RAM 9 in the control unit 56 and whether any or all of the content displayed in the first area 26 is in a selected state. Determine whether or not.

ここで、第1の領域26に表示されたコンテンツのいずれか或いは全てが選択状態にあれば(ステップS8−1でYES)、リモコン4は、コンテンツ入替モードに移行する(ステップS8−2)。そうでなければ(ステップS8−1でNO)、リモコン4は、コンテンツ追加モードに移行する(ステップS8−3)。コンテンツ入替モードでは、選択状態にある第1の領域26内のコンテンツと、ユーザによりカーソル等で指定されたコンテンツとが入れ替えられる。また、コンテンツ追加モードでは、ユーザによりカーソル等で指定されたコンテンツが第1の領域26に追加される。   Here, if any or all of the content displayed in the first area 26 is in the selected state (YES in step S8-1), the remote controller 4 shifts to the content replacement mode (step S8-2). Otherwise (NO in step S8-1), the remote controller 4 shifts to the content addition mode (step S8-3). In the content replacement mode, the content in the first area 26 in the selected state is replaced with the content specified by the user with a cursor or the like. Further, in the content addition mode, content specified by the user with a cursor or the like is added to the first area 26.

リモコン4は、第2の領域27或いは、第3の領域28のいずれかに表示されたコンテンツがユーザによるキー操作により選択された後、表示ボタンが押下されるまで待機状態となる(ステップS8−4でNO)。なお、第2の領域27のコンテンツが選択されたのであれば、抽出するコンテンツが現在の状態から絞り込まれることが予想される。また、第3の領域28のコンテンツが選択されたのであれば、新たな抽出ルールが追加され抽出コンテンツが増加することが予想される。   The remote controller 4 is in a standby state until the display button is pressed after the content displayed in either the second area 27 or the third area 28 is selected by a key operation by the user (step S8-). No at 4). If the content of the second area 27 is selected, it is expected that the content to be extracted is narrowed down from the current state. Moreover, if the content of the 3rd area | region 28 is selected, it is anticipated that a new extraction rule will be added and extraction content will increase.

ここで、ユーザによるキー操作によりコンテンツが選択され、表示ボタンが押下されると(ステップS8−4でYES)、リモコン4は、抽出ルール作成部52において、当該選択されたコンテンツに基づく抽出ルールを作成する(ステップS8−5)。なお、抽出ルールは、移行中のモードに応じたものが作成される。具体的には、コンテンツ入替モード時には、第1の領域26で選択状態にあるコンテンツと、ステップS8−4で選択されたコンテンツとが入れ替えられた場合の抽出ルールが作成される。また、コンテンツ追加モード時には、ステップS8−4で選択されたコンテンツが第1の領域26に追加された場合の抽出ルールが作成される。   Here, when content is selected by a user's key operation and the display button is pressed (YES in step S8-4), the remote controller 4 causes the extraction rule creation unit 52 to set an extraction rule based on the selected content. Create (step S8-5). In addition, the extraction rule according to the mode in transfer is produced. Specifically, in the content replacement mode, an extraction rule is created when the content selected in the first area 26 and the content selected in step S8-4 are replaced. In addition, in the content addition mode, an extraction rule is created when the content selected in step S8-4 is added to the first area 26.

このようにして抽出ルールを作成したリモコン4は、表示処理部55において、それを仮抽出ルールとして画面上、すなわち、表示部7に表示する(ステップS8−6)。例えば、図9に示すように、オーバーラップウインドウを表示し、ステップS8−4で選択されたコンテンツと、選択領域のコンテンツとで作成される仮抽出ルールの情報を表示する。例えば、この場合、撮影機種情報がDXX1であり、撮影日が2000年から2007年であり、レンズが70mm〜200mmである旨の仮抽出ルールが表示されている。   The remote controller 4 that has created the extraction rule in this way causes the display processing unit 55 to display it as a temporary extraction rule on the screen, that is, on the display unit 7 (step S8-6). For example, as shown in FIG. 9, an overlap window is displayed, and information on the temporary extraction rule created by the content selected in step S8-4 and the content in the selected area is displayed. For example, in this case, a provisional extraction rule indicating that the shooting model information is DXX1, the shooting date is 2000 to 2007, and the lens is 70 mm to 200 mm is displayed.

ここで、ユーザによりリモコン4上からキャンセルボタンが押下された場合には(ステップS8−7でNO)、再度、ステップS8−4の処理が実施される。一方、ユーザによりリモコン4上から決定ボタンが押下された場合には(ステップS8−7でYES)、リモコン4は、ステップS8−4で選択されたコンテンツを第1の領域26に入れ替えるか、或いは追加する。上述した通り、コンテンツの入れ替えを行なうか、コンテンツの追加を行なうかは、ステップS8−2及びステップS8−3で設定されたモードに応じて切り替わることになる。   If the user presses the cancel button from the remote controller 4 (NO in step S8-7), the process in step S8-4 is performed again. On the other hand, when the user presses the enter button from the remote controller 4 (YES in step S8-7), the remote controller 4 replaces the content selected in step S8-4 with the first area 26, or to add. As described above, whether the content is replaced or the content is added is switched according to the mode set in step S8-2 and step S8-3.

この処理の後、リモコン4は、表示処理部55において、ステップS8−5で作成された抽出ルールを現在の抽出ルールとし、当該抽出ルールに基づき第2の領域27、第3の領域28のコンテンツ表示を更新する(ステップS8−8)。例えば、変更前の抽出ルールでは、撮影日が2007年1月1日から2007年1月4日であり、撮影機種がカメラAであるとする。そこに撮影日が2007年4月1日、撮影機種がカメラBとなる付加情報を有するコンテンツが第1の領域26に追加されたとすると、変更後の抽出ルールは、撮影日が2007年1月1日から2007年4月1日となり、撮影機種がカメラA又はカメラBとなる。   After this processing, the remote controller 4 uses the extraction rule created in step S8-5 as the current extraction rule in the display processing unit 55, and the contents of the second region 27 and the third region 28 based on the extraction rule. The display is updated (step S8-8). For example, in the extraction rule before the change, it is assumed that the shooting date is from January 1, 2007 to January 4, 2007, and the shooting model is the camera A. Assuming that the content having additional information indicating that the shooting date is April 1, 2007 and the shooting model is Camera B is added to the first area 26, the changed extraction rule is that the shooting date is January 2007. From 1st to April 1st, 2007, the camera model is Camera A or Camera B.

更新表示後、リモコン4は、この抽出ルールでよいか否かの確認表示を行なう(ステップS8−9)。その表示を確認したユーザがリモコン4上からキャンセルボタンを押下すると(ステップS8−10でNO)、再度、ステップS8−1の処理に戻る。一方、ユーザがリモコン4上からOKボタンを押下した場合には(ステップS8−10でYES)、リモコン4は、表示処理部55において、ユーザがメタデータを入力するためのメタデータ設定画面を表示部7に表示する(ステップS8−11)。   After the update display, the remote controller 4 performs a confirmation display as to whether or not this extraction rule is acceptable (step S8-9). When the user who confirms the display presses the cancel button on the remote controller 4 (NO in step S8-10), the process returns to step S8-1 again. On the other hand, when the user presses the OK button on the remote controller 4 (YES in step S8-10), the remote controller 4 displays a metadata setting screen for the user to input metadata in the display processing unit 55. This is displayed on the part 7 (step S8-11).

ユーザによるリモコン操作によりメタデータが入力されると、リモコン4は、制御部56において、変更後の抽出ルールに基づき第2の領域27に表示された1又は複数のコンテンツに当該入力されたメタデータを付与する(ステップS8−12)。例えば、変更後の抽出ルールにより抽出されたコンテンツの撮影日が2007年1月1日から2007年1月2日であれば、このメタデータ設定画面から「2007年正月」などと入力され、当該抽出されたコンテンツに当該入力されたメタデータが付与される。これにより、コンテンツをキーワード「正月」で検索したり、「2007年正月」で検索したりすることが可能になる。   When metadata is input by a remote control operation by the user, the remote controller 4 causes the control unit 56 to input the metadata input to one or a plurality of contents displayed in the second area 27 based on the changed extraction rule. Is added (step S8-12). For example, if the shooting date of the content extracted by the changed extraction rule is from January 1, 2007 to January 2, 2007, “2007 New Year” or the like is input from this metadata setting screen. The input metadata is given to the extracted content. As a result, it is possible to search for content by the keyword “New Year” or “2007 New Year”.

なお、図8に示すフローチャートの説明では、仮抽出ルールの表示後でなければ、抽出ルールを変更させることができないが、これに限られず、仮抽出ルールを表示せずに、抽出ルールを変更させるようにしてもよい。   In the description of the flowchart shown in FIG. 8, the extraction rule cannot be changed unless the temporary extraction rule is displayed. However, the present invention is not limited to this, and the extraction rule is changed without displaying the temporary extraction rule. You may do it.

以上のように実施形態1によれば、コンテンツの付加情報に基づき抽出ルールを作成し、そのルールに該当するコンテンツを表示するとともに、また、当該作成された抽出ルールを変更させることのできる候補コンテンツを表示する。そして、当該作成された抽出ルールの変更を指示(候補コンテンツを用いた変更指示)するユーザ操作がなされると、その変更を実際に行なう前に、その変更前後における変化を示す情報として仮抽出ルール(変更後の抽出ルール)を表示する。これにより、ユーザは、メタデータ等の付加情報の付与に際して、その対象となるデータ群を容易に選択できることになる。   As described above, according to the first embodiment, an extraction rule is created based on content additional information, content corresponding to the rule is displayed, and candidate content that can change the created extraction rule Is displayed. Then, when a user operation for giving an instruction to change the created extraction rule (change instruction using candidate content) is made, the temporary extraction rule is used as information indicating the change before and after the change before actually making the change. (Extraction rule after change) is displayed. Thus, the user can easily select a target data group when adding additional information such as metadata.

なお、実施形態1では説明を省略するが、メニューや編集操作によって抽出ルールを直接編集できるようにしてもよい。例えば、一般的なテキストボックス等を表示し、ユーザによりそのテキストボックスに入力された内容にしたがって抽出ルールを編集すればよい。   Although description is omitted in the first embodiment, the extraction rule may be directly edited by a menu or an editing operation. For example, a general text box or the like may be displayed, and the extraction rule may be edited according to the contents input to the text box by the user.

(実施形態2)
次に、実施形態2について説明する。実施形態1では、変更後の抽出ルールを仮抽出ルールとして事前に表示する場合について説明したが、実施形態2においては、変更後に抽出されるコンテンツの数を表示する場合について説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the first embodiment, the case where the extracted extraction rule is displayed in advance as a temporary extraction rule has been described. In the second embodiment, the case where the number of contents extracted after the change is displayed will be described.

図10は、実施形態2に係わるリモコン4における機能的な構成の一例を示すブロック図である。なお、実施形態1における図3と同一の符号が付してあるものは同一であるので、その説明については省略する。ここでは、相違点についてのみ説明する。   FIG. 10 is a block diagram illustrating an example of a functional configuration of the remote controller 4 according to the second embodiment. In addition, since what has the same code | symbol as FIG. 3 in Embodiment 1 is the same, it abbreviate | omits about the description. Here, only differences will be described.

リモコン4には、実施形態1の構成に加えて、抽出数カウント部57が新たに設けられる。抽出数カウント部57は、仮抽出ルールに合致するコンテンツ数をカウントする。すなわち、ユーザは、抽出ルールの変更前に仮抽出ルールに合致するコンテンツ数を認識できることになる。   In addition to the configuration of the first embodiment, the remote control 4 is newly provided with an extraction number counting unit 57. The extraction number counting unit 57 counts the number of contents that match the temporary extraction rule. That is, the user can recognize the number of contents that match the temporary extraction rule before changing the extraction rule.

図11は、実施形態2に係わるコンテンツ修正指示画面の一例を示す図である。実施形態1における図6と同一の符号が付してあるものは同一であるため、その説明については省略する。ここでは、相違点についてのみ説明する。   FIG. 11 is a diagram illustrating an example of a content correction instruction screen according to the second embodiment. Since the same reference numerals as those in FIG. 6 in the first embodiment are the same, the description thereof is omitted. Here, only differences will be described.

第2の領域27、第3の領域28に表示されたコンテンツ各々(35〜40)に対応付けてコンテンツ抽出数(35a〜40a)が表示されている。コンテンツ抽出数は基本的に、コンテンツが第1の領域26に移動され、その状態で新たに抽出ルールが作成された場合に抽出されるコンテンツの数を示す。ここで、図11に示すように、第1の領域26の領域内でコンテンツ34が選択状態となっている場合、第1の領域26で非選択状態にあるコンテンツ33と、その他領域のコンテンツ各々とにより抽出ルールを作成した場合のコンテンツ抽出数が表示される。例えば、コンテンツ38の場合には、非選択状態にあるコンテンツ33と抽出ルールを作成した場合、第2の領域27に50個のコンテンツが表示されることになる。   Content extraction numbers (35a to 40a) are displayed in association with the contents (35 to 40) displayed in the second area 27 and the third area 28, respectively. The number of content extraction basically indicates the number of content extracted when the content is moved to the first area 26 and a new extraction rule is created in that state. Here, as shown in FIG. 11, when the content 34 is selected in the area of the first area 26, the contents 33 in the non-selected state in the first area 26 and the contents in the other areas, respectively. The number of content extractions when the extraction rule is created is displayed. For example, in the case of the content 38, when the content 33 in the non-selected state and the extraction rule are created, 50 content items are displayed in the second area 27.

次に、図12を用いて、第2の領域27にコンテンツを表示する際の処理の流れについて説明する。   Next, the flow of processing when content is displayed in the second area 27 will be described with reference to FIG.

この処理が開始されると、リモコン4はまず、制御部56において、RAM9等のワーク領域を初期化するとともに、現在の抽出ルールに合致するコンテンツを当該ワーク領域に展開する(ステップS12−1)。例えば、コンテンツ33は、撮影日時:2007年1月1日、GPS情報:フィンランドであり、コンテンツ34は、撮影日時:2007年1月4日、GPS情報:ギリシャであるとする。この場合、現在の抽出ルールは、撮影日時が2007年1月1日〜2007年1月4日でGPS情報がフィンランドかギリシャとなる。   When this process is started, the remote controller 4 first initializes a work area such as the RAM 9 in the control unit 56 and develops content that matches the current extraction rule in the work area (step S12-1). . For example, it is assumed that the content 33 is shooting date and time: January 1, 2007, GPS information: Finland, and the content 34 is shooting date: January 4, 2007, and GPS information: Greece. In this case, the current extraction rule is that the shooting date is January 1, 2007 to January 4, 2007, and the GPS information is Finland or Greece.

次に、リモコン4は、制御部56において、ワーク領域に展開されたコンテンツの中から1つコンテンツを取得する(ステップS12−2)。そして、抽出ルール作成部52において、その取得したコンテンツと、第1の領域26に表示された非選択のコンテンツとから抽出ルールを作成する(ステップS12−3)。例えば、図11に示す一例では、第1の領域26に表示されたコンテンツの内、コンテンツ34が選択された状態になっており、コンテンツ33は非選択となっている。   Next, the remote controller 4 acquires one content from the content expanded in the work area in the control unit 56 (step S12-2). Then, the extraction rule creation unit 52 creates an extraction rule from the acquired content and the non-selected content displayed in the first area 26 (step S12-3). For example, in the example shown in FIG. 11, the content 34 is selected from the content displayed in the first area 26, and the content 33 is not selected.

このようにして抽出ルールが作成されると、リモコン4は、制御部56において、当該作成された抽出ルールと同一の抽出ルールが既に存在しているかチェックする。この判定を行なうのは、同一の抽出ルールに変更させるためのコンテンツが複数表示されるのを防ぐためである。   When the extraction rule is created in this way, the remote controller 4 checks in the control unit 56 whether the same extraction rule as the created extraction rule already exists. This determination is performed in order to prevent a plurality of contents for changing to the same extraction rule from being displayed.

ここで、同一の抽出ルールがなければ(ステップS12−4でNO)、リモコン4は、制御部56において、作成した抽出ルールと、ステップS12−2で取得したコンテンツのサムネールとを対応付けてRAM9等に記憶させる(ステップS12−5)。   If there is no identical extraction rule (NO in step S12-4), the remote controller 4 associates the created extraction rule with the thumbnail of the content acquired in step S12-2 in the control unit 56 in the RAM 9. (Step S12-5).

続いて、リモコン4は、制御部56において、未処理のコンテンツがあるかチェックを行なう。ここで未処理のコンテンツがあれば(ステップS12−7でYES)、再度、ステップS12−2の処理に戻る。一方、全てのコンテンツに対する処理が済んでいれば(ステップS12−7でNO)、リモコン4は、表示処理部55において、ステップS12−5でRAM9等に記憶したコンテンツを第2の領域27に表示させる(ステップS12−8)。通常、第2の領域27には、第1の領域26のコンテンツに基づき作成された抽出ルールに合致するコンテンツが表示されるが、この場合、抽出ルールに合致するコンテンツが全て表示されるわけではない。すなわち、現在の抽出ルールにより抽出されるコンテンツの内、第1の領域26に表示されたコンテンツと入れ替えた場合に、抽出ルールを変更させられるコンテンツだけが表示される。なお、ここでは、第3の領域28へコンテンツを表示する際の処理については触れていないが、この領域に対しての表示処理は、上述した実施形態1同様の方法で行なえる。   Subsequently, the remote controller 4 checks in the control unit 56 whether there is unprocessed content. If there is unprocessed content (YES in step S12-7), the process returns to step S12-2 again. On the other hand, if the processing for all the contents has been completed (NO in step S12-7), the remote controller 4 causes the display processing unit 55 to display the content stored in the RAM 9 or the like in step S12-5 in the second area 27. (Step S12-8). Normally, content that matches the extraction rule created based on the content of the first region 26 is displayed in the second region 27. In this case, not all content that matches the extraction rule is displayed. Absent. That is, only the content whose extraction rule can be changed when it is replaced with the content displayed in the first area 26 among the content extracted by the current extraction rule is displayed. Here, the processing for displaying content in the third area 28 is not described here, but the display processing for this area can be performed in the same manner as in the first embodiment.

次に、図13を用いて、コンテンツ抽出数を表示する際の処理の流れについて説明する。なお、ここでは、図12及び、実施形態1の図7で説明した処理が実施され、第2の領域27及び第3の領域28にコンテンツが既に表示されているものとして説明する。   Next, the flow of processing when displaying the number of extracted contents will be described with reference to FIG. Here, it is assumed that the processing described with reference to FIG. 12 and FIG. 7 of the first embodiment is performed, and content is already displayed in the second area 27 and the third area 28.

この処理が開始されると、リモコン4はまず、制御部56において、RAM9等のワーク領域を初期化するとともに、第1の領域26で非選択状態にあるコンテンツをワーク領域に展開する(ステップS13−1)。例えば、図11に示す一例では、コンテンツ33がワーク領域に読み込まれる。   When this process is started, the remote controller 4 first initializes the work area such as the RAM 9 in the control unit 56 and develops the content in the non-selected state in the first area 26 into the work area (step S13). -1). For example, in the example shown in FIG. 11, the content 33 is read into the work area.

また、リモコン4は、制御部56において、第2の領域27、第3の領域28に表示されたコンテンツを1つワーク領域に展開する(ステップS13−2)。例えば、図11に示す一例では、コンテンツ35、36、37、39・・・を順番に読み込むことになる。   Further, the remote controller 4 expands the content displayed in the second area 27 and the third area 28 into one work area in the control unit 56 (step S13-2). For example, in the example shown in FIG. 11, the contents 35, 36, 37, 39.

ここで、リモコン4は、抽出ルール作成部52において、ステップS13−1でワーク領域に展開した非選択コンテンツと、ステップS13−2でワーク領域に展開したコンテンツとから抽出ルールを作成する(ステップS13−3)。なお、抽出ルールは、上記図5で説明した処理と同様の手順で作成される。例えば、図11に示す一例の場合には、コンテンツ33とコンテンツ(35〜40)各々とから抽出ルールを作成する。例えば、コンテンツ33が撮影日時:2007年1月1日、GPS情報:フィンランドであり、コンテンツ35が撮影日時:2007年1月2日、GPS情報:フィンランドであるとする。この場合、抽出ルールは、撮影日時2007年1月1日〜1月2日、撮影場所:GPS情報:フィンランドになる。   Here, the remote controller 4 uses the extraction rule creating unit 52 to create an extraction rule from the non-selected content expanded in the work area in step S13-1 and the content expanded in the work area in step S13-2 (step S13). -3). The extraction rule is created in the same procedure as the process described with reference to FIG. For example, in the example shown in FIG. 11, an extraction rule is created from the content 33 and each of the content (35-40). For example, it is assumed that the content 33 is shooting date: January 1, 2007, GPS information: Finland, and the content 35 is shooting date: January 2, 2007, GPS information: Finland. In this case, the extraction rule is shooting date: January 1 to January 2, 2007, shooting location: GPS information: Finland.

このようにして抽出ルールを作成すると、リモコン4は、制御部56において、当該作成された抽出ルールを仮抽出ルールとしてRAM9等に記憶させる(ステップS13−4)。そして、全てのコンテンツを処理したか否かチェックし、まだ未処理のコンテンツがあれば(ステップS13−5でNO)、再度、ステップS13−2の処理を実行する。全てのコンテンツ処理済であれば(ステップS13−5でYES)、リモコン4は、抽出数カウント部57において、抽出数カウント処理を実施する(ステップS13−6)。この処理の詳細については後述するが、処理の概要としては、ステップS13−4の処理でRAM9等に記憶した1又は複数の仮抽出ルールに合致するコンテンツ数を導出する。   When the extraction rule is created in this way, the remote controller 4 causes the control unit 56 to store the created extraction rule in the RAM 9 or the like as a temporary extraction rule (step S13-4). Then, it is checked whether or not all contents have been processed. If there is still unprocessed content (NO in step S13-5), the process in step S13-2 is executed again. If all the contents have been processed (YES in step S13-5), the remote controller 4 performs an extraction number counting process in the extraction number counting unit 57 (step S13-6). Although details of this process will be described later, as an outline of the process, the number of contents matching one or more temporary extraction rules stored in the RAM 9 or the like in the process of step S13-4 is derived.

その後、リモコン4は、表示処理部55において、第2の領域27、第3の領域28に表示された各コンテンツに対応付けてコンテンツ抽出数を表示した後(ステップS13−7)、この処理を終了する。例えば、図11に示す一例のように、各コンテンツの直ぐ下の領域等にコンテンツ抽出数を表示する。この場合、第1の領域26のコンテンツ34を入れ替えた場合における各コンテンツのコンテンツ抽出数が表示されている。例えば、コンテンツ35には、コンテンツ33とコンテンツ35に基づき作成された仮抽出ルールに合致するコンテンツ抽出数が対応付けて表示されている。また、各コンテンツに対応付けて表示されたコンテンツ抽出数に基づき各コンテンツがソートされて表示されている。ここで仮に、コンテンツ35を選択し決定すれば、第1の領域26には、コンテンツ33及び35が表示され、第2の領域27には、3個のコンテンツが表示されることになる。   Thereafter, the remote controller 4 displays the number of extracted contents in association with each content displayed in the second area 27 and the third area 28 in the display processing unit 55 (step S13-7), and then performs this process. finish. For example, as in the example shown in FIG. 11, the number of content extractions is displayed in an area immediately below each content. In this case, the content extraction number of each content when the content 34 in the first area 26 is replaced is displayed. For example, the content 35 displays the content 33 and the content extraction number that matches the temporary extraction rule created based on the content 35 in association with each other. In addition, the contents are sorted and displayed based on the number of extracted contents displayed in association with each content. If the content 35 is selected and determined here, the contents 33 and 35 are displayed in the first area 26, and three contents are displayed in the second area 27.

次に、図14を用いて、図13のステップS13−6における抽出数カウント処理の詳細について説明する。   Next, details of the extraction number counting process in step S13-6 in FIG. 13 will be described with reference to FIG.

この処理が開始されると、リモコン4はまず、制御部56において、図13のステップS13−4でRAM9等に記憶された仮抽出ルールを1つ取得する(ステップS14−1)。そして、その取得した仮抽出ルールに合致するコンテンツを検索する(ステップS14−2)。例えば、仮抽出ルールが撮影日:2007年1月1日〜1月2日、GPS情報:フィンランドの緯度経度であれば、当該ルールに該当するコンテンツを検索する。なお、合致するコンテンツの検索場所としては、ローカルであってもよいし、ネットワークを介して接続されたサーバであってもよいし、またネットワークを介して接続されたデジタルカメラの記憶メディアであってもよい。また、プライベート設定等がなされており、自由に検索ができない場合にはその範囲内で検索を行なえばよい。なお、検索場所は、特に上記例示した場所に限られず、インターネット上の特定サーバや特定画像ストレージサービス等であってもよい。   When this process is started, the remote controller 4 first acquires one temporary extraction rule stored in the RAM 9 or the like in step S13-4 of FIG. 13 in the control unit 56 (step S14-1). Then, the content that matches the acquired temporary extraction rule is searched (step S14-2). For example, if the provisional extraction rule is shooting date: January 1 to January 2, 2007, and GPS information: latitude and longitude of Finland, content corresponding to the rule is searched. The search location for the matching content may be local, a server connected via a network, or a storage medium of a digital camera connected via a network. Also good. In addition, when private settings are made and the search cannot be freely performed, the search may be performed within the range. The search location is not particularly limited to the above-exemplified locations, and may be a specific server on the Internet, a specific image storage service, or the like.

合致するコンテンツの検索が終わると、リモコン4は、抽出数カウント部57において、当該合致したコンテンツ数をカウントし、そのカウント数をRAM9等に記憶させる(ステップS14−3)。そして、制御部56において、全ての仮抽出ルールを処理したか否かチェックし、まだ未処理の仮抽出ルールがあれば(ステップS14−4でNO)、再度、ステップS14−1の処理を実行する。全ての仮抽出ルール処理済であれば(ステップS14−4でYES)、リモコン4は、制御部56において、ステップS14−3でRAM9等に記憶したコンテンツを抽出カウント数でソートして、カウント数の少ない順に並べ替える(ステップS14−5)。そして、この処理を終了する。   When the search for matching content is completed, the remote controller 4 causes the extraction number counting unit 57 to count the number of matching content and store the count number in the RAM 9 or the like (step S14-3). Then, the control unit 56 checks whether or not all the temporary extraction rules have been processed. If there is an unprocessed temporary extraction rule (NO in step S14-4), the process of step S14-1 is executed again. To do. If all the temporary extraction rules have been processed (YES in step S14-4), the remote controller 4 sorts the contents stored in the RAM 9 or the like in step S14-3 in the control unit 56 by the extraction count number, and the count number Sort in ascending order (step S14-5). Then, this process ends.

以上のように実施形態2によれば、仮抽出ルールにより抽出されるコンテンツ抽出数を表示する。これにより、実施形態1同様に、メタデータ等の付加情報の付与に際して、その対象となるデータ群を容易に選択できることになる。   As described above, according to the second embodiment, the number of content extractions extracted by the temporary extraction rule is displayed. As a result, as in the first embodiment, when adding additional information such as metadata, the target data group can be easily selected.

なお、実施形態2においては、第1の領域26に表示された非選択コンテンツと他の領域(27、28)に表示されたコンテンツとの仮抽出ルールに基づきコンテンツ抽出数を表示する場合(コンテンツ入替モード)について説明したが、これに限られない。すなわち、第1の領域26に表示されているコンテンツが必ずしも選択されている必要はない。仮に、第1の領域26のコンテンツが何れも選択されていない場合(コンテンツ追加モード)には、第1の領域26のコンテンツ全てと、他の領域(27、28)のコンテンツ各々とにより作成された仮抽出ルールに基づくコンテンツ抽出数を表示すればよい。   In the second embodiment, the number of content extractions is displayed based on the provisional extraction rule between the non-selected content displayed in the first area 26 and the contents displayed in the other areas (27, 28) (contents). The replacement mode) has been described, but is not limited thereto. That is, the content displayed in the first area 26 does not necessarily have to be selected. If none of the contents in the first area 26 is selected (content addition mode), the contents are created by all the contents in the first area 26 and the contents in the other areas (27, 28). What is necessary is just to display the content extraction number based on the temporary extraction rule.

(実施形態3)
次に、実施形態3について説明する。実施形態3においては、現在の抽出ルールと仮抽出ルールとの差分となる抽出ルールを表示する場合について説明する。
(Embodiment 3)
Next, Embodiment 3 will be described. In the third embodiment, a case where an extraction rule that is a difference between the current extraction rule and the temporary extraction rule is displayed will be described.

図15は、実施形態3に係わるリモコン4における機能的な構成の一例を示すブロック図である。なお、実施形態1における図3と同一の符号が付してあるものは同一であるので、その説明については省略する。ここでは、相違点についてのみ説明する。   FIG. 15 is a block diagram illustrating an example of a functional configuration of the remote controller 4 according to the third embodiment. In addition, since what has the same code | symbol as FIG. 3 in Embodiment 1 is the same, it abbreviate | omits about the description. Here, only differences will be described.

リモコン4には、実施形態1の構成に加えて、差分抽出部58が新たに設けられる。差分抽出部58は、現在の抽出ルールと仮抽出ルールとの差分となる抽出ルール(以下、差分ルールと言う)を抽出する。なお、本実施形態においては、差分ルールとして、抽出ルールの差分を表示する場合について説明するが、これに限られない。例えば、現在の抽出ルールに合致するコンテンツ数と、仮抽出ルールに合致するコンテンツ数の差分を表示するようにしてもよい。   The remote controller 4 is newly provided with a difference extraction unit 58 in addition to the configuration of the first embodiment. The difference extraction unit 58 extracts an extraction rule (hereinafter referred to as a difference rule) that is a difference between the current extraction rule and the temporary extraction rule. In the present embodiment, the case where the difference between extraction rules is displayed as the difference rule will be described, but the present invention is not limited to this. For example, the difference between the number of contents matching the current extraction rule and the number of contents matching the temporary extraction rule may be displayed.

図16は、実施形態3に係わるコンテンツ修正指示画面の一例を示す図である。実施形態1における図6と同一の符号が付してあるものは同一であるので、その説明については省略する。ここでは、相違点についてのみ説明する。   FIG. 16 is a diagram illustrating an example of a content correction instruction screen according to the third embodiment. Since the same reference numerals as those in FIG. 6 in the first embodiment are the same, the description thereof is omitted. Here, only differences will be described.

第3の領域28には、コンテンツ(38〜42)が表示され、各コンテンツのサムネール画像の直ぐ下に差分ルール(38a〜42a)が表示されている。差分ルールには、コンテンツが第1の領域26に移動され、その状態で新たに抽出ルールが作成される場合に、現在の抽出ルールとの差分となる抽出ルールが表示される。   Content (38 to 42) is displayed in the third area 28, and the difference rule (38a to 42a) is displayed immediately below the thumbnail image of each content. In the difference rule, when the content is moved to the first area 26 and a new extraction rule is created in that state, an extraction rule that is a difference from the current extraction rule is displayed.

次に、図17を用いて、差分ルールを表示する際の処理の流れについて説明する。なお、ここでは、実施形態1の図7で説明した処理が実施され、第3の領域28にコンテンツが既に表示されているものとして説明する。   Next, the flow of processing when displaying the difference rule will be described with reference to FIG. Here, it is assumed that the processing described in FIG. 7 of the first embodiment is performed and content is already displayed in the third area 28.

この処理が開始されると、リモコン4はまず、制御部56において、RAM9等のワーク領域を初期化するとともに、現在の抽出ルールをワーク領域に展開する(ステップS17−1)。例えば、図16に示す一例の場合には、第1の領域26に表示されたコンテンツ(33、34)に基づく抽出ルールをワーク領域に読み込む。   When this process is started, the remote controller 4 first initializes the work area such as the RAM 9 in the control unit 56 and develops the current extraction rule in the work area (step S17-1). For example, in the case of the example shown in FIG. 16, the extraction rule based on the contents (33, 34) displayed in the first area 26 is read into the work area.

続いて、リモコン4は、制御部56において、現在の抽出ルールに合致しないコンテンツをワーク領域に展開する(ステップS17−2)。例えば、図16に示す一例の場合には、第3の領域28に表示されたコンテンツ(38〜42)をワーク領域に読み込む。なお、ここで読み込むコンテンツは、例えば、読み込み速度等を考慮するならば、ローカルコンテンツのみを読み込んでもよい。   Subsequently, the remote controller 4 causes the control unit 56 to develop content that does not match the current extraction rule in the work area (step S17-2). For example, in the example shown in FIG. 16, the contents (38 to 42) displayed in the third area 28 are read into the work area. Note that the content read here may be a local content only if the reading speed is taken into account, for example.

ここで、リモコン4は、制御部56において、ステップS17−2でワーク領域に展開したコンテンツの中から1つコンテンツを取得し、そのコンテンツから付加情報を読み取る(ステップS17−3)。例えば、そのコンテンツの撮影日、撮影機種、GPS情報、ユーザメタ情報、シャッタースピード、絞りやISO感度、フラッシュのON、OFF、撮影距離、フォーカスエリア、撮影距離等の情報を読み取る。   Here, the remote controller 4 uses the control unit 56 to acquire one content from the content expanded in the work area in step S17-2 and read additional information from the content (step S17-3). For example, information such as the shooting date, shooting model, GPS information, user meta information, shutter speed, aperture and ISO sensitivity, flash ON / OFF, shooting distance, focus area, shooting distance, and the like of the content is read.

コンテンツの読み取りが済むと、リモコン4は、抽出ルール作成部52において、当該取得したコンテンツと、第1の領域26に表示されたコンテンツとから抽出ルールを作成する(ステップS17−4)。なお、抽出ルールは、上記図5で説明した処理と同様の手順で作成される。例えば、図16に示す一例の場合には、まず、第1の領域26のコンテンツ(33、34)と、第3の領域28のコンテンツ38とに基づき抽出ルールを作成する。ここで、コンテンツ33が撮影日:2004年12月12日、撮影機種:XX1であり、コンテンツ34が撮影日:2004年12月12日、撮影機種:XX1、コンテンツ39が撮影日:2005年8月1日、撮影機種:XX1であるとする。この場合、抽出ルールは、撮影日:2004年12月12日か撮影日:2005年8月1日で撮影機種:XX1となる。   When the content is read, the remote controller 4 uses the extraction rule creation unit 52 to create an extraction rule from the acquired content and the content displayed in the first area 26 (step S17-4). The extraction rule is created in the same procedure as the process described with reference to FIG. For example, in the example shown in FIG. 16, first, an extraction rule is created based on the contents (33, 34) in the first area 26 and the contents 38 in the third area 28. Here, the content 33 is the shooting date: December 12, 2004, the shooting model: XX1, the content 34 is the shooting date: December 12, 2004, the shooting model: XX1, and the content 39 is the shooting date: 20058. It is assumed that the shooting model: XX1 on the first day of the month. In this case, the extraction rule is shooting date: December 12, 2004 or shooting date: August 1, 2005, and shooting model: XX1.

続いて、リモコン4は、差分抽出部58において、ステップS17−4で作成した抽出ルールと現在の抽出ルールとの差分を抽出する(ステップS17−5)。抽出する差分としては、例えば、撮影情報や画像特徴情報等があるが、同じ種類のデータであっても値が違うならば、その値を差分として抽出する。また、データ種類が異なるのならば、種類が異なることを差分として抽出する。   Subsequently, the remote controller 4 causes the difference extraction unit 58 to extract a difference between the extraction rule created in step S17-4 and the current extraction rule (step S17-5). The difference to be extracted includes, for example, shooting information, image feature information, and the like, but even if the data is the same type, if the value is different, the value is extracted as the difference. If the data types are different, the fact that the types are different is extracted as a difference.

差分ルールの抽出が済むと、リモコン4は、制御部56において、コンテンツとその差分ルールとを対応付けてRAM9等に記憶させる(ステップS17−6)。続いて、リモコン4は、制御部56において、未処理のコンテンツがあるかチェックを行なう。ここで未処理のコンテンツがあれば(ステップS17−7でYES)、再度、ステップS17−3の処理に戻る。一方、全てのコンテンツに対する処理が済んでいれば(ステップS17−7でNO)、リモコン4は、表示処理部55において、第3の領域28に表示されたコンテンツ(38〜42)に対応付けて差分ルールを表示部7に表示する(ステップS17−8)。その後、この処理は終了する。すなわち、図16に示す一例のように、コンテンツのサムネール画像表示の下に差分データを表示する。   After extracting the difference rule, the remote controller 4 causes the control unit 56 to store the content and the difference rule in the RAM 9 or the like in association with each other (step S17-6). Subsequently, the remote controller 4 checks in the control unit 56 whether there is unprocessed content. If there is unprocessed content (YES in step S17-7), the process returns to step S17-3 again. On the other hand, if all the content has been processed (NO in step S17-7), the remote controller 4 causes the display processing unit 55 to associate the content with the content (38 to 42) displayed in the third area 28. The difference rule is displayed on the display unit 7 (step S17-8). Thereafter, this process ends. That is, as in the example shown in FIG. 16, the difference data is displayed under the thumbnail image display of the content.

以上のように実施形態3によれば、現在の抽出ルールと仮抽出ルールとの差分を表示するため、仮抽出ルールにより変化する抽出条件をユーザに認識させることができる。これにより、実施形態1同様に、メタデータ等の付加情報の付与に際して、その対象となるデータ群を容易に選択できることになる。   As described above, according to the third embodiment, since the difference between the current extraction rule and the temporary extraction rule is displayed, it is possible to make the user recognize the extraction condition that changes according to the temporary extraction rule. As a result, as in the first embodiment, when adding additional information such as metadata, the target data group can be easily selected.

なお、実施形態3においては、第3の領域28に表示されたコンテンツに対して差分ルールを表示していたが、実施形態2のように、第2の領域27に表示されたコンテンツに対しても差分ルールを表示するようにしてもよい。   In the third embodiment, the difference rule is displayed for the content displayed in the third area 28. However, as in the second embodiment, the difference rule is displayed for the content displayed in the second area 27. Alternatively, the difference rule may be displayed.

(実施形態4)
次に、実施形態4について説明する。上述した実施形態1〜3では、第1の領域26へコンテンツを追加又は入れ替える場合について説明したが、実施形態4においては、第1の領域26内のコンテンツを削除(コンテンツ指定(選択)の解除)する場合について説明する。なお、実施形態4に係わるリモコン4における機能的な構成は、実施形態3における図15同様となる。
(Embodiment 4)
Next, Embodiment 4 will be described. In the first to third embodiments described above, the case of adding or replacing content in the first area 26 has been described. However, in the fourth embodiment, the contents in the first area 26 are deleted (content designation (selection) is canceled). ) Will be described. The functional configuration of the remote controller 4 according to the fourth embodiment is the same as that of FIG. 15 in the third embodiment.

図18は、実施形態4に係わるコンテンツ修正指示画面の一例を示す図である。   FIG. 18 is a diagram illustrating an example of a content correction instruction screen according to the fourth embodiment.

44は、削除を指示するためのメニューである。45は、当該指示をキャンセルするためのメニューである。削除メニュー44には、当該削除対象となっているコンテンツが削除される前後において抽出されるコンテンツ数の差分が表示されている。図18に示すコンテンツ修正指示画面では、コンテンツ34を削除した場合、抽出されるコンテンツが20追加される旨表示されている。   Reference numeral 44 denotes a menu for instructing deletion. Reference numeral 45 denotes a menu for canceling the instruction. The deletion menu 44 displays the difference in the number of contents extracted before and after the content to be deleted is deleted. In the content correction instruction screen shown in FIG. 18, when the content 34 is deleted, it is displayed that 20 extracted contents are added.

また、図19は、実施形態4に係わるコンテンツ修正指示画面の別の例を示す図である。図19に示すコンテンツ修正指示画面では、削除メニュー44には、当該削除対象となっているコンテンツが削除される前後において変化する抽出ルールの差分が表示されている。ここで、その変更される抽出ルールでよければ削除メニュー44を選択し、そうでなければキャンセルメニュー45を選択する。   FIG. 19 is a diagram illustrating another example of the content correction instruction screen according to the fourth embodiment. In the content correction instruction screen shown in FIG. 19, the deletion menu 44 displays extraction rule differences that change before and after the content to be deleted is deleted. Here, if the extracted rule to be changed is acceptable, the delete menu 44 is selected, and if not, the cancel menu 45 is selected.

次に、図20を用いて、第1の領域26内のコンテンツを削除する際の処理の流れについて説明する。なお、ここでは、ユーザにより削除対象となる第1の領域26内のコンテンツが選択された後の処理について説明する。   Next, the flow of processing when deleting content in the first area 26 will be described with reference to FIG. Here, a process after the content in the first area 26 to be deleted is selected by the user will be described.

この処理が開始されると、リモコン4はまず、制御部56において、RAM9等のワーク領域を初期化するとともに、現在の抽出ルールをRAM9等のワーク領域に展開する(ステップS20−1)。例えば、図18に示す一例の場合には、コンテンツ(33、34)に基づき作成される抽出ルールが読み込まれる。   When this process is started, the remote controller 4 first initializes the work area such as the RAM 9 in the control unit 56 and develops the current extraction rule in the work area such as the RAM 9 (step S20-1). For example, in the example shown in FIG. 18, an extraction rule created based on the contents (33, 34) is read.

続いて、リモコン4は、制御部56において、第1の領域26で非選択状態にあるコンテンツをワーク領域に展開する(ステップS20−2)。図18に示す一例の場合には、第1の領域26のコンテンツ(33、34)の内、コンテンツ33が非選択状態にあるので、コンテンツ33に基づいて抽出ルールが作成される。   Subsequently, in the control unit 56, the remote controller 4 develops the content that is not selected in the first area 26 in the work area (step S20-2). In the example shown in FIG. 18, the content 33 is in a non-selected state among the contents (33, 34) in the first area 26, so an extraction rule is created based on the content 33.

リモコン4は、抽出ルール作成部52において、ステップS20−2で展開したコンテンツ、すなわち、第1の領域26で非選択状態にあるコンテンツに基づき抽出ルールを作成する(ステップS20−3)。なお、抽出ルールは、上記図5で説明した処理と同様の手順で作成される。   The remote controller 4 uses the extraction rule creation unit 52 to create an extraction rule based on the content developed in step S20-2, that is, the content that is not selected in the first area 26 (step S20-3). The extraction rule is created in the same procedure as the process described with reference to FIG.

ここで、リモコン4は、差分ルールとして、差分となる抽出ルール、差分となるコンテンツ抽出数の何れを削除メニュー44に表示するかにより以降の処理を切り替える。これは、例えば、予め設定された動作設定に基づいて処理が分岐される。差分ルールを表示する場合(ステップS20−4でYES)、リモコン4は、差分抽出部58において、ステップS20−3で作成した抽出ルールと、現在の抽出ルールとの差分を抽出する(ステップS20−5)。そして、表示処理部55において、当該抽出した差分を表示した後(ステップS20−7)、この処理を終了する。この場合、図19に示す削除メニュー44のような表示がなされる。例えば、この場合、コンテンツ(33、34)に基づき作成される抽出ルールが撮影日:2002年〜2003年であり、この状態からコンテンツ34を削除されると、撮影日:2002年3月4に替わることになる。   Here, the remote controller 4 switches the subsequent processing depending on which of the extraction rule that becomes the difference and the content extraction number that becomes the difference is displayed on the deletion menu 44 as the difference rule. For example, the processing is branched based on a preset operation setting. When displaying the difference rule (YES in step S20-4), the remote controller 4 causes the difference extraction unit 58 to extract the difference between the extraction rule created in step S20-3 and the current extraction rule (step S20- 5). Then, after the extracted difference is displayed in the display processing unit 55 (step S20-7), this process is terminated. In this case, a display such as a delete menu 44 shown in FIG. 19 is made. For example, in this case, the extraction rule created based on the contents (33, 34) is the shooting date: 2002-2003. If the content 34 is deleted from this state, the shooting date: March 4, 2002 Will be replaced.

一方、差分コンテンツ抽出数を表示する場合には(ステップS20−4でNO)、リモコン4は、差分抽出部58において、ステップS20−3で作成した抽出ルールに合致するコンテンツ数と、現在の抽出ルールに合致するコンテンツ数とを求める。そして、その求めた結果から夫々のコンテンツ数の差分を求める(ステップS20−6)。このようにして差分コンテンツ抽出数が導出されると、リモコン4は、表示処理部55において、当該抽出した差分を表示する(ステップS20−7)。その後、この処理は終了する。この場合、図18に示す削除メニュー44のような表示がなされる。   On the other hand, when displaying the difference content extraction number (NO in step S20-4), the remote controller 4 causes the difference extraction unit 58 to determine the number of contents that match the extraction rule created in step S20-3 and the current extraction. Find the number of content that matches the rule. And the difference of each content number is calculated | required from the calculated | required result (step S20-6). When the difference content extraction number is derived in this way, the remote controller 4 displays the extracted difference in the display processing unit 55 (step S20-7). Thereafter, this process ends. In this case, a display like a delete menu 44 shown in FIG. 18 is made.

以上のように実施形態4によれば、第1の領域26のコンテンツの削除に際して、その削除により変化する抽出ルールや抽出されるコンテンツ数を表示する。これにより、ユーザは、削除後の変化を確認してからコンテンツを削除することができる。   As described above, according to the fourth embodiment, when the contents in the first area 26 are deleted, the extraction rules that change due to the deletion and the number of extracted contents are displayed. Thereby, the user can delete the content after confirming the change after the deletion.

以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。   The above is an example of a typical embodiment of the present invention, but the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the present invention. .

例えば、上記実施形態においては、静止画データ、特にJPEGデータがコンテンツである場合について説明したが、コンテンツは静止画、動画、また、その圧縮形式等を問わず何でもよい。例えば、コンテンツが動画、TV番組を録画したデータであれば、番組情報の番組名、録画日時、出演者名、番組のジャンル情報等が付加情報となりうる。   For example, in the above-described embodiment, the case where still image data, particularly JPEG data is content, has been described. However, the content may be anything regardless of a still image, a moving image, or a compression format thereof. For example, if the content is data obtained by recording a moving image or a TV program, the program name of the program information, the recording date and time, the performer name, the genre information of the program, and the like can be additional information.

この他、付加情報には、画像内におけるRGB毎の平均値等の情報が含まれていてもよい。RGB毎の平均値等の情報を用いれば、例えば、青い画像が多い海の中の写真や、緑が多い森林の写真等を色により分類することも考えられる。また、画像によってはフォーカスエリア内のRGB毎の平均値等に特定してもよい。レンズ情報によって、望遠系の写真=鳥、モータスポーツ、広角系の写真=風景、マクロレンズ=昆虫、花等に分類できるかもしれない。又はTV番組を録画したデータであれば、番組情報の番組名、録画日時、出演者名、番組のジャンル情報等である。   In addition, the additional information may include information such as an average value for each RGB in the image. If information such as an average value for each RGB is used, for example, it may be possible to classify a photograph of the sea with many blue images, a photograph of a forest with many greens, and the like by color. Depending on the image, the average value for each RGB in the focus area may be specified. Depending on the lens information, it may be possible to classify a telephoto photograph = bird, motor sports, wide-angle photograph = landscape, macro lens = insect, flower, etc. Or if it is the data which recorded TV program, it is the program name of program information, recording date and time, performer name, the genre information of a program, etc.

なお、本発明は、例えば、システム、装置、方法、プログラム若しくは記録媒体等としての実施態様を採ることもできる。具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。すなわち、上述した実施形態1〜4では、リモコン4により本発明を実施していたが、例えば、リモコン4とデジタルTV1とにより本発明を実施するようにしてもよい。例えば、リモコン4の表示部7ではなく、各種表示をデジタルTV1上に表示し、その表示に対する指示をリモコン4上から行なうようにしてもよい。   It should be noted that the present invention can take the form of, for example, a system, apparatus, method, program, or recording medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device. That is, in the first to fourth embodiments described above, the present invention is implemented by the remote controller 4, but the present invention may be implemented by the remote controller 4 and the digital TV 1, for example. For example, instead of the display unit 7 of the remote controller 4, various displays may be displayed on the digital TV 1 and instructions for the display may be given from the remote controller 4.

また、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置に内蔵されたコンピュータが該供給されたプログラムコードを読み出して実行することにより実施形態の機能が達成される場合をも含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。   Further, the present invention achieves the functions of the embodiments by supplying a software program directly or remotely to a system or apparatus, and reading and executing the supplied program code by a computer incorporated in the system or apparatus. This includes cases where In this case, the supplied program is a computer program corresponding to the flowchart shown in the drawings in the embodiment.

したがって、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OS(Operating System)に供給するスクリプトデータ等の形態であってもよい。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention. In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to an OS (Operating System), or the like.

コンピュータプログラムを供給するためのコンピュータ読み取り可能な記録媒体としては以下が挙げられる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などである。   Examples of the computer-readable recording medium for supplying the computer program include the following. For example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD- R).

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記録媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであってもよい。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a client computer browser is used to connect to a homepage on the Internet, and the computer program of the present invention is downloaded from the homepage to a recording medium such as a hard disk. In this case, the downloaded program may be a compressed file including an automatic installation function. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記録媒体に格納してユーザに配布するという形態をとることもできる。この場合、所定の条件をクリアしたユーザに、インターネットを介してホームページから暗号を解く鍵情報をダウンロードさせ、その鍵情報を使用して暗号化されたプログラムを実行し、プログラムをコンピュータにインストールさせるようにもできる。   Further, the program of the present invention may be encrypted, stored in a recording medium such as a CD-ROM, and distributed to users. In this case, a user who has cleared a predetermined condition is allowed to download key information for decryption from a homepage via the Internet, execute an encrypted program using the key information, and install the program on the computer. You can also.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部又は全部を行ない、その処理によって前述した実施形態の機能が実現される。   In addition to the functions of the above-described embodiment being realized by the computer executing the read program, the embodiment of the embodiment is implemented in cooperation with an OS or the like running on the computer based on an instruction of the program. A function may be realized. In this case, the OS or the like performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

更に、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれて前述の実施形態の機能の一部或いは全てが実現されてもよい。この場合、機能拡張ボードや機能拡張ユニットにプログラムが書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU(Central Processing Unit)などが実際の処理の一部又は全部を行なう。   Furthermore, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, so that part or all of the functions of the above-described embodiments are realized. May be. In this case, after a program is written to the function expansion board or function expansion unit, the CPU (Central Processing Unit) provided in the function expansion board or function expansion unit is a part of the actual processing or based on the instructions of the program. Do everything.

本発明の実施の一形態に係わるシステムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the system concerning one Embodiment of this invention. 図1に示すリモコン4のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the remote control 4 shown in FIG. 図1に示すリモコン4における機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a functional structure in the remote control 4 shown in FIG. 図1に示すリモコン4の表示部7に表示されるコンテンツ取り込み画面の一例を示す図である。It is a figure which shows an example of the content acquisition screen displayed on the display part 7 of the remote control 4 shown in FIG. 1又は複数のコンテンツに基づき抽出ルールを作成する際の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process at the time of creating an extraction rule based on 1 or several content. 図1に示すリモコン4の表示部7に表示されるコンテンツ修正指示画面の一例を示す図である。It is a figure which shows an example of the content correction instruction | indication screen displayed on the display part 7 of the remote control 4 shown in FIG. 第3の領域28にコンテンツを表示する際の処理の流れを示すフローチャートである。10 is a flowchart showing a flow of processing when content is displayed in a third region 28. 変更後の抽出ルールを仮抽出ルールとして表示する際の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process at the time of displaying the extraction rule after a change as a temporary extraction rule. 仮抽出ルールの表示態様の一例を示す図である。It is a figure which shows an example of the display mode of a temporary extraction rule. 実施形態2に係わるリモコン4における機能的な構成の一例を示すブロック図である。6 is a block diagram illustrating an example of a functional configuration of a remote controller 4 according to Embodiment 2. FIG. 実施形態2に係わるコンテンツ修正指示画面の一例を示す図である。It is a figure which shows an example of the content correction instruction | indication screen concerning Embodiment 2. FIG. 第2の領域27にコンテンツを表示する際の処理の流れを示すフローチャートである。10 is a flowchart showing a flow of processing when content is displayed in a second area 27. コンテンツ抽出数を表示する際の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process at the time of displaying the number of content extraction. 図13のステップS13−6における抽出数カウント処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the extraction number count process in step S13-6 of FIG. 実施形態3に係わるリモコン4における機能的な構成の一例を示すブロック図である。FIG. 10 is a block diagram illustrating an example of a functional configuration of a remote controller 4 according to a third embodiment. 実施形態3に係わるコンテンツ修正指示画面の一例を示す図である。It is a figure which shows an example of the content correction instruction | indication screen concerning Embodiment 3. FIG. 差分ルールを表示する際の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process at the time of displaying a difference rule. 実施形態4に係わるコンテンツ修正指示画面の一例を示す図である。It is a figure which shows an example of the content correction instruction | indication screen concerning Embodiment 4. FIG. 実施形態4に係わるコンテンツ修正指示画面の別の例を示す図である。It is a figure which shows another example of the content correction instruction | indication screen concerning Embodiment 4. FIG. 第1の領域26内のコンテンツを削除する際の処理の流れを示すフローチャートである。4 is a flowchart showing a flow of processing when deleting content in a first area 26;

符号の説明Explanation of symbols

1 デジタルTV
2 ローカルエリアネットワーク
3 メディアサーバ
4 リモコン
5 システムバス
6 指示入力部
7 表示部
8 CPU
9 RAM
10 ROM
11 フラッシュメモリ
12 無線LAN
51 第1のデータ指定部
52 抽出ルール作成部
53 第2のデータ抽出部
54 第3のデータ抽出部
55 表示処理部
56 制御部
57 抽出数カウント部
58 差分抽出部
1 Digital TV
2 Local Area Network 3 Media Server 4 Remote Control 5 System Bus 6 Instruction Input Unit 7 Display Unit 8 CPU
9 RAM
10 ROM
11 Flash memory 12 Wireless LAN
DESCRIPTION OF SYMBOLS 51 1st data designation part 52 Extraction rule preparation part 53 2nd data extraction part 54 3rd data extraction part 55 Display processing part 56 Control part 57 Extraction number count part 58 Difference extraction part

Claims (14)

データ群から1又は複数のデータを指定する第1のデータ指定手段と、
前記第1のデータ指定手段により指定されたデータに付与されている付加情報に基づいて抽出ルールを作成する作成手段と、
前記作成手段により作成された抽出ルールに基づき前記データ群から1又は複数のデータを抽出する第2のデータ抽出手段と、
前記作成手段により作成された抽出ルールを変更させることのできる付加情報が付与された1又は複数のデータを前記データ群から抽出する第3のデータ抽出手段と
を具備することを特徴とするデータ管理装置。
First data specifying means for specifying one or more data from the data group;
Creating means for creating an extraction rule based on additional information given to the data designated by the first data designating means;
Second data extraction means for extracting one or more data from the data group based on the extraction rules created by the creation means;
And third data extraction means for extracting from the data group one or a plurality of data to which additional information that can change the extraction rule created by the creation means is provided. apparatus.
前記第2のデータ抽出手段により抽出されたデータに対してユーザの指示に基づく付加情報を付与する付与手段
を更に具備することを特徴とする請求項1記載のデータ管理装置。
The data management apparatus according to claim 1, further comprising an adding unit that adds additional information based on a user instruction to the data extracted by the second data extracting unit.
前記第2のデータ抽出手段により抽出されたデータと前記第3のデータ抽出手段により抽出されたデータとを含むデータを画面上に表示させる表示処理手段
を更に具備することを特徴とする請求項1記載のデータ管理装置。
The display processing means for displaying on a screen data including the data extracted by the second data extraction means and the data extracted by the third data extraction means is further provided. The data management device described.
前記表示処理手段は、
前記第1のデータ指定手段により指定されているデータの変更がユーザに指示された場合、該変更前に変更前後の変化を示す情報を画面上に表示させる
ことを特徴とする請求項3記載のデータ管理装置。
The display processing means includes
The information indicating the change before and after the change is displayed on the screen before the change when the user is instructed to change the data specified by the first data specifying means. Data management device.
前記表示処理手段は、
前記変化を示す情報として、前記第1のデータ指定手段により指定されるデータの変更がなされた場合に、前記作成手段により作成される抽出ルールを画面上に表示させる
ことを特徴とする請求項4記載のデータ管理装置。
The display processing means includes
The extraction rule created by the creation means is displayed on the screen when the data designated by the first data designation means is changed as the information indicating the change. The data management device described.
前記表示処理手段は、
前記変化を示す情報として、前記第1のデータ指定手段により指定されるデータの変更がなされた場合に、前記第2のデータ抽出手段により抽出されるデータの数を画面上に表示させる
ことを特徴とする請求項4記載のデータ管理装置。
The display processing means includes
When the data specified by the first data specifying means is changed as the information indicating the change, the number of data extracted by the second data extracting means is displayed on the screen. The data management device according to claim 4.
前記表示処理手段は、
前記変化を示す情報として、前記第1のデータ指定手段により指定されるデータの変更がなされる前後における前記第2のデータ抽出手段により抽出されるデータの数の差分を画面上に表示させる
ことを特徴とする請求項4記載のデータ管理装置。
The display processing means includes
As information indicating the change, a difference in the number of data extracted by the second data extraction unit before and after the data specified by the first data specification unit is changed is displayed on the screen. 5. The data management apparatus according to claim 4, wherein
前記表示処理手段は、
前記変化を示す情報として、前記第1のデータ指定手段により指定されるデータの変更がなされる前後における前記作成手段により作成される抽出ルールの差分を画面上に表示させる
ことを特徴とする請求項4記載のデータ管理装置。
The display processing means includes
The difference between the extraction rules created by the creating means before and after the data designated by the first data designating means is changed is displayed on the screen as the information indicating the change. 4. The data management device according to 4.
前記第1のデータ指定手段は、
前記第2のデータ抽出手段又は前記第3のデータ抽出手段により抽出されたデータのいずれかを既に指定しているデータに追加して指定することにより指定するデータの変更を行なう
ことを特徴とする請求項4乃至8のいずれか1項に記載のデータ管理装置。
The first data specifying means includes
The data to be specified is changed by specifying any of the data extracted by the second data extracting means or the third data extracting means in addition to the already specified data. The data management apparatus according to any one of claims 4 to 8.
前記第1のデータ指定手段は、
既に指定しているデータのいずれかと、前記第2のデータ抽出手段又は前記第3のデータ抽出手段により抽出されたデータのいずれかを入れ替えて指定することにより指定するデータの変更を行なう
ことを特徴とする請求項4乃至8のいずれか1項に記載のデータ管理装置。
The first data specifying means includes
The data to be specified is changed by specifying one of the data that has already been specified and the data extracted by the second data extracting means or the third data extracting means. The data management apparatus according to any one of claims 4 to 8.
前記第1のデータ指定手段は、
既に指定しているデータのいずれかの指定を解除することにより指定するデータの変更を行なう
ことを特徴とする請求項4乃至8のいずれか1項に記載のデータ管理装置。
The first data specifying means includes
The data management apparatus according to any one of claims 4 to 8, wherein the data to be designated is changed by canceling the designation of any data that has already been designated.
前記第3のデータ抽出手段は、
前記作成手段により作成された抽出ルールを変更させることのできる付加情報が付与された1又は複数のデータの抽出に際して、同一の抽出ルールに変更させることのできる付加情報が付与されたデータが複数ある場合には、当該データの中からいずれか1つを抽出する
ことを特徴とする請求項1記載のデータ管理装置。
The third data extraction means includes
When extracting one or more data to which additional information that can change the extraction rule created by the creating means is extracted, there are a plurality of data to which additional information that can be changed to the same extraction rule is provided. In this case, one of the data is extracted from the data.
データ群から指定された1又は複数のデータに付与されている付加情報に基づいて抽出ルールを作成する第1の工程と、
前記第1の工程により作成された抽出ルールに基づき前記データ群から1又は複数のデータを抽出する第2の工程と、
前記第1の工程により作成された抽出ルールを変更させることのできる付加情報が付与された1又は複数のデータを前記データ群から抽出する第3の工程と
を含むことを特徴とするデータ管理方法。
A first step of creating an extraction rule based on additional information given to one or more data designated from the data group;
A second step of extracting one or more data from the data group based on the extraction rule created by the first step;
And a third step of extracting from the data group one or a plurality of data to which additional information that can change the extraction rule created in the first step is added. .
コンピュータを、
データ群から1又は複数のデータを指定する第1のデータ指定手段、
前記第1のデータ指定手段により指定されたデータに付与されている付加情報に基づいて抽出ルールを作成する作成手段、
前記作成手段により作成された抽出ルールに基づき前記データ群から1又は複数のデータを抽出する第2のデータ抽出手段、
前記作成手段により作成された抽出ルールを変更させることのできる付加情報が付与された1又は複数のデータを前記データ群から抽出する第3のデータ抽出手段
として機能させるためのプログラム。
Computer
First data designating means for designating one or more data from the data group;
Creating means for creating an extraction rule based on additional information given to the data designated by the first data designating means;
Second data extraction means for extracting one or more data from the data group based on the extraction rule created by the creation means;
The program for functioning as a 3rd data extraction means which extracts the 1 or several data to which the additional information which can change the extraction rule produced by the said creation means was provided from the said data group.
JP2008109540A 2008-04-18 2008-04-18 Data management device, method, and program Withdrawn JP2009259121A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008109540A JP2009259121A (en) 2008-04-18 2008-04-18 Data management device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008109540A JP2009259121A (en) 2008-04-18 2008-04-18 Data management device, method, and program

Publications (1)

Publication Number Publication Date
JP2009259121A true JP2009259121A (en) 2009-11-05

Family

ID=41386442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008109540A Withdrawn JP2009259121A (en) 2008-04-18 2008-04-18 Data management device, method, and program

Country Status (1)

Country Link
JP (1) JP2009259121A (en)

Similar Documents

Publication Publication Date Title
CN100429660C (en) Information processing apparatus and method, and program used therewith
JP4478513B2 (en) Digital camera, digital camera control method, program, and recording medium storing the same
JP4458040B2 (en) Image storage device and program
KR101475939B1 (en) Method of controlling image processing apparatus, image processing apparatus and image file
JP5478999B2 (en) Imaging device
JP5178392B2 (en) Information processing apparatus and information processing apparatus control method
JP6223534B2 (en) Imaging device, imaging method, and imaging control program
US20050110879A1 (en) Image taking apparatus, image processing apparatus, and image processing program
US7675553B2 (en) Image transfer apparatus, control method, program, and storage medium
JP4565617B2 (en) Image recording apparatus and control method thereof
JP2003281163A (en) Image processor, image processing method and storage medium
JP2001344591A (en) Method for controlling and display image and device for the same and recording medium
JP2007133838A (en) Image display method and image display program
JP4587178B2 (en) Imaging apparatus and imaging method
JP2004229070A (en) File classification device, file classification program, digital camera, and file classification system
JP4327340B2 (en) Image processing apparatus and image search output method
JP2003091715A (en) Image processing device and method, recording medium, and program
JP2009259121A (en) Data management device, method, and program
JP2005244614A (en) Electronic camera device and recording medium
JP2004062216A (en) Method and device for data filing, storage medium, and program
JP2004363831A (en) Apparatus and method for moving picture processing
JP2003091545A (en) Image processing device and method, recording medium and program
JP2005109760A (en) Apparatus and method of storing image
JP4561358B2 (en) Electronic album creation apparatus and electronic album creation system
JP2005184332A (en) File management system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110705