JP6206534B2 - Information processing system, information processing apparatus, information processing method, and information processing program - Google Patents

Information processing system, information processing apparatus, information processing method, and information processing program Download PDF

Info

Publication number
JP6206534B2
JP6206534B2 JP2016097632A JP2016097632A JP6206534B2 JP 6206534 B2 JP6206534 B2 JP 6206534B2 JP 2016097632 A JP2016097632 A JP 2016097632A JP 2016097632 A JP2016097632 A JP 2016097632A JP 6206534 B2 JP6206534 B2 JP 6206534B2
Authority
JP
Japan
Prior art keywords
information
data
search key
search
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016097632A
Other languages
Japanese (ja)
Other versions
JP2016177827A (en
Inventor
武資 森本
武資 森本
真吾 西岡
真吾 西岡
鈴木 健太郎
健太郎 鈴木
大介 牧
大介 牧
大屋 誠
誠 大屋
将幸 根本
将幸 根本
Original Assignee
株式会社メルコホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メルコホールディングス filed Critical 株式会社メルコホールディングス
Priority to JP2016097632A priority Critical patent/JP6206534B2/en
Publication of JP2016177827A publication Critical patent/JP2016177827A/en
Application granted granted Critical
Publication of JP6206534B2 publication Critical patent/JP6206534B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、例えば画像ファイルの閲覧、管理等を行う情報処理システム、及びこのシステムに適用可能な情報処理装置、情報処理方法及び情報処理プログラムに関する。   The present invention relates to an information processing system for browsing and managing image files, for example, and an information processing apparatus, an information processing method, and an information processing program applicable to the system.

デジタルスチルカメラ、デジタルビデオカメラ、デジタルオーディオプレーヤー、さらには地上デジタルテレビ放送等の放送波を受信して録画する録画装置の普及により、家庭において大量の画像ファイル、音楽ファイル、動画ファイル、番組ファイルを保管し、管理して閲覧・聴取・視聴する機会が増えている。   With the spread of digital still cameras, digital video cameras, digital audio players, and recording devices that receive and record broadcast waves such as digital terrestrial television broadcasts, a large number of image files, music files, video files, and program files can be Opportunities for storage, management, browsing, listening and viewing are increasing.

デジタルスチルカメラにより撮像されて作成された画像ファイルには、Exif(Exchangeable image file format)規格により定められた形式で撮影日時、GPS(Global Positioning System)情報などの情報が格納されることがある。また、音楽ファイルには、ID3タグ規格により定められた形式で曲名、アーティスト名、リリース年月日などの情報が格納されることがある。さらに、日本の地上デジタルテレビ放送波であればISDB−T(Integrated Services Digital Broadcasting-Terrestrial)規格により各種情報が重畳されて放送されるので、重畳された情報を、地上デジタルテレビ放送波を録画した番組ファイルに格納することができる。従って、デジタルスチルカメラ等において、画像ファイル等に格納された情報(上述した各種情報を含めて「タグ情報」と総称する)を用いて画像ファイル等を管理することが可能である。   An image file created by taking an image with a digital still camera may store information such as shooting date and time, GPS (Global Positioning System) information, and the like in a format defined by the Exif (Exchangeable image file format) standard. The music file may store information such as a song name, an artist name, and a release date in a format defined by the ID3 tag standard. Furthermore, in the case of a Japanese terrestrial digital TV broadcast wave, various information is broadcast in accordance with the ISDB-T (Integrated Services Digital Broadcasting-Terrestrial) standard. It can be stored in a program file. Therefore, in a digital still camera or the like, it is possible to manage the image file or the like using information stored in the image file or the like (collectively referred to as “tag information” including the various information described above).

非特許文献1には、デジタルスチルカメラの内蔵メモリに格納された写真ファイルに対して、カメラ側で予め用意した撮影日付、撮影モード等の検索キーを用いて検索動作を行い、検索結果の候補画像のサムネイルを液晶モニタに表示する技術が開示されている。   In Non-Patent Document 1, a search operation is performed on a photo file stored in a built-in memory of a digital still camera using a search key such as a shooting date and a shooting mode prepared in advance on the camera side, and search result candidates A technique for displaying thumbnails of images on a liquid crystal monitor is disclosed.

「おまかせテクノロジー|μTOUGH-6020|コンパクトデジタルカメラ|オリンパスイメージング」、[平成24年8月31日検索]、インターネット〈URL:http://olympus-imaging.jp/product/compact/mjutough6020/feature/index3.html〉“Omakase Technology | μTOUGH-6020 | Compact Digital Camera | Olympus Imaging” [Search August 31, 2012], Internet <URL: http://olympus-imaging.jp/product/compact/mjutough6020/feature/index3 .html>

しかしながら、上述した従来の技術では、デジタルスチルカメラの製品機能として予め用意されている撮影日付等の検索キーを用いて画像ファイルを検索し、検索結果として抽出された候補画像のサムネイルをデジタルスチルカメラの液晶モニタに表示しているので、例えばユーザが注目する画像ファイルを発見することや、この画像ファイルに付与されているタグ情報に関連するタグ情報が付与された画像ファイルを検索することが簡便にできなかった。つまり、従来の技術では、検索して閲覧を希望する画像ファイルのタグ情報(例えば何月何日に撮影した画像ファイル)をユーザが事前に特定しておく必要があるので、注目する画像ファイルをキーにしてこの画像ファイルに関連する画像ファイル(例えば、注目する画像ファイルと同じ日時に撮影された画像ファイル)を検索するためには、注目する画像ファイルに付与されたタグ情報を別途入手し、このタグ情報を用いて改めて検索作業をする必要があった。かかる作業はユーザにとって手間のかかる作業であった。   However, in the above-described conventional technology, an image file is searched using a search key such as a shooting date prepared in advance as a product function of a digital still camera, and thumbnails of candidate images extracted as search results are displayed on the digital still camera. For example, it is easy to find an image file that the user is interested in, or to search for an image file to which tag information related to tag information given to this image file is added. I could n’t. In other words, in the conventional technique, the user needs to specify in advance tag information (for example, an image file taken on what day of the month) of an image file to be searched and browsed. To search for an image file related to this image file as a key (for example, an image file shot at the same date and time as the image file of interest), separately obtain tag information attached to the image file of interest, It was necessary to search again using this tag information. Such work is time-consuming work for the user.

本発明は上述した課題に鑑みてなされたものであり、関連するデータを簡便に検索することの可能な情報処理システム、情報処理装置、情報処理方法及び情報処理プログラムを提供することをその目的の一つとしている。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an information processing system, an information processing apparatus, an information processing method, and an information processing program capable of easily searching for related data. It is one.

本発明は、データが格納された記憶部を備えた情報処理装置と、この情報処理装置から出力された情報を表示する出力部と、入力指示を受け付けてこの入力指示に対応する入力指示信号を情報処理装置に送出する入力部とを備えた情報処理システムに適用される。そして、情報処理装置に、記憶部に格納されたデータまたはこのデータを示すインデックスの少なくとも一つを出力部により表示させ、出力部により表示されたデータまたはこのデータを示すインデックスのうち少なくとも一つが選択されたことに伴う入力部からのデータ選択信号を受信すると、選択されたデータを特定するファイル選択部と、ファイル選択部により特定されたデータに関連する情報を取得する情報取得部と、情報取得部により取得された、互いに異なる複数の情報を使用して、これら取得情報を抽象化した検索キーを少なくとも一つ生成する検索キー生成部と、検索キー生成部により生成された検索キーの少なくとも一つにより記憶部内のデータを検索し、検索結果となるデータまたはこのデータを示すインデックスの少なくとも一つを出力部に表示させるデータ検索部とを設けることにより、上述した課題を解決している。
The present invention relates to an information processing apparatus including a storage unit in which data is stored, an output unit that displays information output from the information processing apparatus, and an input instruction signal that receives an input instruction and corresponds to the input instruction. The present invention is applied to an information processing system including an input unit that transmits to an information processing device. Then, the information processing apparatus causes the output unit to display at least one of the data stored in the storage unit or the index indicating the data, and at least one of the data displayed by the output unit or the index indicating the data is selected. When a data selection signal is received from the input unit associated with the data selection, a file selection unit that specifies the selected data, an information acquisition unit that acquires information related to the data specified by the file selection unit, and information acquisition obtained by section, by using a plurality of different information from each other, this at least one generation to the search key generating unit a search key for these acquired information abstraction, the search key generated by the search key generator At least one of the data in the storage unit is searched, and the search result data or the index indicating this data is small. By providing the data retrieval unit to be displayed on the output section of one Kutomo solves the problems described above.

検索キー生成部は、情報取得部により取得された、互いに異なる複数の情報を使用して、これら取得情報を抽象化した検索キーを少なくとも一つ生成し、データ検索部は、検索キーにより生成された検索キーの少なくとも一つにより記憶部内のデータを検索し、検索結果となるデータまたはこのデータを示すインデックスの少なくとも一つを出力部に表示させている。これにより、データに関連する情報をユーザが予め特定することなくデータを検索することができる。
The search key generation unit uses at least one piece of information acquired by the information acquisition unit to generate at least one search key that abstracts the acquired information , and the data search unit is generated by the search key. Data in the storage unit is searched using at least one of the search keys, and at least one of the search result data or an index indicating this data is displayed on the output unit. Thereby, data can be searched without a user specifying information related to data in advance.

また、本発明は、データが格納された記憶部を備えた情報処理装置に適用される。そして、記憶部に格納されたデータまたはこのデータを示すインデックスの少なくとも一つを提示し、提示されたデータまたはこのデータを示すインデックスのうち少なくとも一つの選択を受け入れるファイル選択部と、ファイル選択部により選択を受け入れたデータに関連する情報を取得する情報取得部と、情報取得部により取得された、互いに異なる複数の情報を使用して、これら取得情報を抽象化した検索キーを少なくとも一つ生成する検索キー生成部と、検索キー生成部により生成された検索キーの少なくとも一つにより記憶部内のデータを検索し、検索結果となるデータまたはこのデータを示すインデックスの少なくとも一つを提示するデータ検索部とを設けることにより、上述した課題を解決している。
The present invention is also applied to an information processing apparatus including a storage unit that stores data. A file selection unit that presents at least one of data stored in the storage unit or an index indicating the data, and accepts selection of at least one of the presented data or the index indicating the data, and a file selection unit at least one information acquisition unit that acquires information related to accept the selected data, acquired by the information acquisition unit, by using a plurality of different information with each other, the search key abstraction of these obtained information Data that searches the data in the storage unit by at least one of the search key generation unit to be generated and the search key generated by the search key generation unit, and presents at least one of the search result data or an index indicating this data By providing the search unit, the above-described problems are solved.

ここで、データが画像データまたは動画データである場合、検索キー生成部は、検索キーを生成するための情報として、データが撮影された日時を示す撮影日時情報、データが撮影されたときに撮像装置が所在する位置を示す位置情報、及びデータ内に含まれる被写体の顔認識を行って被写体を特定するための顔認識情報の少なくとも二つを使用することが好ましい。また、検索キー生成部は、撮影日時情報及び顔認識情報を使用して、これら取得情報を抽象化した結果として被写体の誕生日に関する検索キーを生成することが好ましい。
さらに、情報取得部により取得された情報に数値情報が含まれる場合、検索キー生成部は、数値情報である取得情報の一部または数値情報の範囲の少なくとも一方を表す検索キーを生成することが好ましい。さらに、検索キー生成部は、生成した前記検索キーに対して所定の範囲を設定し、検索キーに対して設定した所定の範囲についても検索可能とすることが好ましい。さらに、データ検索部は、検索結果となる前記データに対して、前記検索キー生成部が予め定めた前記検索キーを用いて絞り込み検索を行うことが好ましい。
また、検索キー生成部は生成した検索キーを提示し、データ検索部は、検索キー生成部により提示された検索キーの少なくとも一つの選択を受け入れ、選択を受け入れた検索キーにより記憶部内のデータを検索することが好ましい。
Here, when the data is image data or moving image data, the search key generation unit captures, as information for generating the search key, shooting date / time information indicating the date / time when the data was shot, when the data was shot It is preferable to use at least two of position information indicating a position where the device is located and face recognition information for performing face recognition of the subject included in the data to identify the subject. The search key generation unit preferably uses the shooting date / time information and the face recognition information to generate a search key related to the birthday of the subject as a result of abstracting the acquired information.
Further, when the information acquired by the information acquisition unit includes numerical information, the search key generation unit may generate a search key that represents at least one of a part of the acquisition information that is numerical information or a range of the numerical information. preferable. Further, it is preferable that the search key generation unit sets a predetermined range for the generated search key, and enables a search for the predetermined range set for the search key. Furthermore, it is preferable that the data search unit performs a narrowing search on the data that is a search result using the search key predetermined by the search key generation unit.
The search key generation unit presents the generated search key, and the data search unit accepts at least one selection of the search key presented by the search key generation unit, and the search key that accepts the selection stores the data in the storage unit. It is preferable to search.

また、情報取得部により取得された情報には数値情報が含まれる場合は、検索キー生成部は、数値情報である取得情報の範囲を表す検索キーを生成することが好ましい。
さらに、検索キー生成部は、数値情報である取得情報の一部または数値情報の範囲の少なくとも一方を表す検索キーを生成し、データ検索部は、検索キー生成部が生成した、数値情報である取得情報の範囲を表す検索キーを用いて、この取得情報の範囲を複数の小範囲に区分し、この小範囲内に該当するデータから検索結果として抽出するデータの個数を定めて検索をすることが好ましい。さらに、データ検索部は、情報取得部により取得された数値情報に近いほど小範囲を小さく区分するか、または、抽出するデータの個数を多くするかの少なくとも一方により検索をすることが好ましい。
In addition, when the information acquired by the information acquisition unit includes numerical information, it is preferable that the search key generation unit generates a search key that represents a range of acquired information that is numerical information.
Further, the search key generation unit generates a search key that represents at least one of a part of the acquired information that is numerical information or the range of the numerical information, and the data search unit is the numerical information generated by the search key generation unit. Using a search key that represents the range of acquired information, divide the range of acquired information into a plurality of small ranges, and perform a search by determining the number of data to be extracted as search results from the corresponding data within the small range Is preferred. Furthermore, it is preferable that the data search unit performs a search by at least one of dividing a small range smaller as the numerical information acquired by the information acquisition unit is closer, or increasing the number of data to be extracted.

さらに情報取得部は、データに予め付与されたタグを情報として取得することが好ましい。あるいは、情報取得部は、データのID番号をキーとして外部サーバを参照し、メタ情報を情報として取得することが好ましい。
Furthermore , it is preferable that the information acquisition unit acquires a tag previously assigned to the data as information. Or it is preferable that an information acquisition part acquires meta information as information with reference to an external server by using the ID number of data as a key.

さらに、データ検索部は、検索キー生成部により提示された検索キーの複数の選択を受け入れ、選択を受け入れた複数の検索キーの検索結果の和集合または積集合、または検索結果の和集合または積集合の組み合わせであるデータの少なくとも一つを提示することが好ましい
Further, the data search unit accepts a plurality of selections of search keys presented by the search key generation unit, and a union or product set of search results of a plurality of search keys that have accepted the selection, or a union or product of search results. It is preferable to present at least one piece of data that is a combination of sets .

そして、ファイル選択部は、記憶部に格納されたデータのうち少なくとも一部のデータについて関連する情報を取得した後、情報を取得したデータまたはこのデータを示すインデックスの少なくとも一部を提示し、このとき、提示されたデータまたはインデックスの少なくとも一部は関連する情報が互いに異なることが好ましい。   Then, the file selection unit obtains information related to at least a part of the data stored in the storage unit, and then presents at least a part of the data from which the information is obtained or an index indicating the data. Sometimes it is preferred that at least some of the presented data or indexes have different related information.

また、本発明は、データが格納された記憶部と制御部とを備えた情報処理装置における情報処理方法に適用される。そして、制御部に、記憶部に格納されたデータまたはこのデータを示すインデックスの少なくとも一つを提示し、提示されたデータまたはこのデータを示すインデックスのうち少なくとも一つの選択を受け入れるステップと、選択を受け入れたデータに関連する情報を取得するステップと、取得された、互いに異なる複数の情報を使用して、これら取得情報を抽象化した検索キーを少なくとも一つ生成するステップと、生成した検索キーの少なくとも一つにより記憶部内のデータを検索し、検索結果となるデータまたはこのデータを示すインデックスの少なくとも一つを提示するステップとを実行させることにより、上述した課題を解決している。
The present invention is also applied to an information processing method in an information processing apparatus including a storage unit storing data and a control unit . Then, presenting at least one of data stored in the storage unit or an index indicating the data to the control unit, and accepting selection of at least one of the presented data or the index indicating the data, and selecting acquiring information related to receiving data, which is acquired, by using a plurality of different information to each other, comprising the steps of: generate at least one search key abstraction of these acquired information to generate search searching the data in the storage unit by at least one key, by Rukoto to execute the steps of presenting at least one index indicating the data or the data as a search result, have solved the above problems.

さらに、本発明は、データが格納された記憶部と制御部とを備えたコンピュータにおいて実行される情報処理プログラムに適用される。そして、このプログラムがコンピュータにより実行されると、制御部に、記憶部に格納されたデータまたはこのデータを示すインデックスの少なくとも一つを提示し、提示されたデータまたはこのデータを示すインデックスのうち少なくとも一つの選択を受け入れるステップと、選択を受け入れたデータに関連する情報を取得するステップと、取得された、互いに異なる複数の情報を使用して、これら取得情報を抽象化した検索キーを少なくとも一つ生成するステップと、生成した検索キーの少なくとも一つにより記憶部内のデータを検索し、検索結果となるデータまたはこのデータを示すインデックスの少なくとも一つを提示するステップとを実行させることにより、上述した課題を解決している。 Furthermore, the present invention is applied to an information processing program executed on a computer including a storage unit storing data and a control unit . When the program is executed by the computer, the control unit presents at least one of data stored in the storage unit or an index indicating the data, and at least of the presented data or the index indicating the data. a step of accepting a single selection, obtaining information related to accept the selected data, which is acquired, by using a plurality of different information with each other, the search key abstraction of these acquired information at least comprising the steps of one product, it searches the data in the storage unit by at least one of the generated search key, the Rukoto to execute the steps of presenting at least one index indicating the data or the data as the search results The problem described above is solved.

本発明によれば、取得情報を抽象化した検索キーを少なくとも一つ生成し、生成した検索キーによって記憶部内のデータを検索して表示しているので、検索表示を希望する検索キーをユーザが予め特定することなく、データに関連する他のデータを簡便に検索することができる。   According to the present invention, at least one search key that abstracts the acquired information is generated, and the data in the storage unit is searched and displayed using the generated search key. Other data related to the data can be easily searched without specifying in advance.

本発明の第1実施形態である情報処理システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the information processing system which is 1st Embodiment of this invention. 第1実施形態に用いられる画像ファイルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the image file used for 1st Embodiment. 第1実施形態である情報処理システムの機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムにおいて表示される初期画面の一例を示す図である。It is a figure which shows an example of the initial screen displayed in the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムにおいて表示される選択画面の一例を示す図である。It is a figure which shows an example of the selection screen displayed in the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムにおいて表示される検索キー表示画面の一例を示す図である。It is a figure which shows an example of the search key display screen displayed in the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムにおいて表示される検索表示画面の一例を示す図である。It is a figure which shows an example of the search display screen displayed in the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムにおいて表示されるタイムライン画面の一例を示す図である。It is a figure which shows an example of the timeline screen displayed in the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムにおいて表示される検索キー絞り込み画面の一例を示す図である。It is a figure which shows an example of the search key narrowing down screen displayed in the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムにおいて表示される検索キー追加画面の一例を示す図である。It is a figure which shows an example of the search key addition screen displayed in the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムにおいて表示される検索キー追加画面の他の例を示す図である。It is a figure which shows the other example of the search key addition screen displayed in the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムに用いられるシソーラスの一例を示す図である。It is a figure which shows an example of the thesaurus used for the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムにおけるタグ情報と検索キーとの関係の一例を示す図である。It is a figure which shows an example of the relationship between tag information and a search key in the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムにおけるタグ情報と検索キーとの関係の他の例を示す図である。It is a figure which shows the other example of the relationship between the tag information and search key in the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムの動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of operation | movement of the information processing system which is 1st Embodiment. 第1実施形態である情報処理システムの動作の他の例を説明するためのフローチャートである。It is a flowchart for demonstrating the other example of operation | movement of the information processing system which is 1st Embodiment. 本発明の第2実施形態である情報処理システムに用いられる音楽ファイルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the music file used for the information processing system which is 2nd Embodiment of this invention. 本発明の第3実施形態である情報処理システムに用いられる番組ファイルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the program file used for the information processing system which is 3rd Embodiment of this invention. 本発明の第4実施形態である情報処理システムにおいて表示される初期画面の一例を示す図である。It is a figure which shows an example of the initial screen displayed in the information processing system which is 4th Embodiment of this invention. 第4実施形態である情報処理システムにおいて表示される検索表示画面の一例を示す図である。It is a figure which shows an example of the search display screen displayed in the information processing system which is 4th Embodiment. 第4実施形態である情報処理システムにおいて表示される検索絞り込み表示画面の一例を示す図である。It is a figure which shows an example of the search narrowing display screen displayed in the information processing system which is 4th Embodiment. 第4実施形態である情報処理システムにおける検索範囲の区分の一例を示す図である。It is a figure which shows an example of the division of the search range in the information processing system which is 4th Embodiment. 第4実施形態である情報処理システムにおける検索範囲の区分の他の例を示す図である。It is a figure which shows the other example of the division of the search range in the information processing system which is 4th Embodiment. 第4実施形態である情報処理システムにおける検索範囲の区分のまた他の例を示す図である。It is a figure which shows the other example of the division of the search range in the information processing system which is 4th Embodiment. 第4実施形態である情報処理システムにおいて検索されるデータの頻度の一例を示す図である。It is a figure which shows an example of the frequency of the data searched in the information processing system which is 4th Embodiment. 第4実施形態である情報処理システムにおける検索範囲の区分のさらにまた他の例を示す図である。It is a figure which shows the further another example of the division of the search range in the information processing system which is 4th Embodiment. 第4実施形態である情報処理システムにおいて表示される検索絞り込み表示画面の他の例を示す図である。It is a figure which shows the other example of the search narrowing-down display screen displayed in the information processing system which is 4th Embodiment.

以下、図面を参照して、本発明の実施形態である情報処理装置について説明する。
(第1実施形態)
図1は、本発明の第1実施形態である情報処理システムの概略構成を示すブロック図である。図1において、本実施形態の情報処理システムSは情報処理装置1を備え、この情報処理装置1は、CPU(Central Processing Unit)2、ROM(Read Only Memory)3、RAM(Random Access Memory)4、入力部5、HDMI(High-Definition Multimedia Interface)インタフェース(I/F)6、ネットワークインタフェース(I/F)7及びHDD(Hard Disk Drive)部8を備えており、これらはバスにより互いに接続されている。
Hereinafter, an information processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of an information processing system according to the first embodiment of the present invention. In FIG. 1, the information processing system S of this embodiment includes an information processing apparatus 1, which includes a central processing unit (CPU) 2, a read only memory (ROM) 3, and a random access memory (RAM) 4. , An input unit 5, an HDMI (High-Definition Multimedia Interface) interface (I / F) 6, a network interface (I / F) 7, and an HDD (Hard Disk Drive) unit 8, which are connected to each other by a bus. ing.

CPU2は、後述するROM3内に格納されたファームウェア等のプログラムが実行されることにより、情報処理装置1全体の制御を行う。ROM3には、ファームウェア等のプログラムが格納され、このプログラムが情報処理装置1の起動時に読み出され、RAM4において展開された後で実行されることで、CPU2による情報処理装置1全体の制御が行われる。   The CPU 2 controls the entire information processing apparatus 1 by executing a program such as firmware stored in the ROM 3 described later. The ROM 3 stores a program such as firmware, and this program is read when the information processing apparatus 1 is started up, and is executed after being expanded in the RAM 4 so that the CPU 2 controls the entire information processing apparatus 1. Is called.

RAM4は情報処理装置1のワークメモリとして機能し、CPU2を含めた情報処理装置1の動作時に一時的に使用されるプログラム、データ等が格納される。また、このRAM4には、この情報処理装置1の使用者(ユーザ)及びその家族等に関する個人情報4aがテーブル化されて格納されている。個人情報4aは、例えば使用者及びその家族の誕生日、結婚記念日等の記念日、使用者及び家族の被写体を特定するための情報などである。   The RAM 4 functions as a work memory of the information processing apparatus 1 and stores programs, data, and the like that are temporarily used when the information processing apparatus 1 including the CPU 2 operates. The RAM 4 stores personal information 4a relating to the user (user) of the information processing apparatus 1 and his / her family in a table. The personal information 4a is, for example, an anniversary date such as a birthday of the user and his family, a wedding anniversary date, information for specifying subjects of the user and family, and the like.

入力部5は、入力インタフェース(I/F)5a、入力指示部5b、カードインタフェース(I/F)5c及びUSB(Universal Serial Bus)インタフェース(I/F)5dを備える。入力インタフェース5aには入力指示部5b及び入力機器12が接続され、ユーザが入力指示部5bまたは入力機器12を操作することにより入力される入力信号を受信する。入力指示部5bとしては、例えば画像取り込み指示ボタン等が挙げられ、また、入力機器12としては、例えばリモコン、キーボード、マウス等が挙げられる。カードインタフェース5cはカードスロット(図略)を備え、このカードスロットに挿入されたメモリーカード13に対してデータの読み出し/書き込みを行う。メモリーカード13の形式に限定はなく、一例としてmini、microを含むSDメモリーカード、メモリースティック(登録商標)が好適に挙げられる。USBインタフェース5dはUSBコネクタ(図略)を備え、このUSBコネクタに直接、あるいはUSBケーブル(図略)を介して接続されたUSB機器14に対してデータの読み出し/書き込みを行う。USB機器14としては、USBフラッシュメモリ、USBコネクタを備えたデジタルカメラ等が挙げられる。   The input unit 5 includes an input interface (I / F) 5a, an input instruction unit 5b, a card interface (I / F) 5c, and a USB (Universal Serial Bus) interface (I / F) 5d. An input instruction unit 5b and an input device 12 are connected to the input interface 5a, and an input signal input by the user operating the input instruction unit 5b or the input device 12 is received. Examples of the input instruction unit 5b include an image capture instruction button, and examples of the input device 12 include a remote controller, a keyboard, and a mouse. The card interface 5c includes a card slot (not shown), and reads / writes data from / to the memory card 13 inserted in the card slot. The format of the memory card 13 is not limited, and examples thereof include an SD memory card including mini and micro, and a Memory Stick (registered trademark). The USB interface 5d includes a USB connector (not shown), and reads / writes data from / to the USB device 14 connected to the USB connector directly or via a USB cable (not shown). Examples of the USB device 14 include a USB flash memory and a digital camera equipped with a USB connector.

HDMIインタフェース6はHDMIコネクタ(図略)を備え、このHDMIコネクタにHDMIケーブル(図略)を介して接続されたHDMI出力機器15に対してAVストリーム(映像信号及び音声信号)を出力する。HDMI出力機器15としては、例えばTVやモニタ等が挙げられる。ネットワークインタフェース7はネットワークコネクタ(図略)を備え、このネットワークコネクタにネットワークケーブル(図略)を介してルータ16が接続され、このルータ16がインターネット等のWAN(Wide Area Network)17に接続されることで、外部ネットワークとの間でデータの送受信がされる。このネットワークインタフェース7は、例えばIEEE(The Institute of Electrical and Electronics Engineers, Inc.)802.3規格に基づく有線通信を行うものである。あるいは、ネットワークインタフェース7は、IEEE802.11規格に基づく無線通信を行うものであってもよく、あるいは、有線/無線通信のいずれも行うものであってもよい。   The HDMI interface 6 includes an HDMI connector (not shown), and outputs an AV stream (video signal and audio signal) to the HDMI output device 15 connected to the HDMI connector via an HDMI cable (not shown). Examples of the HDMI output device 15 include a TV and a monitor. The network interface 7 includes a network connector (not shown), a router 16 is connected to the network connector via a network cable (not shown), and the router 16 is connected to a WAN (Wide Area Network) 17 such as the Internet. Thus, data is transmitted to and received from the external network. The network interface 7 performs wired communication based on, for example, IEEE (The Institute of Electrical and Electronics Engineers, Inc.) 802.3 standard. Alternatively, the network interface 7 may perform wireless communication based on the IEEE 802.11 standard, or may perform both wired / wireless communication.

HDD部8は、HDD(HDD装置)8aとHDDインタフェース(I/F)8bとを備える。HDD8aは、記録媒体であるディスクと、このディスクの回転を行う回転部と、ディスクに対してデータの読み出し/書き込みを行うヘッド部とを備える(いずれも不図示)。HDDインタフェース8bは、このHDD8aに対するデータの読み出し/書き込み指令があった場合に、HDD8a全体の制御を行うとともに、データの読み出し/書き込み制御を行い、読み出されたデータを出力する。また、このHDD8aには、ユーザにより提供される画像ファイル10、及び特定の単語を提供するとその類義語を提示するシソーラス辞書ファイル11が格納されている。   The HDD unit 8 includes an HDD (HDD device) 8a and an HDD interface (I / F) 8b. The HDD 8a includes a disk that is a recording medium, a rotating unit that rotates the disk, and a head unit that reads / writes data from / to the disk (all not shown). When there is a data read / write command to the HDD 8a, the HDD interface 8b controls the entire HDD 8a, performs data read / write control, and outputs the read data. The HDD 8a stores an image file 10 provided by a user and a thesaurus dictionary file 11 that presents a synonym when a specific word is provided.

この画像ファイル10をHDD8aに格納する手法は任意であるが、一例として、メモリーカード13内に画像ファイル10を格納しておき、このメモリーカード13をカードインタフェース5cのカードスロットに挿入して、入力指示部5bが操作されたことによりこのメモリーカード13内に格納された画像ファイル10をHDD8a内に取り込む手法が挙げられる。また、USB機器14内に画像ファイル10を格納しておき、このUSB機器14をUSBインタフェース5dのUSBコネクタに挿入して、入力指示部5bが操作されたことによりこのUSB機器14内に格納された画像ファイル10をHDD8a内に取り込んでもよい。さらに、WAN17に存在する画像ファイル10をルータ16及びネットワークインタフェース7を介してHDD8a内に取り込んでもよい。画像ファイル10の詳細な構成については後述する。なお、図1において画像ファイル10はそれぞれ1つずつ図示されているが、本実施例においては少なくとも画像ファイル10は複数個HDD8a内に格納されている。   The method of storing the image file 10 in the HDD 8a is arbitrary, but as an example, the image file 10 is stored in the memory card 13, and the memory card 13 is inserted into the card slot of the card interface 5c for input. There is a method of taking the image file 10 stored in the memory card 13 into the HDD 8a by operating the instruction unit 5b. Further, the image file 10 is stored in the USB device 14, and the USB device 14 is inserted into the USB connector of the USB interface 5d, and the input instruction unit 5b is operated, so that the image file 10 is stored in the USB device 14. The image file 10 may be taken into the HDD 8a. Further, the image file 10 existing in the WAN 17 may be taken into the HDD 8 a via the router 16 and the network interface 7. The detailed configuration of the image file 10 will be described later. Although one image file 10 is shown in FIG. 1, at least a plurality of image files 10 are stored in the HDD 8a in this embodiment.

(画像ファイルのデータ構造)
図2は、本実施形態の情報処理装置1のHDD8a内に格納されている画像ファイル10のデータ構造の一例を示す図である。本実施形態の画像ファイル10はExifで定められるファイルフォーマットを有し、そのヘッダ部分10aにタグ情報が格納され、さらにサムネイル画像データが格納されたサムネイル画像領域10b、及び画像データが格納された画像データ領域10cが設けられている。本実施形態の画像ファイル10では、ヘッダ部分10aに格納されたタグ情報は、被写体撮像時に図略のデジタルスチルカメラにより画像ファイル10のヘッダ部分10aの所定領域に記述される。
(Data structure of image file)
FIG. 2 is a diagram illustrating an example of a data structure of the image file 10 stored in the HDD 8a of the information processing apparatus 1 according to the present embodiment. The image file 10 of the present embodiment has a file format defined by Exif, the tag information is stored in the header portion 10a, the thumbnail image area 10b in which the thumbnail image data is stored, and the image in which the image data is stored. A data area 10c is provided. In the image file 10 of the present embodiment, the tag information stored in the header portion 10a is described in a predetermined area of the header portion 10a of the image file 10 by a digital still camera (not shown) when the subject is imaged.

画像ファイル10のヘッダ部分10aには、画像データの画素数が記述される画素数領域10d、画像ファイル10の撮影日時が記述される撮影日時領域10e、画像ファイル10の情報処理装置1への取り込み日時が記述される取り込み日時領域10f、画像ファイル10が撮像された撮像装置(デジタルスチルカメラなど)の機種名が記述される機種名領域10g、画像ファイル10の画像データが撮像された際の撮像装置の各種情報、例えば絞り値、焦点距離が記述される撮影情報領域10h、画像ファイル10が撮像されたときに撮像装置が所在する位置をGPSシステムにより得た位置情報(例えば緯度、経度、高度情報)が記述されるGPS情報領域10i、画像ファイル10の画像データに対して情報処理装置1が顔認識を行った結果得られた情報、例えば画像データ内に含まれる被写体を特定するための情報が記述される顔認識情報領域10j、情報処理装置1のユーザが各種情報を任意に記述するためのユーザ定義領域10kが設けられている。当然、これ以外の領域を画像ファイル10のヘッダ部分10aに設けることは任意である。   The header portion 10a of the image file 10 includes a pixel number area 10d in which the number of pixels of the image data is described, a shooting date / time area 10e in which the shooting date / time of the image file 10 is described, and importing the image file 10 into the information processing apparatus 1. Capture date and time area 10f in which the date and time is described, model name area 10g in which the model name of the imaging apparatus (such as a digital still camera) in which the image file 10 is captured, and imaging when the image data of the image file 10 is captured Various information of the device, for example, a shooting information area 10h in which an aperture value and a focal length are described, and position information (for example, latitude, longitude, altitude, etc.) obtained from the position where the imaging device is located when the image file 10 is captured Information processing apparatus 1 performs face recognition on the GPS data area 10i in which the information is described and the image data of the image file 10. Information obtained as a result, for example, a face recognition information area 10j in which information for specifying a subject included in image data is described, and a user-defined area in which a user of the information processing apparatus 1 arbitrarily describes various information 10k is provided. Naturally, it is optional to provide a region other than this in the header portion 10a of the image file 10.

ここで、ヘッダ部分10aの各領域に記述される各種情報について一例を挙げて説明する。撮影日時領域10eには、撮像装置の内部時計を参考にして、画像ファイル10の画像データが撮像されたときの日時、つまり撮影日時が、一例として“2012/08/24 10:15:24”、すなわち年月日及び秒単位までの時間として記述される。取り込み日時領域10fには、情報処理装置1の図略の内部時計を参考にして、画像ファイル10の画像データが情報処理装置1に取り込まれたときの日時、つまり取り込み日時が、一例として“2012/09/01 18:00:58”、すなわち年月日及び秒単位までの時間として記述される。機種名領域10gには、撮像装置の機種名が、撮像装置の製造者が定めたデータで、一例として「XYZ−○」として記述される。撮影情報領域10hには、画像ファイル10の画像データが撮像された際の撮像装置の各種情報が、一例として「絞り値F=8、シャッタースピード1/125」として記述される。GPS情報領域10iには、画像ファイル10が撮像されたときに撮像装置が所在する位置をGPSシステムを用いて得た位置情報、より詳細には撮像装置が所在する位置の緯度情報、経度情報及び高度情報が、一例として“lat=+35.00.35.600, lon=+135.41.35.600,alt=50”として記述される。顔認識情報領域10jには、画像ファイル10の画像データに対して情報処理装置1が顔認識を行った結果得られた情報が、画像データ内に含まれる被写体を区別するための情報として、一例として“user=0010”として記述される。   Here, various information described in each area of the header portion 10a will be described with an example. In the shooting date and time area 10e, referring to the internal clock of the imaging device, the date and time when the image data of the image file 10 was taken, that is, the shooting date and time is, for example, “2012/08/24 10:15:24” I.e., date and time in seconds. In the capture date and time area 10f, referring to an internal clock (not shown) of the information processing apparatus 1, the date and time when the image data of the image file 10 is captured by the information processing apparatus 1, that is, the capture date and time is, for example, “2012 / 09/01 18:00:58 ”, that is, the date and time in seconds. In the model name area 10g, the model name of the imaging device is data determined by the manufacturer of the imaging device, and is described as “XYZ- ◯” as an example. In the shooting information area 10h, various information of the imaging device when the image data of the image file 10 is captured is described as “aperture value F = 8, shutter speed 1/125” as an example. In the GPS information area 10i, position information obtained using the GPS system when the image file 10 is picked up using the GPS system, more specifically, latitude information, longitude information of the position where the image pickup device is located, and The altitude information is described as “lat = + 35.00.35.600, lon = + 135.41.35.600, alt = 50” as an example. In the face recognition information area 10j, information obtained as a result of the face recognition performed by the information processing apparatus 1 on the image data of the image file 10 is an example of information for distinguishing subjects included in the image data. As “user = 0010”.

(情報処理システムの機能構成)
次に、図3は、本実施形態の情報処理システムSの機能構成を示す機能ブロック図である。この図において、本実施形態の情報処理システムSは情報処理装置1と出力部21と入力部22とを備える。
(Functional configuration of information processing system)
Next, FIG. 3 is a functional block diagram showing a functional configuration of the information processing system S of the present embodiment. In this figure, the information processing system S of this embodiment includes an information processing apparatus 1, an output unit 21, and an input unit 22.

情報処理装置1は、記憶部23と制御部24とを備える。記憶部23は、各種データ、ファイルを少なくとも一時的に保管し、制御部24の指示によりこのデータ、ファイルを記憶部23から読み出し、あるいは記憶部23に書き込む動作を行う。この記憶部23には、画像ファイル10、シソーラス辞書ファイル11及び個人情報4aが格納されている。画像ファイル10、シソーラス辞書ファイル11及び個人情報4aの詳細については上述したとおりである(図1、図2参照)。   The information processing apparatus 1 includes a storage unit 23 and a control unit 24. The storage unit 23 stores various data and files at least temporarily, and performs an operation of reading or writing the data and files from the storage unit 23 according to instructions from the control unit 24. The storage unit 23 stores an image file 10, a thesaurus dictionary file 11, and personal information 4a. The details of the image file 10, thesaurus dictionary file 11, and personal information 4a are as described above (see FIGS. 1 and 2).

制御部24は、この情報処理装置1全体の制御を行う。この制御部24は、画像ファイル選択部25、情報取得部26、検索キー生成部27及び画像ファイル検索部(データ検索部)28を備える。   The control unit 24 controls the entire information processing apparatus 1. The control unit 24 includes an image file selection unit 25, an information acquisition unit 26, a search key generation unit 27, and an image file search unit (data search unit) 28.

画像ファイル選択部25は、記憶部23に格納された画像ファイル10の画像データを出力部21により表示させ、そして、出力部21により表示された画像データの少なくとも一つが入力部22により選択された際、この入力部22から出力される画像データ選択信号を受信し、この画像データ選択信号に対応する画像ファイル10を記憶部23に格納された画像ファイル10から検索して特定する。また、画像ファイル選択部25は、記憶部23に格納された画像ファイル10の画像データを出力部21により表示する際に、記憶部23に格納された画像ファイル10の画像データのうち少なくとも一部の画像ファイル10について、この画像ファイル10に関連する情報を取得し、さらに、出力部21に表示させる画像ファイル10の画像データについて、少なくともその一部の画像ファイル10の取得情報が異なるように、表示すべき画像ファイル10を選択しても良い。なお、本明細書では、画像データには、画像ファイル10のサムネイル画像領域10bに格納された、画像データのインデックスであるサムネイル画像データも含まれるものとする。   The image file selection unit 25 causes the output unit 21 to display the image data of the image file 10 stored in the storage unit 23, and at least one of the image data displayed by the output unit 21 is selected by the input unit 22. At this time, the image data selection signal output from the input unit 22 is received, and the image file 10 corresponding to the image data selection signal is searched from the image file 10 stored in the storage unit 23 and specified. Further, the image file selection unit 25 displays at least a part of the image data of the image file 10 stored in the storage unit 23 when the image data of the image file 10 stored in the storage unit 23 is displayed by the output unit 21. Information related to the image file 10 is acquired, and the image data of the image file 10 to be displayed on the output unit 21 is different so that the acquisition information of at least some of the image files 10 is different. An image file 10 to be displayed may be selected. In this specification, it is assumed that the image data includes thumbnail image data that is an index of the image data stored in the thumbnail image area 10b of the image file 10.

より具体的には、画像ファイル選択部25は、記憶部23に格納された画像ファイル10のヘッダ部分10aの各領域に記述されたタグ情報を取得し、タグ情報の頻度を算出し、高頻度のタグ情報を有する画像ファイル10に対して重み付けを低く設定する。一例として、撮影日時領域10eに記述された撮影日時タグ情報の頻度を算出し、同一の撮影日時タグ情報を有する画像ファイル10が多数存在する場合は、その画像ファイル10の重み付けを低く設定する。そして、画像ファイル選択部25は、重み付けができるだけ均等になるように表示すべき画像ファイル10を選択する。これにより、画像ファイル選択部25が画像ファイル10の画像データを出力部21に表示させる際に、特定のタグ情報を有する画像ファイル10が集中して表示されないようにすることができる。   More specifically, the image file selection unit 25 acquires tag information described in each area of the header portion 10a of the image file 10 stored in the storage unit 23, calculates the frequency of the tag information, The weighting is set low for the image file 10 having the tag information. As an example, the frequency of the shooting date / time tag information described in the shooting date / time area 10e is calculated, and when there are many image files 10 having the same shooting date / time tag information, the weight of the image file 10 is set low. Then, the image file selection unit 25 selects the image file 10 to be displayed so that the weights are as uniform as possible. Thereby, when the image file selection part 25 displays the image data of the image file 10 on the output part 21, the image file 10 which has specific tag information can be prevented from being concentrated and displayed.

情報取得部26は、画像ファイル選択部25により特定された画像ファイル10を含む、制御部24により特定された画像ファイル10に関連する情報を取得する。情報取得部26により取得される情報には、画像ファイル10のヘッダ部分10aの各領域に記述された情報が含まれる。情報取得部26により取得される他の情報としては、例えば、画像ファイル10のヘッダ部分10aの各領域に記述された情報を記憶部23に格納されたシソーラス辞書ファイル11に提供して得られたシソーラス情報、さらには画像ファイル10のヘッダ部分10aの各領域に記述された情報をWAN17に提供して得られた情報が含まれる。   The information acquisition unit 26 acquires information related to the image file 10 specified by the control unit 24, including the image file 10 specified by the image file selection unit 25. The information acquired by the information acquisition unit 26 includes information described in each area of the header portion 10a of the image file 10. Other information acquired by the information acquisition unit 26 is obtained, for example, by providing the information described in each area of the header portion 10a of the image file 10 to the thesaurus dictionary file 11 stored in the storage unit 23. The thesaurus information and information obtained by providing the WAN 17 with information described in each area of the header portion 10a of the image file 10 are included.

検索キー生成部27は、情報取得部26により取得された、画像ファイル10に関連する情報の少なくとも一つを使用して、この取得情報を抽象化した検索キーを少なくとも一つ、好ましくは複数生成する。ここで、取得情報の「抽象化」とは、取得情報そのものを検索キーとして用いずに、例えば取得情報の一部を検索キーとして用いることや、取得情報を記憶部23に格納されたシソーラス辞書ファイル11に提供して得られたシソーラスを検索キーとして用いることや、取得情報が数値情報である場合は、この数値情報の範囲を表す検索キーを用いることや、取得情報の少なくとも一部が一致するデータの数を示す検索キーを用いることや、顔認識情報領域10jに記述された被写体区別情報そのものを検索キーとして用いることや、被写体区別情報と個人情報4aとを用いて被写体を特定する情報(例えば被写体の名前)を検索キーとして用いることや、取得情報をWAN17に提供して知識ベース等を用いて得られたデータを検索キーとして用いることが含まれる。当然、抽象化した検索キーに加えて、取得情報そのものを検索キーとして用いてもよい。   The search key generation unit 27 uses at least one of the information related to the image file 10 acquired by the information acquisition unit 26, and generates at least one, preferably a plurality of search keys that abstract the acquired information. To do. Here, “abstraction” of acquired information means that, for example, a part of the acquired information is used as a search key without using the acquired information itself as a search key, or a thesaurus dictionary in which the acquired information is stored in the storage unit 23. Use a thesaurus obtained by providing the file 11 as a search key, or if the acquired information is numerical information, use a search key that represents the range of the numerical information, or at least part of the acquired information matches. Information that specifies the subject using the search key indicating the number of data to be used, the subject discrimination information described in the face recognition information area 10j itself as the search key, or the subject discrimination information and the personal information 4a (For example, the name of a subject) is used as a search key, or data obtained by providing the acquired information to the WAN 17 and using a knowledge base or the like is used as a search key. By using Te is included. Of course, in addition to the abstracted search key, the acquired information itself may be used as the search key.

そして、検索キー生成部27は、生成した検索キーの少なくとも一つ、好ましくは複数の検索キーを出力部21により表示させる。この際、ユーザの利便性を考慮して、生成された検索キーを用いて記憶部23に格納された画像ファイル10の少なくとも一部を検索し、この検索キーにより検索された結果である画像ファイル10と検索キーとを関連づけて表示させてもよい。また、検索キー生成部27は、生成した検索キーに対して所定の範囲を設定することで、検索キーの曖昧化を図ることも可能である。   The search key generating unit 27 causes the output unit 21 to display at least one of the generated search keys, preferably a plurality of search keys. At this time, in consideration of user convenience, at least a part of the image file 10 stored in the storage unit 23 is searched using the generated search key, and the image file that is the result of the search using this search key. 10 and the search key may be displayed in association with each other. The search key generation unit 27 can also make the search key ambiguous by setting a predetermined range for the generated search key.

また、検索キー生成部27は、入力部22を介してユーザから検索キーの微調整入力指示信号を受信すると、この微調整入力指示信号に応じて微調整した検索キーを生成し、この検索キーを出力部21に表示させてもよい。加えて、微調整した検索キーを用いて記憶部23に格納された画像ファイル10の少なくとも一部を検索し、この検索キーにより検索された結果である画像ファイル10と検索キーとを関連づけて表示させてもよい。また、検索キー生成部27は、画像ファイル検索部28により画像ファイル10により特定されたことがある検索キーを優先して生成してもよい。検索キーの具体例については後述する。   When the search key generation unit 27 receives a fine adjustment input instruction signal of the search key from the user via the input unit 22, the search key generation unit 27 generates a search key finely adjusted according to the fine adjustment input instruction signal. May be displayed on the output unit 21. In addition, the fine-tuned search key is used to search at least a part of the image file 10 stored in the storage unit 23, and the image file 10 that is the result of the search using the search key is displayed in association with the search key. You may let them. Further, the search key generation unit 27 may preferentially generate a search key that has been specified by the image file 10 by the image file search unit 28. A specific example of the search key will be described later.

画像ファイル検索部28は、出力部21により表示された検索キーの少なくとも一つが入力部22により選択された際、この入力部22から出力される検索キー選択信号を受信し、選択された検索キーを用いて記憶部23に格納された画像ファイル10を検索する。そして、検索結果となる画像ファイル10の画像データの少なくとも一つを出力部21に表示させる。また、画像ファイル検索部28は、出力部21に表示された検索キーが入力部22により複数選択された場合は、この入力部22から出力される複数の検索キー選択信号を受信し、複数の検索キーの検索結果の和集合または積集合、さらに和集合と積集合との少なくとも2つの組み合わせである集合である画像ファイル10を検索し、検索結果となる画像ファイル10の画像データの少なくとも一つを出力部21に表示させる。   The image file search unit 28 receives a search key selection signal output from the input unit 22 when at least one of the search keys displayed by the output unit 21 is selected by the input unit 22, and selects the selected search key. The image file 10 stored in the storage unit 23 is searched using Then, at least one of the image data of the image file 10 as a search result is displayed on the output unit 21. In addition, when a plurality of search keys displayed on the output unit 21 are selected by the input unit 22, the image file search unit 28 receives a plurality of search key selection signals output from the input unit 22 and receives a plurality of search key selection signals. At least one of the image data of the image file 10 as a search result is searched by searching the image file 10 which is a set that is a union or product set of the search results of the search key, and further a combination of at least two of the union and product set Is displayed on the output unit 21.

入力部22は、好ましくは出力部21による表示と連動して、ユーザによる各種入力を受け付けて、この入力に対応した入力指示信号を情報処理装置1に送信する。出力部21は、情報処理装置1から送信された表示信号に基づいて、その表示画面に各種表示を行う。   The input unit 22 preferably receives various inputs from the user in conjunction with the display by the output unit 21 and transmits an input instruction signal corresponding to the input to the information processing apparatus 1. The output unit 21 performs various displays on the display screen based on the display signal transmitted from the information processing apparatus 1.

情報処理装置1、出力部21、入力部22の詳細な動作については後述する。なお、以上の説明において、入力部22は入力指示部5b及び入力機器12により構成され、出力部21はHDMI出力機器15により構成され、記憶部23はRAM4及びHDD8aにより構成され、そして制御部24はCPU2、入力インタフェース5a、HDMIインタフェース6、ネットワークインタフェース7及びHDDインタフェース8bにより構成される。   Detailed operations of the information processing apparatus 1, the output unit 21, and the input unit 22 will be described later. In the above description, the input unit 22 includes the input instruction unit 5b and the input device 12, the output unit 21 includes the HDMI output device 15, the storage unit 23 includes the RAM 4 and the HDD 8a, and the control unit 24. Comprises a CPU 2, an input interface 5a, an HDMI interface 6, a network interface 7 and an HDD interface 8b.

(検索キーの詳細)
次に、図13及び図14を参照して、本実施形態の情報処理システムSにおいて用いられる検索キーについて説明する。以下に説明する検索キーは、既に述べたように検索キー生成部27により主に生成される。
(Details of search key)
Next, a search key used in the information processing system S of the present embodiment will be described with reference to FIGS. The search key described below is mainly generated by the search key generation unit 27 as described above.

図13は、画像ファイル10のヘッダ部分10aに記述されたタグ情報と、このタグ情報から生成される検索キーとの関係の一例を示す図である。図13に示す例では、一つのタグ情報から複数の検索キーが生成されている。   FIG. 13 is a diagram illustrating an example of a relationship between tag information described in the header portion 10a of the image file 10 and a search key generated from the tag information. In the example shown in FIG. 13, a plurality of search keys are generated from one tag information.

例えば、撮影日時領域10eに記述された撮影日時タグ情報から、「月」「月日」「曜日」などの検索キーが検索キー生成部27により生成される。上述のように撮影日時領域10eに記述された撮影日時タグ情報は、例えば“2012/08/24 10:15:24”といったように年月日及び秒単位までの時間、すなわち数値情報として記述されているので、「月」「月日」「曜日」などの検索キーは、この撮影日時タグ情報の一部を用いて抽象化されて生成されている。同様に、撮影日時領域10eに記述された撮影日時タグ情報から、「時間帯」「季節」「季節のイベント」などの検索キーが検索キー生成部27により生成される。これら「時間帯」「季節」「季節のイベント」などの検索キーは、この撮影日時タグ情報の範囲を示す形で抽象化して形成されている。ここで、「季節のイベント」検索キーについては、例えばGW(ゴールデンウィーク)であると年毎に祝日が異なり、また、土日といった休日を含めてGWという認識をすることができるので、「季節のイベント」検索キー生成の際には年毎の祝日、休日等を考慮して範囲設定を行う。さらに、撮影日時領域10eに記述された撮影日時タグ情報から、「日間撮影枚数」などの検索キーが検索キー生成部27により生成される。この「日間撮影枚数」などの検索キーは、この撮影日時タグ情報の一部(「日間撮影枚数」であれば年月日の情報)を用いて、記憶部23に格納された画像ファイル10を検索した結果の枚数の範囲を示す形で抽象化して生成されている。   For example, from the shooting date / time tag information described in the shooting date / time area 10e, the search key generating unit 27 generates a search key such as “month”, “month / day”, and “day of the week”. The shooting date / time tag information described in the shooting date / time area 10e as described above is described as time, ie, numerical information, in units of year, month, and second, such as “2012/08/24 10:15:24”. Therefore, search keys such as “month”, “month / day”, and “day of the week” are generated by abstraction using a part of the shooting date / time tag information. Similarly, the search key generation unit 27 generates search keys such as “time zone”, “season”, and “seasonal event” from the shooting date / time tag information described in the shooting date / time area 10e. The search keys such as “time zone”, “season”, “seasonal event”, etc. are abstracted to indicate the range of the shooting date / time tag information. Here, with regard to the “seasonal event” search key, for example, GW (Golden Week) has different holidays every year, and it can be recognized as GW including holidays such as Saturdays and Sundays. When the search key is generated, the range is set in consideration of holidays and holidays every year. Further, the search key generation unit 27 generates a search key such as “number of shots per day” from the shooting date / time tag information described in the shooting date / time area 10e. The search key such as “the number of images taken every day” is used to search the image file 10 stored in the storage unit 23 by using a part of the shooting date / time tag information (if “the number of images taken every day”, the date information). It is generated by abstraction in the form indicating the range of the number of search results.

また、GPS情報領域10iに記述された位置タグ情報から、「観光地名」「分類」「地名」などの検索キーが検索キー生成部27により生成される。上述のようにGPS情報領域10iに記述された位置タグ情報は、例えば“lat=+35.00.35.600, lon=+135.41.35.600,alt=50”のように緯度情報、経度情報及び高度情報として記述されているので、「観光地名」「分類」「地名」などの検索キーは、この緯度情報、経度情報及び高度情報をWAN17に所在する外部サーバ、一例として地図サーバや観光地に関する情報が蓄積されたサーバに問い合わせ、この緯度情報、経度情報及び高度情報を有するランドマーク名を入手し、このランドマーク名そのもの、さらにはランドマーク名を用いてランドマークの分類やそのランドマークが所在する地名を用いて抽象化することで検索キーが生成されている。   The search key generation unit 27 generates search keys such as “tourism place name”, “classification”, and “place name” from the position tag information described in the GPS information area 10 i. The position tag information described in the GPS information area 10i as described above is described as latitude information, longitude information, and altitude information, for example, “lat = + 35.00.35.600, lon = + 135.41.35.600, alt = 50”. Therefore, the search keys such as “tourism place name”, “classification”, “place name” are stored in the latitude server, longitude information, and altitude information on the external server located in the WAN 17, for example, information on the map server and the tourist spot. To obtain a landmark name that has this latitude information, longitude information, and altitude information, and then use this landmark name itself, and the landmark name to classify the landmark and the name of the place where the landmark is located. The search key is generated by using the abstraction.

さらに、顔認識情報領域10jに記述された被写体区別タグ情報から、「同一人物」「個数」などの検索キーが検索キー生成部27により生成される。上述のように顔認識情報領域10jに記述された被写体区別タグ情報は、例えば“user=0010”のように画像ファイル10の画像データ内に存在する被写体を区別するための情報として記述されているので、この被写体区別タグ情報と個人情報4a内の情報と照合してこの被写体の氏名を特定することができる。そして、この被写体特定情報そのものを検索キーとして(「○○ちゃん」といった表示になる)生成するとともに、被写体特定情報が同一の画像ファイル10の画像データ内にいくつ存在するかという抽象化を行って検索キーを生成する。   Further, the search key generation unit 27 generates search keys such as “same person” and “number” from the subject discrimination tag information described in the face recognition information area 10 j. The subject discrimination tag information described in the face recognition information area 10j as described above is described as information for discriminating subjects existing in the image data of the image file 10 such as “user = 0010”. Therefore, the name of the subject can be specified by comparing the subject distinguishing tag information with the information in the personal information 4a. Then, the subject specifying information itself is generated as a search key (displayed as “OO-chan”), and the number of subject specifying information is abstracted in the image data of the same image file 10. Generate a search key.

次に、図14は、画像ファイル10のヘッダ部分10aに記述されたタグ情報と、このタグ情報から生成される検索キーとの関係の他の例を示す図である。図14に示す例では、複数のタグ情報、あるいはタグ情報と他の情報とから複数の検索キーが生成されている。   Next, FIG. 14 is a diagram illustrating another example of the relationship between the tag information described in the header portion 10a of the image file 10 and the search key generated from the tag information. In the example illustrated in FIG. 14, a plurality of search keys are generated from a plurality of tag information or tag information and other information.

例えば、撮影日時領域10eに記述された撮影日時タグ情報、顔認識情報領域10jに記述された被写体区別タグ情報及び個人情報4aに記述された被写体特定情報及び誕生日情報から、「誕生日」「年齢」などの検索キーが検索キー生成部27により生成される。例えば、「誕生日」検索キーについては、被写体区別タグ情報及び被写体特定情報により画像ファイル10の画像データ内の被写体の氏名を特定することができ、さらに、被写体の氏名及び誕生日情報により画像ファイル10の画像データ内の被写体の誕生日を特定することができ、そして、被写体の誕生日の月日と撮影日時タグ情報内の月日とが合致する、すなわち撮影日時タグ情報内の一部が一致するものを検索するキーとして抽象化を行い、「誕生日」検索キーを生成することができる。また、「年齢」検索キーについては、被写体の誕生日の月日と、この誕生日の月日に所定の年数を加え、特定の年齢に達した被写体の誕生日の年月日から1年の範囲内に存在する撮影日時タグ情報の年月日を検索するキーとして抽象化を行い、「年齢」検索キーを生成することができる。   For example, from the shooting date / time tag information described in the shooting date / time area 10e, the subject identification tag information described in the face recognition information area 10j, the subject specifying information and the birthday information described in the personal information 4a, “birth date” “ A search key such as “age” is generated by the search key generation unit 27. For example, for the “birthday” search key, the name of the subject in the image data of the image file 10 can be specified by the subject distinguishing tag information and the subject specifying information, and the image file can be specified by the subject name and birthday information. The birthday of the subject in the 10 image data can be specified, and the date of birth of the subject matches the date in the shooting date tag information, that is, a part of the shooting date tag information Abstraction can be performed as a key for searching for a match, and a “birthday” search key can be generated. For the “age” search key, the date of birth of the subject and a predetermined number of years are added to the date of birth, and the date of birth of the subject that has reached a specific age is one year from the date of birth. Abstraction can be performed as a key for searching the date of the shooting date / time tag information existing within the range, and an “age” search key can be generated.

また、撮影日時領域10eに記述された撮影日時タグ情報及び個人情報4aに記述された記念日情報から、「記念日」などの検索キーが検索キー生成部27により生成される。例えば、「記念日」検索キーについては、撮影日時タグ情報内の月日と記念日情報の月日とが合致するものを検索するキーとして抽象化を行い、「記念日」検索キーを生成することができる。   The search key generation unit 27 generates a search key such as “anniversary” from the shooting date / time tag information described in the shooting date / time area 10 e and the anniversary information described in the personal information 4 a. For example, the “anniversary” search key is abstracted as a key for searching for a match between the date in the shooting date tag information and the date of the anniversary information, and an “anniversary” search key is generated. be able to.

さらに、撮影日時領域10eに記述された撮影日時タグ情報、顔認識情報領域10jに記述された被写体区別タグ情報及び個人情報4aに記述された被写体特定情報から、「日間撮影人物」などの検索キーが検索キー生成部27により生成される。例えば、「日間撮影人物」検索キーについては、被写体区別タグ情報及び被写体特定情報により画像ファイル10の画像データ内の被写体の氏名を特定することができ、そして、撮影日時タグ情報内の年月日が特定の年月日に合致し、さらに、特定の被写体氏名が画像ファイル10の画像データに存在するものを検索するキーとして抽象化を行い、「日間撮影人物」検索キーを生成することができる。   Further, a search key such as “daily photographed person” is selected from the shooting date / time tag information described in the shooting date / time area 10e, the subject distinguishing tag information described in the face recognition information area 10j, and the subject specifying information described in the personal information 4a. Is generated by the search key generation unit 27. For example, for the “daily photographed person” search key, the name of the subject in the image data of the image file 10 can be specified by the subject distinguishing tag information and the subject specifying information, and the date in the shooting date tag information Can be abstracted as a key to search for items that match a specific date and a specific subject name exists in the image data of the image file 10, and a “daily photographed person” search key can be generated. .

そして、撮影日時領域10eに記述された撮影日時タグ情報及びGPS情報領域10iに記述された位置タグ情報から、「日間撮影場所」「イベント」などの検索キーが検索キー生成部27により生成される。例えば、「日間撮影場所」検索キーについては、GPS情報領域10iに記述された位置タグ情報の緯度情報、経度情報及び高度情報をWAN17に所在する外部サーバ、一例として地図サーバや観光地に関する情報が蓄積されたサーバに問い合わせ、この緯度情報、経度情報及び高度情報を有するランドマーク名を入手し、このランドマークの緯度情報、経度情報及び高度情報がGPS情報領域10iに記述された位置タグ情報の緯度情報、経度情報及び高度情報と一致し、さらに撮影日時タグ情報内の年月日が特定の年月日に合致するものを検索し、検索した結果の枚数の範囲を示す形で抽象化を行い、「日間撮影場所」検索キーを生成することができる。また、「イベント」検索キーについては、GPS情報領域10iに記述された位置タグ情報の緯度情報、経度情報及び高度情報及び撮影日時タグ情報内の年月日をWAN17に所在する外部サーバ、一例として観光地に関する情報が蓄積されたサーバに問い合わせ、この緯度情報、経度情報及び高度情報を有するランドマークにおいて撮影日時タグ情報内の年月日にどのようなイベントが開催されたかを入手し、このランドマークの緯度情報、経度情報及び高度情報がGPS情報領域10iに記述された位置タグ情報の緯度情報、経度情報及び高度情報と一致し、さらに撮影日時タグ情報内の年月日が特定の年月日に合致するものを検索するキーを特定イベントに関する画像ファイル10を検索するキーとして抽象化を行い、「イベント」検索キーを生成することができる。   The search key generation unit 27 generates a search key such as “daily shooting location” and “event” from the shooting date / time tag information described in the shooting date / time area 10e and the position tag information described in the GPS information area 10i. . For example, for the “daily shooting location” search key, the latitude information, longitude information, and altitude information of the location tag information described in the GPS information area 10i is used as an external server located in the WAN 17, for example, information about a map server or a sightseeing spot. The stored server is inquired, the landmark name having this latitude information, longitude information and altitude information is obtained, and the latitude information, longitude information and altitude information of this landmark are stored in the GPS information area 10i. Search for items that match latitude information, longitude information, and altitude information, and that the date in the shooting date tag information matches a specific date. And a “daily photo location” search key can be generated. As for the “event” search key, the latitude information, longitude information, altitude information, and date / time in the shooting date tag information described in the position tag information described in the GPS information area 10i are external servers located in the WAN 17, as an example. Inquire the server where the information about the sightseeing spot is accumulated, and obtain what kind of event was held on the date and time in the shooting date tag information in the landmark having this latitude information, longitude information and altitude information. The latitude information, longitude information, and altitude information of the mark coincide with the latitude information, longitude information, and altitude information of the position tag information described in the GPS information area 10i, and the date in the shooting date tag information is a specific date. Abstraction is performed by using the key for searching for items matching the day as the key for searching the image file 10 related to the specific event, and detecting “event”. It is possible to generate a key.

ここで、図13及び図14には図示しないが、既に述べたように、画像ファイル10のヘッダ部分10aの各領域に記述されたタグ情報に基づいて作成した検索キーに対して所定の範囲を設定することで、検索キーの曖昧化を図ることも可能である。一例として、「月日」検索キーが「9月1日」であった場合は、前後3日の撮影日時タグ情報を有する画像ファイル10も「9月1日」検索キーで検索可能とすることができる。また、「時間帯」検索キーが「昼過ぎ」であった場合は、午後12時から前後4時間の撮影日時タグ情報を有する画像ファイル10も「昼過ぎ」検索キーで検索可能とすることができる。さらに、「日間撮影枚数」検索キーが「30枚/日」であった場合は、撮影日時タグ情報のうち特定の年月日を有する画像ファイル10が24枚〜36枚であった場合も「30枚/日」で検索可能とすることができる。さらに、「地名」検索キーが「東京」であった場合は、東京都の周辺、例えば神奈川県、埼玉県、千葉県において東京都に隣接する市町村に属する位置タグ情報を有する画像ファイル10も「東京」検索キーで検索可能とすることができる。   Here, although not shown in FIGS. 13 and 14, as described above, a predetermined range is set for the search key created based on the tag information described in each area of the header portion 10 a of the image file 10. By setting, it is possible to obscure the search key. As an example, when the “Month / Day” search key is “September 1”, the image file 10 having the shooting date / time tag information on the three days before and after can be searched using the “September 1” search key. Can do. If the “time zone” search key is “afternoon”, the image file 10 having the shooting date and time tag information of 4 hours before and after 12:00 pm can be searched using the “afternoon” search key. Further, when the “daily number of shots” search key is “30 shots / day”, when the image file 10 having a specific date in the shooting date / time tag information is 24 to 36 shots, “30 sheets / day” can be searched. Further, when the “place name” search key is “Tokyo”, the image file 10 having location tag information belonging to the municipalities adjacent to Tokyo in the vicinity of Tokyo, for example, Kanagawa, Saitama, and Chiba, is also “ Search can be made with the “Tokyo” search key.

検索キーの曖昧化についてより詳細に説明する。まず、曖昧化を行う対象のタグ情報に対して、順序が設定できるかどうかを検討する。例えば撮影日時領域10eに記述された撮影日時タグ情報であれば時間軸に沿った一方向の順序と、曜日という周期性を持った順序が設定可能である。また、GPS情報領域10iに記述された位置タグ情報であれば、緯度情報または経度情報の数値の昇順または降順という順序が設定可能である。次いで、順序が設定できたタグ情報に対して、この順序に沿った一定の範囲を設定することで検索キーの曖昧化を行う。この時、順序設定は単純に範囲指定を行うだけではなく、シソーラス辞書ファイル11等を参照して範囲設定を行ってもよい。具体的には、「地名」検索キーが山手線の特定の駅に関するキー、例えば「新宿駅」であった場合は、シソーラス辞書ファイル11等を参照することで、山手線において新宿駅に隣接する「新大久保駅」「代々木駅」に対応する位置タグ情報を有する画像ファイル10も「新宿駅」検索キーで検索可能とすることができる。   The search key ambiguity will be described in more detail. First, it is examined whether the order can be set for the tag information to be obfuscated. For example, in the case of shooting date / time tag information described in the shooting date / time area 10e, it is possible to set an order in one direction along the time axis and an order having a periodicity of day of the week. In addition, as long as the position tag information is described in the GPS information area 10i, the order of ascending or descending numerical values of latitude information or longitude information can be set. Next, for the tag information for which the order has been set, the search key is made ambiguous by setting a certain range along the order. At this time, the order setting may be performed not only by simply specifying the range but also by referring to the thesaurus dictionary file 11 or the like. Specifically, when the “place name” search key is a key related to a specific station on the Yamanote Line, for example, “Shinjuku Station”, it is adjacent to Shinjuku Station on the Yamanote Line by referring to the thesaurus dictionary file 11 or the like. The image file 10 having position tag information corresponding to “Shin-Okubo Station” and “Yoyogi Station” can also be searched using the “Shinjuku Station” search key.

さらに、タグ情報に対して範囲設定をする際に、他のタグ情報を利用して範囲設定して曖昧化を行ってもよい。例えば、「月日」検索キーが「9月1日」であった場合は、撮影日時タグ情報が9月1日付近の画像ファイル10を検索し、9月1日を中心として時間軸上で前後に位置する画像ファイル10のうち、9月1日以前の画像ファイル10を30枚、9月1日以降の画像ファイル10を30枚選択し、これら画像ファイル10を「9月1日」検索キーで検索可能とすることができる。さらに、特定のタグ情報に対してその周辺にグループを設定し、このグループ内に包含される画像ファイル10を特定の検索キーで検索可能とすることができる。例えば、「月日」検索キーが「9月1日」であった場合は、撮影日時タグ情報が9月1日付近の画像ファイル10を検索し、画像ファイル10の撮影者の行動モデルを作成する。そして、撮影者の行動モデルから、当該撮影者が撮影を集中的に行った期間(大抵は旅行中といった具体的な行動に紐付けられる)を、例えば隠れマルコフモデル等の手法を用いて推定し、この期間内に存在する画像ファイル10を「9月1日」検索キーで検索可能とすることができる。   Further, when setting the range for the tag information, the range may be set using other tag information for ambiguity. For example, if the “month and date” search key is “September 1”, the image date and time tag information is searched for the image file 10 near September 1 and on the time axis around September 1 as the center. Select 30 image files 10 before September 1 and 30 image files 10 after September 1 among the image files 10 positioned before and after, and search these image files 10 for “September 1”. Searchable by key. Further, a group can be set around the specific tag information, and the image file 10 included in the group can be searched with a specific search key. For example, if the “month and date” search key is “September 1”, the image file 10 whose shooting date and time tag information is near September 1 is searched, and a behavior model of the photographer of the image file 10 is created. To do. Then, from the photographer's behavior model, the period of time during which the photographer intensively shoots (usually linked to specific actions such as traveling) is estimated using a technique such as a hidden Markov model. The image file 10 existing within this period can be searched using the “September 1” search key.

また、この検索キーの曖昧化は、例えば後述する検索キー表示画面30cにおいて、曖昧化された検索キーを表示するボタンを設け、このボタンが入力部22により選択されたことを契機に検索キー生成部27が生成してもよいし、検索キー生成部27により生成された検索キーにより検索可能な画像ファイル10の数が少ない場合、検索キー生成部27が生成した検索キーに対して曖昧化を行ってもよい。   In order to make the search key ambiguous, for example, a search key display screen 30c, which will be described later, is provided with a button for displaying the obfuscated search key, and when this button is selected by the input unit 22, the search key is generated. When the number of image files 10 that can be searched by the search key generated by the search key generation unit 27 is small, the search key generated by the search key generation unit 27 is made ambiguous. You may go.

(情報処理システムの動作)
次に、図4〜図12を参照して、本実施形態の情報処理システムSの動作の概要を、出力部21の表示画面を中心にして説明する。
(Operation of information processing system)
Next, an outline of the operation of the information processing system S of the present embodiment will be described with reference to FIGS. 4 to 12 focusing on the display screen of the output unit 21. FIG.

まず、図4は、出力部21の表示画面に表示される、情報処理システムSの初期画面を示す図である。初期画面を示す表示画面30aには、写真データ閲覧モードに移行するためのボタン31が(図4に示す例では2つ)表示されている。同様に、初期画面を示す表示画面30aには、カレンダーモードに移行するためのボタン32及びアルバムモードに移行するためのボタン33が表示されている。   First, FIG. 4 is a diagram showing an initial screen of the information processing system S displayed on the display screen of the output unit 21. On the display screen 30a showing the initial screen, buttons 31 (two in the example shown in FIG. 4) for shifting to the photo data browsing mode are displayed. Similarly, on the display screen 30a showing the initial screen, a button 32 for shifting to the calendar mode and a button 33 for shifting to the album mode are displayed.

ここに、カレンダーモードとは、記憶部23に格納されている画像ファイル10の画像データを年月日順に配列し、カレンダーを閲覧するように画像ファイル10の画像データを閲覧できるモードであり、アルバムモードとは、記憶部23に格納されている画像ファイル10の画像データのうち、予めユーザが付与したアルバムタグ情報(例えば「2012年運動会」)を有する画像データのみを抽出して閲覧できるモードである。これらカレンダーモード及びアルバムモードの詳細については説明を省略する。   Here, the calendar mode is a mode in which the image data of the image file 10 stored in the storage unit 23 is arranged in order of year, month, day, and the image data of the image file 10 can be browsed so as to browse the calendar. The mode is a mode in which only image data having album tag information (for example, “2012 athletic meet”) previously assigned by the user can be extracted and browsed from the image data of the image file 10 stored in the storage unit 23. is there. The details of the calendar mode and the album mode will not be described.

写真データ閲覧モードに移行するためのボタン31には、記憶部23に格納されている画像ファイル10の画像データのうち代表となる画像データが重畳されて表示されている。ボタン31に重畳される画像データは、記憶部23に格納されている任意の画像ファイル10の画像データをランダムに抽出すればよいが、事前に代表的な検索キーにより記憶部23に格納されている画像ファイル10の画像データを検索し、同一の検索キーにより検索される可能性のある画像データができるだけ重複して表示されないように抽出してもよい。   On the button 31 for shifting to the photo data browsing mode, representative image data among the image data of the image file 10 stored in the storage unit 23 is superimposed and displayed. The image data superimposed on the button 31 may be extracted randomly from the image data of an arbitrary image file 10 stored in the storage unit 23, but is stored in the storage unit 23 in advance by a representative search key. The image data of the existing image file 10 may be searched, and image data that may be searched with the same search key may be extracted so as not to be displayed as much as possible.

初期画面を示す表示画面30aには、ユーザによる入力位置を示すポインタ34が表示されている。ユーザは、リモコン、マウス等の入力部22によりこのポインタ34を表示画面30a内で移動させ、選択を希望するボタン31〜33にこのポインタ34の少なくとも一部を重畳表示させた状態でこの入力部22を操作することで、ユーザによりどのボタンが選択されたかを示す選択入力信号が入力部22から出力され、情報処理装置1に入力される。   A pointer 34 indicating the input position by the user is displayed on the display screen 30a indicating the initial screen. The user moves the pointer 34 within the display screen 30a using the input unit 22 such as a remote controller or a mouse, and the input unit is displayed with at least a part of the pointer 34 superimposed on the buttons 31 to 33 desired to be selected. By operating 22, a selection input signal indicating which button has been selected by the user is output from the input unit 22 and input to the information processing apparatus 1.

次に、図5は、出力部21の表示画面に表示される、情報処理システムSの選択画面を示す図である。図5に示す選択画面は、図4において写真データ閲覧モードに移行するためのボタン31がユーザにより選択されることにより表示される。   Next, FIG. 5 is a diagram illustrating a selection screen of the information processing system S displayed on the display screen of the output unit 21. The selection screen shown in FIG. 5 is displayed when the user selects the button 31 for shifting to the photo data browsing mode in FIG.

選択画面を示す表示画面30bには、記憶部23に格納されている画像ファイル10の画像データのサムネイル画像35が複数表示されている。図5に示す例では、サムネイル画像35は縦3枚×横4枚表示されているが、表示画面30bにサムネイル画像35が複数枚表示されているならばその枚数及び表示形態に限定はない。   A plurality of thumbnail images 35 of the image data of the image file 10 stored in the storage unit 23 are displayed on the display screen 30b indicating the selection screen. In the example shown in FIG. 5, the thumbnail images 35 are displayed as 3 vertical × 4 horizontal, but the number and display form are not limited as long as a plurality of thumbnail images 35 are displayed on the display screen 30b.

選択画面を示す表示画面30bに表示されるサムネイル画像35は、記憶部23に格納されている任意の画像ファイル10の画像データをランダムに抽出してそのサムネイル画像を表示すればよいが、事前に代表的な検索キーにより記憶部23に格納されている画像ファイル10の画像データを検索し、同一の検索キーにより検索される可能性のある画像データのサムネイル画像ができるだけ重複して表示されないように抽出してもよい。   The thumbnail image 35 displayed on the display screen 30b indicating the selection screen may be extracted from image data of an arbitrary image file 10 stored in the storage unit 23 at random, and the thumbnail image is displayed in advance. The image data of the image file 10 stored in the storage unit 23 is searched with a typical search key so that thumbnail images of image data that may be searched with the same search key are not displayed as much as possible. It may be extracted.

選択画面を示す表示画面30bにも、ユーザによる入力位置を示すポインタ34が表示されている。ユーザは入力部22によりこのポインタ34を表示画面30b内で移動させ、選択を希望するサムネイル画像35にこのポインタ34の少なくとも一部を重畳表示させた状態でこの入力部22を操作することで、ユーザによりどのサムネイル画像35(図5に示す例では太枠で表示されたサムネイル画像35)が選択されたかを示す選択入力信号が入力部22から出力され、情報処理装置1に入力される。   A pointer 34 indicating the input position by the user is also displayed on the display screen 30b indicating the selection screen. The user moves the pointer 34 in the display screen 30b by the input unit 22 and operates the input unit 22 in a state where at least a part of the pointer 34 is superimposed on the thumbnail image 35 desired to be selected. A selection input signal indicating which thumbnail image 35 (thumbnail image 35 displayed in a thick frame in the example shown in FIG. 5) is selected by the user is output from the input unit 22 and input to the information processing apparatus 1.

次に、図6は、出力部21の表示画面に表示される、情報処理システムSの検索キー表示画面を示す図である。図6に示す検索キー表示画面は、図5においていずれかのサムネイル画像35がユーザにより選択されることにより表示される。   Next, FIG. 6 is a diagram showing a search key display screen of the information processing system S displayed on the display screen of the output unit 21. The search key display screen shown in FIG. 6 is displayed when one of the thumbnail images 35 in FIG. 5 is selected by the user.

検索キー表示画面を示す表示画面30cは、図5に示す選択画面を示す表示画面30bに、関連写真ウィンドウ36が重畳されて表示されて構成されている。関連写真ウィンドウ36には、図5において選択されたサムネイル画像35(図6においてハッチングを付したサムネイル画像35)に対応する画像ファイル10に関連する画像ファイル10のサムネイル画像37及びこのサムネイル画像37を抽出する際に用いられた検索キー38が組となって複数組表示されている。図6に示す例では、サムネイル画像37及び検索キー38の組は5組表示されているが、表示画面30cにサムネイル画像37及び検索キー38が複数組表示されているならばその組数及び表示形態に限定はない。   The display screen 30c showing the search key display screen is configured by displaying the related photo window 36 superimposed on the display screen 30b showing the selection screen shown in FIG. In the related photo window 36, the thumbnail image 37 of the image file 10 related to the image file 10 corresponding to the thumbnail image 35 selected in FIG. 5 (the thumbnail image 35 with hatching in FIG. 6) and the thumbnail image 37 are displayed. A plurality of search keys 38 used for extraction are displayed as a set. In the example shown in FIG. 6, five sets of thumbnail images 37 and search keys 38 are displayed. If a plurality of sets of thumbnail images 37 and search keys 38 are displayed on the display screen 30c, the number and display of the sets are displayed. There is no limitation on the form.

関連写真ウィンドウ36に表示されるサムネイル画像37及び検索キー38の組は、図5において選択されたサムネイル画像35に対応する画像ファイル10のヘッダ部分10aの各領域に記述されたタグ情報を参照して生成された検索キーと、この検索キーにより記憶部23に格納されている画像ファイル10を検索して得られた検索結果である画像ファイル10のサムネイル画像から適宜選択される。   The set of the thumbnail image 37 and the search key 38 displayed in the related photo window 36 refers to tag information described in each area of the header portion 10a of the image file 10 corresponding to the thumbnail image 35 selected in FIG. The search key and the thumbnail image of the image file 10 that is the search result obtained by searching the image file 10 stored in the storage unit 23 using the search key are appropriately selected.

一例として、「海」検索キーは、「分類」検索キーの一例であり、GPS情報領域10iに記述された位置タグ情報から生成される。また、「○○ちゃん」検索キーは、顔認識情報領域10jに記述された被写体区別タグ情報及び個人情報4aに記述された被写体特定情報から生成される。さらに、「場所が近い」検索キーは、GPS情報領域10iに記述された位置タグ情報に基づき、この位置タグ情報の周囲(例えば半径50m)の位置タグ情報を有する画像ファイル10を検索する検索キーとして生成される。さらに、「1年前」検索キーは、撮影日時領域10eに記述された撮影日時タグ情報に基づき、この撮影日時タグ情報内の年月日のうち年のみ1を減じた(つまり1年前)値を有する画像ファイル10を検索する検索キーとして生成される。そして、「XYZ−○」検索キーは、機種名領域10gに記述された機種名タグ情報が「XYZ−○」である画像ファイル10を検索する検索キーとして生成される。   As an example, the “sea” search key is an example of a “classification” search key, and is generated from position tag information described in the GPS information area 10i. Further, the “OO-chan” search key is generated from the subject identification tag information described in the face recognition information area 10j and the subject specifying information described in the personal information 4a. Further, the “close to location” search key is a search key for searching for an image file 10 having position tag information around the position tag information (for example, a radius of 50 m) based on the position tag information described in the GPS information area 10i. Is generated as Further, the “one year ago” search key is based on the shooting date / time tag information described in the shooting date / time area 10e, and the year / month / day in the shooting date / time tag information is decremented by 1 (ie, one year ago). It is generated as a search key for searching for an image file 10 having a value. The “XYZ- ◯” search key is generated as a search key for searching the image file 10 whose model name tag information described in the model name area 10g is “XYZ-O”.

ここで、上述のように、図5において選択されたサムネイル画像35に対応する画像ファイル10のヘッダ部分10aの各領域に記述されたタグ情報を参照することで複数の検索キーを生成することが可能であるので、この複数の検索キーからいずれの検索キー37を選択して表示するかは任意であるが、ユーザに対して異なる観点からの検索キー37及びサムネイル画像38の組を表示する観点から、異なる種類の検索キー、あるいは異なるタグ情報を用いた検索キーをできるだけ多く表示することも可能である。   Here, as described above, a plurality of search keys may be generated by referring to tag information described in each area of the header portion 10a of the image file 10 corresponding to the thumbnail image 35 selected in FIG. Since it is possible, it is arbitrary which search key 37 is selected and displayed from the plurality of search keys, but the viewpoint of displaying a set of the search key 37 and the thumbnail image 38 from different viewpoints to the user. Therefore, it is possible to display as many search keys as possible using different types of search keys or different tag information.

検索キー表示画面を示す表示画面30cにも、ユーザによる入力位置を示すポインタ34が表示されている。ユーザは入力部22によりこのポインタ34を表示画面30c内で移動させ、選択を希望するサムネイル画像37にこのポインタ34の少なくとも一部を重畳表示させた状態でこの入力部22を操作することで、ユーザによりどのサムネイル画像37(図6に示す例では太枠で表示されたサムネイル画像37)が選択されたかを示す選択入力信号が入力部22から出力され、情報処理装置1に入力される。   A pointer 34 indicating the input position by the user is also displayed on the display screen 30c showing the search key display screen. The user moves the pointer 34 on the display screen 30c by the input unit 22 and operates the input unit 22 with at least a part of the pointer 34 superimposed on the thumbnail image 37 desired to be selected. A selection input signal indicating which thumbnail image 37 (thumbnail image 37 displayed with a thick frame in the example shown in FIG. 6) is selected by the user is output from the input unit 22 and input to the information processing apparatus 1.

次に、図7は、出力部21の表示画面に表示される、情報処理システムSの検索表示画面を示す図である。図7に示す検索表示画面は、図6においていずれかのサムネイル画像37がユーザにより選択されることにより表示される。   Next, FIG. 7 is a diagram showing a search display screen of the information processing system S displayed on the display screen of the output unit 21. The search display screen shown in FIG. 7 is displayed when one of the thumbnail images 37 in FIG. 6 is selected by the user.

検索表示画面を示す表示画面30dには、図6において選択されたサムネイル画像37と組になっている検索キー38を用いて記憶部23に格納されている画像ファイル10を検索し、その検索結果である画像ファイル10の画像データのサムネイル画像39が表示されている。図7に示す例では、サムネイル画像39は縦3枚×横4枚表示されているが、表示画面30dに表示されるサムネイル画像39の枚数は検索結果に依存して決まり、また、全ての検索結果である画像ファイル10のサムネイル画像39を表示しなくてもよい。加えて、サムネイル画像39の表示形態にも限定はない。図7と異なる別の表示形態について図8を参照して説明する。   On the display screen 30d showing the search display screen, the image file 10 stored in the storage unit 23 is searched using the search key 38 paired with the thumbnail image 37 selected in FIG. A thumbnail image 39 of the image data of the image file 10 is displayed. In the example shown in FIG. 7, the thumbnail images 39 are displayed as 3 vertical × 4 horizontal, but the number of thumbnail images 39 displayed on the display screen 30d is determined depending on the search result, and all the searches are performed. It is not necessary to display the thumbnail image 39 of the resulting image file 10. In addition, the display form of the thumbnail image 39 is not limited. Another display form different from FIG. 7 will be described with reference to FIG.

図8は、出力部21の表示画面に表示される、情報処理システムSのタイムライン画面を示す図である。図8に示すタイムライン画面は、図6においていずれかのサムネイル画像37がユーザにより選択されることにより表示される。   FIG. 8 is a diagram showing a timeline screen of the information processing system S displayed on the display screen of the output unit 21. The timeline screen shown in FIG. 8 is displayed when one of the thumbnail images 37 in FIG. 6 is selected by the user.

タイムライン画面を示す表示画面30eには、図6において選択されたサムネイル画像37と組になっている検索キー38を用いて記憶部23に格納されている画像ファイル10を検索し、その検索結果である画像ファイル10の画像データのサムネイル画像40が表示されている。図7の表示画面30dと図8の表示画面30eとの相違点は、図7の表示画面30dではサムネイル画像39は特段の配列順に従って配列されておらず、あるいは、特段の配列順を有する場合でもその配列順は表示画面30d上からは判別することが困難であるのに対し、図8の表示画面30eでは、サムネイル画像40に対応する画像ファイル10の撮影日時タグ情報が示す撮影日時が時間軸に沿って左から右に進むようにサムネイル画像40が配列されている点である。   On the display screen 30e showing the timeline screen, the image file 10 stored in the storage unit 23 is searched using the search key 38 paired with the thumbnail image 37 selected in FIG. A thumbnail image 40 of the image data of the image file 10 is displayed. The difference between the display screen 30d in FIG. 7 and the display screen 30e in FIG. 8 is that, in the display screen 30d in FIG. 7, the thumbnail images 39 are not arranged in a special arrangement order or have a special arrangement order. However, it is difficult to determine the arrangement order from the display screen 30d. On the other hand, in the display screen 30e of FIG. 8, the shooting date and time indicated by the shooting date and time tag information of the image file 10 corresponding to the thumbnail image 40 is the time. The thumbnail images 40 are arranged so as to proceed from left to right along the axis.

より詳細には、表示画面30eの第1領域41aには、撮影日時タグ情報の年月日がX年Y月21日(X、Yは任意の年月を示す自然数)であるサムネイル画像40が、第2領域41bには、撮影日時タグ情報の年月日がX年Y月22日であるサムネイル画像40が、第3領域41cには、撮影日時タグ情報の年月日がX年Y月23日であるサムネイル画像40が、第4領域41dには、撮影日時タグ情報の年月日がX年Y月24日であるサムネイル画像40が配列されている。これにより、選択されたサムネイル画像37に対応する検索キー38により検索された結果としての画像ファイル10のサムネイル画像40を時間軸上で把握することができ、ユーザの利便性を向上することができる。   More specifically, in the first area 41a of the display screen 30e, there is a thumbnail image 40 in which the date of the shooting date / time tag information is Y / 21 of X / Y (X and Y are natural numbers indicating arbitrary years and months). In the second area 41b, the thumbnail image 40 in which the shooting date / time tag information is the year 22 month X / Y is shown in the third area 41c. The thumbnail image 40 corresponding to the 23rd is arranged in the fourth area 41d in the fourth area 41d. As a result, the thumbnail image 40 of the image file 10 as a result of searching with the search key 38 corresponding to the selected thumbnail image 37 can be grasped on the time axis, and user convenience can be improved. .

次に、図9は、出力部21の表示画面に表示される、情報処理システムSの検索キー絞り込み画面を示す図である。図9に示す検索キー絞り込み画面は、図5においていずれかのサムネイル画像35がユーザにより選択されることにより表示される。   Next, FIG. 9 is a diagram showing a search key narrowing screen of the information processing system S displayed on the display screen of the output unit 21. The search key narrowing screen shown in FIG. 9 is displayed when one of the thumbnail images 35 in FIG. 5 is selected by the user.

検索キー絞り込み画面を示す表示画面30fは、図5に示す選択画面を示す表示画面30bに、図6と同様な関連写真ウィンドウ42が重畳されて表示されて構成されている。すなわち、関連写真ウィンドウ42には、図5において選択されたサムネイル画像35(図9においてハッチングを付したサムネイル画像35)に対応する画像ファイル10に関連する画像ファイル10のサムネイル画像43及びこのサムネイル画像43を抽出する際に用いられた検索キー44が組となって複数組表示されている。   The display screen 30f showing the search key narrowing down screen is configured by displaying the related picture window 42 similar to that in FIG. 6 on the display screen 30b showing the selection screen shown in FIG. That is, in the related photo window 42, the thumbnail image 43 of the image file 10 related to the image file 10 corresponding to the thumbnail image 35 selected in FIG. 5 (the thumbnail image 35 with hatching in FIG. 9) and the thumbnail image 35 are displayed. A plurality of search keys 44 used when extracting 43 are displayed as a set.

検索キー絞り込み画面を示す表示画面30fにも、ユーザによる入力位置を示すポインタ34が表示されている。ユーザは入力部22によりこのポインタ34を表示画面30f内で移動させ、選択を希望するサムネイル画像43にこのポインタ34の少なくとも一部を重畳表示させた状態でこの入力部22を操作し、これを順次繰り返すことで複数のサムネイル画像43(図9に示す例では太枠で表示されたサムネイル画像43)を選択する。図6に示す検索キー表示画面30cにおける単一のサムネイル画像37選択動作と図9に示す検索キー絞り込み画面30fにおける複数のサムネイル画像43選択動作とを区別して入力操作する手法は任意であり、一例として、入力部22側に複数のサムネイル画像43選択動作を選択するための特別なキー、ボタン等を設け、このキー等が操作されることにより、複数のサムネイル画像43選択動作に移行する手法が挙げられる。さらに、図9の検索キー絞り込み画面30fにおけるサムネイル画像43選択動作の結果として表示される検索表示画面30dにおいて、選択された複数のサムネイル画像43のそれぞれに対応する検索キー44による検索結果の和集合または積集合のいずれを表示するかを選択するキー、ボタン等を入力部22に設けることが好ましい。   A pointer 34 indicating the input position by the user is also displayed on the display screen 30f showing the search key narrowing screen. The user moves the pointer 34 in the display screen 30f by the input unit 22, operates the input unit 22 in a state where at least a part of the pointer 34 is superimposed on the thumbnail image 43 desired to be selected. A plurality of thumbnail images 43 (thumbnail images 43 displayed in a thick frame in the example shown in FIG. 9) are selected by repeating in sequence. A method of performing an input operation by distinguishing between a single thumbnail image 37 selection operation on the search key display screen 30c shown in FIG. 6 and a plurality of thumbnail image 43 selection operations on the search key narrowing screen 30f shown in FIG. 9 is arbitrary. As a technique, a special key, button, or the like for selecting a plurality of thumbnail image 43 selection operations is provided on the input unit 22 side, and the operation shifts to a plurality of thumbnail image 43 selection operations by operating these keys. Can be mentioned. Furthermore, on the search display screen 30d displayed as a result of the thumbnail image 43 selection operation on the search key narrowing screen 30f in FIG. 9, the union of the search results by the search key 44 corresponding to each of the plurality of selected thumbnail images 43. Alternatively, it is preferable to provide the input unit 22 with keys, buttons, and the like for selecting which product set is displayed.

ユーザにより複数のサムネイル画像43が選択されると、ユーザによりどのサムネイル画像43が選択されたかを示す選択入力信号と、このサムネイル画像43に対応する検索キー44による検索結果の和集合または積集合のいずれを表示するかを選択する検索結果選択信号とが入力部22から出力され、情報処理装置1に入力される。   When a plurality of thumbnail images 43 are selected by the user, a selection input signal indicating which thumbnail image 43 has been selected by the user, and a union or intersection of search results by the search key 44 corresponding to the thumbnail image 43 A search result selection signal for selecting which to display is output from the input unit 22 and input to the information processing apparatus 1.

この後、図7に示す検索表示画面を示す表示画面30dが出力部21の表示画面に表示される。この際、表示画面30dには、図9において選択された複数のサムネイル画像37と組になっている検索キー38のそれぞれを用いて記憶部23に格納されている画像ファイル10を検索し、検索結果選択信号に基づいてその検索結果の和集合または積集合である画像ファイル10の画像データのサムネイル画像39が表示される。   Thereafter, a display screen 30 d showing the search display screen shown in FIG. 7 is displayed on the display screen of the output unit 21. At this time, the image file 10 stored in the storage unit 23 is searched for on the display screen 30d using each of the search keys 38 paired with the plurality of thumbnail images 37 selected in FIG. Based on the result selection signal, a thumbnail image 39 of the image data of the image file 10 which is the union or intersection of the search results is displayed.

次に、図10は、出力部21の表示画面に表示される、情報処理システムSの検索キー追加画面の一例を示す図である。図10に示す検索キー追加画面は、図5においていずれかのサムネイル画像35がユーザにより選択されることにより表示される。   Next, FIG. 10 is a diagram illustrating an example of a search key addition screen of the information processing system S displayed on the display screen of the output unit 21. The search key addition screen shown in FIG. 10 is displayed when one of the thumbnail images 35 in FIG. 5 is selected by the user.

検索キー追加画面を示す表示画面30gは、図5に示す選択画面を示す表示画面30bに、図6と同様な関連写真ウィンドウ45が重畳されて表示されて構成されている。すなわち、関連写真ウィンドウ45には、図5において選択されたサムネイル画像35(図10においてハッチングを付したサムネイル画像35)に対応する画像ファイル10に関連する画像ファイル10のサムネイル画像46及びこのサムネイル画像46を抽出する際に用いられた検索キー47が組となって複数組表示されている。   The display screen 30g showing the search key addition screen is configured such that the related photo window 45 similar to that shown in FIG. 6 is superimposed on the display screen 30b showing the selection screen shown in FIG. That is, in the related photo window 45, the thumbnail image 46 of the image file 10 related to the image file 10 corresponding to the thumbnail image 35 selected in FIG. 5 (the thumbnail image 35 with hatching in FIG. 10) and the thumbnail image A plurality of search keys 47 used for extracting 46 are displayed as a set.

検索キー追加画面を示す表示画面30gにも、ユーザによる入力位置を示すポインタ34が表示されている。ユーザは入力部22によりこのポインタ34を表示画面30g内で移動させ、選択を希望するサムネイル画像46にこのポインタ34の少なくとも一部を重畳表示させた状態でこの入力部22を操作することで、サムネイル画像46(図10に示す例では太枠で表示されたサムネイル画像46)を選択する。   A pointer 34 indicating the input position by the user is also displayed on the display screen 30g showing the search key addition screen. The user moves the pointer 34 in the display screen 30g by the input unit 22 and operates the input unit 22 in a state where at least a part of the pointer 34 is superimposed on the thumbnail image 46 desired to be selected. A thumbnail image 46 (in the example shown in FIG. 10, the thumbnail image 46 displayed with a thick frame) is selected.

サムネイル画像46が選択されると、選択されたサムネイル画像46に対応する検索キー47が特定され、この検索キー47に対して、タグ情報を微調整した新たな検索キー48が生成され、さらに、この新たな検索キー48を用いて記憶部23に格納されている画像ファイル10を検索して得られた検索結果である画像ファイル10のサムネイル画像49が抽出され、これら検索キー48及びサムネイル画像49が組となって表示される。ここに、微調整とは、特定の検索キーにより検索するタグ情報領域は変更せず、その検索条件の一部を変更し、類似する検索キーを生成することを意味する。一例として、図10の例では、「土曜日」検索キー47が選択されたので、この検索キー47により検索するタグ領域である撮影日時領域10eは変更せず、土曜日の次の曜日である「日曜日」検索キー48を生成する。あるいは、上述した検索キーの曖昧化作業における順序設定動作を用いて、「土曜日」の次の曜日である「日曜日」検索キー48を生成してもよい。   When the thumbnail image 46 is selected, a search key 47 corresponding to the selected thumbnail image 46 is specified, and a new search key 48 in which tag information is finely adjusted is generated for the search key 47, and further, A thumbnail image 49 of the image file 10 as a search result obtained by searching the image file 10 stored in the storage unit 23 using the new search key 48 is extracted, and the search key 48 and the thumbnail image 49 are extracted. Are displayed as a pair. Here, the fine adjustment means that a tag information area to be searched with a specific search key is not changed, but a part of the search condition is changed to generate a similar search key. As an example, since the “Saturday” search key 47 is selected in the example of FIG. 10, the shooting date / time area 10 e that is a tag area to be searched by this search key 47 is not changed, and “Sunday” is the next day of the week after Saturday. "The search key 48 is generated. Alternatively, the “Sunday” search key 48, which is the next day of the week after “Saturday”, may be generated by using the order setting operation in the search key ambiguity process described above.

図6に示す検索キー表示画面30cにおける単一のサムネイル画像37選択動作と図10に示す検索キー追加画面30gにおける微調整された検索キー48生成動作とを区別して入力操作する手法は任意であり、一例として、入力部22側に微調整された検索キー生成動作を指令するための特別なキー、ボタン等を設け、このキー等が操作されることにより、微調整された検索キー生成動作に移行する手法が挙げられる。微調整された検索キー48に基づくサムネイル画像49はポインタ34により同様に選択可能であり、いずれのサムネイル画像46、49が選択されても、ユーザによりどのサムネイル画像46、49が選択されたかを示す選択入力信号が入力部22から出力され、情報処理装置1に入力される。   A method for performing an input operation by distinguishing the single thumbnail image 37 selection operation on the search key display screen 30c shown in FIG. 6 from the finely adjusted search key 48 generation operation on the search key addition screen 30g shown in FIG. 10 is arbitrary. As an example, a special key, button, or the like for instructing a finely adjusted search key generation operation is provided on the input unit 22 side, and when this key or the like is operated, a finely adjusted search key generation operation is performed. There is a method to migrate. The thumbnail image 49 based on the fine-tuned search key 48 can be similarly selected by the pointer 34, and shows which thumbnail image 46, 49 is selected by the user regardless of which thumbnail image 46, 49 is selected. A selection input signal is output from the input unit 22 and input to the information processing apparatus 1.

次に、図11は、出力部21の表示画面に表示される、情報処理システムSの検索キー追加画面の別の例を示す図である。図11に示す検索キー追加画面は、図5においていずれかのサムネイル画像35がユーザにより選択されることにより表示される。   Next, FIG. 11 is a diagram illustrating another example of the search key addition screen of the information processing system S displayed on the display screen of the output unit 21. The search key addition screen shown in FIG. 11 is displayed when one of the thumbnail images 35 in FIG. 5 is selected by the user.

検索キー追加画面を示す表示画面30hは、図5に示す選択画面を示す表示画面30bに、図6と同様な関連写真ウィンドウ50が重畳されて表示されて構成されている。すなわち、関連写真ウィンドウ50には、図5において選択されたサムネイル画像35(図11においてハッチングを付したサムネイル画像35)に対応する画像ファイル10に関連する画像ファイル10のサムネイル画像51及びこのサムネイル画像51を抽出する際に用いられた検索キー52が組となって複数組表示されている。   The display screen 30h showing the search key addition screen is configured such that the related photo window 50 similar to that in FIG. 6 is superimposed on the display screen 30b showing the selection screen shown in FIG. That is, in the related photo window 50, the thumbnail image 51 of the image file 10 related to the image file 10 corresponding to the thumbnail image 35 selected in FIG. 5 (the thumbnail image 35 with hatching in FIG. 11) and this thumbnail image. A plurality of search keys 52 used when extracting 51 are displayed as a set.

検索キー追加画面を示す表示画面30hにも、ユーザによる入力位置を示すポインタ34が表示されている。ユーザは入力部22によりこのポインタ34を表示画面30h内で移動させ、選択を希望するサムネイル画像51にこのポインタ34の少なくとも一部を重畳表示させた状態でこの入力部22を操作することで、サムネイル画像51(図10に示す例では太枠で表示されたサムネイル画像51)を選択する。   A pointer 34 indicating the input position by the user is also displayed on the display screen 30h showing the search key addition screen. The user moves the pointer 34 within the display screen 30h by the input unit 22 and operates the input unit 22 with at least a part of the pointer 34 superimposed on the thumbnail image 51 desired to be selected. A thumbnail image 51 (thumbnail image 51 displayed with a thick frame in the example shown in FIG. 10) is selected.

サムネイル画像51が選択されると、選択されたサムネイル画像51に対応する検索キー52が特定され、この検索キー52に対して、記憶部23内のシソーラス辞書11(図3参照)を用いて新たな検索キー53が生成され、さらに、この新たな検索キー53を用いて記憶部23に格納されている画像ファイル10を検索して得られた検索結果である画像ファイル10のサムネイル画像54が抽出され、これら検索キー53及びサムネイル画像54が組となって表示される。   When the thumbnail image 51 is selected, a search key 52 corresponding to the selected thumbnail image 51 is specified, and a new search key 52 is newly created using the thesaurus dictionary 11 (see FIG. 3) in the storage unit 23. A search key 53 is generated, and a thumbnail image 54 of the image file 10 as a search result obtained by searching the image file 10 stored in the storage unit 23 using the new search key 53 is extracted. The search key 53 and the thumbnail image 54 are displayed as a set.

シソーラス辞書11による新たな検索キー53生成の具体例を、図11及び図12を参照して説明する。図11においては、ポインタ34により「海水浴」検索キー52に対応するサムネイル画像51が選択されている。この「海水浴」検索キーは、GPS情報領域10iに記述された位置タグ情報をWAN17に所在する外部サーバ、一例として地図サーバや観光地に関する情報が蓄積されたサーバに問い合わせ、この緯度情報、経度情報及び高度情報を有するランドマーク名を入手し、このランドマーク名が海水浴場である画像ファイル10を検索するキーとして生成されている。そして、「海水浴」という単語そのものをシソーラス辞書11に提供し、「海水浴」のシソーラスである単語の提供を受ける。   A specific example of generating a new search key 53 by the thesaurus dictionary 11 will be described with reference to FIGS. In FIG. 11, the thumbnail image 51 corresponding to the “sea bathing” search key 52 is selected by the pointer 34. This "sea bathing" search key inquires the position tag information described in the GPS information area 10i to an external server located in the WAN 17, for example, a map server or a server in which information relating to a sightseeing spot is stored, and this latitude information, longitude information The landmark name having altitude information is obtained, and the landmark name is generated as a key for searching the image file 10 which is a beach. Then, the word “sea bathing” itself is provided to the thesaurus dictionary 11 and the word which is the thesaurus of “sea bathing” is provided.

図12は、シソーラス辞書11の一例を示す図である。図12に示す例では、「海水浴」と「潮干狩り」は同じ「海」というカテゴリーに属するシソーラスである。従って、シソーラス辞書11は、「海水浴」のシソーラスとして「潮干狩り」を提供する。そして、この新たな検索キー「潮干狩り」53を用いて記憶部23に格納されている画像ファイル10を検索して得られた検索結果である画像ファイル10のサムネイル画像54が抽出され、これら検索キー53及びサムネイル画像54が組となって表示される。なお、WAN17に所在する外部サーバ内に置かれたシソーラス辞書を用いてもよい。   FIG. 12 is a diagram illustrating an example of the thesaurus dictionary 11. In the example shown in FIG. 12, “sea bathing” and “tide hunting” are thesauruses that belong to the same category of “sea”. Therefore, the thesaurus dictionary 11 provides “tide hunting” as a “sea bathing” thesaurus. Then, the thumbnail image 54 of the image file 10 which is a search result obtained by searching the image file 10 stored in the storage unit 23 using the new search key “tide hunting” 53 is extracted. 53 and thumbnail image 54 are displayed as a set. A thesaurus dictionary placed in an external server located in the WAN 17 may be used.

図6に示す検索キー表示画面30cにおける単一のサムネイル画像37選択動作と図11に示す検索キー追加画面30hにおけるシソーラス辞書11による検索キー53生成動作とを区別して入力操作する手法は任意であり、一例として、入力部22側にシソーラス辞書11による検索キー生成動作を指令するための特別なキー、ボタン等を設け、このキー等が操作されることにより、シソーラス辞書11による検索キー生成動作に移行する手法が挙げられる。シソーラス辞書11による検索キー53に基づくサムネイル画像54はポインタ34により同様に選択可能であり、いずれのサムネイル画像54が選択されても、ユーザによりどのサムネイル画像54が選択されたかを示す選択入力信号が入力部22から出力され、情報処理装置1に入力される。   A method for performing an input operation by distinguishing between the operation for selecting a single thumbnail image 37 on the search key display screen 30c shown in FIG. 6 and the operation for generating the search key 53 by the thesaurus dictionary 11 on the search key addition screen 30h shown in FIG. As an example, a special key, button or the like for instructing a search key generation operation by the thesaurus dictionary 11 is provided on the input unit 22 side, and the search key generation operation by the thesaurus dictionary 11 is performed by operating this key or the like. There is a method to migrate. The thumbnail image 54 based on the search key 53 by the thesaurus dictionary 11 can be similarly selected by the pointer 34, and a selection input signal indicating which thumbnail image 54 has been selected by the user regardless of which thumbnail image 54 is selected. The data is output from the input unit 22 and input to the information processing apparatus 1.

(情報処理システムの動作フロー)
次に、図15及び図16のフローチャートを参照して、本実施形態の情報処理システムSの動作フローについて説明する。
(Operation flow of information processing system)
Next, the operation flow of the information processing system S of the present embodiment will be described with reference to the flowcharts of FIGS. 15 and 16.

図15のフローチャートに示す動作は、図略の電源ボタン等を操作することで情報処理装置1に電源が投入されて起動する時点から開始する。まず、ステップS1において、情報処理装置1の制御部24の画像ファイル選択部25は、記憶部23内に格納されている画像ファイル10の画像データを読み込み、次いでステップS2において、画像ファイル選択部25は、記憶部23から読み出した画像ファイル10のヘッダ部分10aの各領域に記述されたタグ情報を抽出する。抽出されたタグ情報は記憶部23に一時的に格納される。また、ヘッダ部分10aの各領域に記述されたタグ情報をキーとして、記憶部23内のシソーラス辞書11、あるいはWAN17に所在する外部サーバに問い合わせた結果としての情報を入手しても良い。   The operation shown in the flowchart of FIG. 15 starts when the information processing apparatus 1 is turned on and started up by operating a power button (not shown) or the like. First, in step S1, the image file selection unit 25 of the control unit 24 of the information processing apparatus 1 reads the image data of the image file 10 stored in the storage unit 23, and then in step S2, the image file selection unit 25. Extracts tag information described in each area of the header portion 10 a of the image file 10 read from the storage unit 23. The extracted tag information is temporarily stored in the storage unit 23. Further, information obtained as a result of inquiring the thesaurus dictionary 11 in the storage unit 23 or an external server located in the WAN 17 may be obtained using the tag information described in each area of the header portion 10a as a key.

次いで、ステップS3では、画像ファイル選択部25が図5の選択画面30bに表示するための画像ファイル10を選択する。既に述べたように、ステップS3における画像ファイル10選択動作において、画像ファイル選択部25は、記憶部23内に格納されている画像ファイル10から、選択画面30bに表示できるサムネイル画像35の数だけ画像ファイル10をランダムに選択してもよいし、ステップS2において抽出したタグ情報に基づき、同一の検索キーにより検索される可能性のある画像データのサムネイル画像35ができるだけ重複して表示されないように選択してもよい。   Next, in step S3, the image file selection unit 25 selects the image file 10 to be displayed on the selection screen 30b in FIG. As already described, in the image file 10 selection operation in step S3, the image file selection unit 25 selects the number of thumbnail images 35 that can be displayed on the selection screen 30b from the image file 10 stored in the storage unit 23. The file 10 may be selected at random, or based on the tag information extracted in step S2, the thumbnail images 35 of image data that may be searched with the same search key are selected so as not to be displayed as much as possible. May be.

次いで、ステップS4では、初期画面30aに表示すべきボタン31に重畳すべき画像ファイル10の画像データを選択する。選択の母集団となる画像ファイル10は、ステップS3において選択された画像ファイル10である。この時、既に述べたように、同一の検索キーにより検索される可能性のある画像データができるだけ重複して表示されないように選択してもよい。そして、ステップS5では、ステップS4で選択された画像ファイル10の画像データを含む、図4に示すような初期画面30aのデータを生成し、出力部21に表示させる。   In step S4, image data of the image file 10 to be superimposed on the button 31 to be displayed on the initial screen 30a is selected. The image file 10 serving as the selected population is the image file 10 selected in step S3. At this time, as already described, image data that may be searched by the same search key may be selected so as not to be displayed as much as possible. In step S5, data of the initial screen 30a as shown in FIG. 4 including the image data of the image file 10 selected in step S4 is generated and displayed on the output unit 21.

次いで、ステップS6では、入力部22をユーザが操作することにより初期画面30a上でポインタ34が移動し、そして、ポインタ34がいずれかのボタン31〜33の少なくとも一部に重畳された状態で入力部22がユーザにより操作されることで、ボタン31〜33のいずれかが選択されたことを示す選択入力信号が入力部22から出力されるまで待機し、写真データ閲覧モードに移行するためのボタン31がユーザにより選択されたことを示す選択入力信号が入力部22から制御部24に出力されると(ステップS6においてYES)、プログラムはステップS7に移行する。   Next, in step S6, when the user operates the input unit 22, the pointer 34 moves on the initial screen 30a, and the pointer 34 is input in a state where the pointer 34 is superimposed on at least a part of any of the buttons 31 to 33. A button for shifting to the photo data browsing mode after the selection input signal indicating that any of the buttons 31 to 33 is selected is output from the input unit 22 when the unit 22 is operated by the user. When a selection input signal indicating that 31 has been selected by the user is output from input unit 22 to control unit 24 (YES in step S6), the program proceeds to step S7.

ステップS7では、画像ファイル選択部25が、ステップS3で選択した画像ファイル10のサムネイル画像35を含む、図5に示すような選択画面30bのデータを生成し、出力部21に表示させる。次いで、ステップS8では、入力部22をユーザが操作することにより選択画面30b上でポインタ34が移動し、そして、ポインタ34がいずれかのサムネイル画像35の少なくとも一部に重畳された状態で入力部22がユーザにより操作されることで、いずれのサムネイル画像35が選択されたことを示す選択入力信号が入力部22から出力されるまで待機し、いずれかのサムネイル画像35がユーザにより選択されたことを示す選択入力信号が入力部22から制御部24に出力されると(ステップS8においてYES)、プログラムは図16のステップS9に移行する。   In step S <b> 7, the image file selection unit 25 generates data of the selection screen 30 b as shown in FIG. 5 including the thumbnail image 35 of the image file 10 selected in step S <b> 3 and displays it on the output unit 21. Next, in step S8, the user operates the input unit 22 to move the pointer 34 on the selection screen 30b, and the input unit with the pointer 34 superimposed on at least a part of one of the thumbnail images 35. 22 is operated by the user, the process waits until a selection input signal indicating that any thumbnail image 35 is selected is output from the input unit 22, and any thumbnail image 35 is selected by the user. Is output from the input unit 22 to the control unit 24 (YES in step S8), the program proceeds to step S9 in FIG.

ステップS9では、情報取得部26が、ステップS8において選択されたサムネイル画像35に対応する画像ファイル10のタグ情報を取得する。既に述べたように、情報取得部26により取得される情報には、画像ファイル10のヘッダ部分10aの各領域に記述された情報が含まれる。情報取得部26により取得される他の情報としては、例えば、画像ファイル10のヘッダ部分10aの各領域に記述された情報を記憶部23に格納されたシソーラス辞書ファイル11に提供して得られたシソーラス情報、さらには画像ファイル10のヘッダ部分10aの各領域に記述された情報をWAN17に提供して得られた情報が含まれる。   In step S9, the information acquisition unit 26 acquires tag information of the image file 10 corresponding to the thumbnail image 35 selected in step S8. As already described, the information acquired by the information acquisition unit 26 includes information described in each area of the header portion 10a of the image file 10. Other information acquired by the information acquisition unit 26 is obtained, for example, by providing the information described in each area of the header portion 10a of the image file 10 to the thesaurus dictionary file 11 stored in the storage unit 23. The thesaurus information and information obtained by providing the WAN 17 with information described in each area of the header portion 10a of the image file 10 are included.

次いで、ステップS10では、検索キー生成部27が、ステップS9で情報取得部が取得したタグ情報のうち少なくとも一つを使用して、取得タグ情報を抽象化した検索キーを少なくとも一つ、好ましくは複数生成する。抽象化した検索キーの生成手順及び生成される検索キーの具体例については既に述べたのでここでは説明を省略する。同様に、検索キー生成部27は、生成した検索キーに対して微調整を行い、また、生成した検索キーに対して曖昧化を図ることもある。微調整作業及び曖昧化作業についても既に述べたのでここでは説明を省略する。   Next, in step S10, the search key generation unit 27 uses at least one of the tag information acquired by the information acquisition unit in step S9 and uses at least one search key that abstracts the acquired tag information, preferably Generate multiple. Since the abstracted search key generation procedure and the specific example of the generated search key have already been described, description thereof will be omitted here. Similarly, the search key generation unit 27 performs fine adjustment on the generated search key, and may make the generated search key ambiguous. Since the fine adjustment work and the ambiguity work have already been described, the description thereof is omitted here.

ステップS11では、検索キー生成部27が、ステップS10において生成した検索キーを用いて、記憶部23に格納された画像ファイル10を検索する。ここで、検索キー生成部27は、ステップS10において生成した検索キーの全てについてステップS11において画像ファイル10を検索する必要はなく、図6に示す検索キー表示画面30cにおいて表示するサムネイル画像37及び検索キー38の組数に対応する検索キー(つまり検索キー表示画面30cに表示される検索キー38)を用いて最低限検索を行えばよい。そして、ステップS12では、検索キー生成部27が、ステップS10において生成した検索キー及びステップS11において検索した画像ファイル10に基づいて、図6に示すような検索キー表示画面30cのデータを生成し、出力部21に表示させる。既に述べたように、検索キー表示画面30cに表示されるサムネイル画像37及び検索キー38の組は、ステップS10及びステップS11において生成、検索された検索キー及び画像ファイル10の全てに対応するものとは限らない。   In step S11, the search key generation unit 27 searches the image file 10 stored in the storage unit 23 using the search key generated in step S10. Here, the search key generation unit 27 does not need to search the image file 10 in step S11 for all the search keys generated in step S10, and the thumbnail image 37 and the search displayed on the search key display screen 30c shown in FIG. The minimum search may be performed using a search key corresponding to the number of sets of keys 38 (that is, the search key 38 displayed on the search key display screen 30c). In step S12, the search key generation unit 27 generates data of the search key display screen 30c as shown in FIG. 6 based on the search key generated in step S10 and the image file 10 searched in step S11. It is displayed on the output unit 21. As described above, the set of the thumbnail image 37 and the search key 38 displayed on the search key display screen 30c corresponds to all of the search keys and the image file 10 generated and searched in step S10 and step S11. Is not limited.

ステップS13では、入力部22をユーザが操作することにより検索キー表示画面30c上でポインタ34が移動し、そして、ポインタ34がいずれかのサムネイル画像37の少なくとも一部に重畳された状態で入力部22がユーザにより操作されことで、いずれかのサムネイル画像37が選択されたことを示す選択入力信号が入力部22から出力されるまで待機し、いずれかのサムネイル画像37がユーザにより選択されたことを示す選択入力信号が入力部22から制御部24に出力されると(ステップS13においてYES)、プログラムはステップS14に移行する。既に述べたように、ステップS13において、複数のサムネイル画像43が選択されることがあり(図9参照)、また、複数のサムネイル画像43が選択された場合は、検索結果として複数のサムネイル画像43に対応する検索キー44の和集合または積集合のいずれを表示するかも選択されるので、この場合は、入力部22から、複数のサムネイル画像43選択入力信号と、このサムネイル画像43に対応する検索キー44による検索結果の和集合または積集合のいずれを表示するかを選択する検索結果選択信号とが出力される。   In step S13, when the user operates the input unit 22, the pointer 34 is moved on the search key display screen 30c, and the input unit is displayed with the pointer 34 superimposed on at least a part of any one of the thumbnail images 37. 22 is operated by the user, and it waits until a selection input signal indicating that any one of the thumbnail images 37 is selected is output from the input unit 22, and any one of the thumbnail images 37 is selected by the user. Is output from the input unit 22 to the control unit 24 (YES in step S13), the program proceeds to step S14. As already described, in step S13, a plurality of thumbnail images 43 may be selected (see FIG. 9). When a plurality of thumbnail images 43 are selected, a plurality of thumbnail images 43 are obtained as a search result. It is also selected whether to display the union set or the intersection set of the search key 44 corresponding to. In this case, a plurality of thumbnail image 43 selection input signals and a search corresponding to the thumbnail image 43 are input from the input unit 22. A search result selection signal for selecting whether to display a union or a set of search results by the key 44 is output.

ステップS14では、画像ファイル検索部28が、ステップS13において選択された検索キー37を用いて、記憶部23に格納された画像ファイル10を検索する。また、画像ファイル検索部28は、出力部21に表示された検索キー43が入力部22により複数選択された場合は、この入力部22から出力される複数の検索キー選択信号、及びこのサムネイル画像43に対応する検索キー44による検索結果の和集合または積集合のいずれを表示するかを選択する検索結果選択信号を受信し、複数の検索キー44の検索結果の和集合または積集合である画像ファイル10を検索する。   In step S <b> 14, the image file search unit 28 searches the image file 10 stored in the storage unit 23 using the search key 37 selected in step S <b> 13. In addition, when a plurality of search keys 43 displayed on the output unit 21 are selected by the input unit 22, the image file search unit 28 outputs a plurality of search key selection signals output from the input unit 22 and the thumbnail images. An image which is a union or product set of search results of a plurality of search keys 44 is received by receiving a search result selection signal for selecting whether to display a union or a set of search results by the search key 44 corresponding to 43 The file 10 is searched.

そして、ステップS15では、画像ファイル検索部28が、ステップS14において検索された画像ファイル10のうち少なくとも一つの画像ファイル10のサムネイル画像39を含む、図7に示すような検索表示画面30dのデータ、あるいは図8に示すようなタイムライン画面30eを生成し、出力部に表示させる。既に述べたように、画像ファイル検索部28が出力部22に表示させるサムネイル画像39の枚数は検索結果に依存して決まり、また、全ての検索結果である画像ファイル10のサムネイル画像39を表示しなくてもよい。   In step S15, the image file search unit 28 includes data on the search display screen 30d as shown in FIG. 7 including the thumbnail image 39 of at least one of the image files 10 searched in step S14. Alternatively, a timeline screen 30e as shown in FIG. 8 is generated and displayed on the output unit. As described above, the number of thumbnail images 39 displayed by the image file search unit 28 on the output unit 22 is determined depending on the search result, and the thumbnail images 39 of the image file 10 as all search results are displayed. It does not have to be.

(第1実施形態の効果)
以上詳細に説明したように、本実施形態の情報処理システムSでは、記憶部23内に格納された画像ファイル10のサムネイル画像35を表示画面30bに表示させるとともに、画像ファイル10のタグ情報を取得し、このサムネイル画像35が選択されると、選択されたサムネイル画像35に対応する画像ファイル10のタグ情報に基づいて検索キー38を生成し、この検索キー38が選択されると、選択された検索キー38により画像ファイル10を検索して、その検索結果である画像ファイル10のサムネイル画像39を表示している。あるいは、サムネイル画像35が選択されると、選択されたサムネイル画像35に対応する画像ファイル10のタグ情報を取得し、このタグ情報に基づいて検索キー38を生成し、この検索キー38が選択されると、選択された検索キー38により画像ファイル10を検索して、その検索結果である画像ファイル10のサムネイル画像39を表示している。
(Effect of 1st Embodiment)
As described above in detail, in the information processing system S of the present embodiment, the thumbnail image 35 of the image file 10 stored in the storage unit 23 is displayed on the display screen 30b and the tag information of the image file 10 is acquired. When the thumbnail image 35 is selected, a search key 38 is generated based on the tag information of the image file 10 corresponding to the selected thumbnail image 35. When the search key 38 is selected, the selected thumbnail image 35 is selected. The image file 10 is searched by the search key 38, and the thumbnail image 39 of the image file 10 as the search result is displayed. Alternatively, when the thumbnail image 35 is selected, tag information of the image file 10 corresponding to the selected thumbnail image 35 is acquired, a search key 38 is generated based on the tag information, and the search key 38 is selected. Then, the image file 10 is searched by the selected search key 38, and the thumbnail image 39 of the image file 10 as the search result is displayed.

すなわち、ユーザは表示されたサムネイル画像35に注目したら、そのサムネイル画像35を選択することにより、選択されたサムネイル画像35に関連するサムネイル画像37及び検索キー38が表示され、いずれかのサムネイル画像37を選択すれば、対応する検索キー38により記憶部23内の画像ファイル10が検索されてその検索結果である画像ファイル10のサムネイル画像39を得ることができる。   That is, when the user pays attention to the displayed thumbnail image 35, by selecting the thumbnail image 35, the thumbnail image 37 and the search key 38 related to the selected thumbnail image 35 are displayed. Is selected, the image file 10 in the storage unit 23 is searched by the corresponding search key 38, and the thumbnail image 39 of the image file 10 as the search result can be obtained.

従って、本実施形態によれば、上述の従来の技術のように検索表示を希望するタグ情報をユーザが予め特定することなく、画像ファイル10のサムネイル画像35を基準にこの画像ファイル10に関連する画像ファイル10を簡便に検索することができる。これにより、ユーザの利便性を飛躍的に向上させることができる。   Therefore, according to the present embodiment, the user does not specify tag information desired to be searched and displayed in advance as in the above-described conventional technique, and the user is related to the image file 10 based on the thumbnail image 35 of the image file 10. The image file 10 can be easily searched. Thereby, a user's convenience can be improved dramatically.

(第2実施形態)
次に、図17を参照して、本発明の第2実施形態である情報処理システムSについて説明する。図17は、本発明の第2実施形態である情報処理システムSに用いられる音楽ファイルのデータ構造を示す図である。なお、本実施形態の情報処理システムSは、第1実施形態の画像ファイルのかわりに図17に示す音楽ファイルが適用される以外は、その構成が上述の第1実施形態と同様であるので、同一の構成要素については同一の符号を付し、その説明を簡略化する。
(Second Embodiment)
Next, with reference to FIG. 17, the information processing system S which is 2nd Embodiment of this invention is demonstrated. FIG. 17 is a diagram showing a data structure of a music file used in the information processing system S according to the second embodiment of the present invention. The information processing system S of the present embodiment is the same as the first embodiment except that the music file shown in FIG. 17 is applied instead of the image file of the first embodiment. The same constituent elements are denoted by the same reference numerals, and the description thereof is simplified.

本実施形態の音楽ファイル60は、mp3(MPEG Audio Layer-3)形式のファイルフォーマットを有し、そのヘッダ部分60aに、ID3タグで定められたフォーマットに従ってタグ情報が格納され、さらにサムネイル画像データが格納されたサムネイル画像領域60b、及び音楽データが格納された音楽データ領域60cが設けられている。本実施形態の音楽ファイル60では、ヘッダ部分60aに格納されたタグ情報は、音楽ファイル60の作成時に、GracenoteのようなCDDB(Compact Disc Data Base)に図略のPC(Personal Computer)等が問い合わせ、このCDDBから返信されたタグ情報をPC等がヘッダ部分60aの所定領域に格納することで記述されている。従って、ヘッダ部分60aに格納されたタグ情報は、情報処理装置1への音楽ファイル60取り込み時に既に音楽ファイル60のヘッダ部分60aの所定領域に記述されているものとする。   The music file 60 of this embodiment has a file format of mp3 (MPEG Audio Layer-3) format, tag information is stored in the header portion 60a according to the format defined by the ID3 tag, and thumbnail image data is further stored. A stored thumbnail image area 60b and a music data area 60c in which music data are stored are provided. In the music file 60 of the present embodiment, the tag information stored in the header portion 60a is inquired from a CDDB (Compact Disc Data Base) such as Gracenote by an unillustrated PC (Personal Computer) or the like when the music file 60 is created. The tag information returned from the CDDB is described by the PC or the like storing it in a predetermined area of the header portion 60a. Accordingly, it is assumed that the tag information stored in the header portion 60a is already described in a predetermined area of the header portion 60a of the music file 60 when the music file 60 is taken into the information processing apparatus 1.

音楽ファイル60のヘッダ部分60aには、音楽ファイル60の曲名が記述される曲名領域60d、音楽ファイル60を制作したアーティストの名称が記述されるアーティスト名領域60e、音楽ファイル60が収録されているアルバムの名称が記述されるアルバム名領域60f、音楽ファイル60がリリースされた年号が記述されるリリース年領域60g、音楽ファイル60の属するジャンルが記述されるジャンル領域60h、音楽ファイル60の作詞者の名称が記述される作詞者領域60i、音楽ファイル60の作曲者の名称が記述される作曲者領域60j、音楽ファイル60が音楽CDから取得された場合にこの音楽CDに一意に付された識別子が記述される音楽CD識別子領域60k、及び情報処理装置1のユーザが各種情報を任意に記述するためのユーザ定義領域60mが設けられている。当然、これ以外の領域を音楽ファイル60のヘッダ部分60aに設けることは任意である。   The header portion 60a of the music file 60 includes a song name area 60d in which the song name of the music file 60 is described, an artist name area 60e in which the name of the artist who created the music file 60 is described, and an album in which the music file 60 is recorded. The album name area 60f in which the name of the music file 60 is described, the release year area 60g in which the year in which the music file 60 was released is described, the genre area 60h in which the genre to which the music file 60 belongs is described, and the lyrics of the music file 60 A songwriter area 60i in which the name is described, a composer area 60j in which the name of the composer of the music file 60 is described, and an identifier uniquely assigned to the music CD when the music file 60 is acquired from the music CD. The music CD identifier area 60k to be described, and the user of the information processing device 1 arbitrarily selects various information. User-defined region 60m for describing are provided. Naturally, it is optional to provide a region other than this in the header portion 60a of the music file 60.

図17にデータ構造を示した音楽ファイル60を本実施形態の情報処理システムSに適用した場合、例えば、曲名領域60dに記述された曲名タグ情報の一部を利用して、すなわち抽象化して「桜の季節の曲」といった検索キーを作成し、この検索キーにより音楽ファイル60を検索した結果を表示することが可能である。また、シソーラス辞書ファイル11やWAN17上の外部サーバを用いて、アーティスト名領域60eに記述されているアーティスト名タグ情報から、このアーティストと共演することが多い他のアーティスト名に関する検索キーを作成し、この検索キーにより音楽ファイル60を検索した結果を表示することが可能である。   When the music file 60 whose data structure is shown in FIG. 17 is applied to the information processing system S of the present embodiment, for example, a part of the song title tag information described in the song title area 60d is used, that is, abstracted to “ It is possible to create a search key such as “Cherry Blossom Seasonal Song” and display the result of searching the music file 60 using this search key. Further, by using an external server on the thesaurus dictionary file 11 or WAN 17, a search key for other artist names often co-starring with this artist is created from the artist name tag information described in the artist name area 60 e, The search result of the music file 60 can be displayed using this search key.

この場合、音楽ファイル60及び検索キーをユーザに選択させるには、どのような音楽ファイル60及び検索キーが情報処理装置1内に格納され、また情報処理装置1により生成されたかをユーザが確認できる必要がある。この、音楽ファイル60及び検索キーをユーザに確認させる手法として、音楽ファイル60であれば、サムネイル画像領域60bに格納された、音楽ファイル60のインデックスであるサムネイル画像データをHDMI出力機器15を用いて表示させる手法が挙げられ、また、検索キーについては検索キーを示す文字列をHDMI出力機器15を用いて表示させる手法が挙げられる。あるいは、音楽ファイル60については、曲名領域60dに格納された、音楽ファイル60のインデックスである曲名データをリスト形式でHDMI出力機器15を用いて表示させてもよい。   In this case, in order for the user to select the music file 60 and the search key, the user can check what music file 60 and the search key are stored in the information processing apparatus 1 and generated by the information processing apparatus 1. There is a need. As a method for allowing the user to confirm the music file 60 and the search key, in the case of the music file 60, the thumbnail image data that is the index of the music file 60 stored in the thumbnail image area 60 b is used by using the HDMI output device 15. Examples of the search key include a method of displaying a character string indicating the search key using the HDMI output device 15. Alternatively, for the music file 60, the song title data that is the index of the music file 60 stored in the song title area 60d may be displayed in a list format using the HDMI output device 15.

従って、本実施形態によっても、上述した第1実施形態と同様の効果を奏することができる。   Therefore, the present embodiment can achieve the same effects as those of the first embodiment described above.

(第3実施形態)
次に、図18を参照して、本発明の第3実施形態である情報処理システムSについて説明する。図18は、本発明の第3実施形態である情報処理システムSに用いられる番組ファイルのデータ構造を示す図である。なお、本実施形態の情報処理システムSは、第1実施形態の画像ファイルのかわりに図18に示す番組ファイルが適用される以外は、その構成が上述の第1実施形態と同様であるので、同一の構成要素については同一の符号を付し、その説明を簡略化する。
(Third embodiment)
Next, with reference to FIG. 18, the information processing system S which is 3rd Embodiment of this invention is demonstrated. FIG. 18 is a diagram showing a data structure of a program file used in the information processing system S that is the third embodiment of the present invention. The information processing system S of the present embodiment has the same configuration as that of the first embodiment except that the program file shown in FIG. 18 is applied instead of the image file of the first embodiment. The same constituent elements are denoted by the same reference numerals, and the description thereof is simplified.

本実施形態の番組ファイル70は、MPEG(Moving Picture Experts Group)−2形式のファイルフォーマットを有し、そのヘッダ部分70aにタグ情報が格納され、さらにサムネイル画像データが格納されたサムネイル画像領域70b、及び番組データが格納された番組データ領域70cが設けられている。本実施形態の番組ファイル70では、ヘッダ部分70aに格納されたタグ情報は、図略の録画装置が放送局から送信されたEPG(Electronic Program Guide)データを図略の録画装置が予め取得し、番組ファイル70の録画時に、この録画装置がEPGデータ内の番組情報データから取得したタグ情報をヘッダ部分70aの所定領域に格納することで記述されている。日本の地上デジタルテレビ放送で使用されている規格であるISDB−T(Integrated Services Digital Broadcasting-Terrestrial)では、この番組情報データはMPEG−2 TS(Transport Stream)のEIT(Event Information Table)に記述されている。従って、ヘッダ部分70aに格納されたタグ情報は、情報処理装置1への番組ファイル70取り込み時に既に番組ファイル70のヘッダ部分70aの所定領域に記述されているものとする。   The program file 70 of the present embodiment has an MPEG (Moving Picture Experts Group) -2 format file format. The tag information is stored in the header portion 70a, and the thumbnail image area 70b in which thumbnail image data is stored. And a program data area 70c in which program data is stored. In the program file 70 of the present embodiment, the tag information stored in the header portion 70a is obtained by the unillustrated recording device acquiring EPG (Electronic Program Guide) data transmitted from the broadcasting station by the unillustrated recording device in advance. When the program file 70 is recorded, the recording apparatus stores the tag information acquired from the program information data in the EPG data in a predetermined area of the header portion 70a. In ISDB-T (Integrated Services Digital Broadcasting-Terrestrial), which is a standard used in Japanese terrestrial digital television broadcasting, this program information data is described in the EIT (Event Information Table) of MPEG-2 TS (Transport Stream). ing. Accordingly, it is assumed that the tag information stored in the header portion 70a is already described in a predetermined area of the header portion 70a of the program file 70 when the program file 70 is taken into the information processing apparatus 1.

番組ファイル70のヘッダ部分70aには、番組ファイル70の放送時刻が記述される放送時刻領域70d、番組ファイル70の放送チャンネルが記述される放送チャンネル領域70e、番組ファイル70の番組タイトルが記述されるタイトル領域70f、番組ファイル70の番組説明が記述される番組説明領域70g、番組ファイル70の番組内容に関連するキーワードが記述されるキーワード領域70h、番組ファイル70の番組内容が属するジャンルが記述されるジャンル領域70i、及び情報処理装置1のユーザが各種情報を任意に記述するためのユーザ定義領域70jが設けられている。当然、これ以外の領域を番組ファイル70のヘッダ部分70aに設けることは任意である。   In the header portion 70a of the program file 70, a broadcast time area 70d in which the broadcast time of the program file 70 is described, a broadcast channel area 70e in which the broadcast channel of the program file 70 is described, and a program title of the program file 70 are described. Title area 70f, program description area 70g in which the program description of program file 70 is described, keyword area 70h in which keywords related to the program contents of program file 70 are described, and the genre to which the program contents of program file 70 belong are described. A genre area 70i and a user-defined area 70j for arbitrarily describing various information by the user of the information processing apparatus 1 are provided. Of course, it is optional to provide a region other than this in the header portion 70a of the program file 70.

図18にデータ構造を示した番組ファイル70を本実施形態の情報処理システムSに適用した場合、例えば、放送時刻領域70dに記述された放送時刻タグ情報の一部を利用して、すなわち抽象化して「深夜番組」といった検索キーを作成し、この検索キーにより番組ファイル70を検索した結果を表示することが可能である。また、シソーラス辞書ファイル11やWAN17上の外部サーバを用いて、番組説明領域70gに記述されている出演者名タグ情報から、この出演者と共演することが多い他の出演者に関する検索キーを作成し、この検索キーにより番組ファイル70を検索した結果を表示することが可能である。   When the program file 70 having the data structure shown in FIG. 18 is applied to the information processing system S of the present embodiment, for example, a part of the broadcast time tag information described in the broadcast time area 70d is used, that is, abstracted. It is possible to create a search key such as “midnight program” and display the result of searching the program file 70 using this search key. Also, using an external server on the thesaurus dictionary file 11 or WAN 17, a search key for other performers who often perform with this performer is created from the performer name tag information described in the program description area 70g. Then, the search result of the program file 70 can be displayed using this search key.

この場合、番組ファイル70及び検索キーをユーザに選択させるには、どのような番組ファイル70及び検索キーが情報処理装置1内に格納され、また情報処理装置1により生成されたかをユーザが確認できる必要がある。この、番組ファイル70及び検索キーをユーザに確認させる手法として、番組ファイル70であれば、サムネイル画像領域70bに格納された、番組ファイル70のインデックスであるサムネイル画像データをHDMI出力機器15を用いて表示させる手法が挙げられ、また、検索キーについては検索キーを示す文字列をHDMI出力機器15を用いて表示させる手法が挙げられる。あるいは、番組ファイル70については、タイトル領域70fに格納された、番組ファイル70のインデックスであるタイトルデータをリスト形式でHDMI出力機器15を用いて表示させてもよい。   In this case, in order for the user to select the program file 70 and the search key, the user can confirm what program file 70 and the search key are stored in the information processing apparatus 1 and generated by the information processing apparatus 1. There is a need. As a method for allowing the user to confirm the program file 70 and the search key, in the case of the program file 70, the thumbnail image data that is the index of the program file 70 stored in the thumbnail image area 70 b is used using the HDMI output device 15. Examples of the search key include a method of displaying a character string indicating the search key using the HDMI output device 15. Alternatively, for the program file 70, title data that is an index of the program file 70 stored in the title area 70f may be displayed in a list format using the HDMI output device 15.

従って、本実施形態によっても、上述した第1実施形態及び第2実施形態と同様の効果を奏することができる。   Therefore, the present embodiment can provide the same effects as those of the first embodiment and the second embodiment described above.

(第4実施形態)
次に、図19〜図26を参照して、本発明の第4実施形態である情報処理システムSについて説明する。なお、本実施形態の情報処理システムSは、出力部21に表示される表示画面及び検索手順が異なる以外は、その構成が第1実施形態と同様であるので、同一の構成については同一の符号を付し、その説明を簡略化する。
(Fourth embodiment)
Next, an information processing system S that is the fourth embodiment of the present invention will be described with reference to FIGS. The information processing system S of the present embodiment has the same configuration as that of the first embodiment except that the display screen displayed on the output unit 21 and the search procedure are different. To simplify the description.

まず、図19は、出力部21の表示画面に表示される、情報処理システムSの初期画面を示す図である。初期画面を示す表示画面30a1には、図20に示す検索表示画面に移行するためのボタン31aが表示されている。同様に、初期画面を示す表示画面30a1には、上述の第1実施形態と同様に、カレンダーモードに移行するためのボタン32及びアルバムモードに移行するためのボタン33が表示されている。   First, FIG. 19 is a diagram showing an initial screen of the information processing system S displayed on the display screen of the output unit 21. On the display screen 30a1 showing the initial screen, a button 31a for shifting to the search display screen shown in FIG. 20 is displayed. Similarly, on the display screen 30a1 showing the initial screen, a button 32 for shifting to the calendar mode and a button 33 for shifting to the album mode are displayed as in the first embodiment.

すなわち、本実施形態では、第1実施形態のように、初期画面→選択画面→検索キー表示画面→検索表示画面の順に移行するのではなく、初期画面30a1に直接検索表示画面に移行するためのボタン31aが表示されている。ユーザは、リモコン、マウス等の入力部22によりこのポインタ34を初期画面30a1内で移動させ、選択を希望するボタン31aにこのポインタ34の少なくとも一部を重畳表示させた状態でこの入力部22を操作することで、ユーザによりボタン31aが選択されたかを示す選択入力信号が入力部22から出力され、情報処理装置1に入力される。   That is, in the present embodiment, as in the first embodiment, the initial screen → selection screen → search key display screen → search display screen is not shifted in this order, but the initial screen 30a1 is shifted to the search display screen directly. Button 31a is displayed. The user moves the pointer 34 within the initial screen 30a1 by the input unit 22 such as a remote controller or a mouse, and moves the input unit 22 in a state where at least a part of the pointer 34 is superimposed on the button 31a desired to be selected. By performing the operation, a selection input signal indicating whether the user has selected the button 31 a is output from the input unit 22 and input to the information processing apparatus 1.

次に、図20は、出力部21の表示画面に表示される、情報処理システムSの検索表示画面を示す図である。図20に示す検索表示画面は、図19においてボタン31aがユーザにより選択されることにより表示される。   Next, FIG. 20 is a diagram illustrating a search display screen of the information processing system S displayed on the display screen of the output unit 21. The search display screen shown in FIG. 20 is displayed when the button 31a in FIG. 19 is selected by the user.

検索表示画面を示す表示画面30d1には、ボタン31aがユーザにより選択されたことをトリガとして、記憶部23に格納されている画像ファイル10を所定の検索キーを用いて検索し、その検索結果である画像ファイル10の画像データのサムネイル画像39が表示されている。ここに、所定の検索キーとは、ユーザの選択によらず、予め定められた複数の検索キー候補から検索キー生成部27が一定の条件に従って複数個選定した検索キーである。このように、検索キー生成部27が予め定められた検索キー候補から所定の検索キーを複数個選定し、この所定の検索キーにより検索された結果を検索表示画面30d1上に表示しているので、ユーザは、記憶部23内に格納された画像ファイル10の中から多面的な観点に沿った画像ファイル10を閲覧することができ、後述のように、この画像ファイル10に関連する画像ファイル10を簡便に検索することができる。   On the display screen 30d1 showing the search display screen, the image file 10 stored in the storage unit 23 is searched using a predetermined search key triggered by the selection of the button 31a by the user. A thumbnail image 39 of image data of an image file 10 is displayed. Here, the predetermined search key is a search key selected by the search key generation unit 27 from a plurality of predetermined search key candidates according to a certain condition regardless of the user's selection. As described above, the search key generation unit 27 selects a plurality of predetermined search keys from predetermined search key candidates, and displays the search result by the predetermined search key on the search display screen 30d1. The user can browse the image file 10 in a multifaceted viewpoint from among the image files 10 stored in the storage unit 23, and the image file 10 related to the image file 10 as described later. Can be easily searched.

あるいは、上述の第1実施形態のように、記憶部23に格納された画像ファイル10のヘッダ部分10aの各領域に記述されたタグ情報を取得し、タグ情報の頻度を算出し、高頻度のタグ情報を有する画像ファイル10に対して重み付けを低く設定してもよい。そして、重み付けができるだけ均等になるように表示すべき画像ファイル10を選択することで、特定のタグ情報を有する画像ファイル10を集中して表示させないようにすることができる。   Alternatively, as in the first embodiment described above, the tag information described in each area of the header portion 10a of the image file 10 stored in the storage unit 23 is acquired, the frequency of the tag information is calculated, and the high frequency The weighting may be set low for the image file 10 having tag information. Then, by selecting the image file 10 to be displayed so that the weights are as uniform as possible, it is possible to prevent the image files 10 having specific tag information from being concentrated and displayed.

あるいは、サムネイル画像39毎に、この検索表示画面30d1においてユーザがサムネイル画像39を選択した回数を記憶部23に記憶させておき、この選択回数を画像ファイル10のタグ情報として用いる。選択回数は、検索表示画面30d1における選択回数のみならず、後述する検索絞り込み表示画面30iにおける選択回数も記憶してもよく、この際、検索絞り込み表示画面30iにおいてサムネイル画像80が選択された場合、このサムネイル画像80を表示する際に選択された検索表示画面30d1のサムネイル画像39についても選択回数を記憶してもよい。そして、このように画像ファイル10のタグ情報として記憶された選択回数に基づき、ユーザがどの程度の選択回数を有するサムネイル画像39、80を選択しているかという行動履歴に基づいて、検索表示画面30d1、検索絞り込み表示画面30iに表示するサムネイル画像39、80を決定すればよい。例えば、ユーザが選択回数の多いサムネイル画像39、80を選択している傾向が強ければ選択回数の多いサムネイル画像39、80を優先して検索表示画面30d1、検索絞り込み表示画面30iに表示し、ユーザが選択回数の少ないサムネイル画像39、80を選択している傾向が強ければ選択回数の少ないサムネイル画像39、80を優先して検索表示画面30d1、検索絞り込み表示画面30iに表示する。このようにして、ユーザの行動履歴に応じた検索表示画面30d1、検索絞り込み表示画面30iの表示を行うことができる。   Alternatively, for each thumbnail image 39, the number of times the user has selected the thumbnail image 39 on the search display screen 30d1 is stored in the storage unit 23, and this number of selections is used as tag information of the image file 10. The number of selections may store not only the number of selections on the search display screen 30d1 but also the number of selections on the search refinement display screen 30i described later. At this time, when the thumbnail image 80 is selected on the search refinement display screen 30i, The number of selections may also be stored for the thumbnail image 39 on the search display screen 30d1 selected when the thumbnail image 80 is displayed. Then, based on the selection history stored as the tag information of the image file 10 as described above, the search display screen 30d1 is based on the action history indicating how many thumbnail images 39 and 80 the user has selected. The thumbnail images 39 and 80 to be displayed on the search refinement display screen 30i may be determined. For example, if the user has a strong tendency to select the thumbnail images 39 and 80 that are frequently selected, the thumbnail images 39 and 80 that are frequently selected are preferentially displayed on the search display screen 30d1 and the search refinement display screen 30i. If there is a strong tendency to select thumbnail images 39 and 80 with a small number of selections, the thumbnail images 39 and 80 with a small number of selections are preferentially displayed on the search display screen 30d1 and the search refinement display screen 30i. In this way, it is possible to display the search display screen 30d1 and the search refinement display screen 30i according to the user's action history.

次に、図21は、出力部21の表示画面に表示される、情報処理システムSの検索絞り込み表示画面を示す図である。図21に示す検索絞り込み表示画面は、図20においていずれかのサムネイル画像39がユーザにより選択されることにより表示される。   Next, FIG. 21 is a diagram showing a search refinement display screen of the information processing system S displayed on the display screen of the output unit 21. The search refinement display screen shown in FIG. 21 is displayed when one of the thumbnail images 39 in FIG. 20 is selected by the user.

検索絞り込み表示画面を示す表示画面30iには、図20において選択されたサムネイル画像39に対応する画像ファイル10のタグ情報から、検索キー生成部27が生成した検索キーを用いて記憶部23に格納されている画像ファイル10を検索し、その検索結果である画像ファイル10の画像データのサムネイル画像80が表示されている。また、一部のサムネイル画像80については、そのサムネイル画像80を含む、検索絞り込み表示画面30i上に表示されている一部のサムネイル画像80が検索された元となる検索キーに関連する内容が表示されたラベル81がこのサムネイル画像80の近傍に表示されている。   On the display screen 30i showing the search refinement display screen, the search key generation unit 27 stores the search key generated from the tag information of the image file 10 corresponding to the thumbnail image 39 selected in FIG. The searched image file 10 is searched, and the thumbnail image 80 of the image data of the image file 10 as the search result is displayed. For some thumbnail images 80, the contents related to the search key from which the partial thumbnail images 80 displayed on the search refinement display screen 30i including the thumbnail images 80 are searched are displayed. The labeled label 81 is displayed in the vicinity of the thumbnail image 80.

図21に示す検索絞り込み表示画面30iを表示するために検索キー生成部27が生成する検索キーは予め定められたものであり、具体的には、(1)図20において選択されたサムネイル画像39に対応する画像ファイル10のタグ情報のうち、撮影日時領域10e(図2参照)に格納された撮影日時タグ情報を中心として、時間軸上でこの前後にある撮影日時タグ情報を有する画像ファイル10であって、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報に近い撮影日時タグ情報を有する画像ファイル10を優先して検索する検索キー、(2)図20において選択されたサムネイル画像39に対応する画像ファイル10のタグ情報のうち、撮影日時領域10eに格納された撮影日時タグ情報を中心とする時間帯を設定し、この時間帯内に存在しかつ前後一定期間(数週間)の撮影日時タグ情報を有する画像ファイル10を検索する検索キー、(3)図20において選択されたサムネイル画像39に対応する画像ファイル10のタグ情報のうち、撮影日時領域10eに格納された撮影日時タグ情報を中心とする時間帯を設定し、この時間帯において、機種名領域10gに記述された機種名タグ情報が異なる画像ファイル10を検索する検索キー、(4)図20において選択されたサムネイル画像39に対応する画像ファイル10のタグ情報のうち、撮影日時領域10eに格納された撮影日時タグ情報を中心とする時間帯を設定し、この時間帯内に存在しかつ前後一定期間(数年間)の撮影日時タグ情報を有する画像ファイル10を検索する検索キー、の4種類である。以下、図22〜図24を参照して詳細に説明する。   The search key generated by the search key generation unit 27 for displaying the search refinement display screen 30i shown in FIG. 21 is predetermined, and specifically, (1) the thumbnail image 39 selected in FIG. Among the tag information of the image file 10 corresponding to the image file 10, the image file 10 having the shooting date / time tag information before and after the shooting date / time tag information stored in the shooting date / time area 10e (see FIG. 2) on the time axis. A search key for preferentially searching for an image file 10 having shooting date / time tag information close to the shooting date / time tag information of the image file 10 corresponding to the selected thumbnail image 39, (2) selected in FIG. Of the tag information of the image file 10 corresponding to the thumbnail image 39, when the shooting date / time tag information stored in the shooting date / time area 10e is the center. A search key for setting a zone and searching for an image file 10 that exists within this time zone and has shooting date / time tag information for a certain period (several weeks) before and after (3) corresponds to the thumbnail image 39 selected in FIG. Among the tag information of the image file 10 to be set, a time zone centering on the shooting date / time tag information stored in the shooting date / time region 10e is set, and the model name tag information described in the model name region 10g is set in this time zone. Search key for searching for a different image file 10 (4) Of the tag information of the image file 10 corresponding to the thumbnail image 39 selected in FIG. 20, the shooting date / time tag information stored in the shooting date / time area 10e is the center. A search key for setting a time zone and searching for an image file 10 that exists within this time zone and has shooting date / time tag information for a certain period of time (several years). There are four types of. Hereinafter, a detailed description will be given with reference to FIGS.

図22は、上述した検索キー(1)の具体的内容を説明するための図である。まず、図20において選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報を参照し、この撮影日時タグ情報を中心として一定期間、図示例では1ヶ月の時間的範囲を設定する。次に、この1ヶ月の時間的範囲を小範囲に分割する。この際、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報に近くなるに従って、個々の小範囲の時間的範囲を短くする。そして、小範囲内に対応する撮影日時タグ情報を有する画像ファイル10を検索して抽出する。この時も、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報に遠い小範囲よりも、近い小範囲から抽出する画像ファイル10の数を多くする。このようにして、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報に近い撮影日時タグ情報を有する画像ファイル10を優先的に抽出する。なお、図22に示す例に限らず、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報に近くなるに従って、個々の小範囲の時間的範囲を短くするか、あるいは、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報に遠い小範囲よりも、近い小範囲から抽出する画像ファイル10の数を多くするかのいずれかを採用する構成でもよい。   FIG. 22 is a diagram for explaining the specific contents of the search key (1) described above. First, the shooting date / time tag information of the image file 10 corresponding to the thumbnail image 39 selected in FIG. 20 is referred to, and a time range of one month in the illustrated example is set around the shooting date / time tag information. Next, the time range of this one month is divided into small ranges. At this time, the time range of each small range is shortened as the shooting date / time tag information of the image file 10 corresponding to the selected thumbnail image 39 becomes closer. Then, the image file 10 having the shooting date tag information corresponding to the small range is searched and extracted. At this time as well, the number of image files 10 extracted from a small range closer to the shooting date tag information of the image file 10 corresponding to the selected thumbnail image 39 is increased than the small range far from the shooting range tag information. In this way, the image file 10 having the shooting date / time tag information close to the shooting date / time tag information of the image file 10 corresponding to the selected thumbnail image 39 is preferentially extracted. In addition to the example shown in FIG. 22, the time range of each small range is shortened or selected as it approaches the shooting date / time tag information of the image file 10 corresponding to the selected thumbnail image 39. Further, it may be configured to employ one of increasing the number of image files 10 extracted from a close small range rather than a small range far from the shooting date tag information of the image file 10 corresponding to the thumbnail image 39.

図23は、上述した検索キー(2)の具体的内容を説明するための図である。まず、図20において選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報を参照し、この撮影日時タグ情報を中心として一定期間、図示例では14日(2週間)の時間的範囲を設定する。次に、この14日の時間的範囲において、1日置きに(つまり、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報に対して、「日」の部分だけを1日ずつ増減させた)基点を設定し、この基点の前後2時間に小範囲を設定する。そして、小範囲内に対応する撮影日時タグ情報を有する画像ファイル10を検索して抽出する。このようにして、選択されたサムネイル画像39に対応する画像ファイル10が撮像された時間帯と同じ時間帯に撮像された画像ファイル10を抽出する。   FIG. 23 is a diagram for explaining the specific contents of the search key (2) described above. First, the shooting date / time tag information of the image file 10 corresponding to the thumbnail image 39 selected in FIG. 20 is referred to, and the time range of 14 days (2 weeks) in the illustrated example centered on this shooting date / time tag information. Set. Next, in this time range of 14 days, every other day (that is, for the shooting date tag information of the image file 10 corresponding to the selected thumbnail image 39, only the “day” portion is set one day at a time. Set a base point (increase / decrease) and set a small range 2 hours before and after this base point. Then, the image file 10 having the shooting date tag information corresponding to the small range is searched and extracted. In this way, the image file 10 captured in the same time zone as the image file 10 corresponding to the selected thumbnail image 39 is extracted.

図24は、上述した検索キー(4)の具体的内容を説明するための図である。まず、図20において選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報を参照し、この撮影日時タグ情報を中心として一定期間、図示例では5年間の時間的範囲を設定する。次に、この5年間の時間的範囲において、1年置きに(つまり、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報に対して、「年」の部分だけを1年ずつ増減させた)基点を設定し、この基点の前後12時間及び1週間にそれぞれ小範囲を設定する。そして、小範囲内に対応する撮影日時タグ情報を有する画像ファイル10を検索して抽出する。このようにして、選択されたサムネイル画像39に対応する画像ファイル10が撮像された月日と同じ月日に撮像された画像ファイル10を抽出する。   FIG. 24 is a diagram for explaining the specific contents of the search key (4) described above. First, the shooting date / time tag information of the image file 10 corresponding to the thumbnail image 39 selected in FIG. 20 is referred to, and a time range of a fixed period, for example, five years in the illustrated example, is set around the shooting date / time tag information. Next, within this five-year time range, every other year (that is, for the shooting date / time tag information of the image file 10 corresponding to the selected thumbnail image 39, only the “year” portion is set year by year. A base point (increase / decrease) is set, and a small range is set for 12 hours and one week before and after this base point. Then, the image file 10 having the shooting date tag information corresponding to the small range is searched and extracted. In this way, the image file 10 imaged on the same date as the date on which the image file 10 corresponding to the selected thumbnail image 39 is imaged is extracted.

このように、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報に対して、上述の(1)〜(4)に示すような検索キーを設定することで、すなわち、サムネイル画像39に対応する画像ファイル10の撮影日時タグ情報の「月日」に合致する撮影日時タグ情報を有する画像ファイル10だけでなく、その前後の撮影日時タグ情報を有する画像ファイル10を検索することで、ユーザが閲覧を希望すると推測される画像ファイル10を検索絞り込み表示画面30iに表示することができる。この作用を図25を参照して説明する。   As described above, by setting the search key as shown in the above (1) to (4) for the shooting date / time tag information of the image file 10 corresponding to the selected thumbnail image 39, that is, the thumbnail image. By searching not only the image file 10 having the shooting date / time tag information matching the “month / day” of the shooting date / time tag information of the image file 10 corresponding to 39, but also the image file 10 having the shooting date / time tag information before and after that. The image file 10 estimated to be browsed by the user can be displayed on the search refinement display screen 30i. This operation will be described with reference to FIG.

図25に示すように、ユーザが図20の検索表示画面30d1において特定の被写体の誕生日に関するサムネイル画像39を選択した場合、図21の検索絞り込み表示画面30iにおいては、上述の検索キー(1)〜(4)を用いて検索された結果であるサムネイル画像80が表示される。このとき、検索キー(2)を用いると、被写体の誕生日に対応する撮影日時タグ情報に対して、「年」の部分だけを1年ずつ増減させた基点が設定される。図25に示す例では、1年後の撮影日時タグ情報(1年後の誕生日)が基点として設定されている。そして、この基点の前後12時間及び1週間に設定された小範囲内に対応する撮影日時タグ情報を有する画像ファイル10を検索して抽出する。ここで、サムネイル画像39に対応する撮影日時タグ情報が休日の日時タグ情報であったとしても、1年後の誕生日は休日であるとは限らない。この場合、1年後の誕生日にユーザが画像ファイル10を撮像する確率は低いものと考えられる。そこで、上述のように小範囲を設定することで、この小範囲内に存在する、例えば週末に開催されたお誕生会の画像ファイル10を検索キー(2)により検索してこれを検索絞り込み表示画面30iに表示することができる。   As shown in FIG. 25, when the user selects the thumbnail image 39 related to the birthday of a specific subject on the search display screen 30d1 of FIG. 20, the search key (1) described above is displayed on the search refinement display screen 30i of FIG. A thumbnail image 80 that is a result of the search using (4) is displayed. At this time, when the search key (2) is used, a base point in which only the “year” portion is increased or decreased by one year is set for the shooting date tag information corresponding to the birthday of the subject. In the example shown in FIG. 25, shooting date / time tag information after one year (birth date after one year) is set as a base point. Then, the image file 10 having the shooting date / time tag information corresponding to the small range set for 12 hours before and after this base point and one week is searched and extracted. Here, even if the shooting date / time tag information corresponding to the thumbnail image 39 is holiday date / time tag information, the birthday after one year is not necessarily a holiday. In this case, it is considered that the probability that the user captures the image file 10 on the birthday one year later is low. Therefore, by setting a small range as described above, a search key (2) is used to search for an image file 10 of a birthday party held within the small range, for example, held on a weekend, and this is displayed as a search refinement display. It can be displayed on the screen 30i.

なお、図21に示す検索絞り込み表示画面30iにおいて、いずれかのサムネイル画像80をユーザが選択すると、このサムネイル画像80に対応する画像ファイル10のタグ情報から、検索キー生成部27が生成した検索キーを用いて記憶部23に格納されている画像ファイル10を検索し、その検索結果である画像ファイル10の画像データのサムネイル画像が表示された検索絞り込み表示画面が再度生成されて表示される。   When the user selects any thumbnail image 80 on the search refinement display screen 30i shown in FIG. 21, the search key generated by the search key generation unit 27 from the tag information of the image file 10 corresponding to the thumbnail image 80. Is used to search the image file 10 stored in the storage unit 23, and the search refinement display screen on which the thumbnail image of the image data of the image file 10 as the search result is displayed is generated and displayed again.

ここで、図21の検索絞り込み表示画面30iに表示されているラベル81と一部のサムネイル画像80が検索された元となる検索キーとの関係について図26を参照して説明する。図26は、検索キー(図26に示す例では上述の検索キー(1))とラベル81の表示との関係を説明するための図である。図26において、図20の検索表示画面30d1で選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報に対して、当日、1〜4日前後、5〜10日前後、11〜21日前後、22日以降あるいは以前の小領域が設定されている。   Here, the relationship between the label 81 displayed on the search refinement display screen 30i in FIG. 21 and the search key from which a part of the thumbnail images 80 is searched will be described with reference to FIG. FIG. 26 is a diagram for explaining the relationship between the search key (the search key (1) in the example shown in FIG. 26) and the display of the label 81. In FIG. 26, the shooting date and time tag information of the image file 10 corresponding to the thumbnail image 39 selected on the search display screen 30d1 of FIG. A small area after 22 days or before or after the previous day is set.

このとき、当日の小領域については、年月日そのものをラベル81に記述する内容として表示されている。「当日」と表示するよりは、年月日そのものを表示するほうが、後述する「1週間後」「半月後」といった他のラベル表示が実際にはどの月日であるかをユーザが推測しやすくなるという利点がある。次に、1〜4日前後の小領域については、「n日後」「n日前」(n=1〜4の自然数で、検索された画像ファイル10が有する撮影日時タグ情報に応じて選択)という表示がラベル81に記述する内容として表示されている。さらに、5〜10日前後の小領域については、「1週間後」「1週間前」という表示がラベル81に記述する内容として表示されている。さらに、さらに、11〜21日前後の小領域については、「半月後」「半月前」という表示がラベル81に記述する内容として表示されている。そして、22日以降あるいは以前の小領域については、「1ヶ月後」「1ヶ月前」という表示がラベル81に記述する内容として表示されている。   At this time, for the small area of the day, the date itself is displayed as the contents described in the label 81. Rather than displaying “current day”, it is easier for the user to guess which date the other label displays such as “after one week” and “after half a month” are actually displayed. There is an advantage of becoming. Next, for the small region around 1 to 4 days, “n days later” and “n days ago” (n = 1 to 4 is a natural number selected according to the shooting date tag information of the searched image file 10). The display is displayed as the contents described in the label 81. Further, for the small area around 5 to 10 days, the indications “one week later” and “one week ago” are displayed as the contents described in the label 81. Further, for the small regions around the 11th to 21st days, “half a month after” and “half a month before” are displayed as the contents described in the label 81. Then, for the small areas after 22 days or before, the indications “1 month later” and “1 month ago” are displayed as the contents described in the label 81.

このように、検索キーに対応する表示がラベル81に記述されるよりも、ユーザとしては、例えば図26に示すような表示がラベル81に記述されることで、ラベル81に対応するサムネイル画像80が有する撮影日時タグ情報が概略どの程度の日時に対応するものであるかを直感的かつ簡易に理解することができる。しかも、1つの小領域については表示するラベル81の数を1つにしておくことで、表示すべきラベル81の数を削減できる利点もある。   In this way, rather than the display corresponding to the search key being described in the label 81, the user can display the thumbnail image 80 corresponding to the label 81 by describing the display as shown in FIG. It is possible to intuitively and easily understand how much date and time the shooting date / time tag information of the image corresponds to. Moreover, there is an advantage that the number of labels 81 to be displayed can be reduced by keeping the number of labels 81 to be displayed for one small region.

ここで、図26に示す小領域は、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報から時間軸上で離れるほど小領域が大きくなるように(つまりラベル81の表示としてはより曖昧に)設定されている。しかも、5〜10日前後、11〜21日前後、22日以降あるいは以前の小領域は、それぞれ、1週間前後、2週間前後、4週間前後または1月前後という基点を中心に設定されており、この基点に対して、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報から時間軸上で離れるほど基点から小領域の境界点までの時間幅が大きくなるように設定されている。具体的には、11〜21日前後の小領域については、基点となる2週間前後に対して、サムネイル画像39に対応する画像ファイル10の撮影日時タグ情報から時間軸上で近い側は11日〜14日の時間幅であるのに対し、時間軸上で離れた側は14日〜21日の時間幅が設定されており、日数にして約2倍の大きさになっている。このように、選択されたサムネイル画像39に対応する画像ファイル10の撮影日時タグ情報から時間軸上で離れるほど小領域が大きくなるように設定されることで、ラベル81に対応するサムネイル画像80が有する撮影日時タグ情報が概略どの程度の日時に対応するものであるかをより直感的かつ簡易に理解することができる。   Here, the small area shown in FIG. 26 becomes larger as the distance from the shooting date / time tag information of the image file 10 corresponding to the selected thumbnail image 39 increases on the time axis (that is, the label 81 is displayed). Set more vaguely). Moreover, the small areas around 5-10 days, around 11-21 days, after 22 days or before are set around the base points of around 1 week, around 2 weeks, around 4 weeks or around January, respectively. With respect to this base point, the time width from the base point to the boundary point of the small area is set so as to increase from the shooting date tag information of the image file 10 corresponding to the selected thumbnail image 39 on the time axis. Yes. Specifically, for the small region around 11 to 21 days, the side closer to the time axis from the shooting date and time tag information of the image file 10 corresponding to the thumbnail image 39 is 11 days with respect to around 2 weeks as the base point. While the time width is ˜14 days, the time width on the side away from the time axis is set to the time width of 14 days to 21 days, which is about twice as large as the number of days. In this manner, the thumbnail image 80 corresponding to the label 81 is set so that the small area becomes larger as the distance from the shooting date / time tag information of the image file 10 corresponding to the selected thumbnail image 39 increases on the time axis. It is possible to more intuitively and easily understand how much date and time the photographing date and time tag information has corresponds to what date and time.

(変形例)
なお、本発明の情報処理システムは、その細部が上述した各実施形態に限定されず、種々の変形例が可能である。
(Modification)
Note that the information processing system of the present invention is not limited to the above-described embodiments, and various modifications are possible.

一例として、上述の各実施形態において情報処理システムに適用されるファイルは画像ファイル10、音楽ファイル60及び番組ファイル70であったが、本発明の情報処理システムに適用可能なファイルはこれに限定されず、メタ情報が取得可能なファイルであれば限定はない。一例として、電子メールの本文情報、送受信者情報等からなる電子メールファイルにも本発明の情報処理システムが適用可能であり、この場合の検索キーとしては、例えば送受信者情報を抽象化した検索キーとして、送受信者のメールアドレス中のドメイン情報を用いて「同一組織に所属する送信者」検索キーを生成し、また、送受信者情報を統計処理して「メールの送受信をn(nは自然数)件以上している相手」検索キーを生成することが可能である。また、シソーラス辞書ファイル等を用いた検索キーとして、家族のいずれかに送信した電子メールの送受信者情報から「家族に送受信したメール」検索キーを生成することができる。   As an example, the files applied to the information processing system in each of the above-described embodiments are the image file 10, the music file 60, and the program file 70, but the files applicable to the information processing system of the present invention are not limited thereto. There is no limitation as long as the meta information can be acquired. As an example, the information processing system of the present invention can also be applied to an e-mail file consisting of e-mail body information, sender / receiver information, etc. As a search key in this case, for example, a search key that abstracts sender / receiver information Using the domain information in the email address of the sender / receiver, a “sender belonging to the same organization” search key is generated, and the sender / receiver information is statistically processed to “never send / receive email (n is a natural number) It is possible to generate a “search partner” search key. Further, as a search key using a thesaurus dictionary file or the like, a “mail sent / received to family” search key can be generated from sender / receiver information of an email sent to any of the family members.

また、上述の各実施形態において情報処理システムに適用される画像ファイル10、音楽ファイル60及び番組ファイル70にはそのヘッダ部分10a、60a、70aの各領域にメタ情報が予め記述されていたが、これらファイルの情報処理装置への取り込み時、あるいはファイルの選択時にシソーラス辞書ファイルやWAN上の外部サーバを参照してメタ情報を取得し、取得したメタ情報を各領域に記述してもよい。具体的には、画像ファイル10等のヘッダ部分10aに、各画像ファイル10等を識別可能なID(Identification)番号を格納しておき、このID番号をキーとしてシソーラス辞書ファイルやWAN上の外部サーバを参照してメタ情報を取得すればよい。   In each of the above-described embodiments, meta information is described in advance in each area of the header portions 10a, 60a, and 70a in the image file 10, the music file 60, and the program file 70 that are applied to the information processing system. Meta information may be acquired by referring to a thesaurus dictionary file or an external server on the WAN when these files are taken into an information processing apparatus or when a file is selected, and the acquired meta information may be described in each area. Specifically, an ID (Identification) number that can identify each image file 10 or the like is stored in the header portion 10a of the image file 10 or the like, and a thesaurus dictionary file or an external server on the WAN using this ID number as a key. Meta information may be acquired by referring to.

さらに、上述の第1実施形態では、複数の検索キーによる和集合または積集合の検索結果を得るために、ユーザが複数の検索キーを個別指定していたが、有用な検索結果が得られるであろう検索キーの組み合わせを事前に設定しておき、情報処理装置が検索キーの組み合わせを推奨してもよい。   Furthermore, in the first embodiment described above, the user individually designates a plurality of search keys in order to obtain a search result of a union or product set using a plurality of search keys, but a useful search result can be obtained. A search key combination may be set in advance, and the information processing apparatus may recommend a search key combination.

さらに、上述の第1実施形態では、検索キー生成部27が生成した検索キーを出力部21に表示し、入力部22により選択された検索キーに基づいてデータ検索部28が記憶部23内の画像ファイル10を検索していたが、検索キーの表示は必須ではなく、例えば図6の検索キー表示画面30cにおいてサムネイル画像37のみ表示してもよい。また、図6の検索キー表示画面30cにおいて入力部22によりサムネイル画像37を選択させることなく、検索キー生成部27により生成された検索キーの少なくとも一つを用いてデータ検索部28が記憶部23内の画像ファイル10を検索し、検索表示画面30dを表示してもよい。   Furthermore, in the first embodiment described above, the search key generated by the search key generation unit 27 is displayed on the output unit 21, and the data search unit 28 is stored in the storage unit 23 based on the search key selected by the input unit 22. Although the image file 10 has been searched, display of the search key is not essential. For example, only the thumbnail image 37 may be displayed on the search key display screen 30c of FIG. Further, the data search unit 28 uses the search key generated by the search key generation unit 27 without using the input unit 22 to select the thumbnail image 37 on the search key display screen 30c of FIG. The image file 10 may be searched and the search display screen 30d may be displayed.

さらに、上述の各実施形態における表示画面の表示形態はあくまでも一例であり、種々の変形例が可能であることはいうまでもない。例えば、第4実施形態における検索絞り込み表示画面において、図21に示す検索絞り込み表示画面30iに加えて、検索キーによりどの程度の画像ファイル10が検索されたのかを示すインデックス表示を行っても良い。具体的には、図27に示すように、検索絞り込み表示画面30i1の下部に、検索絞り込み表示画面30i1を生成するために用いた画像ファイル10のサムネイル画像82と、このサムネイル画像82に対応する画像ファイル10の撮影日時タグ情報の前後の時間軸上の時間を離散的に表示した時間軸表示部83と、ユーザが選択したサムネイル画像80がこの時間軸のどこに概略位置するかを示す時間表示バー84とを表示するような例が挙げられる。   Furthermore, the display form of the display screen in each of the above-described embodiments is merely an example, and it goes without saying that various modifications are possible. For example, on the search refinement display screen in the fourth embodiment, in addition to the search refinement display screen 30i shown in FIG. 21, an index display indicating how many image files 10 have been retrieved by the search key may be performed. Specifically, as shown in FIG. 27, at the bottom of the search refinement display screen 30i1, a thumbnail image 82 of the image file 10 used to generate the search refinement display screen 30i1 and an image corresponding to the thumbnail image 82 are displayed. A time axis display unit 83 that discretely displays the time on the time axis before and after the shooting date tag information of the file 10, and a time display bar that indicates where on the time axis the thumbnail image 80 selected by the user is roughly located. 84 is displayed.

あるいは、上述の各実施形態における表示画面において、ユーザが選択したサムネイル画像に対応する画像ファイル10の撮影日時タグ情報を表示するときに、このサムネイル画像の例えば右下部に日付を表す7セグメント表示をすることで、簡略的な表示でありながらユーザに対して撮影日時タグ情報を直感的に示すことができる。   Alternatively, when the shooting date / time tag information of the image file 10 corresponding to the thumbnail image selected by the user is displayed on the display screen in each of the above-described embodiments, a 7-segment display indicating the date is displayed on the lower right of the thumbnail image, for example. By doing this, it is possible to intuitively show the shooting date / time tag information to the user while the display is simple.

また、上述の各実施形態では、情報処理装置1から出力される映像信号、音声信号等はHDMIインタフェース6を経由してHDMI出力機器15により表示等されていたが、出力するインタフェースはHDMIに限定されず、既知の出力インタフェースが採用可能である。さらに、情報処理装置1が液晶ディスプレイ、スピーカ等の出力部を備えてもよい。   In each of the above-described embodiments, the video signal, the audio signal, and the like output from the information processing apparatus 1 are displayed by the HDMI output device 15 via the HDMI interface 6, but the output interface is limited to HDMI. Instead, a known output interface can be employed. Furthermore, the information processing apparatus 1 may include an output unit such as a liquid crystal display and a speaker.

そして、上述の各実施形態において、情報処理装置を動作させるプログラムはROM等に格納されて提供されていたが、不図示の光学ディスクドライブ、USBポート等を用いて、プログラムが格納されたDVD(Digital Versatile Disc)、USBフラッシュメモリ装置等を接続し、このDVD等からプログラムを情報処理装置1に読み込んでこれら情報処理装置を動作させてもよい。また、WAN上に存在するサーバ装置等の内にプログラムを格納しておき、ネットワークインタフェースを介してこのプログラムを情報処理装置に読み込んでこの情報処理装置を動作させてもよい。さらに、上述の各実施形態において、情報処理装置は複数のハードウェア要素により構成されていたが、これらハードウェア要素の一部の動作をCPU等がプログラムの動作により実現することも可能である。   In each of the above-described embodiments, a program for operating the information processing apparatus is provided by being stored in a ROM or the like. However, a DVD (in which a program is stored using an optical disk drive, a USB port, etc. (not shown)) is provided. Digital Versatile Disc), a USB flash memory device, or the like may be connected, and the information processing device 1 may be operated by reading a program from the DVD or the like into the information processing device 1. Alternatively, a program may be stored in a server device or the like that exists on the WAN, and the information processing device may be operated by reading the program into the information processing device via a network interface. Further, in each of the above-described embodiments, the information processing apparatus is configured by a plurality of hardware elements, but it is also possible for the CPU or the like to realize some operations of these hardware elements by the operation of a program.

S 情報処理システム
1 情報処理装置
2 CPU
3 ROM
4 RAM
4a 個人情報
5 入力部
5a 入力インタフェース
5b 入力指示部
5c カードインタフェース
5d USBインタフェース
6 HDMIインタフェース
7 ネットワークインタフェース
8 HDD部
10 画像ファイル
10a、60a、70a ヘッダ部分
10b サムネイル画像領域
10c 画像データ領域
10d 画素数領域
10e 撮影日時領域
10f 取り込み日時領域
10g 機種名領域
10h 撮影情報領域
10i GPS情報領域
10j 顔認識情報領域
10k ユーザ定義領域
11 シソーラス辞書ファイル
12 入力機器
13 メモリーカード
14 USB機器
15 HDMI出力機器
16 ルータ
17 WAN
21 出力部
22 入力部
23 記憶部
24 制御部
25 画像ファイル選択部
26 情報取得部
27 検索キー生成部
28 画像ファイル検索部
30a、30a1 初期画面
30b 選択画面
30c 検索キー表示画面
30d、30d1、30e 検索表示画面
30f 検索キー絞り込み画面
30g、30h 検索キー追加画面
30i、30i1 検索絞り込み表示画面
31、31a、32、33 ボタン
34 ポインタ
35、37、39、40、43、46、49、51、54、80 サムネイル画像
36、42、45、50 関連写真ウィンドウ
38、44、47、48、52、53 検索キー
41a 第1領域
41b 第2領域
41c 第3領域
41d 第4領域
60 音楽ファイル
60c 音楽データ領域
70 番組ファイル
70c 番組データ領域
81 ラベル

S Information processing system 1 Information processing device 2 CPU
3 ROM
4 RAM
4a Personal information 5 Input unit 5a Input interface 5b Input instruction unit 5c Card interface 5d USB interface 6 HDMI interface 7 Network interface 8 HDD unit 10 Image file 10a, 60a, 70a Header portion 10b Thumbnail image region 10c Image data region 10d Pixel number region 10e Shooting date / time area 10f Capture date / time area 10g Model name area 10h Shooting information area 10i GPS information area 10j Face recognition information area 10k User-defined area 11 Thesaurus dictionary file 12 Input device 13 Memory card 14 USB device 15 HDMI output device 16 Router 17 WAN
DESCRIPTION OF SYMBOLS 21 Output part 22 Input part 23 Storage part 24 Control part 25 Image file selection part 26 Information acquisition part 27 Search key generation part 28 Image file search part 30a, 30a1 Initial screen 30b Selection screen 30c Search key display screen 30d, 30d1, 30e Search Display screen 30f Search key refinement screen 30g, 30h Search key addition screen 30i, 30i1 Search refinement display screen 31, 31a, 32, 33 Button 34 Pointer 35, 37, 39, 40, 43, 46, 49, 51, 54, 80 Thumbnail images 36, 42, 45, 50 Related photo windows 38, 44, 47, 48, 52, 53 Search key 41a First area 41b Second area 41c Third area 41d Fourth area 60 Music file 60c Music data area 70 Program File 70c Program data area 81 Label

Claims (14)

データが格納された記憶部を備えた情報処理装置と、この情報処理装置から出力された情報を表示する出力部と、入力指示を受け付けてこの入力指示に対応する入力指示信号を情報処理装置に送出する入力部とを備えた情報処理システムにおいて、
情報処理装置は、
前記記憶部に格納された前記データまたはこのデータを示すインデックスの少なくとも一つを前記出力部により表示させ、この出力部により表示された前記データまたはこのデータを示す前記インデックスのうち少なくとも一つが選択されたことに伴う前記入力部からのデータ選択信号を受信すると、選択されたデータを特定するファイル選択部と、
前記ファイル選択部により特定されたデータに関連する情報を取得する情報取得部と、
前記情報取得部により取得された、互いに異なる複数の前記情報を使用して、これら取得情報を抽象化した検索キーを少なくとも一つ生成する検索キー生成部と、
前記検索キー生成部により生成された前記検索キーの少なくとも一つにより前記記憶部内の前記データを検索し、検索結果となる前記データまたはこのデータを示す前記インデックスの少なくとも一つを前記出力部に表示させるデータ検索部とを備え、
前記データは画像データまたは動画データであり、
前記検索キー生成部は、前記検索キーを生成するための前記情報として、前記データが撮影された日時を示す撮影日時情報、前記データが撮影されたときに撮像装置が所在する位置を示す位置情報、及び前記データ内に含まれる被写体の顔認識を行って被写体を特定するための顔認識情報の少なくとも二つを使用することを特徴とする情報処理システム。
An information processing apparatus having a storage unit storing data, an output unit for displaying information output from the information processing apparatus, and an input instruction signal corresponding to the input instruction received from the input instruction to the information processing apparatus In an information processing system including an input unit for sending out,
Information processing device
The output unit displays at least one of the data stored in the storage unit or an index indicating the data, and at least one of the data displayed by the output unit or the index indicating the data is selected. When receiving a data selection signal from the input unit accompanying that, a file selection unit that identifies the selected data,
An information acquisition unit for acquiring information related to the data specified by the file selection unit;
A search key generation unit that generates at least one search key obtained by abstracting the acquired information using a plurality of pieces of information acquired by the information acquisition unit;
The data in the storage unit is searched by at least one of the search keys generated by the search key generation unit, and at least one of the data indicating the search result or the index indicating the data is displayed on the output unit. A data search unit
The data is image data or video data,
The search key generation unit includes, as the information for generating the search key, shooting date / time information indicating the date / time when the data was shot, and position information indicating a position where the imaging device is located when the data was shot And at least two pieces of face recognition information for performing face recognition of the subject included in the data to identify the subject .
データが格納された記憶部を備えた情報処理装置において、
前記記憶部に格納された前記データまたはこのデータを示すインデックスの少なくとも一つを提示し、提示された前記データまたはこのデータを示す前記インデックスのうち少なくとも一つの選択を受け入れるファイル選択部と、
前記ファイル選択部により選択を受け入れた前記データに関連する情報を取得する情報取得部と、
前記情報取得部により取得された、互いに異なる複数の前記情報を使用して、これら取得情報を抽象化した検索キーを少なくとも一つ生成する検索キー生成部と、
前記検索キー生成部により生成された前記検索キーの少なくとも一つにより前記記憶部内の前記データを検索し、検索結果となる前記データまたはこのデータを示す前記インデックスの少なくとも一つを提示するデータ検索部と
を備え、
前記データは画像データまたは動画データであり、
前記検索キー生成部は、前記検索キーを生成するための前記情報として、前記データが撮影された日時を示す撮影日時情報、前記データが撮影されたときに撮像装置が所在する位置を示す位置情報、及び前記データ内に含まれる被写体の顔認識を行って被写体を特定するための顔認識情報の少なくとも二つを使用することを特徴とする情報処理装置。
In an information processing apparatus including a storage unit in which data is stored,
A file selection unit that presents at least one of the data stored in the storage unit or an index indicating the data, and accepts selection of at least one of the presented data or the index indicating the data;
An information acquisition unit for acquiring information related to the data accepted by the file selection unit;
A search key generation unit that generates at least one search key obtained by abstracting the acquired information using a plurality of pieces of information acquired by the information acquisition unit;
A data search unit that searches the data in the storage unit by at least one of the search keys generated by the search key generation unit and presents at least one of the data that is a search result or the index indicating the data And
The data is image data or video data,
The search key generation unit includes, as the information for generating the search key, shooting date / time information indicating the date / time when the data was shot, and position information indicating a position where the imaging device is located when the data was shot And at least two pieces of face recognition information for identifying the subject by performing face recognition of the subject included in the data.
前記検索キー生成部は、前記撮影日時情報及び前記顔認識情報を使用して、これら取得情報を抽象化した結果として前記被写体の誕生日に関する前記検索キーを生成することを特徴とする請求項2に記載の情報処理装置。   The search key generation unit generates the search key related to the date of birth of the subject as a result of abstracting the acquired information using the shooting date / time information and the face recognition information. The information processing apparatus described in 1. 前記情報取得部により取得された前記情報には数値情報が含まれ、
前記検索キー生成部は、数値情報である前記取得情報を抽象化して、当該取得情報の一部または当該取得情報の表す数値情報の範囲の少なくとも一方を表す前記検索キーを生成することを特徴とする請求項2に記載の情報処理装置。
The information acquired by the information acquisition unit includes numerical information,
The search key generation unit abstracts the acquisition information that is numerical information, and generates the search key that represents at least one of a part of the acquisition information or a range of numerical information represented by the acquisition information. The information processing apparatus according to claim 2.
前記検索キー生成部は、生成した前記検索キーに対して所定の範囲を設定し、前記検索キーに対して設定した所定の範囲についても検索可能とすることを特徴とする請求項に記載の情報処理装置。 5. The search key generation unit according to claim 4 , wherein the search key generation unit sets a predetermined range for the generated search key, and enables a search for the predetermined range set for the search key. Information processing device. 前記データ検索部は、検索結果となる前記データに対して、前記検索キー生成部が予め定めた前記検索キーを用いて絞り込み検索を行うことを特徴とする請求項2〜のいずれかに記載の情報処理装置。 The data search unit searches for the result to become the data, according to any one of claims 2-5, characterized in that to perform a search refinement using the search key the search key generation unit is predetermined Information processing device. 前記検索キー生成部は、生成した前記検索キーを提示し、
前記データ検索部は、前記検索キー生成部により提示された検索キーの少なくとも一つの選択を受け入れ、選択を受け入れた前記検索キーにより前記記憶部内のデータを検索することを特徴とする請求項2〜のいずれかに記載の情報処理装置。
The search key generation unit presents the generated search key,
The data search unit accepts selection of at least one search key presented by the search key generation unit, and searches the data in the storage unit by the search key that accepts the selection. 6. The information processing apparatus according to any one of 6 .
前記検索キー生成部は、数値情報である前記取得情報の範囲を表す検索キーを生成し、
前記データ検索部は、前記検索キー生成部が生成した、数値情報である前記取得情報の範囲を表す検索キーを用いて、この取得情報の範囲を複数の小範囲に区分し、この小範囲内に該当する前記データから検索結果として抽出する前記データの個数を定めて検索をすることを特徴とする請求項に記載の情報処理装置。
The search key generation unit generates a search key that represents a range of the acquisition information that is numerical information,
The data search unit divides the range of the acquisition information into a plurality of small ranges using a search key that represents the range of the acquisition information that is numerical information generated by the search key generation unit. 5. The information processing apparatus according to claim 4 , wherein the search is performed by determining the number of the data extracted as a search result from the data corresponding to.
前記データ検索部は、前記情報取得部により取得された前記数値情報に近いほど前記小範囲を小さく区分するか、または、抽出する前記データの個数を多くするかの少なくとも一方により検索をすることを特徴とする請求項に記載の情報処理装置。 The data search unit performs a search by at least one of dividing the small range smaller as the numerical information acquired by the information acquisition unit is closer, or increasing the number of the data to be extracted. The information processing apparatus according to claim 8 , characterized in that: 前記情報取得部は、前記データに予め付与されたタグを情報として取得することを特徴とする請求項2〜のいずれかに記載の情報処理装置。 The information acquisition unit, the information processing apparatus according to any one of claims 2-9, characterized in that to obtain the pre-assigned tags in said data as information. 前記情報取得部は、前記データのID番号をキーとして外部サーバを参照し、メタ情報を前記情報として取得することを特徴とする請求項2〜のいずれかに記載の情報処理装置。 The information acquisition unit refers to an external server ID number of the data as a key, the information processing apparatus according to any one of claims 2-9, characterized in that to obtain the meta information as the information. 前記データ検索部は、前記検索キー生成部により提示された検索キーの複数の選択を受け入れ、選択を受け入れた複数の検索キーの検索結果の和集合または積集合、または検索結果の和集合または積集合の組み合わせであるデータの少なくとも一つを提示することを特徴とする請求項に記載の情報処理装置。 The data search unit accepts a plurality of selections of search keys presented by the search key generation unit, and a union or product set of search results of a plurality of search keys that have accepted the selection, or a union or product of search results The information processing apparatus according to claim 2 , wherein at least one piece of data that is a combination of sets is presented. データが格納された記憶部と制御部とを備えた情報処理装置における情報処理方法であって、
前記制御部は、
前記記憶部に格納されたデータまたはこのデータを示すインデックスの少なくとも一つを提示し、提示されたデータまたはこのデータを示すインデックスのうち少なくとも一つの選択を受け入れるステップと、
選択を受け入れたデータに関連する情報を取得するステップと、
取得された、互いに異なる複数の前記情報を使用して、これら取得情報を抽象化した検索キーを少なくとも一つ生成するステップと、
生成した検索キーの少なくとも一つにより前記記憶部内のデータを検索し、検索結果となるデータまたはこのデータを示すインデックスの少なくとも一つを提示するステップとを実行し、
前記データは画像データまたは動画データであり、
前記検索キーを生成するステップでは、前記検索キーを生成するための前記情報として、前記データが撮影された日時を示す撮影日時情報、前記データが撮影されたときに撮像装置が所在する位置を示す位置情報、及び前記データ内に含まれる被写体の顔認識を行って被写体を特定するための顔認識情報の少なくとも二つを使用することを特徴とする情報処理方法。
An information processing method in an information processing apparatus comprising a storage unit storing data and a control unit,
The controller is
Presenting at least one of data stored in the storage unit or an index indicating the data, and accepting selection of at least one of the presented data or an index indicating the data;
Obtaining information related to the data that accepted the selection;
Using the acquired plurality of different pieces of information to generate at least one search key that abstracts the acquired information; and
Searching the data in the storage unit by at least one of the generated search keys, and executing at least one of data indicating a search result or an index indicating the data ;
The data is image data or video data,
In the step of generating the search key, as the information for generating the search key, shooting date / time information indicating the date / time when the data was shot, and a position where the imaging device is located when the data was shot are shown. An information processing method using at least two of position information and face recognition information for performing face recognition of a subject included in the data to identify the subject .
データが格納された記憶部と制御部とを備えたコンピュータにおいて実行される情報処理プログラムであって、
このプログラムはコンピュータにより実行されると、前記制御部に、
前記記憶部に格納されたデータまたはこのデータを示すインデックスの少なくとも一つを提示し、提示されたデータまたはこのデータを示すインデックスのうち少なくとも一つの選択を受け入れるステップと、
選択を受け入れたデータに関連する情報を取得するステップと、
取得された、互いに異なる複数の前記情報を使用して、これら取得情報を抽象化した検索キーを少なくとも一つ生成するステップと、
生成した検索キーの少なくとも一つにより前記記憶部内のデータを検索し、検索結果となるデータまたはこのデータを示すインデックスの少なくとも一つを提示するステップと
を実行させ、
前記データは画像データまたは動画データであり、
前記検索キーを生成するステップでは、前記検索キーを生成するための前記情報として、前記データが撮影された日時を示す撮影日時情報、前記データが撮影されたときに撮像装置が所在する位置を示す位置情報、及び前記データ内に含まれる被写体の顔認識を行って被写体を特定するための顔認識情報の少なくとも二つを使用させることを特徴とする情報処理プログラム。
An information processing program executed in a computer including a storage unit storing data and a control unit,
When this program is executed by a computer, the control unit
Presenting at least one of data stored in the storage unit or an index indicating the data, and accepting selection of at least one of the presented data or an index indicating the data;
Obtaining information related to the data that accepted the selection;
Using the acquired plurality of different pieces of information to generate at least one search key that abstracts the acquired information; and
Searching the data in the storage unit by at least one of the generated search keys, and executing the step of presenting at least one of data that becomes a search result or an index indicating the data ,
The data is image data or video data,
In the step of generating the search key, as the information for generating the search key, shooting date / time information indicating the date / time when the data was shot, and a position where the imaging device is located when the data was shot are shown. An information processing program that uses at least two of position information and face recognition information for performing face recognition of a subject included in the data to identify the subject .
JP2016097632A 2016-05-16 2016-05-16 Information processing system, information processing apparatus, information processing method, and information processing program Active JP6206534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016097632A JP6206534B2 (en) 2016-05-16 2016-05-16 Information processing system, information processing apparatus, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016097632A JP6206534B2 (en) 2016-05-16 2016-05-16 Information processing system, information processing apparatus, information processing method, and information processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012217749A Division JP5998807B2 (en) 2012-09-28 2012-09-28 Information processing system, information processing apparatus, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2016177827A JP2016177827A (en) 2016-10-06
JP6206534B2 true JP6206534B2 (en) 2017-10-04

Family

ID=57071249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097632A Active JP6206534B2 (en) 2016-05-16 2016-05-16 Information processing system, information processing apparatus, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP6206534B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6896608B2 (en) * 2017-12-27 2021-06-30 富士フイルム株式会社 Information presentation devices, methods and programs

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840586B2 (en) * 2004-06-30 2010-11-23 Nokia Corporation Searching and naming items based on metadata
JP2007065745A (en) * 2005-08-29 2007-03-15 Canon Inc Document search method and document search device, and program
JP4929723B2 (en) * 2006-01-16 2012-05-09 株式会社ニコン Search device and search program
JP5098253B2 (en) * 2006-08-25 2012-12-12 コニカミノルタエムジー株式会社 Database system, program, and report search method

Also Published As

Publication number Publication date
JP2016177827A (en) 2016-10-06

Similar Documents

Publication Publication Date Title
JP5998807B2 (en) Information processing system, information processing apparatus, information processing method, and information processing program
KR101329266B1 (en) System and method for using content features and metadata of digital images to find related audio accompaniment
US8934717B2 (en) Automatic story creation using semantic classifiers for digital assets and associated metadata
US9317531B2 (en) Autocaptioning of images
US10324899B2 (en) Methods for characterizing content item groups
US8879890B2 (en) Method for media reliving playback
US9082452B2 (en) Method for media reliving on demand
US20070043744A1 (en) Method and system for linking digital pictures to electronic documents
US20100274782A1 (en) Generating metadata for association with a collection of content items
US8527492B1 (en) Associating external content with a digital image
JP2006155384A (en) Video comment input/display method and device, program, and storage medium with program stored
US20210082382A1 (en) Method and System for Pairing Visual Content with Audio Content
US8255395B2 (en) Multimedia data recording method and apparatus for automatically generating/updating metadata
US20090287649A1 (en) Method and apparatus for providing content playlist
KR20150004681A (en) Server for providing media information, apparatus, method and computer readable recording medium for searching media information related to media contents
US20060074923A1 (en) Data retrieval method and apparatus
JP5920848B2 (en) Information processing apparatus, information processing method, and program
JP6206534B2 (en) Information processing system, information processing apparatus, information processing method, and information processing program
US20070168386A1 (en) Device and method for managing multimedia content in portable digital apparatus
JP2008225584A (en) Article recommendation apparatus, article recommendation system, article recommendation method, and article recommendation program
EP2144240B1 (en) Method of searching for meta data
JP2010191940A (en) Information processing apparatus, information processing method, and program
US20080104120A1 (en) Data processing apparatus, data storage apparatus, data processing system, data processing method, and data storing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170821

R150 Certificate of patent or registration of utility model

Ref document number: 6206534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250