JP2015064824A - Information processor, image processing system, and information processing method and program in information processor and program - Google Patents

Information processor, image processing system, and information processing method and program in information processor and program Download PDF

Info

Publication number
JP2015064824A
JP2015064824A JP2013199461A JP2013199461A JP2015064824A JP 2015064824 A JP2015064824 A JP 2015064824A JP 2013199461 A JP2013199461 A JP 2013199461A JP 2013199461 A JP2013199461 A JP 2013199461A JP 2015064824 A JP2015064824 A JP 2015064824A
Authority
JP
Japan
Prior art keywords
position specifying
specifying data
data
unit
representative point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013199461A
Other languages
Japanese (ja)
Other versions
JP6179315B2 (en
Inventor
匡弘 土屋
Masahiro Tsuchiya
匡弘 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Buffalo Inc
Original Assignee
Buffalo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Buffalo Inc filed Critical Buffalo Inc
Priority to JP2013199461A priority Critical patent/JP6179315B2/en
Publication of JP2015064824A publication Critical patent/JP2015064824A/en
Application granted granted Critical
Publication of JP6179315B2 publication Critical patent/JP6179315B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To change position specification data associated with image data to common proper position specification data about the image data associated with imaging time data existing within a fixed time range.SOLUTION: An information processor includes an extraction part for extracting image data with imaging time data existing within a prescribed time range associated therewith, a representative point position specification data acquisition part for acquiring position specification data of a representative point coincident with or adjacent to the position specification data associated with individual image data extracted by the extraction part, a totalization part for totalizing position specification data of representative points acquired by the representative point position specification data acquisition part, and an approximate position specification data acquisition part for acquiring at least single approximate specification data to be associated with the image data extracted by the extraction part on the basis of a totalization result of the totalization part.

Description

本発明は、撮像された際の撮像時刻データ及び位置特定データが関連付けられている画像データが複数格納された記憶部を有する情報処理装置、画像処理システム、情報処理装置における画像処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an image processing system, an image processing method in the information processing apparatus, and a program, each having a storage unit that stores a plurality of image data associated with imaging time data and position specifying data at the time of imaging. .

近年の撮像装置の中には、被写体を撮像して画像データが生成された際に撮像装置が所在する位置、すなわち撮像位置を特定するための位置特定データを取得するGPS(Global Positioning System)モジュール等を搭載するものが登場している。このような位置特定データ、及び、撮像装置が被写体を撮像して画像データを生成した際の日時、すなわち撮像日時を表す撮像時刻データは、画像データがExif(Exchangeable image file format)規格で定められるファイルフォーマットにより撮像装置に記録される場合、この画像データに関連付けられて、より詳細には画像データに付随するタグデータとして記録される。   Among recent imaging apparatuses, a GPS (Global Positioning System) module that acquires position specifying data for specifying a position where the imaging apparatus is located when an image is generated by imaging a subject, that is, an imaging position Etc. have been introduced. Such position specifying data and the date and time when the image capturing apparatus images the subject to generate image data, that is, the image capturing time data indicating the image capturing date and time are defined by the Exif (Exchangeable image file format) standard. In the case of recording in the image pickup apparatus by a file format, it is associated with the image data, and more specifically, is recorded as tag data accompanying the image data.

このような位置特定データは、撮像装置による撮像位置を詳細に特定しうるデータ、一例として緯度、経度の詳細な数値によるデータとして記録されることが多い。従って、例えば有名なランドマーク付近で撮像された画像データについて、画像データに関連付けられた位置特定データに基づいて撮像位置を知ろうとすると、ランドマークそのものではなく、実際に撮像装置により撮像された位置、すなわちランドマーク付近の位置が撮像位置として検出されることになる。このため、画像データを他のユーザに転送して思い出を共有しようとした場合でも、転送先の他のユーザとしては、位置特定データだけではどのランドマークに関連する画像データであるかを知ることは難しい。   Such position specifying data is often recorded as data that can specify in detail the imaging position by the imaging device, for example, data by detailed numerical values of latitude and longitude. Therefore, for example, for image data captured in the vicinity of a famous landmark, when trying to know the imaging position based on the position specifying data associated with the image data, the position actually captured by the imaging device, not the landmark itself That is, the position near the landmark is detected as the imaging position. For this reason, even when trying to share memories by transferring image data to other users, the other users of the transfer destination know which landmark-related image data is based on the position specifying data alone. Is difficult.

従って、画像データに関連付けられた位置特定データを、撮像位置の近傍に位置するランドマークの位置特定データに置き換えることで、画像データが転送された他のユーザがこの画像データの撮像位置を容易に理解でき、思い出を共有することが容易になると考えられる。また、撮像装置により画像データを撮像したユーザにとっても、撮像位置の近傍に位置するランドマークを知ることができるという利点がある。同様に、画像データに関連付けられた位置特定データをランドマークの位置特定データに置き換えれば、実際の厳密な撮像位置を他のユーザに知らせることなく画像データを共有することができ、個人情報保護の観点からも望ましい。   Therefore, by replacing the position specifying data associated with the image data with the position specifying data of the landmark located in the vicinity of the image pickup position, other users to whom the image data has been transferred can easily set the image pickup position of the image data. It will be easy to understand and share memories. In addition, there is an advantage that a user who has captured image data with an imaging apparatus can know a landmark located in the vicinity of the imaging position. Similarly, if the position specifying data associated with the image data is replaced with the position specifying data of the landmark, the image data can be shared without informing other users of the actual exact imaging position. It is desirable from the viewpoint.

かかる事情に鑑み、画像データに関連付けられた位置特定データを、この位置特定データで示される撮像位置の近傍に位置するランドマークの位置特定データに置き換える技術が提案されている(例えば特許文献1、2参照)。   In view of such circumstances, a technique has been proposed in which position specifying data associated with image data is replaced with position specifying data of a landmark located in the vicinity of an imaging position indicated by the position specifying data (for example, Patent Document 1, 2).

特開2012−147199号公報JP 2012-147199 A 国際公開第2007/013432号International Publication No. 2007/013342

例えば特定の地域を旅行してその旅行先で撮像した画像データは、全て同一のランドマークを表す位置特定データに置き換えたいという要望がある。一例として、旅行先で印象に残ったランドマークを表す位置特定データに置き換えることで、ランドマークの思い出とともに旅行の思い出を容易に想起することができると考えられ、このため、一定の時間範囲内にある撮像時刻データに関連付けられた画像データについては、この画像データに関連付けられた位置特定データを特定のランドマークを表す位置特定データに置き換えたいという要望がある。しかしながら上述した技術では、関連付けられた位置特定データを、画像データ毎にその近傍に位置するランドマークの位置特定データに置き換えていたので、一定の時間範囲内にある撮像時刻データに関連付けられた画像データについて、この画像データに関連付けられた位置特定データを単一のランドマークの位置特定データに置き換えることは困難であった。   For example, there is a demand that image data taken at a travel destination after traveling in a specific area should be replaced with position specifying data representing the same landmark. As an example, it is considered that it is possible to easily recall the memories of the trip together with the landmark memories by replacing it with the location identification data that represents the landmarks that left an impression at the travel destination. For the image data associated with the imaging time data, there is a desire to replace the position specifying data associated with the image data with position specifying data representing a specific landmark. However, in the above-described technique, the associated position specifying data is replaced with the position specifying data of the landmark located in the vicinity of each image data, so that the image associated with the imaging time data within a certain time range. Regarding the data, it has been difficult to replace the position specifying data associated with the image data with the position specifying data of a single landmark.

本発明は上述した課題に鑑みてなされたものであり、一定の時間範囲内にある撮像時刻データに関連付けられた画像データについて、この画像データに関連付けられた位置特定データを、共通する適切な位置特定データに変更することの可能な情報処理装置、画像処理システム、情報処理装置における画像処理方法及びプログラムの提供を、その目的の一つとしている。   The present invention has been made in view of the above-described problems. For image data associated with imaging time data within a certain time range, the position specifying data associated with the image data is used as a common appropriate position. One of the purposes is to provide an information processing apparatus, an image processing system, an image processing method and a program in the information processing apparatus that can be changed to specific data.

本発明は、撮像された際の撮像時刻データ及び位置特定データが関連付けられている画像データが複数格納された記憶部を有する情報処理装置に適用される。そして、所定時間範囲内に存在する撮像時刻データが関連付けられた画像データを抽出する抽出部と、抽出部により抽出された個々の画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得する代表地点位置特定データ取得部と、代表地点位置特定データ取得部が取得した代表地点の位置特定データを集計する集計部と、集計部の集計結果に基づいて、抽出部により抽出された画像データに関連付けられる少なくとも単一の近似位置特定データを取得する近似位置特定データ取得部とを設けることで、上述した課題の少なくとも一つを解決している。   The present invention is applied to an information processing apparatus having a storage unit that stores a plurality of image data associated with imaging time data and position specifying data at the time of imaging. Then, an extraction unit that extracts image data associated with imaging time data that exists within a predetermined time range, and a representative point that matches or is close to position specifying data associated with individual image data extracted by the extraction unit Based on the summation result of the representative point position identification data acquisition unit that acquires the position specification data, the total point location data acquired by the representative point position specification data acquisition unit, By providing an approximate position specifying data acquisition unit that acquires at least a single approximate position specifying data associated with the extracted image data, at least one of the above-described problems is solved.

近似位置特定データ取得部は、代表地点の位置特定データ集計結果に基づいて、所定時間範囲内に存在する撮像時刻データが関連付けられた画像データに関連付けられる少なくとも単一の近似位置特定データを取得する。従って、近似位置特定データ取得部が取得した近似位置特定データは、所定時間範囲に撮像された画像データの位置特定データの分布を反映したものとなる。   The approximate position specifying data acquisition unit acquires at least a single approximate position specifying data associated with image data associated with imaging time data existing within a predetermined time range based on the position specifying data totaling result of the representative points. . Accordingly, the approximate position specifying data acquired by the approximate position specifying data acquiring unit reflects the distribution of the position specifying data of the image data captured in the predetermined time range.

ここで、近似位置特定データ取得部は、集計部の集計結果において最頻値であった代表地点の位置特定データを近似位置特定データとして取得することが好ましい。また、記憶部内に複数の撮像装置により撮像された画像データが格納された場合、抽出部は、特定の撮像装置により撮像された画像データを抽出することが好ましい。   Here, it is preferable that the approximate position specifying data acquisition unit acquires the position specifying data of the representative point that is the mode value in the counting result of the counting unit as the approximate position specifying data. Moreover, when the image data imaged with the several imaging device is stored in the memory | storage part, it is preferable that an extraction part extracts the image data imaged with the specific imaging device.

また、代表地点位置特定データ取得部は、抽出部により抽出された個々の画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを複数取得した場合、受け付けた選択入力に基づいていずれか一つの代表地点の位置特定データを選択することが好ましい。あるいは、代表地点位置特定データ取得部は、抽出部により抽出された個々の画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを複数取得した場合、抽出部により抽出された画像データを参照していずれか一つの代表地点の位置特定データを選択することが好ましい。   In addition, the representative point position specifying data acquisition unit obtains a plurality of pieces of position specifying data of representative points that match or are close to the position specifying data associated with the individual image data extracted by the extracting unit. It is preferable to select the position specifying data of any one representative point based on it. Alternatively, the representative point position specifying data acquisition unit is extracted by the extraction unit when acquiring a plurality of position specifying data of representative points that match or are close to the position specifying data associated with the individual image data extracted by the extraction unit. It is preferable to select the position specifying data of any one representative point with reference to the image data.

代表地点位置特定データ取得部は、入力された近接判断用距離範囲に基づいて、抽出部により抽出された個々の画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得することが好ましい。あるいは、記憶部に格納された画像データに関連付けられた位置特定データに基づいて近接判断用距離範囲を決定する近接判断用距離範囲決定部を設けた場合、代表地点位置特定データ取得部は、近接判断用距離範囲決定部により決定された近接判断用距離範囲に基づいて、抽出部により抽出された個々の画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得することが好ましい。またあるいは、入力されたユーザ情報に基づいてユーザ毎の近接判断用距離範囲を決定する近接判断用距離範囲決定部を設けた場合、代表地点位置特定データ取得部は、近接判断用距離範囲決定部により決定された近接判断用距離範囲に基づいて、抽出部により抽出された個々の画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得することが好ましい。   The representative point position specifying data acquisition unit obtains the position specifying data of the representative point that matches or is close to the position specifying data associated with the individual image data extracted by the extracting unit based on the input proximity determination distance range. It is preferable to obtain. Alternatively, when the proximity determination distance range determination unit that determines the proximity determination distance range based on the position specification data associated with the image data stored in the storage unit is provided, the representative point position specification data acquisition unit Based on the proximity determination distance range determined by the determination distance range determination unit, the position specification data of the representative point that matches or is close to the position specification data associated with the individual image data extracted by the extraction unit is acquired. It is preferable. Alternatively, when the proximity determination distance range determining unit that determines the proximity determination distance range for each user based on the input user information is provided, the representative point position specifying data acquisition unit is the proximity determination distance range determining unit. It is preferable to acquire the position specifying data of the representative point that matches or is close to the position specifying data associated with the individual image data extracted by the extraction unit based on the proximity determination distance range determined by the above.

また本発明は、撮像された際の撮像時刻データ及び位置特定データが関連付けられている画像データが複数格納された記憶部を有する情報処理装置と、通信手段を介してこの情報処理装置と通信可能なサーバ装置とを備えた画像処理システムに適用される。そして、情報処理装置に、所定時間範囲内に存在する撮像時刻データが関連付けられた画像データを抽出する抽出部を設け、サーバ装置に、抽出部により抽出された個々の画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得する代表地点位置特定データ取得部と、代表地点位置特定データ取得部が取得した代表地点の位置特定データを集計する集計部と、集計部の集計結果に基づいて、抽出部により抽出された画像データに関連付けられる少なくとも単一の近似位置特定データを取得する近似位置特定データ取得部とを設けることで、上述の課題の少なくとも一つを解決している。   The present invention is also capable of communicating with an information processing apparatus having a storage unit storing a plurality of image data associated with imaging time data and position specifying data at the time of imaging, and the information processing apparatus via communication means. The present invention is applied to an image processing system including a simple server device. The information processing apparatus includes an extraction unit that extracts image data associated with imaging time data that exists within a predetermined time range, and the server apparatus includes a position associated with individual image data extracted by the extraction unit. A representative point position specifying data acquisition unit that acquires position specifying data of a representative point that matches or is close to the specific data, a totaling unit that totals the position specifying data of the representative points acquired by the representative point position specifying data acquisition unit, and a totaling unit By providing an approximate position specifying data acquisition unit that acquires at least a single approximate position specifying data associated with the image data extracted by the extraction unit based on the total result of the above, at least one of the above-mentioned problems is solved doing.

さらに本発明は、撮像された際の撮像時刻データ及び位置特定データが関連付けられている画像データが複数格納された記憶部を有する情報処理装置における画像処理方法に適用される。そして、所定時間範囲内に存在する撮像時刻データが関連付けられた画像データを抽出する工程と、抽出された個々の画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得する工程と、取得した代表地点の位置特定データを集計する工程と、集計結果に基づいて、抽出された画像データに関連付けられる少なくとも単一の近似位置特定データを取得する工程とを設けることで、上述の課題の少なくとも一つを解決している。   Furthermore, the present invention is applied to an image processing method in an information processing apparatus having a storage unit that stores a plurality of image data associated with image capturing time data and position specifying data at the time of image capturing. Then, a step of extracting image data associated with imaging time data existing within a predetermined time range, and position specifying data of a representative point that matches or is close to position specifying data associated with each extracted image data Providing a step of acquiring, a step of counting the position specifying data of the acquired representative point, and a step of acquiring at least a single approximate position specifying data associated with the extracted image data based on the counting result At least one of the above-mentioned problems is solved.

そして本発明は、撮像された際の撮像時刻データ及び位置特定データが関連付けられている画像データが複数格納された記憶部を有するコンピュータにより実行されるプログラムに適用される。そして、このプログラムは、コンピュータにより実行されると、所定時間範囲内に存在する撮像時刻データが関連付けられた画像データを抽出する工程と、抽出された個々の画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得する工程と、取得した代表地点の位置特定データを集計する工程と、集計結果に基づいて、抽出された画像データに関連付けられる少なくとも単一の近似位置特定データを取得する工程とを実行することで、上述の課題の少なくとも一つを解決している。   The present invention is applied to a program executed by a computer having a storage unit that stores a plurality of image data associated with image capturing time data and position specifying data at the time of image capturing. When this program is executed by a computer, the program extracts the image data associated with the imaging time data existing within the predetermined time range, and the position specifying data associated with the extracted individual image data. A step of acquiring position specifying data of representative points that match or close, a step of counting the position specifying data of the acquired representative points, and at least a single approximate position associated with the extracted image data based on the total result By executing the step of acquiring specific data, at least one of the above problems is solved.

本発明によれば、一定の時間範囲内に撮像された画像データに関連付けられた位置特定データを用いて、これら位置特定データに一致または近接する代表地点の位置特定データの集計結果に基づいて近似位置特定データを取得することができる。これにより、一定の時間範囲内にある撮像時刻データに関連付けられた画像データについて、この画像データに関連付けられた位置特定データを、共通する適切な位置特定データに変更することの可能な情報処理装置、画像処理システム、情報処理装置における画像処理方法及びプログラムを実現することができる。   According to the present invention, using position specifying data associated with image data captured within a certain time range, approximation is performed based on a total result of position specifying data of representative points that match or are close to the position specifying data. Location specific data can be acquired. Thereby, for image data associated with imaging time data within a certain time range, the information processing apparatus capable of changing the position specifying data associated with the image data to common appropriate position specifying data An image processing system and an image processing method and program in an information processing apparatus can be realized.

本発明の第1実施形態である画像処理システムの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image processing system according to a first embodiment of the present invention. 第1実施形態の画像処理システムを構成する情報処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the information processing apparatus which comprises the image processing system of 1st Embodiment. 第1実施形態の画像処理システムを構成する第1の撮像装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a first imaging device that constitutes an image processing system of a first embodiment. FIG. 第1実施形態の情報処理装置の機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of the information processing apparatus of 1st Embodiment. 第1実施形態の情報処理装置の記憶部に格納された画像ファイルのデータ構造を示す図である。It is a figure which shows the data structure of the image file stored in the memory | storage part of the information processing apparatus of 1st Embodiment. 第1実施形態の情報処理装置の記憶部に格納された近似位置特定データテーブルのテーブル構成を示す図である。It is a figure which shows the table structure of the approximate position specific data table stored in the memory | storage part of the information processing apparatus of 1st Embodiment. 一実施形態の情報処理装置の記録部に格納された登録テーブルのテーブル構成を示す図である。It is a figure which shows the table structure of the registration table stored in the recording part of the information processing apparatus of one Embodiment. 第1実施形態の情報処理装置における位置特定データの変更方法の一例を説明するための図である。It is a figure for demonstrating an example of the change method of the position specific data in the information processing apparatus of 1st Embodiment. 第1実施形態の情報処理装置における位置特定データの変更方法の他の例を説明するための図である。It is a figure for demonstrating the other example of the change method of the position specific data in the information processing apparatus of 1st Embodiment. 第1実施形態の情報処理装置における位置特定データの変更方法のまた他の例を説明するための図である。It is a figure for demonstrating the other example of the change method of the position specific data in the information processing apparatus of 1st Embodiment. 第1実施形態の情報処理装置の動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of operation | movement of the information processing apparatus of 1st Embodiment. 第1実施形態の情報処理装置の動作の他の例を説明するためのフローチャートである。It is a flowchart for demonstrating the other example of operation | movement of the information processing apparatus of 1st Embodiment. 第1実施形態の情報処理装置の機器登録動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the apparatus registration operation | movement of the information processing apparatus of 1st Embodiment. 第1実施形態の情報処理装置における機器登録または機器追従の手順の一例を説明するための図である。It is a figure for demonstrating an example of the procedure of the apparatus registration or apparatus follow-up in the information processing apparatus of 1st Embodiment. 本発明の第3実施形態である画像処理システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing system which is 3rd Embodiment of this invention. 第3実施形態の画像処理システムの機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of the image processing system of 3rd Embodiment.

以下、図面を参照して、本発明の情報処理装置の実施形態について説明する。
(第1実施形態)
図1は、本発明の第1実施形態である画像処理システムの概略構成を示す図である。図1において、第1実施形態の画像処理システムSは、情報処理装置1、第1の撮像装置2、第2の撮像装置3及び画像表示装置4を備える。
Hereinafter, an embodiment of an information processing apparatus of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram showing a schematic configuration of an image processing system according to the first embodiment of the present invention. In FIG. 1, the image processing system S of the first embodiment includes an information processing device 1, a first imaging device 2, a second imaging device 3, and an image display device 4.

情報処理装置1は、これら第1及び第2の撮像装置2、3により撮像された画像ファイルを取り込み、これら画像ファイルに関連付けられた位置特定データを近似位置特定データに変更する。情報処理装置1の詳細については後述する。第1の撮像装置2は、被写体を撮像して画像ファイルを生成し、その際、この画像ファイルの一部に撮像時刻データ及び位置特定データを付与する。第1の撮像装置2は、例えばスマートフォンやGPS装置が搭載されたデジタルスチルカメラである。第2の撮像装置3は、被写体を撮像して第2の画像ファイルを生成し、その際、この第2の画像ファイルの一部に撮像時刻データを付与する。第2の撮像装置3は、例えばGPS装置が搭載されていないデジタルスチルカメラである。   The information processing apparatus 1 takes in the image files picked up by the first and second image pickup devices 2 and 3 and changes the position specifying data associated with these image files to approximate position specifying data. Details of the information processing apparatus 1 will be described later. The first imaging device 2 captures a subject and generates an image file. At that time, imaging time data and position specifying data are assigned to a part of the image file. The first imaging device 2 is, for example, a digital still camera equipped with a smartphone or a GPS device. The second imaging device 3 captures the subject and generates a second image file. At that time, imaging time data is given to a part of the second image file. The second imaging device 3 is, for example, a digital still camera that is not equipped with a GPS device.

なお、第2の撮像装置3のように、被写体を撮像して画像ファイルを生成する際にこの画像ファイルの一部に位置特定データを付与する機能を有しない場合であっても、ユーザが位置特定データを逐次取得する装置を同時に携帯し、この装置が取得した位置特定データを後日画像ファイルにマッチングさせる装置が知られている(一例としてソニー株式会社製 GPSユニットキット GPS−CS3K(「GPS-CS3K|GPSユニット|ソニー株式会社」[平成25年9月26日検索]、インターネット<URL: http://www.sony.jp/gps/products/GPS-CS3K/index.html>)。従って、第2の撮像装置3により撮像された画像ファイルであっても、後日位置特定データを付加することが可能であるので、以下の説明では、第1及び第2の撮像装置2、3のいずれで撮像された画像ファイルであるかについては特段区別せずに説明を行う。すなわち、第1及び第2の撮像装置2、3のいずれで撮像された画像ファイルであっても、この画像ファイルの一部に撮像時刻データ及び位置特定データが付与されたものとして説明を行う。   Even when the user does not have a function of adding position specifying data to a part of the image file when the subject is imaged and an image file is generated as in the second imaging device 3, the user can A device is known that simultaneously carries a device that sequentially acquires specific data and matches the position specific data acquired by this device to an image file at a later date (for example, GPS unit kit GPS-CS3K (“GPS- CS3K | GPS Unit | Sony Corporation "[searched September 26, 2013], Internet <URL: http://www.sony.jp/gps/products/GPS-CS3K/index.html>). Even in the case of an image file captured by the second imaging device 3, it is possible to add position specifying data at a later date. Therefore, in the following description, in any of the first and second imaging devices 2, 3. The captured image file In other words, the image file captured by either the first image capturing device 2 or the second image capturing device 3 is captured at a part of the image file. The description will be made assuming that data and position specifying data are given.

第1の撮像装置2によって撮像された画像ファイルは、無線LAN等の無線通信手段を介して情報処理装置1に取り込まれる。また、第2の撮像装置3によって撮像された画像ファイルは、一例として、データ転送ケーブルの一例であるUSB(Universal Serial Bus)ケーブル5を介して情報処理装置1に取り込まれる。あるいは、第1、第2の撮像装置2、3によって撮像された画像ファイルはメモリーカード6に格納され、このメモリーカード6が情報処理装置1に挿入されることにより情報処理装置1に取り込まれる。   The image file imaged by the first imaging device 2 is taken into the information processing device 1 via wireless communication means such as a wireless LAN. Further, as an example, the image file captured by the second imaging device 3 is taken into the information processing device 1 via a USB (Universal Serial Bus) cable 5 which is an example of a data transfer cable. Alternatively, the image files picked up by the first and second image pickup devices 2 and 3 are stored in the memory card 6, and the memory card 6 is inserted into the information processing device 1 and taken into the information processing device 1.

画像表示装置4は、一例として、データ転送ケーブルの一例であるHDMI(High Definition Multimedia Interface:登録商標)ケーブル7により情報処理装置1に接続されている。情報処理装置1から出力される表示画面生成用信号はこのHDMIケーブル7を介して画像表示装置4に入力され、画像表示装置4は、入力された表示画面生成用信号に基づいてその表示画面4aに画像を表示する。あるいは、画像表示装置4は、コンポジット映像信号の送受信が可能なRCA端子を有するケーブル、S端子を有するケーブルにより情報処理装置1に接続されてもよく、さらには、画像表示装置4は、コンポーネント映像信号の送受信が可能なD端子を有するケーブルにより情報処理装置1に接続されてもよい。あるいは、画像表示装置4は、無線LAN等の無線通信手段を介して情報処理装置1に接続されてもよい。画像表示装置4は、例えばTV、モニタ、スマートフォンやタブレット端末である。   As an example, the image display device 4 is connected to the information processing device 1 by an HDMI (High Definition Multimedia Interface: registered trademark) cable 7 which is an example of a data transfer cable. The display screen generation signal output from the information processing device 1 is input to the image display device 4 via the HDMI cable 7, and the image display device 4 displays the display screen 4a based on the input display screen generation signal. Display an image. Alternatively, the image display device 4 may be connected to the information processing device 1 by a cable having an RCA terminal capable of transmitting and receiving a composite video signal and a cable having an S terminal. The information processing apparatus 1 may be connected by a cable having a D terminal capable of transmitting and receiving signals. Alternatively, the image display device 4 may be connected to the information processing device 1 via wireless communication means such as a wireless LAN. The image display device 4 is, for example, a TV, a monitor, a smartphone, or a tablet terminal.

(第1実施形態の情報処理装置の構成)
図2は、本発明の第1実施形態である画像処理システムを構成する情報処理装置1の概略構成を示すブロック図である。図2において、本実施形態の情報処理装置1は、CPU(Central Processing Unit)10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、入出力デバイス13、HDMIインタフェース(I/F)14、ネットワークインタフェース(I/F)15、HDD(Hard Disk Drive)部16及び無線LANインタフェース(I/F)17を備えており、これらはバスにより互いに接続されている。
(Configuration of information processing apparatus according to the first embodiment)
FIG. 2 is a block diagram showing a schematic configuration of the information processing apparatus 1 constituting the image processing system according to the first embodiment of the present invention. 2, an information processing apparatus 1 according to the present embodiment includes a CPU (Central Processing Unit) 10, a ROM (Read Only Memory) 11, a RAM (Random Access Memory) 12, an input / output device 13, and an HDMI interface (I / F). 14, a network interface (I / F) 15, an HDD (Hard Disk Drive) unit 16, and a wireless LAN interface (I / F) 17, which are connected to each other by a bus.

CPU10は、後述するROM11内に格納されたファームウェア等のプログラムが実行されることにより、情報処理装置1全体の制御を行う。また、CPU10は、ROM11内に格納されたプログラムが実行されることにより、図4に示すような各機能部としても動作する。図4に示す各機能部の動作については後述する。ROM11には、上述したファームウェア等のプログラムが格納されている。RAM12は情報処理装置1のワークメモリとして機能し、CPU10を含めた情報処理装置1の動作時に一時的に使用されるプログラム、データ等が格納される。   The CPU 10 controls the entire information processing apparatus 1 by executing a program such as firmware stored in the ROM 11 described later. The CPU 10 also operates as each functional unit as shown in FIG. 4 by executing a program stored in the ROM 11. The operation of each functional unit shown in FIG. 4 will be described later. The ROM 11 stores programs such as the firmware described above. The RAM 12 functions as a work memory of the information processing apparatus 1 and stores programs, data, and the like that are temporarily used during the operation of the information processing apparatus 1 including the CPU 10.

入出力デバイス13は、入力インタフェース(I/F)13a、入力指示部13b、カードインタフェース(I/F)13c及びUSBインタフェース(I/F)13dを備える。入力インタフェース13aには入力指示部13b及び入力機器20が接続され、ユーザが入力指示部13bまたは入力機器20を操作することにより入力される入力信号を受信する。入力指示部13bとしては、例えば画像取り込み指示ボタン等が挙げられ、また、入力機器20としては、例えばリモコン、キーボード、マウス等が挙げられる。カードインタフェース13cはカードスロット(図略)を備え、このカードスロットに挿入されたメモリーカード6に対してデータの読み出し/書き込みを行う。メモリーカード6の形式に限定はなく、一例としてmini、microを含むSDメモリーカード、メモリースティック(登録商標)が好適に挙げられる。USBインタフェース13dはUSBコネクタ(図略)を備え、このUSBコネクタに直接、あるいはUSBケーブル5を介して接続されたUSB機器21に対して、USB2.0またはUSB3.0規格に沿ったデータの読み出し/書き込みを行う。USB機器21としては、USBフラッシュメモリ、USBインタフェースを備えた第2の撮像装置3が挙げられる。   The input / output device 13 includes an input interface (I / F) 13a, an input instruction unit 13b, a card interface (I / F) 13c, and a USB interface (I / F) 13d. An input instruction unit 13b and an input device 20 are connected to the input interface 13a, and an input signal input by the user operating the input instruction unit 13b or the input device 20 is received. Examples of the input instruction unit 13b include an image capture instruction button, and examples of the input device 20 include a remote controller, a keyboard, and a mouse. The card interface 13c includes a card slot (not shown), and reads / writes data from / to the memory card 6 inserted in the card slot. The format of the memory card 6 is not limited, and examples thereof include an SD memory card including mini and micro, and a Memory Stick (registered trademark). The USB interface 13d includes a USB connector (not shown), and reads data in conformity with the USB 2.0 or USB 3.0 standard to the USB device 21 connected to the USB connector directly or via the USB cable 5. / Write. Examples of the USB device 21 include a second imaging device 3 having a USB flash memory and a USB interface.

HDMIインタフェース14はHDMIコネクタ(図略)を備え、このHDMIコネクタにHDMIケーブル(図略)を介して接続されたHDMI出力機器22に対してAVストリーム(映像信号及び音声信号)を出力する。HDMI出力機器22としては、例えば画像表示装置4が挙げられる。ネットワークインタフェース15はネットワークコネクタ(図略)を備え、このネットワークコネクタにネットワークケーブル(図略)を介してルータ23が接続され、このルータ23がインターネット等のWAN(Wide Area Network)8に接続されることで、外部ネットワークとの間でデータの送受信がされる。このネットワークインタフェース15は、例えばIEEE(The Institute of Electrical and Electronics Engineers)802.3規格に基づく有線通信を行うものである。   The HDMI interface 14 includes an HDMI connector (not shown), and outputs an AV stream (video signal and audio signal) to the HDMI output device 22 connected to the HDMI connector via an HDMI cable (not shown). An example of the HDMI output device 22 is the image display device 4. The network interface 15 includes a network connector (not shown), a router 23 is connected to the network connector via a network cable (not shown), and the router 23 is connected to a WAN (Wide Area Network) 8 such as the Internet. Thus, data is transmitted to and received from the external network. The network interface 15 performs wired communication based on, for example, IEEE (The Institute of Electrical and Electronics Engineers) 802.3 standard.

HDD部16は、HDD16bとHDDインタフェース(I/F)16aとを備える。HDD16bは、記録媒体であるディスクと、このディスクの回転を行う回転部と、ディスクに対してデータの読み出し/書き込みを行うヘッド部とを備える(いずれも不図示)。HDDインタフェース16aは、このHDD16bに対するデータの読み出し/書き込み指令があった場合に、HDD16b全体の制御を行うとともに、データの読み出し/書き込み制御を行い、読み出されたデータを出力する。また、このHDD16bには、第1及び第2の撮像装置2、3から取り込んだ画像ファイル70、近似位置特定データテーブル71及び登録テーブル72が格納されている。   The HDD unit 16 includes an HDD 16b and an HDD interface (I / F) 16a. The HDD 16b includes a disk that is a recording medium, a rotating unit that rotates the disk, and a head unit that reads / writes data from / to the disk (all not shown). When there is a data read / write command to the HDD 16b, the HDD interface 16a controls the entire HDD 16b, performs data read / write control, and outputs the read data. In addition, the HDD 16b stores an image file 70, an approximate position specifying data table 71, and a registration table 72 that are captured from the first and second imaging devices 2 and 3.

画像ファイル70をHDD16bに格納する手法は任意であるが、一例として、上述のように第1及び第2の撮像装置2、3が撮像して得られた画像ファイルをメモリーカード6内に格納し、このメモリーカード6をカードインタフェース13cのカードスロットに挿入して、入力指示部13bが操作されたことによりこのメモリーカード6内に格納された画像ファイルをHDD16b内に取り込む手法が挙げられる。また、画像ファイルを撮像した第2の撮像装置3に接続されたUSBケーブル5をUSBインタフェース13dのUSBコネクタに挿入して、入力指示部13bが操作されたことにより第2の撮像装置3内に格納された画像ファイルをHDD16b内に取り込んでもよい。また、第1の撮像装置2と情報処理装置1の無線LANインタフェース17との間で無線通信を確立して、第1の撮像装置2からの指示により第1の撮像装置2内に格納された画像ファイルを無線通信経由でHDD16b内に取り込んでもよい。さらに、WAN8に存在する画像ファイルをルータ23及びネットワークインタフェース15を介してHDD16b内に取り込んでもよい。画像ファイル70、近似位置特定データテーブル71及び登録テーブル72の詳細な構成については後述する。なお、図2において画像ファイル70は1つのみ図示されているが、本実施例において画像ファイル70は複数個HDD16b内に格納されていてもよい。   The method of storing the image file 70 in the HDD 16b is arbitrary, but as an example, the image file obtained by the first and second imaging devices 2 and 3 as described above is stored in the memory card 6. There is a method of inserting the memory card 6 into the card slot of the card interface 13c and taking in the image file stored in the memory card 6 into the HDD 16b by operating the input instruction unit 13b. Further, the USB cable 5 connected to the second image pickup device 3 that picked up the image file is inserted into the USB connector of the USB interface 13d, and the input instruction unit 13b is operated to enter the second image pickup device 3. The stored image file may be taken into the HDD 16b. Further, wireless communication is established between the first imaging device 2 and the wireless LAN interface 17 of the information processing device 1 and stored in the first imaging device 2 according to an instruction from the first imaging device 2. The image file may be taken into the HDD 16b via wireless communication. Further, an image file existing in the WAN 8 may be taken into the HDD 16b via the router 23 and the network interface 15. Detailed configurations of the image file 70, the approximate position specifying data table 71, and the registration table 72 will be described later. Although only one image file 70 is shown in FIG. 2, a plurality of image files 70 may be stored in the HDD 16b in this embodiment.

無線LANインタフェース17は、例えばIEEE802.11規格に準拠して無線LANクライアント25と無線通信を行う。この無線LANインタフェース17は、情報処理装置1を無線LANアクセスポイントとして動作させることが可能である。無線LANクライアント25としては、例えば第1の撮像装置2が挙げられる。   The wireless LAN interface 17 performs wireless communication with the wireless LAN client 25 based on, for example, the IEEE 802.11 standard. The wireless LAN interface 17 can operate the information processing apparatus 1 as a wireless LAN access point. An example of the wireless LAN client 25 is the first imaging device 2.

(第1実施形態の撮像装置の構成)
図3は、第1実施形態の画像処理システムを構成する第1の撮像装置2の概略構成を示すブロック図である。図3において、第1の撮像装置2は、CPU(Central Processing Unit)30、ROM(Read Only
Memory)31、RAM(Random Access Memory)32、液晶ドライバ330、液晶パネル331、モジュールドライバ340、カメラモジュール341、移動体通信モジュール350、音声インタフェース(I/F)351、マイクロフォン352、スピーカ353、アンテナ354、入力インタフェース(I/F)360、タッチパネル361、内部ストレージ部37、GPSモジュール380、GPSアンテナ381、USB(Universal Serial Bus)インタフェース39及び無線LANインタフェース40を備え、CPU30、ROM31、RAM32、液晶ドライバ330、モジュールドライバ340、移動体通信モジュール350、入力インタフェース360、内部ストレージ部37、GPSモジュール380、USBインタフェース39及び無線LANインタフェース40はそれぞれ共通のバスにより接続されている。
(Configuration of Imaging Device of First Embodiment)
FIG. 3 is a block diagram showing a schematic configuration of the first imaging device 2 constituting the image processing system of the first embodiment. In FIG. 3, the first imaging device 2 includes a CPU (Central Processing Unit) 30 and a ROM (Read Only).
Memory) 31, RAM (Random Access Memory) 32, liquid crystal driver 330, liquid crystal panel 331, module driver 340, camera module 341, mobile communication module 350, audio interface (I / F) 351, microphone 352, speaker 353, antenna 354, input interface (I / F) 360, touch panel 361, internal storage unit 37, GPS module 380, GPS antenna 381, USB (Universal Serial Bus) interface 39 and wireless LAN interface 40, CPU 30, ROM 31, RAM 32, liquid crystal Driver 330, module driver 340, mobile communication module 350, input interface 360, internal storage unit 37, GPS module 380, USB interface 39 and wireless The LAN interfaces 40 are connected by a common bus.

CPU30は、ROM31内に格納されたファームウェア等のプログラムがRAM32において展開された後で実行されることで、第1の撮像装置2全体の動作制御を行う。また、CPU30は図略の内部時計を備える。ROM31には、上述のファームウェア等のプログラムや、各種設定データが格納されている。RAM32は、第1の撮像装置2のワークメモリとして動作し、各種プログラム及びデータが一時的に格納される。   The CPU 30 controls the operation of the entire first imaging device 2 by being executed after a program such as firmware stored in the ROM 31 is expanded in the RAM 32. The CPU 30 includes an internal clock (not shown). The ROM 31 stores programs such as the above-described firmware and various setting data. The RAM 32 operates as a work memory of the first imaging device 2 and temporarily stores various programs and data.

液晶パネル331は、その表示面が第1の撮像装置2の表面に露出して設けられている。液晶ドライバ330は、表示画面を構成するデータがCPU30からこの液晶ドライバ330に供給されると、液晶パネル331の表示面に所望の表示画面を表示するようにこの液晶パネル331を駆動する。   The liquid crystal panel 331 is provided with its display surface exposed on the surface of the first imaging device 2. When the data constituting the display screen is supplied from the CPU 30 to the liquid crystal driver 330, the liquid crystal driver 330 drives the liquid crystal panel 331 so as to display a desired display screen on the display surface of the liquid crystal panel 331.

カメラモジュール341は、第1の撮像装置2の外方に存在する被写体を撮像可能であり、撮像素子と、この撮像素子に対して被写体を結像させるためのレンズ等の結像部とを含む。好ましくは、結像部は、レンズ等の結像素子を駆動する駆動部を備える。モジュールドライバ340は、カメラモジュール341の撮像素子、結像部の動作を制御する。また、モジュールドライバ340は、カメラモジュール341からの出力信号を受け、この出力信号に基づいて、被写体を撮像した画像データを生成して出力する。   The camera module 341 can image a subject existing outside the first imaging device 2, and includes an imaging device and an imaging unit such as a lens for imaging the subject on the imaging device. . Preferably, the imaging unit includes a driving unit that drives an imaging element such as a lens. The module driver 340 controls the operation of the image sensor and the imaging unit of the camera module 341. In addition, the module driver 340 receives an output signal from the camera module 341, and generates and outputs image data obtained by imaging the subject based on the output signal.

移動体通信モジュール350は、例えばIMT(International Mobile Telecommunication)−2000規格に準拠して、アンテナ354を介して移動体通信網との間で移動体無線通信を行う。すなわち、移動体通信モジュール350は、移動体通信網の基地局から受信した電波をデコードして得られた音声信号を、音声インタフェース351を介してスピーカ353から発音させ、音声インタフェース351を介してマイクロフォン352が集音した音声をエンコードして、アンテナ354を介して電波として移動体通信網の基地局に送信する。また、移動体通信モジュール350は、パケット化されたデータを移動体通信網の基地局との間で送受信をすることで、データ通信を行う。なお、この移動体通信モジュール350が対応する規格には、3G/HSDPA(3rd Generation/High-Speed Downlink Packet Access)、LTE(Long Term Evolution)、WiMAX(Worldwide Interoperability for Microwave Access)の少なくとも一つが含まれうる。   The mobile communication module 350 performs mobile radio communication with the mobile communication network via the antenna 354 in accordance with, for example, the IMT (International Mobile Telecommunication) -2000 standard. That is, the mobile communication module 350 generates a sound signal obtained by decoding the radio wave received from the base station of the mobile communication network from the speaker 353 via the sound interface 351, and the microphone via the sound interface 351. The sound collected by 352 is encoded and transmitted as radio waves to the base station of the mobile communication network via antenna 354. The mobile communication module 350 performs data communication by transmitting / receiving packetized data to / from a base station of the mobile communication network. The standards supported by the mobile communication module 350 include at least one of 3G / HSDPA (3rd Generation / High-Speed Downlink Packet Access), LTE (Long Term Evolution), and WiMAX (Worldwide Interoperability for Microwave Access). Can be.

タッチパネル361は、本実施形態では液晶パネル331の表示面の上面に重畳されて設けられ、この液晶パネル331の表示面と略同一の大きさを有する。ユーザによりタッチパネル361の表面がタッチされ、すなわち、タッチパネル361の表面上の特定位置がユーザにより触れられたら、タッチパネル361の表面上の特定位置が2次元の座標位置として検出され、この座標位置は入力インタフェース360を介して出力される。   In the present embodiment, the touch panel 361 is provided so as to be superimposed on the upper surface of the display surface of the liquid crystal panel 331 and has substantially the same size as the display surface of the liquid crystal panel 331. When the user touches the surface of the touch panel 361, that is, when a specific position on the surface of the touch panel 361 is touched by the user, the specific position on the surface of the touch panel 361 is detected as a two-dimensional coordinate position. It is output via the interface 360.

内部ストレージ部37は、内部ストレージ371と内部ストレージインタフェース(I/F)370とを備える。内部ストレージ371は、例えばフラッシュメモリのような不揮発性半導体メモリであり、第1の撮像装置2において用いられるアプリケーションプログラム等が格納される。特に、本実施形態の内部ストレージ371には、第1の撮像装置2による撮像時の位置特定データ及び撮像時刻データが関連付けられた画像ファイル70が適宜格納される。画像ファイル70の詳細については後述する。内部ストレージインタフェース370は、この内部ストレージ371に対するデータの読み出し/書き込み指令があった場合に、内部ストレージ371全体の制御を行うとともに、データの読み出し/書き込み制御を行い、読み出されたデータを出力する。なお、内部ストレージ371は、例えばmicroSDのような挿脱可能な不揮発性メモリーカードであってもよく、この場合、内部ストレージインタフェース370は、このメモリーカードが装着されるメモリカードスロットをさらに備える。   The internal storage unit 37 includes an internal storage 371 and an internal storage interface (I / F) 370. The internal storage 371 is a non-volatile semiconductor memory such as a flash memory, for example, and stores application programs and the like used in the first imaging device 2. In particular, the internal storage 371 of the present embodiment appropriately stores an image file 70 in which position specifying data and imaging time data at the time of imaging by the first imaging device 2 are associated. Details of the image file 70 will be described later. The internal storage interface 370 controls the entire internal storage 371 and performs data read / write control when a data read / write command is issued to the internal storage 371, and outputs the read data. . The internal storage 371 may be a removable memory card such as a microSD, for example. In this case, the internal storage interface 370 further includes a memory card slot in which the memory card is inserted.

GPSモジュール380は、GPSアンテナ381を通じて受信したGPS衛星からの電波に基づいて、所定の測位手順に則って第1の撮像装置2が現在所在する位置を示す位置特定データである緯度情報、経度情報及び高度情報を算出する。また、GPSモジュール380は、GPS衛星から受信した電波に基づいて、CPU30が内蔵する内部時計を補正するためのデータを取得する。   The GPS module 380 is based on the radio wave from the GPS satellite received through the GPS antenna 381, and the latitude information and longitude information which are position specifying data indicating the position where the first imaging device 2 is currently located in accordance with a predetermined positioning procedure. And altitude information is calculated. Further, the GPS module 380 acquires data for correcting the internal clock built in the CPU 30 based on the radio wave received from the GPS satellite.

USBインタフェース39はUSBコネクタ(図略)を備え、このUSBコネクタに直接、あるいはUSBケーブル5を介して接続されたUSB機器に対して、USB2.0またはUSB3.0規格に沿ったデータの読み出し/書き込みを行う。USB機器としては、USBフラッシュメモリ、USBインタフェースを備えた情報処理装置1が挙げられる。   The USB interface 39 includes a USB connector (not shown), and reads / reads data in conformity with the USB 2.0 or USB 3.0 standard with respect to a USB device connected directly to the USB connector or via the USB cable 5. Write. Examples of the USB device include a USB flash memory and an information processing apparatus 1 including a USB interface.

無線LANインタフェース40は、例えばIEEE802.11規格に準拠して無線アクセスポイントと無線通信を行う。この無線LANインタフェース40は、第1の撮像装置2を無線LANクライアントとして動作させることが可能である。無線アクセスポイントとしては、例えば情報処理装置1が挙げられる。   The wireless LAN interface 40 performs wireless communication with a wireless access point based on, for example, the IEEE 802.11 standard. The wireless LAN interface 40 can operate the first imaging device 2 as a wireless LAN client. An example of the wireless access point is the information processing apparatus 1.

(第1実施形態の情報処理装置の機能構成)
図4は、第1実施形態の情報処理装置1の機能構成を示す機能ブロック図である。図4において、本実施形態の情報処理装置1は、制御部50、記憶部51、入力部52及び出力部53を備える。
(Functional configuration of the information processing apparatus of the first embodiment)
FIG. 4 is a functional block diagram illustrating a functional configuration of the information processing apparatus 1 according to the first embodiment. In FIG. 4, the information processing apparatus 1 according to the present embodiment includes a control unit 50, a storage unit 51, an input unit 52, and an output unit 53.

記憶部51には、画像ファイル70、近似位置特定データテーブル71及び登録テーブル72が格納されている。画像ファイル70は画像データ70a、撮像時刻データ70b及び位置特定データ70cを備える。画像ファイル70、近似位置特定データテーブル71及び登録テーブル72の詳細については後述する。   The storage unit 51 stores an image file 70, an approximate position specifying data table 71, and a registration table 72. The image file 70 includes image data 70a, imaging time data 70b, and position specifying data 70c. Details of the image file 70, the approximate position specifying data table 71, and the registration table 72 will be described later.

制御部50は、画像取り込み部54、抽出部55、代表地点位置特定データ取得部56、集計部57、近似位置特定データ取得部58、近似位置特定データ決定部59及び近接判断用距離範囲決定部60を備える。   The control unit 50 includes an image capturing unit 54, an extraction unit 55, a representative point position specifying data acquisition unit 56, a totaling unit 57, an approximate position specifying data acquisition unit 58, an approximate position specifying data determination unit 59, and a proximity determination distance range determination unit. 60.

画像取り込み部54は、ユーザからの指示入力、あるいは、情報処理装置1に撮像装置2、3が接続されたことを検知して、この撮像装置2、3から画像ファイル70を取り込み、取り込んだ画像ファイル70を記憶部51に格納する。画像ファイル70の情報処理装置1への取り込み方の詳細については既に説明したので、ここでの説明は省略する。   The image capturing unit 54 receives an instruction input from the user or detects that the image capturing apparatuses 2 and 3 are connected to the information processing apparatus 1, captures an image file 70 from the image capturing apparatuses 2 and 3, and captures the captured image. The file 70 is stored in the storage unit 51. Since details of how to import the image file 70 into the information processing apparatus 1 have already been described, description thereof is omitted here.

抽出部55は、所定時間範囲内に存在する撮像時刻データ70bが関連付けられた画像ファイル70を抽出する。より詳細には、抽出部55は、入力部52を介してユーザが入力した時間範囲を受け入れ、この時間範囲内に撮像時刻データ70bが示す撮像日時が存在する画像ファイル70を記憶部51内で検索し、検索された画像ファイル70を記憶部51から抽出する。特に、記憶部51内に複数の撮像装置2、3により撮像された画像ファイル70が格納されている場合、抽出部55は、特定の撮像装置2、3により撮像された画像ファイル70を抽出することが好ましい。あるいは、抽出部55は、予め定められた時間範囲、例えば正月三が日や情報処理装置1の所有者であるユーザの誕生日等事前登録された記念日に基づいて、この時間範囲内に撮像時刻データ70bが示す撮像日時が存在する画像ファイル70を記憶部51内で検索し、検索された画像ファイル70を記憶部51から抽出してもよい。またあるいは、抽出部55は、取り込んだ画像ファイル70に関連付けられた撮像時刻データ70bが明確に区別可能な複数の時間範囲に区分できるときは、いずれかの時間範囲内に撮像時刻データ70bが示す撮像日時が存在する画像ファイル70を記憶部51内で検索し、検索された画像ファイル70を記憶部51から抽出してもよい。抽出部55が抽出した画像ファイル70の各種情報は、代表地点位置特定データ取得部56に送出される。   The extraction unit 55 extracts the image file 70 associated with the imaging time data 70b existing within the predetermined time range. More specifically, the extraction unit 55 accepts a time range input by the user via the input unit 52, and stores in the storage unit 51 an image file 70 in which the imaging date and time indicated by the imaging time data 70b exists within this time range. Searching is performed, and the searched image file 70 is extracted from the storage unit 51. In particular, when the image file 70 captured by the plurality of imaging devices 2 and 3 is stored in the storage unit 51, the extraction unit 55 extracts the image file 70 captured by the specific imaging devices 2 and 3. It is preferable. Alternatively, the extraction unit 55 may capture the imaging time data within a predetermined time range, for example, based on a pre-registered anniversary such as the date of New Year 3 or the birthday of the user who is the owner of the information processing apparatus 1. The image file 70 having the imaging date and time indicated by 70b may be searched in the storage unit 51, and the searched image file 70 may be extracted from the storage unit 51. Alternatively, when the imaging time data 70b associated with the captured image file 70 can be divided into a plurality of time ranges that can be clearly distinguished, the extraction unit 55 indicates the imaging time data 70b within any time range. The image file 70 in which the imaging date / time exists may be searched in the storage unit 51, and the searched image file 70 may be extracted from the storage unit 51. Various pieces of information of the image file 70 extracted by the extraction unit 55 are sent to the representative point position specifying data acquisition unit 56.

代表地点位置特定データ取得部56は、抽出部55により抽出された個々の画像ファイル70に関連付けられた位置特定データ70cに一致または近接する代表地点の位置特定データを取得する。より詳細には、代表地点位置特定データ取得部56は、抽出部55により抽出された画像ファイル70の位置特定データ70cを参照し、この位置特定データ70cで表される位置に一致または所定の距離範囲内にある位置に所在するランドマーク等の代表地点の位置特定データを取得する。代表地点位置特定データ取得部56が取得した代表地点の位置特定データは、記憶部51の近似位置特定データテーブル71に画像ファイル70毎に格納される。   The representative point position specifying data acquisition unit 56 acquires position specifying data of a representative point that matches or is close to the position specifying data 70c associated with each image file 70 extracted by the extraction unit 55. More specifically, the representative point position specifying data acquisition unit 56 refers to the position specifying data 70c of the image file 70 extracted by the extracting unit 55, and matches the position represented by the position specifying data 70c or a predetermined distance. The position specifying data of a representative point such as a landmark located at a position within the range is acquired. The representative point position specifying data acquired by the representative point position specifying data acquiring unit 56 is stored in the approximate position specifying data table 71 of the storage unit 51 for each image file 70.

代表地点の位置特定データは、一例として、画像処理システムSにWAN8を介して接続された外部データベースから取得してもよく、あるいは、記憶部51内に、代表地点の位置特定データに関するデータベースを格納して、この記憶部51内のデータベースから取得してもよい。また、画像ファイル70の位置特定データ70cと抽出される代表地点の位置特定データの近接度を設定する、上述した「所定距離」は、例えば入力部52を介してユーザにより設定入力されてもよく、あるいは、情報処理装置1が固定値を保有してもよく、あるいは、代表地点の位置特定データを取得する外部データベース等が適宜決定してもよい。   For example, the location specifying data of the representative point may be acquired from an external database connected to the image processing system S via the WAN 8, or a database regarding the location specifying data of the representative location is stored in the storage unit 51. And you may acquire from the database in this memory | storage part 51. FIG. Further, the above-mentioned “predetermined distance” that sets the proximity between the position specifying data 70c of the image file 70 and the position specifying data of the extracted representative point may be set and input by the user via the input unit 52, for example. Alternatively, the information processing apparatus 1 may have a fixed value, or an external database that obtains position specifying data of the representative point may be determined as appropriate.

位置特定データを提供すると、この位置特定データで表される位置に一致または所定の距離範囲内にある位置に所在するランドマーク等の代表地点の名称を提供するWebサービスとして、例えば、ヤフー株式会社が提供する場所情報API(「YOLP(地図);場所情報API - Yahoo!デベロッパーネットワーク」[平成25年9月26日検索]、インターネット<URL:http://developer.yahoo.co.jp/webapi/map/openlocalplatform/v1/placeinfo.html>)が知られている。この場所情報APIを用いて、抽出部55により抽出された画像ファイル70の位置特定データ70cをHTTPプロトコルで提供すると、この位置特定データ70cで表される位置に一致または所定の距離範囲内にある位置に所在するランドマーク等の代表地点の名称が返される。   When providing the position specifying data, as a Web service that provides the name of a representative point such as a landmark located at a position that matches the position represented by the position specifying data or is within a predetermined distance range, for example, Yahoo Japan Corporation Location Information API ("YOLP (Map); Location Information API-Yahoo! Developer Network" [searched September 26, 2013], Internet <URL: http://developer.yahoo.co.jp/webapi /map/openlocalplatform/v1/placeinfo.html>) is known. If the location specification data 70c of the image file 70 extracted by the extraction unit 55 is provided by the HTTP protocol using the location information API, the location information API matches the location represented by the location specification data 70c or is within a predetermined distance range. The name of a representative point such as a landmark located at the location is returned.

また、ランドマーク等の代表地点の名称を文字列として提供すると、この代表地点の位置特定データを提供するWebサービスとして、同様に、ヤフー株式会社が提供するコンテンツジオコーダAPI(「YOLP(地図);コンテンツジオコーダAPI - Yahoo!デベロッパーネットワーク」[平成25年9月26日検索]、インターネット<URL:http://developer.yahoo.co.jp/webapi/map/openlocalplatform/v1/contentsgeocoder.html>)が知られている。このコンテンツジオコーダAPIを用いて、ランドマーク等の代表地点の名称を示す文字列をHTTPプロトコルで提供すると、この代表地点の位置特定データが返される。   If the name of a representative point such as a landmark is provided as a character string, the content geocoder API (“YOLP (map); Content Geocoder API-Yahoo! Developer Network "[searched September 26, 2013], Internet <URL: http: //developer.yahoo.co.jp/webapi/map/openlocalplatform/v1/contentsgeocoder.html>) Are known. When a character string indicating the name of a representative point such as a landmark is provided using the HTTP protocol using the content geocoder API, position specifying data of the representative point is returned.

従って、この場所情報API及びコンテンツジオコーダAPIを用いれば、抽出部55により抽出された個々の画像ファイル70に関連付けられた位置特定データ70cに一致または近接する代表地点の位置特定データを取得することが可能である。   Therefore, by using the location information API and the content geocoder API, it is possible to acquire position specifying data of a representative point that matches or is close to the position specifying data 70c associated with each image file 70 extracted by the extraction unit 55. Is possible.

ここで、代表地点位置特定データ取得部56は、抽出部55により抽出された個々の画像ファイル70に関連付けられた位置特定データ70cに一致または近接する代表地点の位置特定データを複数取得した場合、受け付けた選択入力に基づいていずれか一つの代表地点の位置特定データを選択する。   Here, when the representative point position specifying data acquisition unit 56 acquires a plurality of pieces of position specifying data of representative points that match or are close to the position specifying data 70c associated with the individual image files 70 extracted by the extraction unit 55, Based on the received selection input, the position specifying data of any one representative point is selected.

例えば、ランドマーク等が上述した所定距離内に複数存在した場合、代表地点位置特定データ取得部56は、一つの画像ファイル70に対応して複数の代表地点の位置特定データを取得することがある。後述する位置特定データ70cの変換作業を行うためには、個々の画像ファイル70に対して単一の代表地点の位置特定データを対応させることが好ましい。そこで、代表地点位置特定データ取得部56は、一つの画像ファイル70に対して複数の代表地点の位置特定データ、あるいは複数の代表地点を表す情報を取得した場合は、例えば出力部53を介してHDMI出力機器22等にこれら複数の代表地点を表す文字列、代表地点が属するカテゴリー(公園、結婚式場等)、画像等を表示させ、ユーザに対していずれかの代表地点の選択を促す画面を出力する。そして、ユーザによりいずれかの代表地点の選択入力があると、代表地点位置特定データ取得部56は入力部52を介してユーザの選択入力を受け入れ、選択入力された代表地点の位置特定データを近似位置特定データテーブル71に格納する。   For example, when there are a plurality of landmarks or the like within the predetermined distance described above, the representative point position specifying data acquisition unit 56 may acquire the position specifying data of a plurality of representative points corresponding to one image file 70. . In order to perform the conversion operation of the position specifying data 70c described later, it is preferable to associate the position specifying data of a single representative point with each image file 70. Therefore, when the representative point position specifying data acquisition unit 56 acquires position specifying data of a plurality of representative points or information representing a plurality of representative points for one image file 70, for example, via the output unit 53. A screen that prompts the user to select one of the representative points by displaying a character string representing the representative points, a category (park, wedding hall, etc.) to which the representative points belong, an image, etc. on the HDMI output device 22 or the like. Output. Then, if there is a selection input of any of the representative points by the user, the representative point position specifying data acquisition unit 56 accepts the user's selection input via the input unit 52 and approximates the position specifying data of the selected representative points. Stored in the position specifying data table 71.

さらに、代表地点位置特定データ取得部56は、上述の手順により代表地点の選択入力の履歴をその際のカテゴリー等とともに記憶部51に格納しておき、この履歴に基づいていずれかの代表地点の位置特定データを選択してもよい。例えば、後述するように、画像ファイル70には撮像装置2、3の機種名情報が記述された機種名領域87が設けられているので、代表地点位置特定データ取得部56がこの機種名情報毎、つまり撮像装置2、3毎のカテゴリーの選択傾向を算出し、このカテゴリーの選択傾向に従って複数の代表地点の位置特定データから特定の代表地点の位置特定データを選択してもよい。あるいは、代表地点位置特定データ取得部56は、ユーザが事前に登録したカテゴリーに基づいて、事前登録されたカテゴリーに属する特定の代表地点の位置特定データを選択してもよい。   Further, the representative point position specifying data acquisition unit 56 stores the history of selection input of the representative point in the storage unit 51 together with the category at that time according to the above-described procedure, and based on this history, Position specifying data may be selected. For example, as will be described later, since the model name area 87 in which the model name information of the imaging devices 2 and 3 is described is provided in the image file 70, the representative point location specifying data acquisition unit 56 sets the model name information for each model name information. That is, the category selection tendency for each of the imaging devices 2 and 3 may be calculated, and the position specifying data of a specific representative point may be selected from the position specifying data of a plurality of representative points according to the selection tendency of the category. Or the representative point position specific data acquisition part 56 may select the position specific data of the specific representative point which belongs to the category registered beforehand based on the category which the user registered beforehand.

あるいは、代表地点位置特定データ取得部56は、抽出部55により抽出された個々の画像ファイル70に関連付けられた位置特定データ70cに一致または近接する代表地点の位置特定データを複数取得した場合、抽出部55により抽出された画像ファイル70を参照していずれか一つの代表地点の位置特定データを選択する。   Alternatively, the representative point position specifying data acquisition unit 56 extracts a plurality of pieces of position specifying data of representative points that match or are close to the position specifying data 70c associated with the individual image files 70 extracted by the extraction unit 55. With reference to the image file 70 extracted by the unit 55, the position specifying data of any one representative point is selected.

一つの画像ファイル70に対応して複数の代表地点の位置特定データを取得した場合、取得した代表地点の全てがその後の位置特定データ変換作業において変換先の位置特定データとして好ましいとは限らない。一例として、公園に隣接した結婚式場の入口で撮影された画像ファイル70であれば、この画像ファイル70の位置特定データは結婚式場の位置特定データに変換されることが好ましく、公園の位置特定データに変換されることを希望するユーザは少ないと考えられる。従って、上述のように、ユーザの選択入力により、結婚式場の位置特定データを代表地点位置特定データとすることが望まれる。一方で、個々の画像ファイル70に対してユーザに代表地点の位置特定データを選択させる作業は繁雑であるとも考えられる。そこで、画像ファイル70の画像データ70aを参照して、代表地点位置特定データ取得部56が代表地点の位置特定データを選択することがより好ましい。   When the position specifying data of a plurality of representative points is acquired corresponding to one image file 70, all of the acquired representative points are not necessarily preferable as the position specifying data of the conversion destination in the subsequent position specifying data conversion work. As an example, if the image file 70 is taken at the entrance of a wedding hall adjacent to the park, the position specifying data of the image file 70 is preferably converted into the position specifying data of the wedding hall. Few users would like to be converted to Therefore, as described above, it is desired that the location specifying data of the wedding hall be the representative point location specifying data by the user's selection input. On the other hand, it is considered that the operation of causing the user to select the position specifying data of the representative point for each image file 70 is complicated. Therefore, it is more preferable that the representative point position specifying data acquisition unit 56 selects the representative point position specifying data with reference to the image data 70a of the image file 70.

代表地点位置特定データ取得部56が、画像ファイル70の画像データ70aを参照して代表地点の位置特定データを選択する手法は任意であるが、一例として、代表地点位置特定データ取得部56は、複数の代表地点に対してそれぞれの代表地点を表す文字列、またはそれぞれの代表地点が属するカテゴリーに関する情報を外部データベースから取得する。次いで、代表地点位置特定データ取得部56は、画像データ70a内に文字が撮像されている場合、この文字をOCR(Optical Character Recognition:光学的文字認識)技術により文字列データに変換する。そして、代表地点位置特定データ取得部56は、代表地点に関する文字列、カテゴリーを表す情報と画像データ70a内に撮像された文字の文字列データとが一致、あるいは特定の関係を有すると判断した場合、この代表地点の位置特定データを選択する手法が挙げられる。ここで、特定の関係を有するとは、文字列、カテゴリーが意味的に類似する、あるいは、一方の文字列が他方の文字列に含まれる等の関係を有することを指す。OCR技術、及び意味解析技術は周知技術であるので、ここでは詳細な説明を省略する。   Although the method for the representative point position specifying data acquisition unit 56 to select the position specifying data of the representative point with reference to the image data 70a of the image file 70 is arbitrary, as an example, the representative point position specifying data acquisition unit 56 A character string representing each representative point or information on a category to which each representative point belongs is acquired from an external database for a plurality of representative points. Next, when a character is imaged in the image data 70a, the representative point position specifying data acquisition unit 56 converts the character into character string data using an OCR (Optical Character Recognition) technique. When the representative point position specifying data acquisition unit 56 determines that the character string and the information representing the category related to the representative point and the character string data of the character captured in the image data 70a match or have a specific relationship. A method of selecting the position specifying data of the representative point is mentioned. Here, having a specific relationship means that character strings and categories are semantically similar, or that one character string is included in the other character string. Since the OCR technique and the semantic analysis technique are well-known techniques, detailed description thereof is omitted here.

また、他の手法として、画像ファイル70に、その画像ファイル70を撮像した被写体に関する情報がタグ情報として記述されている場合、代表地点位置特定データ取得部56は、代表地点に関する文字列、カテゴリーを表す情報と画像データ70aのタグ情報の文字列データとが一致、あるいは特定の関係を有すると判断した場合、この代表地点の位置特定データを選択する手法が挙げられる。   As another method, when the information related to the subject that captured the image file 70 is described in the image file 70 as tag information, the representative point position specifying data acquisition unit 56 selects the character string and category related to the representative point. If it is determined that the information to be represented matches the character string data of the tag information of the image data 70a or has a specific relationship, there is a method of selecting the position specifying data of this representative point.

集計部57は、代表地点位置特定データ取得部56が取得した代表地点の位置特定データを集計する。本実施形態では、抽出部55が抽出した画像ファイル70は、ユーザにより入力された所定時間範囲内に存在する撮像時刻データ70bが関連付けられた画像ファイル70であるので、抽出部55は複数の画像ファイル70を抽出する可能性が高い。加えて、上述した所定時間範囲内において、ユーザは撮像場所を変えながら被写体を撮像している可能性がある。従って、代表地点位置特定データ取得部56が取得した代表地点の位置特定データも複数の代表地点の位置特定データである可能性がある。そこで、集計部57は、代表地点位置特定データ取得部56が取得した代表地点の位置特定データを集計し、各々の代表地点の位置特定データが何回(何個)代表地点位置特定データ取得部56により取得されたかを集計する。   The totaling unit 57 totals the position specifying data of the representative points acquired by the representative point position specifying data acquiring unit 56. In the present embodiment, the image file 70 extracted by the extraction unit 55 is an image file 70 associated with imaging time data 70b existing within a predetermined time range input by the user, and therefore the extraction unit 55 includes a plurality of images. The possibility of extracting the file 70 is high. In addition, within the predetermined time range described above, the user may be imaging the subject while changing the imaging location. Accordingly, there is a possibility that the position specifying data of the representative point acquired by the representative point position specifying data acquiring unit 56 is also the position specifying data of a plurality of representative points. Therefore, the counting unit 57 totals the position specifying data of the representative points acquired by the representative point position specifying data acquiring unit 56, and how many times (how many) the position specifying data of each representative point is the representative point position specifying data acquiring unit. It is totaled whether it was acquired by 56.

近似位置特定データ取得部58は、集計部57の集計結果に基づいて、抽出部55により抽出された画像ファイル70に関連付けられる少なくとも単一の近似位置特定データを取得する。より詳細には、近似位置特定データ取得部58は、抽出部55が抽出した、所定時間範囲内に存在する撮像時刻データ70bが関連付けられた複数の画像ファイル70について、集計部57の集計結果に基づいて、これら複数の画像ファイル70に関連付けられる少なくとも単一の近似位置特定データを取得する。この、近似位置特定データ取得部58により取得された近似位置特定データが、抽出部55が抽出した複数の画像ファイル70の位置特定データ70cの変換先候補となる。   The approximate position specifying data acquisition unit 58 acquires at least a single approximate position specifying data associated with the image file 70 extracted by the extraction unit 55 based on the counting result of the counting unit 57. More specifically, the approximate position specifying data acquisition unit 58 uses the totaling result of the totaling unit 57 for the plurality of image files 70 extracted by the extracting unit 55 and associated with the imaging time data 70b existing within a predetermined time range. Based on this, at least a single approximate position specifying data associated with the plurality of image files 70 is acquired. The approximate position specifying data acquired by the approximate position specifying data acquiring unit 58 becomes a conversion destination candidate for the position specifying data 70c of the plurality of image files 70 extracted by the extracting unit 55.

近似位置特定データ取得部58が、集計部57の集計結果に基づいて、複数の画像ファイル70に関連付けられる少なくとも単一の近似位置特定データを取得する手法は任意であるが、一例として、近似位置特定データ取得部58は、集計部57の集計結果において最頻値であった代表地点の位置特定データを近似位置特定データとして取得する手法が挙げられる。近似位置特定データ取得部58による近似位置特定データの手法の一例については後に詳述する。   The approximate position specifying data acquisition unit 58 may use any method for acquiring at least a single approximate position specifying data associated with the plurality of image files 70 based on the counting result of the counting unit 57. The specific data acquisition unit 58 includes a method of acquiring the position specifying data of the representative point that is the mode value in the counting result of the counting unit 57 as the approximate position specifying data. An example of the approximate position specifying data technique by the approximate position specifying data acquisition unit 58 will be described in detail later.

近似位置特定データ決定部59は、近似位置特定データ取得部58が取得した近似位置特定データに基づいて、抽出部55が抽出した複数の画像ファイル70のそれぞれについて対応する近似位置特定データを決定する。決定された近似位置特定データは、記憶部51内の近似位置特定データテーブル71に記述される。   The approximate position specifying data determining unit 59 determines the corresponding approximate position specifying data for each of the plurality of image files 70 extracted by the extracting unit 55 based on the approximate position specifying data acquired by the approximate position specifying data acquiring unit 58. . The determined approximate position specifying data is described in the approximate position specifying data table 71 in the storage unit 51.

近似位置特定データ取得部58が取得した、あるいは、近似位置特定データ決定部59により決定された近似位置特定データをその後どのように利用するかは任意であり、一例として、近似位置特定データ決定部59が画像ファイル70の位置特定データ70cを近似位置特定データに変換してしまう手法が挙げられる。この場合、近似位置特定データ決定部59が位置特定データ70cを近似位置特定データに変換するタイミングは任意であり、決定後直ちに変更しても良いし、情報処理装置1から画像ファイル70を他の装置に移動、コピーする際に、移動・コピー先の画像ファイル70の位置特定データ70cのみ近似位置特定データに変更し、記憶部51内に格納された画像ファイル70については、位置特定データ70cの変更を行わないことも可能である。   How to use the approximate position specifying data acquired by the approximate position specifying data acquiring unit 58 or determined by the approximate position specifying data determining unit 59 is arbitrary. For example, the approximate position specifying data determining unit 59 is a method of converting the position specifying data 70c of the image file 70 into approximate position specifying data. In this case, the timing at which the approximate position specifying data determining unit 59 converts the position specifying data 70c into the approximate position specifying data is arbitrary, and may be changed immediately after the determination, or the image file 70 may be changed from the information processing apparatus 1 to another. When moving or copying to the apparatus, only the position specifying data 70c of the image file 70 of the movement / copy destination is changed to approximate position specifying data, and the image file 70 stored in the storage unit 51 is stored in the position specifying data 70c. It is possible not to make any changes.

また、近似位置特定データ決定部59が決定した近似位置特定データは記憶部51内の近似位置特定データテーブル71に記述されているので、この近似位置特定データテーブル71に記述された近似位置特定データを用いて、情報処理装置1の各種動作に利用することも可能である。一例として、記憶部51内の画像ファイル70の画像データ70aを、HDMI出力機器22等を用いて表示する際に、この近似位置特定データで示される代表地点に関する情報を同時に表示してもよい。つまり、近似位置特定データはいずれかの代表地点の位置特定データである場合があるので、この代表地点に関する情報を表示することができる。また、近似位置特定データ毎に異なるフォルダに画像ファイル70を格納してもよい。   Further, since the approximate position specifying data determined by the approximate position specifying data determining unit 59 is described in the approximate position specifying data table 71 in the storage unit 51, the approximate position specifying data described in the approximate position specifying data table 71 is described. Can be used for various operations of the information processing apparatus 1. As an example, when the image data 70a of the image file 70 in the storage unit 51 is displayed using the HDMI output device 22 or the like, information regarding the representative point indicated by the approximate position specifying data may be displayed at the same time. That is, since the approximate position specifying data may be position specifying data of any representative point, information on this representative point can be displayed. Further, the image file 70 may be stored in a different folder for each approximate position specifying data.

近接判断用距離範囲決定部60は、記憶部51に格納された画像ファイル70に関連付けられた位置特定データ70cに基づいて、近接判断用距離範囲を決定する。より詳細には、近接判断用距離範囲決定部60は、記憶部51内に格納された画像ファイル70の位置特定データ70cを参照し、この位置特定データ70cにより特定される位置特定データの緯度−経度平面上の分布を求める。そして、近接判断用距離範囲決定部60は、位置特定データ70cの分布密度に応じて近接判断用距離範囲を決定する。一例として、近接判断用距離範囲決定部60は、位置特定データの分布密度が高い領域、つまり、情報処理装置1のユーザが頻繁に画像ファイル70を撮像したことが推測される領域については、画像ファイル70の位置特定データ70cで特定される撮像位置と代表地点の位置との関係を厳密に判断することが好ましいと考えられるので、近接判断用距離範囲を狭く決定する。一方、近接判断用距離範囲決定部60は、位置特定データ70cの分布密度が低い領域、つまり、情報処理装置1のユーザがあまり頻繁に画像ファイル70を撮像していないことが推測される領域については、近接判断用距離範囲を広く決定する。言い換えれば、近接判断用距離範囲決定部60が決定する近接判断用距離範囲は、代表地点を抽出するための縮尺である。この近接判断用距離範囲は、一例として、所定半径を有する円内の範囲とされる。   The proximity determination distance range determination unit 60 determines the proximity determination distance range based on the position specifying data 70 c associated with the image file 70 stored in the storage unit 51. More specifically, the proximity determination distance range determination unit 60 refers to the position specifying data 70c of the image file 70 stored in the storage unit 51, and the latitude of the position specifying data specified by the position specifying data 70c− Find the distribution on the longitude plane. Then, the proximity determination distance range determination unit 60 determines the proximity determination distance range according to the distribution density of the position specifying data 70c. As an example, the proximity determination distance range determination unit 60 uses an image for an area where the distribution density of the position specifying data is high, that is, an area where the user of the information processing apparatus 1 is presumed to frequently capture the image file 70. Since it is considered preferable to strictly determine the relationship between the imaging position specified by the position specifying data 70c of the file 70 and the position of the representative point, the proximity determination distance range is determined to be narrow. On the other hand, the proximity determination distance range determination unit 60 is a region where the distribution density of the position specifying data 70c is low, that is, a region where it is estimated that the user of the information processing device 1 does not capture the image file 70 too frequently. Determines a wide distance range for proximity determination. In other words, the proximity determination distance range determined by the proximity determination distance range determination unit 60 is a scale for extracting representative points. The proximity determination distance range is, for example, a range within a circle having a predetermined radius.

そして、代表地点位置特定データ取得部56は、近接判断用距離範囲決定部60により決定された近接判断用距離範囲に基づいて、抽出部55により抽出された個々の画像ファイル70に関連付けられた位置特定データ70cに一致または近接する代表地点の位置特定データを取得する。一例として、代表地点位置特定データ取得部56は、近接判断用距離範囲決定部60により決定された近接判断用距離範囲内に位置特定データが所在する代表地点を抽出し、この代表地点の位置特定データを取得する。   Then, the representative point position specifying data acquisition unit 56 is based on the proximity determination distance range determined by the proximity determination distance range determination unit 60, and the position associated with each image file 70 extracted by the extraction unit 55. The position specifying data of the representative point that matches or is close to the specifying data 70c is acquired. As an example, the representative point position specifying data acquisition unit 56 extracts a representative point where the position specifying data is located within the proximity determination distance range determined by the proximity determination distance range determination unit 60, and specifies the position of this representative point. Get the data.

あるいは、近接判断用距離範囲決定部60は、入力されたユーザ情報に基づいてユーザ毎の近接判断用距離範囲を決定する。より詳細には、近接判断用距離範囲決定部60は、入力部52を介して入力された、操作をしているユーザを特定するためのユーザ情報の入力を受け入れ、このユーザ情報に基づいて、ユーザ毎の近接判断用距離範囲を決定する。この場合、ユーザ情報毎の近接判断用距離範囲が予め記憶部51に格納されているものとする。   Alternatively, the proximity determination distance range determination unit 60 determines a proximity determination distance range for each user based on the input user information. More specifically, the proximity determination distance range determination unit 60 accepts input of user information input through the input unit 52 to identify the user who is operating, and based on this user information, The proximity determination distance range for each user is determined. In this case, it is assumed that the proximity determination distance range for each user information is stored in the storage unit 51 in advance.

あるいは、代表地点位置特定データ取得部56は、入力された近接判断用距離範囲に基づいて、抽出部55により抽出された個々の画像ファイル70に関連付けられた位置特定データ70cに一致または近接する代表地点の位置特定データを取得する。より詳細には、代表地点位置特定データ取得部56は、入力部52を介してユーザにより直接入力された近接判断用距離範囲を受け入れ、この近接判断用距離範囲内に位置特定データが所在する代表地点を抽出し、この代表地点の位置特定データを取得する。なお、この近接判断用距離範囲を予め定めた固定値とすることも可能である。   Alternatively, the representative point position specifying data acquisition unit 56 matches or approaches the position specifying data 70c associated with each image file 70 extracted by the extraction unit 55 based on the input proximity determination distance range. Get location specific data. More specifically, the representative point position specifying data acquisition unit 56 accepts a proximity determination distance range directly input by the user via the input unit 52, and a representative whose position specifying data is located within the proximity determination distance range. A point is extracted, and position specifying data of this representative point is acquired. Note that this proximity determination distance range may be set to a predetermined fixed value.

以上の構成において、制御部50及び制御部50を構成する画像取り込み部54、抽出部55、代表地点位置特定データ取得部56、集計部57、近似位置特定データ取得部58、近似位置特定データ決定部59及び近接判断用距離範囲決定部60は主にCPU10により構成され、記憶部51は主にメモリーカード6、ROM11、RAM12及びHDD部16により構成され、入力部52は主に入出力デバイス13、ネットワークインタフェース15及び無線LANインタフェース17により構成され、出力部53は主にHDMIインタフェース14、ネットワークインタフェース15及び無線LANインタフェース17により構成される。図4に示す情報処理装置1の各機能部の動作については後に詳述する。   In the above configuration, the control unit 50 and the image capturing unit 54, the extraction unit 55, the representative point position specifying data acquisition unit 56, the totaling unit 57, the approximate position specifying data acquisition unit 58, and the approximate position specifying data determination that constitute the control unit 50. The unit 59 and the proximity determination distance range determination unit 60 are mainly configured by the CPU 10, the storage unit 51 is mainly configured by the memory card 6, the ROM 11, the RAM 12, and the HDD unit 16, and the input unit 52 is mainly configured by the input / output device 13. The network interface 15 and the wireless LAN interface 17 are included, and the output unit 53 is mainly configured by the HDMI interface 14, the network interface 15, and the wireless LAN interface 17. The operation of each functional unit of the information processing apparatus 1 shown in FIG. 4 will be described in detail later.

(画像ファイルのデータ構造)
図5は、本実施形態の情報処理装置1のHDD16b内に格納されている画像ファイル70のデータ構造の一例を示す図である。本実施形態の画像ファイル70はExif規格で定められるファイルフォーマットを有し、そのヘッダ部分80にタグ情報が格納され、さらにサムネイル画像データが格納されたサムネイル画像領域81、及び画像データ70aが格納された画像データ領域82が設けられている。本実施形態の画像ファイル70では、ヘッダ部分80に格納されたタグ情報は、被写体撮像時に撮像装置2、3により画像ファイル70のヘッダ部分80の所定領域に記述される。
(Data structure of image file)
FIG. 5 is a diagram illustrating an example of a data structure of the image file 70 stored in the HDD 16b of the information processing apparatus 1 according to the present embodiment. The image file 70 of the present embodiment has a file format defined by the Exif standard, tag information is stored in the header portion 80, a thumbnail image area 81 in which thumbnail image data is stored, and image data 70a. An image data area 82 is provided. In the image file 70 of the present embodiment, the tag information stored in the header portion 80 is described in a predetermined area of the header portion 80 of the image file 70 by the imaging devices 2 and 3 when the subject is imaged.

画像ファイル70のヘッダ部分80には、画像ファイル70を特定するための一意の値(ID)が記述されるID領域83、画像データ70aの画素数が記述される画素数領域84、画像ファイル70の撮影日時である撮像時刻データ70bが記述される撮影日時領域85、画像ファイル70の情報処理装置1への取り込み日時が記述される取り込み日時領域86、画像ファイル70が撮像された撮像装置2、3の機種名が記述される機種名領域87、画像ファイル70の画像データ70aが撮像された際の撮像装置2、3の各種情報、例えば絞り値、焦点距離が記述される撮影情報領域88、画像ファイル70が撮像されたときに撮像装置2、3が所在する位置、すなわち撮像位置をGPSシステムにより得た位置情報(例えば緯度、経度、高度情報)である位置特定データ70cが記述されるGPS情報領域89、及び情報処理装置1のユーザが各種情報を任意に記述するためのユーザ定義領域90が設けられている。当然、これ以外の領域を画像ファイル70のヘッダ部分80に設けることは任意である。   The header portion 80 of the image file 70 includes an ID area 83 in which a unique value (ID) for specifying the image file 70 is described, a pixel number area 84 in which the number of pixels of the image data 70a is described, and the image file 70 A shooting date / time area 85 in which imaging date / time data 70b, which is the shooting date / time, is described, an acquisition date / time area 86 in which the date / time of acquisition of the image file 70 into the information processing apparatus 1 is described, A model name area 87 in which the model name of 3 is described, a variety of information of the imaging devices 2 and 3 when the image data 70a of the image file 70 is captured, for example, a shooting information area 88 in which aperture value and focal length are described. Position information (for example, latitude and longitude) obtained by the GPS system for the position where the imaging devices 2 and 3 are located when the image file 70 is captured, that is, the imaging position Altitude information) in which localization GPS information area 89 data 70c is written, and the information processing apparatus the user-defined area 90 for a user to arbitrarily describe various information 1 is provided. Naturally, it is optional to provide a region other than this in the header portion 80 of the image file 70.

ここで、ヘッダ部分80の各領域に記述される各種情報について一例を挙げて説明する。撮影日時領域85には、撮像装置2、3の内部時計を参考にして、画像ファイル70の画像データ70aが生成されたときの日時、つまり撮影日時を示す撮像時刻データ70bが、一例として“2013/06/01 10:15:24”、すなわち年月日及び秒単位までの時間として記述される。取り込み日時領域86には、情報処理装置1の図略の内部時計を参考にして、画像ファイル70の画像データ70aが情報処理装置1に取り込まれたときの日時、つまり取り込み日時が、一例として“2013/06/28 18:00:58”、すなわち年月日及び秒単位までの時間として記述される。機種名領域87には、撮像装置2、3の機種名が、撮像装置2、3の製造者が定めたデータで、一例として「XYZ−○」として記述される。撮影情報領域88には、画像ファイル70の画像データ70aが生成された際の撮像装置2、3の各種情報が、一例として「絞り値F=8、シャッタースピード1/125」として記述される。GPS情報領域89には、画像ファイル70が生成されたときに撮像装置2、3が所在する位置をGPSシステムを用いて得た位置情報を示すデータ、より詳細には撮像装置2、3が所在する位置の緯度情報、経度情報及び高度情報が、一例として“lat=+35.09.36.266, lon=+136.54.21.114,alt=50”として記述される。   Here, various information described in each area of the header portion 80 will be described with an example. In the shooting date / time area 85, referring to the internal clocks of the imaging devices 2 and 3, the date / time when the image data 70a of the image file 70 is generated, that is, the shooting time data 70b indicating the shooting date / time is “2013”. / 06/01 10:15:24 ", that is, described as the date and time in seconds. In the capture date and time area 86, referring to an internal clock (not shown) of the information processing apparatus 1, the date and time when the image data 70a of the image file 70 is captured by the information processing apparatus 1, that is, the capture date and time is, for example, “ 2013/06/28 18:00:58 ”, that is, described as the date and time in seconds. In the model name area 87, the model names of the imaging devices 2 and 3 are data determined by the manufacturer of the imaging devices 2 and 3, and are described as “XYZ- ◯” as an example. In the photographing information area 88, various information of the imaging devices 2 and 3 when the image data 70a of the image file 70 is generated is described as “aperture value F = 8, shutter speed 1/125” as an example. In the GPS information area 89, data indicating the position information obtained by using the GPS system for the position where the imaging devices 2 and 3 are located when the image file 70 is generated, more specifically, the imaging devices 2 and 3 are located. As an example, latitude information, longitude information, and altitude information of a position to be described are described as “lat = + 35.09.36.266, lon = + 136.54.21.114, alt = 50”.

(近似位置特定データテーブル)
図6は、本実施形態の情報処理措置1のHDD16a内に格納されている近似位置特定データテーブル71のデータ構造の一例を示す図である。本実施形態における近似位置特定データテーブル71には画像ID領域91及び近似位置特定データ領域92が設けられている。画像ID領域91には、画像ファイル70のID領域83に記述された画像ファイル70のIDが記述され、近似位置特定データ領域92には、このIDで特定される画像ファイル70に対して近似位置特定データ決定部59が決定した近似位置特定データが記述される。また、この近似位置特定データ領域92には、代表地点位置特定データ取得部56が取得した代表地点の位置特定データが一時的に記述されることがある。
(Approximate position specification data table)
FIG. 6 is a diagram illustrating an example of a data structure of the approximate position specifying data table 71 stored in the HDD 16a of the information processing measure 1 according to the present embodiment. The approximate position specifying data table 71 in the present embodiment is provided with an image ID area 91 and an approximate position specifying data area 92. The ID of the image file 70 described in the ID area 83 of the image file 70 is described in the image ID area 91, and the approximate position relative to the image file 70 specified by this ID is described in the approximate position specifying data area 92. The approximate position specifying data determined by the specific data determining unit 59 is described. In addition, in the approximate position specifying data area 92, the position specifying data of the representative spot acquired by the representative spot position specifying data acquiring unit 56 may be temporarily described.

(登録テーブルのデータ構造)
図7は、本実施形態の情報処理装置1のHDD16a内に格納されている登録テーブル72のデータ構造の一例を示す図である。本実施形態における登録テーブル72にはグループ領域93及び機種名領域94が設けられている。機種名領域94には、後述する機器登録処理において、同一のグループに属するものとして登録及び追従がされた機種名が、同一のグループ領域93に属するものとして記述されている。機器登録処理の詳細については後述する。
(Data structure of registration table)
FIG. 7 is a diagram illustrating an example of a data structure of the registration table 72 stored in the HDD 16a of the information processing apparatus 1 according to the present embodiment. The registration table 72 in this embodiment is provided with a group area 93 and a model name area 94. In the model name area 94, model names registered and tracked as belonging to the same group in the device registration process described later are described as belonging to the same group area 93. Details of the device registration process will be described later.

(第1実施形態の情報処理装置の動作の概要)
次に、図8〜図10を参照して、本実施形態の情報処理装置1の動作の概要について説明する。図8〜図10は、本実施形態の情報処理装置1における位置特定データの変更方法の一例を説明するための図である。
(Outline of operation of information processing apparatus according to first embodiment)
Next, an outline of the operation of the information processing apparatus 1 according to the present embodiment will be described with reference to FIGS. 8-10 is a figure for demonstrating an example of the change method of the position specific data in the information processing apparatus 1 of this embodiment.

図8は、抽出部55が抽出した、入力された所定時間範囲内に撮像時刻データ70bが存在する画像ファイル70の位置特定データ70cを緯度−経度平面上にプロットした図である。この図において、番号1〜5で示される位置特定データ70cは、特定のランドマーク等の代表地点Aの近傍に位置する。従って、番号1〜5で示される位置特定データ70cを有する画像ファイル70は、いずれも代表地点Aの近傍で撮像されたものと推測される。一方、番号6〜9で示される位置特定データ70cは、別の特定の代表地点Bの近傍に位置する。従って、番号6〜9で示される位置特定データ70cを有する画像ファイル70は、いずれも代表地点Bの近傍で撮像されたものと推測される。   FIG. 8 is a diagram in which the position specifying data 70c of the image file 70 in which the imaging time data 70b exists within the input predetermined time range extracted by the extraction unit 55 is plotted on the latitude-longitude plane. In this figure, the position specifying data 70c indicated by numbers 1 to 5 is located in the vicinity of a representative point A such as a specific landmark. Accordingly, it is presumed that all the image files 70 having the position specifying data 70c indicated by the numbers 1 to 5 are captured in the vicinity of the representative point A. On the other hand, the position specifying data 70c indicated by the numbers 6 to 9 is located in the vicinity of another specific representative point B. Accordingly, it is presumed that the image files 70 having the position specifying data 70c indicated by the numbers 6 to 9 are all captured in the vicinity of the representative point B.

ここで、画像ファイル70単位で位置特定データ70cの変換処理を行うのであれば、番号1〜5の位置特定データ70cについては代表地点Aの位置特定データに、番号6〜9の位置特定データ70cについては代表地点Bの位置特定データに変換すれば足りると考えられる。しかしながら、番号1〜9の位置特定データ70cで示される画像ファイル70が一日の中で比較的連続的に撮像され、ユーザとしてはこれら番号1〜9の位置特定データ70cで示される画像ファイル70を一連のものとして取り扱いたいという要望が存在する。この場合、番号1〜9の位置特定データ70cについては、共通の位置特定データに変換されることが、情報処理装置1及び他の画像処理装置等における取り扱い、処理上好ましい。   Here, if the conversion processing of the position specifying data 70c is performed in units of the image file 70, the position specifying data 70c of the numbers 6 to 9 is added to the position specifying data of the representative point A for the position specifying data 70c of the numbers 1 to 5. It is considered that it is sufficient to convert to the position specifying data of the representative point B. However, the image file 70 indicated by the position specifying data 70c of the numbers 1 to 9 is captured relatively continuously during the day, and as the user, the image file 70 indicated by the position specifying data 70c of the numbers 1 to 9 is used. There is a desire to handle as a series. In this case, it is preferable in terms of handling and processing in the information processing apparatus 1 and other image processing apparatuses that the position specifying data 70c of numbers 1 to 9 are converted into common position specifying data.

そこで、これら番号1〜9で示される位置特定データ70cの平均値を、番号1〜9の位置特定データ70cを有する画像ファイル70の位置特定データとして変換する手法が考えられる。図9に示す例は、代表地点A及びBの中間地点Cの位置特定データを、番号1〜9の位置特定データ70cを有する画像ファイル70の位置特定データとして変換する例である。しかしながら、この中間地点Cが特定の代表地点である保証は全くなく、ユーザからすると、訪問した履歴のない地点が画像ファイル70の位置特定データ70cに変換されてしまう、という問題がある。   Therefore, a method of converting the average value of the position specifying data 70c indicated by the numbers 1 to 9 as the position specifying data of the image file 70 having the position specifying data 70c of the numbers 1 to 9 can be considered. The example shown in FIG. 9 is an example of converting the position specifying data of the intermediate point C between the representative points A and B as the position specifying data of the image file 70 having the position specifying data 70c of numbers 1-9. However, there is no guarantee that the intermediate point C is a specific representative point, and there is a problem that, from the viewpoint of the user, a point without a visit history is converted into the position specifying data 70c of the image file 70.

本実施形態の情報処理装置1は、そこで、番号1〜9の位置特定データ70cの分布を求め、この分布に基づいて、より多くの位置特定データ70cが近傍に分布する代表地点Aの位置特定データで、番号1〜9で示される位置特定データ70cを有する画像ファイル70の位置特定データ70cを変換している。より詳細に説明すると、図10に示すように、代表地点Aの近傍に分布する位置特定データ70cは、番号1〜5で示される位置特定データ70cの5点である。一方、代表地点Bの近傍に分布する位置特定データ70cは、番号6〜9で示される位置特定データ70cの4点である。従って、多数決方式により、代表地点Aを、抽出部55が抽出した所定時間範囲内の画像ファイル70を代表する地点として、所定時間内の画像ファイル70の位置特定データ70cをこの代表地点Aの位置特定データに変換する。   Therefore, the information processing apparatus 1 according to the present embodiment obtains the distribution of the position specifying data 70c of the numbers 1 to 9, and based on this distribution, specifies the position of the representative point A where more position specifying data 70c is distributed in the vicinity. With the data, the position specifying data 70c of the image file 70 having the position specifying data 70c indicated by numbers 1 to 9 is converted. More specifically, as shown in FIG. 10, the position specifying data 70 c distributed in the vicinity of the representative point A is five points of the position specifying data 70 c indicated by numbers 1 to 5. On the other hand, the position specifying data 70c distributed in the vicinity of the representative point B is the four points of the position specifying data 70c indicated by numbers 6-9. Therefore, by using the majority method, the representative point A is the point representing the image file 70 within the predetermined time range extracted by the extraction unit 55, and the position specifying data 70c of the image file 70 within the predetermined time is used as the position of the representative point A. Convert to specific data.

なお、図8〜図10において、円周95で示される領域は近接判断用距離範囲であり、代表地点A、Bと位置特定データ70cとが近傍であるか否かの判定は、代表地点A、Bを中心とする近接判断用距離範囲95内に位置特定データ70cが存在するか否かにより行われる。   8 to 10, the area indicated by the circumference 95 is a proximity determination distance range, and whether or not the representative points A and B and the position specifying data 70 c are in the vicinity is determined by the representative point A. , B is performed depending on whether or not the position specifying data 70c exists within the proximity determination distance range 95.

(第1実施形態の情報処理装置の動作)
以下、図11〜図13のフローチャートを参照して、本実施形態の情報処理装置の動作について説明する。
(Operation of the information processing apparatus of the first embodiment)
The operation of the information processing apparatus according to this embodiment will be described below with reference to the flowcharts of FIGS.

図11は、本実施形態の情報処理装置1の動作を説明するためのフローチャートである。まず、ステップS1では、情報処理装置1の画像取り込み部54が、この情報処理装置1に接続等された第1、第2の撮像装置2、3から画像ファイル70を取り込む。画像取り込み部54による画像ファイル70の取り込みの詳細については既に説明したので、ここでは詳細な説明を省略する。画像取り込み部54が取り込んだ画像ファイル70は記憶部51内に格納される。次いで、ステップS2では、機器登録及び追従処理動作が行われる。   FIG. 11 is a flowchart for explaining the operation of the information processing apparatus 1 of the present embodiment. First, in step S <b> 1, the image capturing unit 54 of the information processing device 1 captures the image file 70 from the first and second imaging devices 2 and 3 connected to the information processing device 1. Since the details of capturing the image file 70 by the image capturing unit 54 have already been described, detailed description thereof is omitted here. The image file 70 captured by the image capturing unit 54 is stored in the storage unit 51. Next, in step S2, device registration and follow-up processing operations are performed.

図13は、本実施形態の情報処理装置1における機器登録動作を説明するためのフローチャートである。   FIG. 13 is a flowchart for explaining a device registration operation in the information processing apparatus 1 of the present embodiment.

まず、ステップS20では、ユーザが入力した選択入力指示を入力部52を介して受け入れ、この選択入力指示に基づいて第1及び第2の撮像装置2、3のいずれかを基準とする撮像装置とするかを決定する。ステップS20により指定された、基準とする撮像装置に関する情報、例えば画像ファイル70の機種名領域87に記述された、撮像装置2、3の機種名に関する情報は記憶部51に一時的に格納される。なお、ユーザによる選択入力指示に先立って、選択入力指示用の表示画面を生成するための画面表示用信号を生成し、この画面表示用信号を出力部53を介してHDMI出力機器22に出力し、このHDMI出力機器22において画面表示用信号に基づいて表示画面が生成されることで選択入力指示用の表示画面を表示してもよい。   First, in step S20, a selection input instruction input by the user is accepted via the input unit 52, and an imaging apparatus based on one of the first and second imaging apparatuses 2 and 3 based on the selection input instruction; Decide what to do. Information relating to the reference imaging device specified in step S20, for example, information relating to the model names of the imaging devices 2 and 3 described in the model name area 87 of the image file 70, is temporarily stored in the storage unit 51. . Prior to the selection input instruction by the user, a screen display signal for generating a display screen for the selection input instruction is generated, and the screen display signal is output to the HDMI output device 22 via the output unit 53. The display screen for the selection input instruction may be displayed by generating a display screen based on the screen display signal in the HDMI output device 22.

次に、ステップS21では、取り込まれた画像ファイル70が、ステップS20で指定された基準とする撮像装置により撮像されたものであるか否かが判定され、基準とする撮像装置により撮像されたものである(ステップS21においてYES)場合は、プログラムはステップS22に移行し、基準とする撮像装置により撮像されたものでない(ステップS21においてNO)場合は、プログラムはステップS23に移行する。ステップS21における判定は、画像ファイル70の機種名領域87に記述された撮像装置2、3の機種名に関する情報等に基づいて行えばよい。   Next, in step S21, it is determined whether or not the captured image file 70 has been captured by the reference imaging device designated in step S20, and is captured by the reference imaging device. (YES in step S21), the program proceeds to step S22, and if not captured by the reference imaging device (NO in step S21), the program proceeds to step S23. The determination in step S21 may be performed based on information about the model names of the imaging devices 2 and 3 described in the model name area 87 of the image file 70.

ステップS22では、基準とする撮像装置の機器登録作業が行われる。一方、ステップS23では、補正すべき撮像装置の機器追従作業が行われる。この後、機器登録作業は終了する。   In step S22, device registration work for the reference imaging device is performed. On the other hand, in step S23, the device following operation of the imaging apparatus to be corrected is performed. Thereafter, the device registration work ends.

ステップS22及びステップS23において行われる機器登録作業及び機器追従作業の詳細について、図14を参照して説明する。   Details of the device registration work and device follow-up work performed in steps S22 and S23 will be described with reference to FIG.

図14は、本実施形態の情報処理装置1における機器登録または機器追従の手順の一例を説明するための図である。図14に示す機器登録または機器追従作業においては、情報処理装置1の制御部50が、画像ファイル70の機種名領域87に記述された第1及び第2の撮像装置2、3の機種名情報に基づいて機器登録または機器追従作業を行う。   FIG. 14 is a diagram for explaining an example of a procedure for device registration or device tracking in the information processing apparatus 1 according to the present embodiment. In the device registration or device following work shown in FIG. 14, the control unit 50 of the information processing device 1 stores the model name information of the first and second imaging devices 2 and 3 described in the model name area 87 of the image file 70. Device registration or device tracking work is performed based on the above.

一例として、機種名情報「XA」を有する第1の撮像装置2によって生成された画像ファイル70が最初に取り込まれると、この画像ファイル70の機種名領域87に記述された機種名情報「XA」が登録テーブル72の機種名領域94に記述される。次いで、機種名「YA」情報を有する第2の撮像装置3によって生成された画像ファイル70が最初に取り込まれると、情報処理装置1の制御部50が、出力部53を介して、追従作業を行うべき第2の撮像装置3がいずれの第1の撮像装置2に追従すべきかを入力させるための入力画面を表示させるためのデータを出力部53を介してHDMI出力機器22に出力する。そして、情報処理装置1の制御部50は、ユーザが入力を行った選択指示入力を入力部52を介して受け入れ、この選択指示入力に基づいて、追従作業を行うべき第2の撮像装置3の機種名情報「YA」を、追従先である第1の撮像装置2の機種名情報「XA」が記述された登録テーブル72のグループ領域93に関連付けられた他の機種名領域94に記述する。   As an example, when the image file 70 generated by the first imaging device 2 having the model name information “XA” is first captured, the model name information “XA” described in the model name area 87 of the image file 70 is acquired. Is described in the model name area 94 of the registration table 72. Next, when the image file 70 generated by the second imaging device 3 having the model name “YA” information is first captured, the control unit 50 of the information processing device 1 performs a follow-up operation via the output unit 53. Data for displaying an input screen for inputting which first imaging device 2 the second imaging device 3 to perform should follow is output to the HDMI output device 22 via the output unit 53. Then, the control unit 50 of the information processing apparatus 1 accepts the selection instruction input input by the user via the input unit 52, and based on the selection instruction input, the second imaging apparatus 3 that should perform the follow-up operation. The model name information “YA” is described in another model name area 94 associated with the group area 93 of the registration table 72 in which the model name information “XA” of the first imaging apparatus 2 that is the follow-up destination is described.

同様に、機種名「XB」を有する第1の撮像装置2によって生成された画像ファイル70が最初に取り込まれると、画像ファイル70の機種名領域87に記述された機種名情報「XB」が登録テーブル72の機種名領域94に記述される。次いで、機種名「YB」情報を有する第2の撮像装置3によって生成された画像ファイル70が最初に取り込まれると、制御部50が、出力部53を介して、追従作業を行うべき第2の撮像装置3がいずれの第1の撮像装置2に追従すべきかを入力させるための入力画面を表示させるためのデータを出力部53を介してHDMI出力機器22に出力する。そして、制御部50は、入力部52を介してユーザが入力を行った選択指示に基づいて、追従作業を行うべき第2の撮像装置3の機種名情報「YB」を、追従先である第1の撮像装置2の機種名情報「XB」が記述された登録テーブル72のグループ領域93に関連付けられた他の機種名領域94に追記する。   Similarly, when the image file 70 generated by the first imaging device 2 having the model name “XB” is first captured, the model name information “XB” described in the model name area 87 of the image file 70 is registered. It is described in the model name area 94 of the table 72. Next, when the image file 70 generated by the second imaging device 3 having the model name “YB” information is first captured, the control unit 50 performs the second tracking operation to be performed via the output unit 53. Data for displaying an input screen for inputting which first imaging device 2 the imaging device 3 should follow is output to the HDMI output device 22 via the output unit 53. Then, based on the selection instruction input by the user via the input unit 52, the control unit 50 sets the model name information “YB” of the second imaging device 3 that should perform the tracking operation as the tracking destination. The model name information “XB” of one imaging apparatus 2 is additionally written in another model name area 94 associated with the group area 93 of the registration table 72.

図11に戻って、ステップS3では、抽出部55が、入力部52を介してユーザが入力した時間範囲を受け入れ、ステップS4では、抽出部55がこの時間範囲内に撮像時刻データ70bが示す撮像日時が存在する画像ファイル70を記憶部51内で検索し、検索された画像ファイル70を記憶部51から抽出する。なお、ユーザによる時間範囲入力に先立って、抽出部55が時間範囲入力指示用の表示画面を生成するための画面表示用信号を生成し、この画面表示用信号を出力部53を介してHDMI出力機器22に出力し、このHDMI出力機器22において画面表示用信号に基づいて表示画面が生成されることで時間範囲入力指示用の表示画面を表示してもよい。抽出部55が抽出した画像ファイル70に関する各種情報は代表地点位置特定データ取得部56に送出される。   Returning to FIG. 11, in step S <b> 3, the extraction unit 55 accepts the time range input by the user via the input unit 52, and in step S <b> 4, the extraction unit 55 captures the imaging indicated by the imaging time data 70 b within this time range. The image file 70 having the date and time is searched in the storage unit 51, and the searched image file 70 is extracted from the storage unit 51. Prior to the time range input by the user, the extraction unit 55 generates a screen display signal for generating a display screen for the time range input instruction, and outputs the screen display signal via the output unit 53 to the HDMI output. A display screen for time range input instruction may be displayed by outputting to the device 22 and generating a display screen based on the screen display signal in the HDMI output device 22. Various types of information regarding the image file 70 extracted by the extraction unit 55 are sent to the representative point location specifying data acquisition unit 56.

次いで、ステップS5では、近接判断用距離範囲決定部60が、記憶部51に格納された画像ファイル70に関連付けられた位置特定データ70cに基づいて、あるいは、入力された近接判断用距離範囲に基づいて、あるいは、入力されたユーザ情報に基づいてユーザ毎の近接判断用距離範囲を決定する。近接判断用距離範囲決定部60による近接判断用距離範囲決定処理の詳細については既に説明したので、ここでの説明は省略する。   Next, in step S5, the proximity determination distance range determination unit 60 is based on the position specifying data 70c associated with the image file 70 stored in the storage unit 51 or based on the input proximity determination distance range. Alternatively, the proximity determination distance range for each user is determined based on the input user information. Since the details of the proximity determination distance range determination processing by the proximity determination distance range determination unit 60 have already been described, description thereof will be omitted here.

次いで、ステップS6では、代表地点位置特定データ取得部56が、ステップS2において機器登録・追従処理が行われた撮像装置2、3のグループのいずれかを選択する。より詳細には、代表地点位置特定データ取得部56は、登録テーブル72のグループ領域93を参照し、このグループ領域93に記述されているグループ名のいずれかを選択し、このグループ名に関連付けられている機器名領域94に記述された機種名情報を抽出する。そして、代表地点位置特定データ取得部56は、抽出部55により抽出された画像ファイル70の中から、この機種名情報が機種名領域87に記述されている画像ファイル70を抽出する。ステップS7では、ステップS4で抽出した画像ファイル70のうち、代表地点位置特定データ取得部56が1つの画像ファイル70を選択する。   Next, in step S6, the representative point position specifying data acquisition unit 56 selects one of the groups of the imaging devices 2 and 3 that have undergone the device registration / follow-up process in step S2. More specifically, the representative point location specifying data acquisition unit 56 refers to the group area 93 of the registration table 72, selects one of the group names described in the group area 93, and associates it with this group name. The model name information described in the device name area 94 is extracted. Then, the representative point position specifying data acquisition unit 56 extracts the image file 70 in which the model name information is described in the model name area 87 from the image file 70 extracted by the extraction unit 55. In step S7, the representative point position specifying data acquisition unit 56 selects one image file 70 from the image files 70 extracted in step S4.

ステップS8では、代表地点位置特定データ取得部56が、ステップS7で選択した画像ファイル70のGPS情報領域89に記述された位置特定データ70cを抽出する。次いで、ステップS9では、ステップS8で抽出された位置特定データ70cに基づいて、代表地点位置特定データ取得部56が、この位置特定データ70cで示される撮像位置の近傍に位置するランドマーク等の代表地点に関する情報、例えば代表地点の名称を取得する。そして、ステップS10では、ステップS9で取得した代表地点に関する情報に基づいて、代表地点位置特定データ取得部56が、この代表地点の位置特定データを取得し、取得した位置特定データを、対応する画像ファイル70のIDとともに、近似位置特定データテーブル71の画像ID領域91及び近似位置特定データ領域92に記述する。ステップS9及びステップS10における代表地点の位置特定データの取得手順の詳細については既に説明しているので、ここでの説明は省略する。   In step S8, the representative point position specifying data acquisition unit 56 extracts the position specifying data 70c described in the GPS information area 89 of the image file 70 selected in step S7. Next, in step S9, based on the position specifying data 70c extracted in step S8, the representative point position specifying data acquisition unit 56 is a representative such as a landmark located in the vicinity of the imaging position indicated by the position specifying data 70c. Information about the point, for example, the name of the representative point is acquired. And in step S10, based on the information regarding the representative point acquired in step S9, the representative point position specifying data acquisition unit 56 acquires the position specifying data of the representative point, and the acquired position specifying data is used as the corresponding image. Along with the ID of the file 70, it is described in the image ID area 91 and the approximate position specifying data area 92 of the approximate position specifying data table 71. Since the details of the procedure for acquiring the location specifying data of the representative points in step S9 and step S10 have already been described, description thereof will be omitted here.

ステップS11では、代表地点位置特定データ取得部56が、ステップS5で抽出した画像ファイル70の全てについて代表地点の位置特定データ取得処理を行ったか否かを判定し、ステップS4で抽出した画像ファイル70の全てについて処理を行ったと判定した(ステップS10においてYES)場合は、プログラムはステップS13に移行し、まだ位置特定データ取得処理を行っていない画像ファイル70があると判定した(ステップS11においてNO)場合は、プログラムはステップS12に移行する。ステップS12では、代表地点位置特定データ取得部56が、ステップS4で抽出した画像ファイル70のうち別の画像ファイル70を選択する。以降、ステップS8〜ステップS12に示す動作が繰り返される。   In step S11, the representative point position specifying data acquisition unit 56 determines whether or not the representative point position specifying data acquisition processing has been performed for all the image files 70 extracted in step S5, and the image file 70 extracted in step S4. If it is determined that all of the files have been processed (YES in step S10), the program proceeds to step S13, and it is determined that there is an image file 70 that has not yet been subjected to the position specifying data acquisition process (NO in step S11). If so, the program moves to step S12. In step S12, the representative point position specifying data acquisition unit 56 selects another image file 70 from the image files 70 extracted in step S4. Thereafter, the operations shown in steps S8 to S12 are repeated.

ステップS13では、代表地点位置特定データ取得部56が、抽出部55により抽出された画像ファイル70のうち、全てのグループに属する画像ファイル70について代表地点の位置特定データ取得処理を行ったか否かを判定し、全てのグループについて代表地点の位置特定データ取得処理を行ったと判定した(ステップS13においてYES)場合は、プログラムはステップS15に移行し、まだ位置特定データ取得処理を行っていないグループがあると判定した(ステップS13においてNO)場合は、プログラムはステップS14に移行する。ステップS14では、代表地点位置特定データ取得部56が、別のグループを選択する。以降、ステップS7〜ステップS14に示す動作が繰り返される。   In step S <b> 13, it is determined whether or not the representative point position specifying data acquisition unit 56 has performed the representative point position specifying data acquisition process for the image files 70 belonging to all groups among the image files 70 extracted by the extracting unit 55. If it is determined and it is determined that the position specifying data acquisition process of the representative point has been performed for all groups (YES in step S13), the program proceeds to step S15, and there is a group that has not yet performed the position specifying data acquisition process. (NO in step S13), the program proceeds to step S14. In step S14, the representative point position specifying data acquisition unit 56 selects another group. Thereafter, the operations shown in steps S7 to S14 are repeated.

ステップS15では、抽出部55が抽出した画像ファイル70のそれぞれに対応する代表地点の位置特定データを集計部57が集計し、この集計結果に基づいて、抽出部55が抽出した画像ファイル70に対応する近似位置特定データを近似位置特定データ取得部58が取得し、そして、近似位置特定データ取得部58が取得した近似位置特定データに基づいて、抽出部55が抽出した画像ファイル70のそれぞれについて対応する近似位置特定データを、近似位置特定データ決定部59が決定する。ステップS15における動作の詳細については既に説明したので、ここでの説明は省略する。   In step S15, the totaling unit 57 totals position specifying data of representative points corresponding to each of the image files 70 extracted by the extraction unit 55, and corresponds to the image file 70 extracted by the extraction unit 55 based on the totalization result. The approximate position specifying data to be acquired is acquired by the approximate position specifying data acquiring unit 58, and each of the image files 70 extracted by the extracting unit 55 is handled based on the approximate position specifying data acquired by the approximate position specifying data acquiring unit 58. The approximate position specifying data determining unit 59 determines the approximate position specifying data to be performed. Since the details of the operation in step S15 have already been described, description thereof is omitted here.

(第1実施形態の効果)
以上詳細に説明したように、本実施形態の情報処理装置1によれば、抽出部55が、時間範囲内に撮像時刻データ70bが示す撮像日時が存在する画像ファイル70を抽出し、代表地点位置特定データ取得部56が、抽出部55により抽出された画像ファイル70の位置特定データ70cで表される位置に一致または所定の距離範囲内にある位置に所在するランドマーク等の代表地点の位置特定データを取得し、集計部57は、代表地点位置特定データ取得部56が取得した代表地点の位置特定データを集計し、近似位置特定データ取得部58は、集計部57の集計結果において最頻値であった代表地点の位置特定データを近似位置特定データとして取得している。従って、例えば一連の旅行行程を示す時間範囲内に撮像された画像ファイル70の位置特定データ70cを、この旅行行程を代表すると考えられる、最頻値であった代表地点の位置特定データに変換することが可能となる。これにより、本実施形態によれば、一定の時間範囲内にある撮像時刻データに関連付けられた画像ファイル70について、この画像ファイル70に関連付けられた位置特定データを、共通する適切な位置特定データに変更することが可能となる。
(Effect of 1st Embodiment)
As described above in detail, according to the information processing apparatus 1 of the present embodiment, the extraction unit 55 extracts the image file 70 in which the imaging date and time indicated by the imaging time data 70b exists within the time range, and represents the representative point position. The specific data acquisition unit 56 specifies the position of a representative point such as a landmark located at a position that matches the position represented by the position specification data 70c of the image file 70 extracted by the extraction unit 55 or is within a predetermined distance range. The data is acquired, the totaling unit 57 totals the position specifying data of the representative points acquired by the representative point position specifying data acquiring unit 56, and the approximate position specifying data acquiring unit 58 is the mode value in the counting result of the counting unit 57. The position specifying data of the representative point that has been obtained is acquired as approximate position specifying data. Therefore, for example, the position specifying data 70c of the image file 70 captured within a time range indicating a series of travel itineraries is converted into position specifying data of the representative point that is the mode value, which is considered to represent this travel itinerary. It becomes possible. As a result, according to the present embodiment, for the image file 70 associated with the imaging time data within a certain time range, the position specifying data associated with the image file 70 is changed to common appropriate position specifying data. It becomes possible to change.

(第2実施形態)
上述の第1実施形態では、第1、第2の撮像装置2、3により撮像された画像ファイル70を情報処理装置1の記憶部51に取り込み、この記憶部51内の画像ファイル70の位置特定データ70cに対して変換処理を行う為の動作を行っていたが、第1実施形態で説明した第1の撮像装置2が、自身が撮像した、あるいは他の撮像装置3から取り込んだ画像ファイル70に対して、その位置特定データ70cの変換処理を行う為の動作を行ってもよい。
(Second Embodiment)
In the first embodiment described above, the image file 70 captured by the first and second imaging devices 2 and 3 is taken into the storage unit 51 of the information processing device 1 and the position of the image file 70 in the storage unit 51 is specified. Although the operation for performing the conversion process on the data 70c is performed, the image file 70 captured by the first image capturing apparatus 2 described in the first embodiment or captured from another image capturing apparatus 3 is used. In contrast, an operation for converting the position specifying data 70c may be performed.

この場合、図4に示す機能ブロック図において、制御部50及び制御部50を構成する画像取り込み部54、抽出部55、代表地点位置特定データ取得部56、集計部57、近似位置特定データ取得部58、近似位置特定データ決定部59及び近接判断用距離範囲決定部60は主にCPU30により構成され、記憶部51は主にROM31、RAM32及び内部ストレージ部37により構成され、入力部52は主に入力インタフェース360、タッチパネル361、移動体通信モジュール350、アンテナ354、USBインタフェース39及び無線LANインタフェース40により構成され、出力部53は主に液晶ドライバ330、液晶パネル331、移動体通信モジュール350、アンテナ354、USBインタフェース39及び無線LANインタフェース40により構成される。   In this case, in the functional block diagram shown in FIG. 4, the control unit 50 and the image capturing unit 54, the extraction unit 55, the representative point position specifying data acquisition unit 56, the totaling unit 57, and the approximate position specifying data acquisition unit that constitute the control unit 50. 58, the approximate position specifying data determination unit 59 and the proximity determination distance range determination unit 60 are mainly configured by the CPU 30, the storage unit 51 is mainly configured by the ROM 31, the RAM 32, and the internal storage unit 37, and the input unit 52 is mainly configured. The interface includes an input interface 360, a touch panel 361, a mobile communication module 350, an antenna 354, a USB interface 39, and a wireless LAN interface 40. The output unit 53 mainly includes a liquid crystal driver 330, a liquid crystal panel 331, a mobile communication module 350, and an antenna 354. USB interface 39 and wireless L Constituted by the N interface 40.

従って、本実施形態によっても、上述の第1実施形態と同様の効果を得ることができる。   Therefore, the present embodiment can provide the same effects as those of the first embodiment described above.

(第3実施形態)
図15は、本発明の第3実施形態である画像処理システムSの概略構成を示す図である。本実施形態の画像処理システムSと上述の第1実施形態である画像処理システムSとの相違点は、本実施形態の情報処理装置1はインターネット等のWAN8を介してサーバ装置9に接続されている点である。従って、第1実施形態と同様の構成要素については同一の符号を付し、その説明を簡略化する。
(Third embodiment)
FIG. 15 is a diagram showing a schematic configuration of an image processing system S according to the third embodiment of the present invention. The difference between the image processing system S according to the present embodiment and the image processing system S according to the first embodiment described above is that the information processing apparatus 1 according to the present embodiment is connected to the server apparatus 9 via the WAN 8 such as the Internet. It is a point. Therefore, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is simplified.

図16は、第3実施形態の画像処理システムSの機能構成を示す機能ブロック図である。図16において、本実施形態の情報処理装置1は、制御部50、記憶部51、第1の入力部52a及び第1の出力部53aを備え、また、本実施形態のサーバ装置9も制御部100、記憶部101、第2の入力部102及び第2の出力部103を備える。   FIG. 16 is a functional block diagram showing a functional configuration of the image processing system S of the third embodiment. In FIG. 16, the information processing apparatus 1 of the present embodiment includes a control unit 50, a storage unit 51, a first input unit 52a, and a first output unit 53a, and the server device 9 of the present embodiment also includes a control unit. 100, a storage unit 101, a second input unit 102, and a second output unit 103.

本実施形態において、情報処理装置1の制御部50は、画像取り込み部54、及び近接判断用距離範囲決定部60を備える。記憶部51には画像ファイル70及び登録テーブル72が格納されている。第1の出力部53aは、第1実施形態の出力部53と同一の機能を有するとともに、抽出部55により抽出された画像ファイル70を示す情報、一例として画像ファイル70のID及び位置特定データ70cと、近接判断用距離範囲決定部60が決定した近接判断用距離範囲を示す情報とをサーバ装置9に送信する。また、第1の入力部52aは、第1実施形態の入力部52と同一の機能を有するとともに、サーバ装置9の近似位置特定データ決定部109が決定した近似位置特定データを受信する。   In the present embodiment, the control unit 50 of the information processing apparatus 1 includes an image capturing unit 54 and a proximity determination distance range determination unit 60. The storage unit 51 stores an image file 70 and a registration table 72. The first output unit 53a has the same function as the output unit 53 of the first embodiment, and information indicating the image file 70 extracted by the extraction unit 55, for example, the ID of the image file 70 and the position specifying data 70c. And information indicating the proximity determination distance range determined by the proximity determination distance range determination unit 60 is transmitted to the server device 9. The first input unit 52a has the same function as the input unit 52 of the first embodiment, and receives the approximate position specifying data determined by the approximate position specifying data determining unit 109 of the server device 9.

本実施形態において、サーバ装置9の制御部100は、代表地点位置特定データ取得部106、集計部107、近似位置特定データ取得部108及び近似位置特定データ決定部109を備える。代表地点位置特定データ取得部106、集計部107、近似位置特定データ取得部108及び近似位置特定データ決定部109の機能は、第1実施形態の代表地点位置特定データ取得部56、集計部57、近似位置特定データ取得部58及び近似位置特定データ決定部59と同一であるが、本実施形態の代表地点位置特定データ取得部106は、情報処理装置1から送信された画像ファイル70の位置特定データ70cに基づいて代表地点の位置特定データを取得し、近似位置特定データ決定部109は、決定した近似位置特定データを第2の出力部103を介して情報処理装置1に送信する。   In the present embodiment, the control unit 100 of the server device 9 includes a representative point position specifying data acquisition unit 106, a totaling unit 107, an approximate position specifying data acquisition unit 108, and an approximate position specifying data determination unit 109. The functions of the representative point position specifying data acquiring unit 106, the totaling unit 107, the approximate position specifying data acquiring unit 108, and the approximate position specifying data determining unit 109 are the representative point position specifying data acquiring unit 56, the totaling unit 57, and the first embodiment. Although it is the same as the approximate position specifying data acquisition unit 58 and the approximate position specifying data determination unit 59, the representative point position specifying data acquisition unit 106 of the present embodiment is the position specifying data of the image file 70 transmitted from the information processing apparatus 1. Based on 70c, the position specifying data of the representative point is acquired, and the approximate position specifying data determining unit 109 transmits the determined approximate position specifying data to the information processing apparatus 1 via the second output unit 103.

記憶部101には近似位置特定データテーブル71が格納されている。第2の入力部102は、情報処理装置1から送信された画像ファイル70のID及び位置特定データ70cを受信し、第2の出力部103は、サーバ装置9の近似位置特定データ決定部109が決定した近似位置特定データを情報処理装置1に送信する。   The storage unit 101 stores an approximate position specifying data table 71. The second input unit 102 receives the ID of the image file 70 and the position specifying data 70 c transmitted from the information processing apparatus 1, and the second output unit 103 receives the approximate position specifying data determination unit 109 of the server device 9. The determined approximate position specifying data is transmitted to the information processing apparatus 1.

そして、第1及び第2の入力部52a、102と第1及び第2の出力部53a、103とは通信回線110により接続されている。   The first and second input units 52 a and 102 and the first and second output units 53 a and 103 are connected by a communication line 110.

従って、本実施形態によっても、上述した第1実施形態と同様の効果を得ることができる。   Accordingly, the present embodiment can provide the same effects as those of the first embodiment described above.

なお、本実施形態において、図15に示した例ではサーバ装置9に1台の情報処理装置1が接続されていたが、サーバ装置9との間でデータの送受信を行う情報処理装置1は1台に限定されず、複数台の情報処理装置1がサーバ装置9に接続されていてもよい。   In this embodiment, one information processing apparatus 1 is connected to the server apparatus 9 in the example shown in FIG. 15, but the information processing apparatus 1 that transmits / receives data to / from the server apparatus 9 is 1 A plurality of information processing apparatuses 1 may be connected to the server apparatus 9 without being limited to a table.

(変形例)
本発明の情報処理装置、画像処理システム、情報処理装置における画像処理方法及びプログラムは、その細部が上述の各実施形態に限定されず、種々の変形が可能である。一例として、上述の各実施形態では、近似位置特定データ決定部59が集計部57の結果に基づいて近似位置特定データを決定していたが、記憶部51に格納された画像ファイル70のユーザ領域90に情報(タグ)、例えば当該画像ファイル70に対して「お気に入り」であることをユーザが示すタグが記述されていた場合、この画像ファイル70の位置特定データ70cに近接する代表地点の位置特定データを近似位置特定データとして決定してもよい。
(Modification)
The details of the information processing apparatus, the image processing system, and the image processing method and program in the information processing apparatus of the present invention are not limited to the above-described embodiments, and various modifications are possible. As an example, in each of the above-described embodiments, the approximate position specifying data determining unit 59 determines the approximate position specifying data based on the result of the totaling unit 57, but the user area of the image file 70 stored in the storage unit 51 is used. 90, when information (tag), for example, a tag indicating that the user is “favorite” with respect to the image file 70 is described, the position of the representative point close to the position specifying data 70c of the image file 70 is specified. The data may be determined as approximate position specifying data.

また、上述の各実施形態において、ユーザが特定の近似位置特定データを事前に登録しておくと、近似位置特定データ取得部58はこの特定の近似位置特定データを除外して他の近似位置特定データを取得してもよい。一例として、自宅等が代表地点のごく近傍に位置しているため、その代表地点の位置特定データを近似位置特定データとした場合に自宅等の位置特定データを公表することにほぼ等しい事態となってしまうときには、敢えてその代表地点の位置特定データを近似位置特定データの候補から除外することが好ましい。   In each of the above-described embodiments, when the user registers specific approximate position specifying data in advance, the approximate position specifying data acquisition unit 58 excludes the specific approximate position specifying data and specifies other approximate position specifying data. Data may be acquired. As an example, because the home is located very close to the representative point, when the position specifying data of the representative point is approximate position specifying data, the situation is almost equivalent to publishing the position specifying data such as the home. In this case, it is preferable to exclude the position specifying data of the representative point from the candidates for approximate position specifying data.

さらに、上述の各実施形態において、代表地点の位置特定データを提供する外部データベース等が、この代表地点について階層構造を提供することができる場合は、代表地点位置特定データ取得部56及び近似位置特定データ取得部58はこの階層構造を考慮して代表地点の位置特定データを取得し、また、近似位置特定データを取得してもよい。一例として、画像データの撮像位置が東京駅の近傍であった場合、代表地点の位置特定データは「東京駅日本橋口」、「東京駅丸の内南口」等があり得るとともに、これらを包含する「東京駅」でもあり得る。本発明の課題に鑑みれば、近似位置特定データ取得部58が取得する近似位置特定データは「東京駅」の位置特定データであることが好ましいが、ユーザの意向により階層構造を為すいずれの代表地点の位置特定データを選択してもよい。   Furthermore, in each of the above-described embodiments, when an external database or the like that provides representative point position specifying data can provide a hierarchical structure for this representative point, the representative point position specifying data acquisition unit 56 and approximate position specifying The data acquisition unit 58 may acquire the position specifying data of the representative point in consideration of this hierarchical structure, and may acquire approximate position specifying data. As an example, when the image data capturing position is in the vicinity of Tokyo Station, the location specifying data of the representative point may be “Tokyo Station Nihonbashi Exit”, “Tokyo Station Marunouchi South Exit”, etc. It can be a "station". In view of the problem of the present invention, the approximate position specifying data acquired by the approximate position specifying data acquiring unit 58 is preferably position specifying data of “Tokyo Station”, but any representative point having a hierarchical structure according to the intention of the user. The position specifying data may be selected.

同様に、代表地点の位置特定データを提供する外部データベース等が、この代表地点が位置する都道府県名称や市町村名称、例えば「東京駅」であれば東京都千代田区、東京都も提供することができる場合は、代表地点位置特定データ取得部56及び近似位置特定データ取得部58はこの都道府県名称等を代表する位置特定データを考慮して代表地点の位置特定データを取得し、また、近似位置特定データを取得してもよい。一例として、上述の例であれば、近似位置特定データ取得部58が取得する近似位置特定データは、「東京都千代田区」を代表する、例えば東京都千代田区の重心位置に相当する位置特定データであってもよい。   Similarly, if the external database that provides the location data of the representative point is the name of the prefecture or municipality where the representative point is located, for example, “Tokyo Station”, it can also provide Chiyoda-ku, Tokyo. If possible, the representative point position specifying data acquisition unit 56 and the approximate position specifying data acquisition unit 58 acquire the position specifying data of the representative point in consideration of the position specifying data representing the name of the prefecture, etc. Specific data may be acquired. As an example, in the above example, the approximate position specifying data acquired by the approximate position specifying data acquiring unit 58 is representative of “Tokyo Chiyoda-ku”, for example, position specifying data corresponding to the center of gravity of Chiyoda-ku, Tokyo. It may be.

S 画像処理システム
1 情報処理装置
2、3 撮像装置
4 画像表示装置
5 USBケーブル
6 メモリーカード
7 HDMIケーブル
8 WAN
9 サーバ装置
10、30 CPU
11、31 ROM
12、32 RAM
13 入出力デバイス
13a 入力インタフェース
13b 入力指示部
13c カードインタフェース
13d、39 USBインタフェース
14 HDMIインタフェース
15 ネットワークインタフェース
16 HDD部
16a HDDインタフェース
16b HDD
17、40 無線LANインタフェース
20 入力機器
21 USB機器
22 HDMI出力機器
23 ルータ
37 内部ストレージ部
50、100 制御部
51、101 記憶部
52、52a、102 入力部
53、53a、103 出力部
54 画像取り込み部
55 抽出部
56、106 代表地点位置特定データ取得部
57、107 集計部
58、108 近似位置特定データ取得部
59、109 近似位置特定データ決定部
60 近接判断用距離範囲決定部
70 画像ファイル
70a 画像データ
70b 撮像時刻データ
70c 位置特定データ
71 近似位置特定データテーブル
72 登録テーブル
S Image processing system 1 Information processing device 2, 3 Imaging device 4 Image display device 5 USB cable 6 Memory card 7 HDMI cable 8 WAN
9 Server device 10, 30 CPU
11, 31 ROM
12, 32 RAM
13 Input / output device 13a Input interface 13b Input instruction unit 13c Card interface 13d, 39 USB interface 14 HDMI interface 15 Network interface 16 HDD unit 16a HDD interface 16b HDD
17, 40 Wireless LAN interface 20 Input device 21 USB device 22 HDMI output device 23 Router 37 Internal storage unit 50, 100 Control unit 51, 101 Storage unit 52, 52a, 102 Input unit 53, 53a, 103 Output unit 54 Image capturing unit 55 Extraction unit 56, 106 Representative point location specifying data acquisition unit 57, 107 Totaling unit 58, 108 Approximate location specifying data acquisition unit 59, 109 Approximate location specifying data determination unit 60 Proximity determination distance range determination unit 70 Image file 70a Image data 70b imaging time data 70c position specifying data 71 approximate position specifying data table 72 registration table

Claims (11)

撮像された際の撮像時刻データ及び位置特定データが関連付けられている画像データが複数格納された記憶部を有する情報処理装置において、
所定時間範囲内に存在する前記撮像時刻データが関連付けられた前記画像データを抽出する抽出部と、
前記抽出部により抽出された個々の前記画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得する代表地点位置特定データ取得部と、
前記代表地点位置特定データ取得部が取得した前記代表地点の前記位置特定データを集計する集計部と、
前記集計部の集計結果に基づいて、前記抽出部により抽出された前記画像データに関連付けられる少なくとも単一の近似位置特定データを取得する近似位置特定データ取得部と
を備えることを特徴とする情報処理装置。
In an information processing apparatus having a storage unit in which a plurality of image data associated with imaging time data and position specifying data at the time of imaging are stored,
An extraction unit for extracting the image data associated with the imaging time data existing within a predetermined time range;
A representative point position specifying data acquisition unit that acquires position specifying data of a representative point that matches or is close to the position specifying data associated with each of the image data extracted by the extraction unit;
A counting unit for counting the position specifying data of the representative points acquired by the representative point position specifying data acquiring unit;
An approximate position specifying data acquiring unit that acquires at least a single approximate position specifying data associated with the image data extracted by the extracting unit based on a counting result of the counting unit; apparatus.
前記近似位置特定データ取得部は、前記集計部の集計結果において最頻値であった前記代表地点の位置特定データを前記近似位置特定データとして取得する
ことを特徴とする請求項1記載の情報処理装置。
2. The information processing according to claim 1, wherein the approximate position specifying data acquisition unit acquires the position specifying data of the representative point that is the mode value in the counting result of the counting unit as the approximate position specifying data. apparatus.
前記記憶部内には複数の撮像装置により撮像された前記画像データが格納され、前記抽出部は、特定の前記撮像装置により撮像された画像データを抽出する
ことを特徴とする請求項1または2記載の情報処理装置。
3. The image data captured by a plurality of imaging devices is stored in the storage unit, and the extraction unit extracts image data captured by the specific imaging device. Information processing device.
前記代表地点位置特定データ取得部は、前記抽出部により抽出された個々の前記画像データに関連付けられた前記位置特定データに一致または近接する前記代表地点の位置特定データを複数取得した場合、受け付けた選択入力に基づいていずれか一つの前記代表地点の位置特定データを選択する
ことを特徴とする請求項1〜3のいずれかに記載の情報処理装置。
The representative point position specifying data acquisition unit has received a plurality of pieces of position specifying data of the representative point that match or are close to the position specifying data associated with each of the image data extracted by the extraction unit. 4. The information processing apparatus according to claim 1, wherein the position specifying data of any one of the representative points is selected based on a selection input.
前記代表地点位置特定データ取得部は、前記抽出部により抽出された個々の前記画像データに関連付けられた前記位置特定データに一致または近接する前記代表地点の位置特定データを複数取得した場合、前記抽出部により抽出された前記画像データを参照していずれか一つの前記代表地点の位置特定データを選択する
ことを特徴とする請求項1〜3のいずれかに記載の情報処理装置。
When the representative point position specifying data acquisition unit acquires a plurality of the position specifying data of the representative point that matches or is close to the position specifying data associated with the individual image data extracted by the extraction unit, the extraction The information processing apparatus according to claim 1, wherein position specifying data of any one of the representative points is selected with reference to the image data extracted by a unit.
前記代表地点位置特定データ取得部は、入力された近接判断用距離範囲に基づいて、前記抽出部により抽出された個々の前記画像データに関連付けられた前記位置特定データに一致または近接する前記代表地点の位置特定データを取得する
ことを特徴とする請求項1〜5のいずれかに記載の情報処理装置。
The representative point position specifying data acquisition unit is configured to match or approach the position specifying data associated with the individual image data extracted by the extracting unit based on the input proximity determination distance range. The information processing apparatus according to claim 1, wherein the position specifying data is acquired.
前記記憶部に格納された前記画像データに関連付けられた位置特定データに基づいて近接判断用距離範囲を決定する近接判断用距離範囲決定部を備え、
前記代表地点位置特定データ取得部は、前記近接判断用距離範囲決定部により決定された前記近接判断用距離範囲に基づいて、前記抽出部により抽出された個々の前記画像データに関連付けられた前記位置特定データに一致または近接する前記代表地点の位置特定データを取得する
ことを特徴とする請求項1〜5のいずれかに記載の情報処理装置。
A proximity determination distance range determining unit that determines a proximity determination distance range based on position specifying data associated with the image data stored in the storage unit;
The representative point position specifying data acquisition unit is configured to associate the position associated with each image data extracted by the extraction unit based on the proximity determination distance range determined by the proximity determination distance range determination unit. The information processing apparatus according to claim 1, wherein position specifying data of the representative point that matches or is close to the specific data is acquired.
入力されたユーザ情報に基づいてユーザ毎の近接判断用距離範囲を決定する近接判断用距離範囲決定部を備え、
前記代表地点位置特定データ取得部は、前記近接判断用距離範囲決定部により決定された前記近接判断用距離範囲に基づいて、前記抽出部により抽出された個々の前記画像データに関連付けられた前記位置特定データに一致または近接する前記代表地点の位置特定データを取得する
ことを特徴とする請求項1〜5のいずれかに記載の情報処理装置。
A proximity determination distance range determining unit that determines a proximity determination distance range for each user based on the input user information;
The representative point position specifying data acquisition unit is configured to associate the position associated with each image data extracted by the extraction unit based on the proximity determination distance range determined by the proximity determination distance range determination unit. The information processing apparatus according to claim 1, wherein position specifying data of the representative point that matches or is close to the specific data is acquired.
撮像された際の撮像時刻データ及び位置特定データが関連付けられている画像データが複数格納された記憶部を有する情報処理装置と、通信手段を介してこの情報処理装置と通信可能なサーバ装置とを備えた画像処理システムにおいて、
前記情報処理装置は、所定時間範囲内に存在する前記撮像時刻データが関連付けられた前記画像データを抽出する抽出部を備え、
前記サーバ装置は、
前記抽出部により抽出された個々の前記画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得する代表地点位置特定データ取得部と、
前記代表地点位置特定データ取得部が取得した前記代表地点の前記位置特定データを集計する集計部と、
前記集計部の集計結果に基づいて、前記抽出部により抽出された前記画像データに関連付けられる少なくとも単一の近似位置特定データを取得する近似位置特定データ取得部と
を備えることを特徴とする画像処理システム。
An information processing apparatus having a storage unit storing a plurality of image data associated with imaging time data and position specifying data at the time of imaging, and a server apparatus capable of communicating with the information processing apparatus via communication means In the provided image processing system,
The information processing apparatus includes an extraction unit that extracts the image data associated with the imaging time data existing within a predetermined time range,
The server device
A representative point position specifying data acquisition unit that acquires position specifying data of a representative point that matches or is close to the position specifying data associated with each of the image data extracted by the extraction unit;
A counting unit for counting the position specifying data of the representative points acquired by the representative point position specifying data acquiring unit;
An image processing method comprising: an approximate position specifying data acquisition unit that acquires at least a single approximate position specifying data associated with the image data extracted by the extraction unit based on a counting result of the counting unit system.
撮像された際の撮像時刻データ及び位置特定データが関連付けられている画像データが複数格納された記憶部を有する情報処理装置における画像処理方法であって、
所定時間範囲内に存在する前記撮像時刻データが関連付けられた前記画像データを抽出する工程と、
抽出された個々の前記画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得する工程と、
取得した前記代表地点の前記位置特定データを集計する工程と、
前記集計結果に基づいて、抽出された前記画像データに関連付けられる少なくとも単一の近似位置特定データを取得する工程と
を備えることを特徴とする情報処理装置における画像処理方法。
An image processing method in an information processing apparatus having a storage unit in which a plurality of image data associated with imaging time data and position specifying data at the time of imaging is stored,
Extracting the image data associated with the imaging time data existing within a predetermined time range; and
Obtaining position specifying data of a representative point that matches or is close to position specifying data associated with each extracted image data;
A step of counting the position specifying data of the acquired representative points;
An image processing method in an information processing apparatus, comprising: obtaining at least a single approximate position specifying data associated with the extracted image data based on the aggregation result.
撮像された際の撮像時刻データ及び位置特定データが関連付けられている画像データが複数格納された記憶部を有するコンピュータにより実行されるプログラムであって、
このプログラムはコンピュータにより実行されると、
所定時間範囲内に存在する前記撮像時刻データが関連付けられた前記画像データを抽出する工程と、
抽出された個々の前記画像データに関連付けられた位置特定データに一致または近接する代表地点の位置特定データを取得する工程と、
取得した前記代表地点の前記位置特定データを集計する工程と、
前記集計結果に基づいて、抽出された前記画像データに関連付けられる少なくとも単一の近似位置特定データを取得する工程と
を実行することを特徴とするプログラム。
A program that is executed by a computer having a storage unit that stores a plurality of image data associated with imaging time data and position specifying data at the time of imaging,
When this program is executed by a computer,
Extracting the image data associated with the imaging time data existing within a predetermined time range; and
Obtaining position specifying data of a representative point that matches or is close to position specifying data associated with each extracted image data;
A step of counting the position specifying data of the acquired representative points;
And a step of acquiring at least a single approximate position specifying data associated with the extracted image data based on the total result.
JP2013199461A 2013-09-26 2013-09-26 Information processing apparatus, image processing system, image processing method and program in information processing apparatus Active JP6179315B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013199461A JP6179315B2 (en) 2013-09-26 2013-09-26 Information processing apparatus, image processing system, image processing method and program in information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013199461A JP6179315B2 (en) 2013-09-26 2013-09-26 Information processing apparatus, image processing system, image processing method and program in information processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017131385A Division JP6436191B2 (en) 2017-07-04 2017-07-04 Server apparatus, information processing method and program using server apparatus

Publications (2)

Publication Number Publication Date
JP2015064824A true JP2015064824A (en) 2015-04-09
JP6179315B2 JP6179315B2 (en) 2017-08-16

Family

ID=52832629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013199461A Active JP6179315B2 (en) 2013-09-26 2013-09-26 Information processing apparatus, image processing system, image processing method and program in information processing apparatus

Country Status (1)

Country Link
JP (1) JP6179315B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018521546A (en) * 2015-05-18 2018-08-02 ゼップ ラブズ、インコーポレイテッド Multi-angle video editing based on cloud video sharing

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6436191B2 (en) * 2017-07-04 2018-12-12 株式会社バッファロー Server apparatus, information processing method and program using server apparatus
CN114149814B (en) * 2022-02-09 2022-06-03 东营联合石化有限责任公司 Raw coke decoking conversion device for automatic bottom cover machine of coke tower

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030031A (en) * 2002-06-24 2004-01-29 Fuji Photo Film Co Ltd Photographing status management server, photographing status management system, and photographing status management program
JP2006258441A (en) * 2005-03-15 2006-09-28 Sony Corp Spot searching device and spot searching method
WO2007013432A1 (en) * 2005-07-26 2007-02-01 Matsushita Electric Industrial Co., Ltd. Image data management device and image data management method
JP2010283802A (en) * 2009-05-01 2010-12-16 Canon Inc Image processing apparatus, and method of managing images
JP2011095867A (en) * 2009-10-28 2011-05-12 Hitachi Ltd Highlight spot distribution method and device
JP2011137638A (en) * 2009-12-25 2011-07-14 Toshiba Corp Navigation system, sightseeing spot detecting device, navigation device, sightseeing spot detecting method, navigation method, sightseeing spot detecting program, and navigation program
WO2012172663A1 (en) * 2011-06-15 2012-12-20 リプレックス株式会社 Image information processing system
JP2013084104A (en) * 2011-10-07 2013-05-09 Panasonic Corp Position information registration device, position information registration method and electronic equipment

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030031A (en) * 2002-06-24 2004-01-29 Fuji Photo Film Co Ltd Photographing status management server, photographing status management system, and photographing status management program
JP2006258441A (en) * 2005-03-15 2006-09-28 Sony Corp Spot searching device and spot searching method
WO2007013432A1 (en) * 2005-07-26 2007-02-01 Matsushita Electric Industrial Co., Ltd. Image data management device and image data management method
JP2010283802A (en) * 2009-05-01 2010-12-16 Canon Inc Image processing apparatus, and method of managing images
JP2011095867A (en) * 2009-10-28 2011-05-12 Hitachi Ltd Highlight spot distribution method and device
JP2011137638A (en) * 2009-12-25 2011-07-14 Toshiba Corp Navigation system, sightseeing spot detecting device, navigation device, sightseeing spot detecting method, navigation method, sightseeing spot detecting program, and navigation program
WO2012172663A1 (en) * 2011-06-15 2012-12-20 リプレックス株式会社 Image information processing system
JP2013084104A (en) * 2011-10-07 2013-05-09 Panasonic Corp Position information registration device, position information registration method and electronic equipment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
帆足 啓一郎、外3名: "画像類似度を利用した位置情報付き写真データへのランドマーク情報付与手法", 情報処理学会論文誌 論文誌トランザクション 平成21年度(1) [CD−ROM], vol. 第2巻,第3号, JPN6017013185, 20 November 2009 (2009-11-20), JP, pages 41 - 52, ISSN: 0003580510 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018521546A (en) * 2015-05-18 2018-08-02 ゼップ ラブズ、インコーポレイテッド Multi-angle video editing based on cloud video sharing

Also Published As

Publication number Publication date
JP6179315B2 (en) 2017-08-16

Similar Documents

Publication Publication Date Title
US9584694B2 (en) Predetermined-area management system, communication method, and computer program product
JP5615191B2 (en) Image management apparatus, image management apparatus control method, and program
US20130120450A1 (en) Method and apparatus for providing augmented reality tour platform service inside building by using wireless communication device
CN103685960A (en) Method and system for processing image with matched position information
WO2014112138A1 (en) Information processing device, information processing system, and information processing program
US20130135464A1 (en) Imaging apparatus, display method, and storage medium
US20150189118A1 (en) Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program
JP6179315B2 (en) Information processing apparatus, image processing system, image processing method and program in information processing apparatus
CN111832579A (en) Map interest point data processing method and device, electronic equipment and readable medium
US20120203506A1 (en) Information processing apparatus, control method therefor, and non-transitory computer readable storage medium
JP2010129032A (en) Device and program for retrieving image
JP6115113B2 (en) Predetermined area management system, predetermined area management method, and program
JP2012253421A (en) Image display device, imaging apparatus, and image display program
KR20110094970A (en) Method and apparatus for managing tag of multimedia content
JP6436191B2 (en) Server apparatus, information processing method and program using server apparatus
JP5708868B1 (en) Program, information processing apparatus and method
US20160253357A1 (en) Information terminal, image server, image search system, and image search method
US11301512B2 (en) Content management device, content management system, and control method
JP6314465B2 (en) Information processing apparatus, image processing system, data display method and program in information processing apparatus
JP6394729B2 (en) Information processing apparatus, music data extraction method in information processing apparatus, program, and information processing system
JP2010021885A (en) Imaging device, and imaging support method
KR20170025732A (en) Apparatus for presenting travel record, method thereof and computer recordable medium storing the method
JP2008225353A (en) Image display system, image display method, and program
JP5636983B2 (en) Image output apparatus, image output method, and program
JP2010152549A (en) Video display control method, device and program, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170703

R150 Certificate of patent or registration of utility model

Ref document number: 6179315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250