JP2014192746A - Information processing apparatus, display method in information processing apparatus and program - Google Patents

Information processing apparatus, display method in information processing apparatus and program Download PDF

Info

Publication number
JP2014192746A
JP2014192746A JP2013067131A JP2013067131A JP2014192746A JP 2014192746 A JP2014192746 A JP 2014192746A JP 2013067131 A JP2013067131 A JP 2013067131A JP 2013067131 A JP2013067131 A JP 2013067131A JP 2014192746 A JP2014192746 A JP 2014192746A
Authority
JP
Japan
Prior art keywords
imaging
image
image file
time data
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013067131A
Other languages
Japanese (ja)
Other versions
JP6089865B2 (en
Inventor
Masayuki Nemoto
将幸 根本
賢治 ▲高▼橋
Kenji Takahashi
Isato Kato
勇人 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Buffalo Inc
Original Assignee
Buffalo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Buffalo Inc filed Critical Buffalo Inc
Priority to JP2013067131A priority Critical patent/JP6089865B2/en
Publication of JP2014192746A publication Critical patent/JP2014192746A/en
Application granted granted Critical
Publication of JP6089865B2 publication Critical patent/JP6089865B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily and accurately correct imaging time data of image files imaged by a plurality of imaging devices.SOLUTION: An information processing apparatus comprises: a frequency calculation unit which calculates frequencies of image files whose imaging times are included within a prescribed time range on the basis of imaging time data; a correction value calculation unit which compares the frequencies of the image files calculated by the frequency calculation unit for each imaging device and calculates the correction value of the imaging time data of an image file imaged by another imaging device with respect to the imaging time data of an image file imaged by one imaging device so that the frequencies match each other; and a display control unit which generates a screen display signal for displaying a display screen displaying a plurality of image files according to the transition of time by correcting the imaging time data with the correction value calculated by the correction value calculation unit.

Description

本発明は、撮像時刻データを含む画像ファイルを表示させる情報処理装置、情報処理装置における表示方法及びプログラムに関する。   The present invention relates to an information processing apparatus that displays an image file including imaging time data, a display method in the information processing apparatus, and a program.

デジタルカメラに代表される撮像装置は、被写体を撮像した結果として画像データを含む画像ファイルを生成する際に、撮像時の様々な付属データをこの画像ファイル内に保存することが多い。このような付属データを画像ファイル内に保存する規格として、Exif(Exchangeable Image Format)と呼ばれる規格が知られている(非特許文献1参照)Exif規格によれば、撮像装置により画像データを撮像した撮像日時データを含む付属データは、Exifファイルのヘッダ部分に格納される。   When an imaging device typified by a digital camera generates an image file including image data as a result of imaging a subject, various attached data at the time of imaging are often stored in the image file. As a standard for storing such attached data in an image file, a standard called Exif (Exchangeable Image Format) is known (see Non-Patent Document 1). According to the Exif standard, image data is captured by an imaging device. The attached data including the imaging date / time data is stored in the header portion of the Exif file.

撮像装置が画像ファイル内に撮像日時データを保存する場合、この撮像日時データは撮像装置の内部時計に基づいて付与されることが多い。撮像装置がGPS(Global Positioning System)モジュールを搭載している場合、GPSシステムの衛星から供給される時刻情報に基づいて内部時計を修正することはあるものの、GPSモジュールを搭載していない撮像装置の場合、撮像装置の初期設定において内部時計を設定した以降はユーザが積極的に時間合わせをすることは期待できない。一般的な撮像装置の内部時計は月差数十秒程度の誤差を生じ、また、この誤差も撮像装置毎の個体差があるため、複数の撮像装置で同時に被写体を撮像しても、画像ファイルに保存される撮像日時データが全く同一であることは保証しにくい。   When the imaging device stores imaging date / time data in an image file, the imaging date / time data is often given based on an internal clock of the imaging device. When the imaging device is equipped with a GPS (Global Positioning System) module, the internal clock may be corrected based on time information supplied from the satellite of the GPS system, but the imaging device not equipped with the GPS module In this case, after setting the internal clock in the initial setting of the imaging apparatus, the user cannot be expected to actively adjust the time. An internal clock of a general image pickup device generates an error of about several tens of seconds per month, and this error also varies depending on the image pickup device. It is difficult to guarantee that the imaging date and time data stored in is exactly the same.

複数の撮像装置において内部時計のずれが生じることに基づく現象としては次のようなものが挙げられる。結婚式の披露宴など、複数の撮像装置で同じ被写体を同時に撮像し、後日、これら撮像装置により撮像された画像ファイルを持ち寄ってまとめて視聴することがある。このような視聴の際には、いわゆるスライドショーと呼ばれる、複数の画像ファイルを撮像日時データの順に配列し、各々の画像ファイルを所定時間(例えば数秒)ずつ撮像日時データの順に表示する形態で画像ファイルが表示されることがある。ここで、複数の撮像装置において内部時計のずれが生じている場合、同じイベントをほぼ同時に複数の撮像装置で撮像しているにもかかわらず、実際のイベントの詳細な生起順通りにスライドショーによる画像ファイルの表示がされない可能性が生じる。   As a phenomenon based on the occurrence of a shift of the internal clock in a plurality of imaging devices, the following may be mentioned. In some cases, the same subject is imaged simultaneously by a plurality of imaging devices, such as a wedding reception, and the image files captured by these imaging devices are brought together for viewing at a later date. In such viewing, a so-called slide show, a plurality of image files are arranged in order of imaging date / time data, and each image file is displayed in order of imaging date / time data for a predetermined time (for example, several seconds). May be displayed. Here, when the internal clock is shifted in a plurality of imaging devices, the slide show images are displayed in the order in which the actual events occur in detail, even though the same event is captured by the plurality of imaging devices almost simultaneously. The file may not be displayed.

かかる現象に鑑みて、複数の撮像装置により撮像された画像ファイルの撮像日時データのずれに対応した画像表示を行える技術が提案されている。一例として、複数の撮像装置により撮像された画像ファイルのうち類似度の高い画像ファイルを抽出し、一方の画像ファイルの撮像日時データを基準として他方の画像ファイルの撮像日時データを補正する技術(特許文献1参照)、複数の撮像装置で撮像された画像ファイルを撮像日時データ順に一覧表示し、撮影順が正しくないと判断できる画像ファイルについて画面上で手作業で移動させて修正する技術(特許文献2参照)、さらに、同一の被写体を撮像した基準撮影画像を抽出し、いずれかの撮像装置により撮像された基準撮影画像の撮像日時データに合わせて他の撮像装置により撮像された基準撮影画像の撮像日時データを修正する技術(特許文献3参照)がある。   In view of such a phenomenon, there has been proposed a technique capable of displaying an image corresponding to a shift in imaging date / time data of image files captured by a plurality of imaging devices. As an example, a technique of extracting an image file having a high degree of similarity from among image files captured by a plurality of imaging devices and correcting the imaging date / time data of the other image file based on the imaging date / time data of one image file (patent) Reference 1), a technique of displaying a list of image files captured by a plurality of imaging devices in the order of imaging date and time, and correcting the image files that can be determined to be inaccurate by moving them manually on the screen (Patent Document) 2), and further, a reference photographic image obtained by imaging the same subject is extracted, and a reference photographic image captured by another imaging device in accordance with imaging date / time data of the reference photographic image captured by any of the imaging devices is extracted. There is a technique for correcting imaging date / time data (see Patent Document 3).

特開2011−9976号公報JP 2011-9976 A 特開2009−267600号公報JP 2009-267600 A 特開2009−88677号公報JP 2009-88677 A

「Exif Printとは[Exifとは]」[平成25年2月25日検索]、インターネット<URL:http://www.cipa.jp/exifprint/contents_j/01exif1_j.html>“What is Exif Print [What is Exif?]” [Search February 25, 2013], Internet <URL: http: //www.cipa.jp/exifprint/contents_j/01exif1_j.html>

しかしながら、上述した従来の技術は、いずれも撮像日時データの補正に手間を要し、あるいは、撮像日時データの補正を的確に行えない可能性があった。   However, any of the above-described conventional techniques requires time and effort to correct the imaging date / time data, or the imaging date / time data may not be corrected accurately.

例えば、特許文献1及び特許文献3に記載された技術では、画像ファイルの類似度を算出して同一の被写体を撮像したと推測される画像ファイルはほぼ同時に撮像されたものとみなし、撮像日時データを補正していた。しかしながら、複数の撮像装置において同一の被写体を撮像している場合でも、同一の被写体が同時に撮像されるとは限らない。また、特徴的なシーン(例えば披露宴におけるケーキカットの瞬間)のようにほぼ同時に撮像したとみなせる場合もあるが、この場合であっても、複数の撮像装置により似通った構図で撮像されるとも限らない。従って、特許文献1及び特許文献3に記載された技術では、撮像日時データの補正を的確に行えない可能性があった。   For example, in the techniques described in Patent Document 1 and Patent Document 3, image files that are estimated to have captured the same subject by calculating the similarity of the image files are considered to have been captured almost simultaneously, and the imaging date / time data Was corrected. However, even when the same subject is captured by a plurality of imaging devices, the same subject is not always captured simultaneously. In addition, there are cases where it can be considered that images are captured almost simultaneously like a characteristic scene (for example, the moment of cake cut at a reception), but even in this case, images may be captured with a similar composition by a plurality of imaging devices. Absent. Therefore, the techniques described in Patent Literature 1 and Patent Literature 3 may not be able to accurately correct the imaging date / time data.

また、特許文献2に記載された技術では、画像ファイルを手作業で移動させて撮像日時データを修正していたので、撮像日時データの補正に手間を要していた。   In the technique described in Patent Document 2, since the image date / time data is corrected by moving the image file manually, it takes time and effort to correct the image date / time data.

本発明は、上述した課題に鑑みてなされたもので、複数の撮像装置により撮像された画像ファイルの撮像時刻データを簡易にかつ的確に補正することの可能な情報処理装置、情報処理装置における表示方法及びプログラムを提供することを目的の一つとしている。   The present invention has been made in view of the above-described problems, and is an information processing apparatus capable of easily and accurately correcting image capturing time data of image files captured by a plurality of image capturing apparatuses, and a display in the information processing apparatus. One of the purposes is to provide a method and a program.

本発明は、複数の撮像装置により撮像され、画像データ及びこの画像データの撮像時刻データを含む複数の画像ファイルが格納された記憶部を有する情報処理装置に適用される。そして、撮像時刻データに基づいて、所定の時間範囲内に撮像時刻が含まれる画像ファイルの頻度を算出する頻度算出部と、頻度算出部により算出された画像ファイルの頻度を撮像装置毎に比較し、この頻度が合致するように、一の撮像装置により撮像された画像ファイルの撮像時刻データに対する他の撮像装置により撮像された画像ファイルの撮像時刻データの補正値を算出する補正値算出部と、補正値算出部により算出された補正値により撮像時刻データを補正して、複数の画像ファイルを時間の推移に従って表示する表示画面を表示するための画面表示用信号を生成する表示制御部と、画面表示用信号を出力する出力部とを設けることにより、上述した課題の少なくとも一部を解決している。   The present invention is applied to an information processing apparatus having a storage unit that is captured by a plurality of imaging devices and stores a plurality of image files including image data and imaging time data of the image data. Then, based on the imaging time data, the frequency calculation unit that calculates the frequency of the image file that includes the imaging time within a predetermined time range and the frequency of the image file calculated by the frequency calculation unit are compared for each imaging device. A correction value calculation unit that calculates a correction value of imaging time data of an image file imaged by another imaging device with respect to imaging time data of an image file imaged by one imaging device so that this frequency matches, A display control unit that corrects the imaging time data using the correction value calculated by the correction value calculation unit, and generates a screen display signal for displaying a display screen that displays a plurality of image files according to a transition of time; and a screen By providing an output unit that outputs a display signal, at least a part of the above-described problems is solved.

頻度算出部は、撮像時刻データに基づいて、所定の時間範囲内に撮像時刻が含まれる画像ファイルの頻度を算出し、補正値算出部は、頻度算出部により算出された画像ファイルの頻度を撮像装置毎に比較し、この頻度が合致するように、一の撮像装置により撮像された画像ファイルの撮像時刻データに対する他の撮像装置により撮像された画像ファイルの撮像時刻データの補正値を算出する。従って、表示制御部が、補正値算出部により算出された補正値により撮像時刻データを補正して、複数の画像ファイルを時間の推移に従って表示する表示画面を表示するための画面表示用信号を生成すると、この画面表示用信号に基づいて生成された表示画面においては、撮像装置の内部時計のずれに基づく撮像時刻データのずれが補正された状態で画像ファイルが表示される。   The frequency calculation unit calculates the frequency of the image file including the imaging time within a predetermined time range based on the imaging time data, and the correction value calculation unit captures the frequency of the image file calculated by the frequency calculation unit. Comparing each device, the correction value of the imaging time data of the image file captured by the other imaging device is calculated with respect to the imaging time data of the image file captured by the one imaging device so that this frequency matches. Therefore, the display control unit corrects the imaging time data with the correction value calculated by the correction value calculation unit, and generates a screen display signal for displaying a display screen that displays a plurality of image files according to the transition of time. Then, on the display screen generated based on the screen display signal, the image file is displayed in a state where the shift of the imaging time data based on the shift of the internal clock of the imaging device is corrected.

ここで、補正値算出部は、他の撮像装置のうち少なくとも一つの撮像装置により撮像された画像ファイルの撮像時刻データに差分値を加減し、頻度算出部により算出された画像ファイルの頻度を撮像装置毎に比較してこの頻度が一致した差分値を補正値として出力することが好ましい。   Here, the correction value calculation unit adds or subtracts the difference value to the imaging time data of the image file captured by at least one of the other imaging devices, and captures the frequency of the image file calculated by the frequency calculation unit. It is preferable to output a difference value having the same frequency compared with each device as a correction value.

また、情報処理装置は、撮像時刻データに基づいて、撮像装置毎に、複数の画像ファイルを時間軸上に配列する配列部を備えることが好ましい。この場合、頻度算出部は、時間軸上にそれぞれ略等しい時間範囲を有する時間区間を設け、配列部により配列された状態で、時間区間毎に撮像時刻が含まれる画像ファイルの頻度を撮像時刻データに基づいて算出することが好ましい。さらに、補正値算出部は、頻度算出部が算出した時間区間毎の画像ファイルの頻度を撮像装置毎に比較し、この頻度が合致するように、一の撮像装置により撮像された画像ファイルの撮像時刻データに対する他の撮像装置により撮像された画像ファイルの撮像時刻データの補正値を算出することが好ましい。   The information processing apparatus preferably includes an arrangement unit that arranges a plurality of image files on the time axis for each imaging apparatus based on the imaging time data. In this case, the frequency calculation unit provides time intervals each having substantially the same time range on the time axis, and in the state arranged by the arrangement unit, the frequency of the image file including the imaging time for each time interval is obtained as the imaging time data. It is preferable to calculate based on Further, the correction value calculation unit compares the frequency of the image file for each time interval calculated by the frequency calculation unit for each imaging device, and captures the image file captured by one imaging device so that the frequency matches. It is preferable to calculate a correction value of imaging time data of an image file captured by another imaging device with respect to time data.

そして、情報処理装置は、補正値算出部により算出された補正値により撮像時刻データを更新して記憶部に格納する撮像時刻更新部を備えることが好ましい。   The information processing apparatus preferably includes an imaging time update unit that updates the imaging time data with the correction value calculated by the correction value calculation unit and stores the data in the storage unit.

また、本発明は、複数の撮像装置により撮像され、画像データ及びこの画像データの撮像時刻データを含む複数の画像ファイルが格納された記憶部を有する情報処理装置における表示方法に適用される。そして、撮像時刻データに基づいて、所定の時間範囲内に撮像時刻が含まれる画像ファイルの頻度を算出する工程と、算出された画像ファイルの頻度を撮像装置毎に比較し、この頻度が合致するように、一の撮像装置により撮像された画像ファイルの撮像時刻データに対する他の撮像装置により撮像された画像ファイルの撮像時刻データの補正値を算出する工程と、算出された補正値により撮像時刻データを補正して、複数の画像ファイルを時間の推移に従って表示する表示画面を表示するための画面表示用信号を生成する工程と、この画面表示用信号を出力する工程とを設けることにより、上述した課題の少なくとも一部を解決している。   In addition, the present invention is applied to a display method in an information processing apparatus having a storage unit that is captured by a plurality of imaging devices and stores a plurality of image files including image data and imaging time data of the image data. Then, based on the imaging time data, the step of calculating the frequency of the image file including the imaging time within a predetermined time range is compared with the frequency of the calculated image file for each imaging device, and this frequency matches. As described above, the step of calculating the correction value of the imaging time data of the image file captured by the other imaging device with respect to the imaging time data of the image file captured by the one imaging device, and the imaging time data by the calculated correction value And generating a screen display signal for displaying a display screen for displaying a plurality of image files according to a transition of time, and a step of outputting the screen display signal as described above. Solves at least some of the challenges.

さらに、本発明は、複数の撮像装置により撮像され、画像データ及びこの画像データの撮像時刻データを含む複数の画像ファイルが格納された記憶部を有するコンピュータにより実行されるプログラムに適用される。そして、このプログラムは、コンピュータにより実行されると、撮像時刻データに基づいて、所定の時間範囲内に撮像時刻が含まれる画像ファイルの頻度を算出する工程と、算出された画像ファイルの頻度を撮像装置毎に比較し、この頻度が合致するように、一の撮像装置により撮像された画像ファイルの撮像時刻データに対する他の撮像装置により撮像された画像ファイルの撮像時刻データの補正値を算出する工程と、算出された補正値により撮像時刻データを補正して、複数の画像ファイルを時間の推移に従って表示する表示画面を表示するための画面表示用信号を生成する工程と、この画面表示用信号を出力する工程とを設けることにより、上述した課題の少なくとも一部を解決している。   Furthermore, the present invention is applied to a program executed by a computer having a storage unit that is imaged by a plurality of imaging devices and stores a plurality of image files including image data and imaging time data of the image data. When this program is executed by a computer, the program calculates the frequency of an image file whose imaging time is included within a predetermined time range based on the imaging time data, and images the calculated frequency of the image file. The step of calculating the correction value of the imaging time data of the image file captured by another imaging device with respect to the imaging time data of the image file captured by one imaging device so that this frequency is matched for each device And correcting the imaging time data with the calculated correction value to generate a screen display signal for displaying a display screen for displaying a plurality of image files according to the transition of time, and the screen display signal By providing the output step, at least a part of the above-described problems is solved.

本発明によれば、画像ファイルに含まれる被写体や構図によらず、画像ファイルの撮像時刻データを適切に補正することができる。また、操作者が手作業で類似する画像ファイルを選択して修正するような手間を省くことができる。よって、本発明の情報処理装置によれば、複数の撮像装置により撮像された画像ファイルの撮像時刻データを簡易にかつ的確に補正することが可能となる。   According to the present invention, it is possible to appropriately correct imaging time data of an image file regardless of the subject and composition included in the image file. Further, it is possible to save the operator from manually selecting and correcting a similar image file. Therefore, according to the information processing apparatus of the present invention, it is possible to easily and accurately correct imaging time data of image files captured by a plurality of imaging apparatuses.

本発明の一実施形態である情報処理装置を含む画像表示システムの概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an image display system including an information processing apparatus according to an embodiment of the present invention. 本発明の一実施形態である情報処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the information processing apparatus which is one Embodiment of this invention. 一実施形態の情報処理装置の機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of the information processing apparatus of one Embodiment. 一実施形態の情報処理装置に適用される画像ファイルのデータ構造を示す図である。It is a figure which shows the data structure of the image file applied to the information processing apparatus of one Embodiment. 一実施形態の情報処理装置に適用される評価値テーブルのデータ構造を示す図である。It is a figure which shows the data structure of the evaluation value table applied to the information processing apparatus of one Embodiment. 一実施形態の情報処理装置に適用される登録テーブルのデータ構造を示す図である。It is a figure which shows the data structure of the registration table applied to the information processing apparatus of one Embodiment. 一実施形態の情報処理装置における補正値算出手順の一例を説明するための図である。It is a figure for demonstrating an example of the correction value calculation procedure in the information processing apparatus of one Embodiment. 一実施形態の情報処理装置における補正値算出手順の他の例を説明するための図である。It is a figure for demonstrating the other example of the correction value calculation procedure in the information processing apparatus of one Embodiment. 一実施形態の情報処理装置における補正値算出手順のまた他の例を説明するための図である。It is a figure for demonstrating the other example of the correction value calculation procedure in the information processing apparatus of one Embodiment. 一実施形態の情報処理装置における補正値算出手順のさらに他の例を説明するための図である。It is a figure for demonstrating the further another example of the correction value calculation procedure in the information processing apparatus of one Embodiment. 一実施形態の情報処理装置における機器登録または機器追従の手順の一例を説明するための図である。It is a figure for demonstrating an example of the procedure of the apparatus registration or apparatus follow-up in the information processing apparatus of one Embodiment. 一実施形態の情報処理装置の動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of operation | movement of the information processing apparatus of one Embodiment. 一実施形態の情報処理装置の機器登録動作の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the apparatus registration operation | movement of the information processing apparatus of one Embodiment. 一実施形態の情報処理装置の補正処理動作の一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of a correction processing operation of the information processing apparatus according to the embodiment.

以下、図面を参照して、本発明の実施形態である情報処理装置について説明する。
(一実施形態)
図1は、本発明の一実施形態である情報処理装置を含む画像表示システムの概略構成を示す図である。図1において、一実施形態の情報処理装置を含む画像表示システムは、情報処理装置1、第1の撮像装置2、第2の撮像装置3及び画像表示装置4を備える。
Hereinafter, an information processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
(One embodiment)
FIG. 1 is a diagram showing a schematic configuration of an image display system including an information processing apparatus according to an embodiment of the present invention. In FIG. 1, an image display system including an information processing apparatus according to an embodiment includes an information processing apparatus 1, a first imaging apparatus 2, a second imaging apparatus 3, and an image display apparatus 4.

情報処理装置1は、少なくとも第2の撮像装置3により撮像された画像ファイルの撮像時刻データに対して補正を行う。情報処理装置1の詳細については後述する。第1の撮像装置2は、被写体を撮像して第1の画像ファイルを生成し、その際、この第1の画像ファイルの一部に撮像時刻データの一例である撮影日時データ及びGPSデータを付与する。特に、本実施形態においては、第1の撮像装置2は、GPSデータ取得の際にGPS衛星から入手した時刻情報に基づいて内部時計を定期的に時刻合わせしており、従って、第1の画像ファイルに付与する撮影日時データは正確なものであると考えることができる。第1の撮像装置2は、例えばスマートフォンやGPS装置が搭載されたデジタルスチルカメラである。第2の撮像装置3は、被写体を撮像して第2の画像ファイルを生成し、その際、この第2の画像ファイルの一部に撮像時刻データの一例である撮影日時データを付与する。第2の撮像装置3は、例えばGPS装置が搭載されていないデジタルスチルカメラである。   The information processing device 1 corrects at least the imaging time data of the image file captured by the second imaging device 3. Details of the information processing apparatus 1 will be described later. The first imaging device 2 captures a subject and generates a first image file. At that time, imaging date / time data and GPS data, which are examples of imaging time data, are added to a part of the first image file. To do. In particular, in the present embodiment, the first imaging device 2 periodically adjusts the internal clock based on the time information obtained from the GPS satellite at the time of GPS data acquisition. It can be considered that the shooting date and time data given to the file is accurate. The first imaging device 2 is, for example, a digital still camera equipped with a smartphone or a GPS device. The second imaging device 3 captures a subject and generates a second image file. At that time, imaging date / time data, which is an example of imaging time data, is assigned to a part of the second image file. The second imaging device 3 is, for example, a digital still camera that is not equipped with a GPS device.

第1及び第2の撮像装置2、3によって撮像された第1及び第2の画像ファイルは、一例として、データ転送ケーブルの一例であるUSB(Universal Serial Bus)ケーブル5により情報処理装置1に取り込まれる。あるいは、第1、第2の撮像装置2、3によって撮像された第1及び第2の画像ファイルはメモリーカード6に格納され、このメモリーカード6が情報処理装置1に挿入されることにより情報処理装置1に取り込まれる。   As an example, the first and second image files captured by the first and second imaging devices 2 and 3 are taken into the information processing device 1 by a USB (Universal Serial Bus) cable 5 which is an example of a data transfer cable. It is. Alternatively, the first and second image files picked up by the first and second image pickup devices 2 and 3 are stored in the memory card 6, and information processing is performed by inserting the memory card 6 into the information processing device 1. It is taken into the device 1.

画像表示装置4は、一例として、データ転送ケーブルの一例であるHDMI(High Definition Multimedia Interface)(登録商標)ケーブル7により情報処理装置1に接続されている。情報処理装置1から出力される画像表示用信号はこのHDMIケーブル7を介して画像表示装置4に入力され、画像表示装置4は、入力された画像表示用信号に基づいてその表示画面4aに画像を表示する。あるいは、画像表示装置4は、コンポジット映像信号の送受信が可能なRCA端子を有するケーブル、S端子を有するケーブルにより情報処理装置1に接続されてもよく、さらには、画像表示信号4は、コンポーネント映像信号の送受信が可能なD端子を有するケーブルにより情報処理装置1に接続されてもよい。画像表示装置4は、例えばTVやモニタである。   As an example, the image display device 4 is connected to the information processing device 1 by an HDMI (High Definition Multimedia Interface) (registered trademark) cable 7 which is an example of a data transfer cable. The image display signal output from the information processing apparatus 1 is input to the image display apparatus 4 via the HDMI cable 7, and the image display apparatus 4 displays an image on the display screen 4a based on the input image display signal. Is displayed. Alternatively, the image display device 4 may be connected to the information processing device 1 by a cable having an RCA terminal capable of transmitting and receiving a composite video signal, and a cable having an S terminal. The information processing apparatus 1 may be connected by a cable having a D terminal capable of transmitting and receiving signals. The image display device 4 is, for example, a TV or a monitor.

(一実施形態の情報処理装置の構成)
図2は、本発明の一実施形態である情報処理装置1の概略構成を示すブロック図である。図2において、本実施形態の情報処理装置1は、CPU(Central Processing Unit)10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、入出力デバイス13、HDMIインタフェース(I/F)14、ネットワークインタフェース(I/F)15及びHDD(Hard Disk Drive)部16を備えており、これらはバスにより互いに接続されている。
(Configuration of information processing apparatus according to one embodiment)
FIG. 2 is a block diagram showing a schematic configuration of the information processing apparatus 1 according to the embodiment of the present invention. 2, an information processing apparatus 1 according to the present embodiment includes a CPU (Central Processing Unit) 10, a ROM (Read Only Memory) 11, a RAM (Random Access Memory) 12, an input / output device 13, and an HDMI interface (I / F). 14, a network interface (I / F) 15 and an HDD (Hard Disk Drive) unit 16, which are connected to each other by a bus.

CPU10は、後述するROM11内に格納されたファームウェア等のプログラムが実行されることにより、情報処理装置1全体の制御を行う。また、CPU10は、ROM11内に格納されたプログラムが実行されることにより、図3に示すような各機能部としても動作する。図3に示す各機能部の動作については後述する。ROM11には、上述したファームウェア等のプログラムが格納されている。RAM12は情報処理装置1のワークメモリとして機能し、CPU10を含めた情報処理装置1の動作時に一時的に使用されるプログラム、データ等が格納される。   The CPU 10 controls the entire information processing apparatus 1 by executing a program such as firmware stored in the ROM 11 described later. Further, the CPU 10 also operates as each functional unit as shown in FIG. 3 by executing a program stored in the ROM 11. The operation of each functional unit shown in FIG. 3 will be described later. The ROM 11 stores programs such as the firmware described above. The RAM 12 functions as a work memory of the information processing apparatus 1 and stores programs, data, and the like that are temporarily used during the operation of the information processing apparatus 1 including the CPU 10.

入出力デバイス13は、入力インタフェース(I/F)13a、入力指示部13b、カードインタフェース(I/F)13c及びUSBインタフェース(I/F)13dを備える。入力インタフェース13aには入力指示部13b及び入力機器20が接続され、ユーザが入力指示部13bまたは入力機器20を操作することにより入力される入力信号を受信する。入力指示部13bとしては、例えば画像取り込み指示ボタン等が挙げられ、また、入力機器20としては、例えばリモコン、キーボード、マウス等が挙げられる。カードインタフェース13cはカードスロット(図略)を備え、このカードスロットに挿入されたメモリーカード6に対してデータの読み出し/書き込みを行う。メモリーカード6の形式に限定はなく、一例としてmini、microを含むSDメモリーカード、メモリースティック(登録商標)が好適に挙げられる。USBインタフェース13dはUSBコネクタ(図略)を備え、このUSBコネクタに直接、あるいはUSBケーブル5を介して接続されたUSB機器21に対してデータの読み出し/書き込みを行う。USB機器21としては、USBフラッシュメモリ、USBコネクタを備えた第1及び第2の撮像装置2、3が挙げられる。   The input / output device 13 includes an input interface (I / F) 13a, an input instruction unit 13b, a card interface (I / F) 13c, and a USB interface (I / F) 13d. An input instruction unit 13b and an input device 20 are connected to the input interface 13a, and an input signal input by the user operating the input instruction unit 13b or the input device 20 is received. Examples of the input instruction unit 13b include an image capture instruction button, and examples of the input device 20 include a remote controller, a keyboard, and a mouse. The card interface 13c includes a card slot (not shown), and reads / writes data from / to the memory card 6 inserted in the card slot. The format of the memory card 6 is not limited, and examples thereof include an SD memory card including mini and micro, and a Memory Stick (registered trademark). The USB interface 13d includes a USB connector (not shown), and reads / writes data from / to the USB device 21 connected to the USB connector directly or via the USB cable 5. Examples of the USB device 21 include first and second imaging devices 2 and 3 having a USB flash memory and a USB connector.

HDMIインタフェース14はHDMIコネクタ(図略)を備え、このHDMIコネクタにHDMIケーブル(図略)を介して接続されたHDMI出力機器22に対してAVストリーム(映像信号及び音声信号)を出力する。HDMI出力機器22としては、例えば画像表示装置4が挙げられる。ネットワークインタフェース15はネットワークコネクタ(図略)を備え、このネットワークコネクタにネットワークケーブル(図略)を介してルータ23が接続され、このルータ16がインターネット等のWAN(Wide Area Network)24に接続されることで、外部ネットワークとの間でデータの送受信がされる。このネットワークインタフェース15は、例えばIEEE(The Institute of Electrical and Electronics Engineers, Inc.)802.3規格に基づく有線通信を行うものである。あるいは、ネットワークインタフェース15は、IEEE802.11規格に基づく無線通信を行うものであってもよく、あるいは、有線/無線通信のいずれも行うものであってもよい。   The HDMI interface 14 includes an HDMI connector (not shown), and outputs an AV stream (video signal and audio signal) to the HDMI output device 22 connected to the HDMI connector via an HDMI cable (not shown). An example of the HDMI output device 22 is the image display device 4. The network interface 15 includes a network connector (not shown), a router 23 is connected to the network connector via a network cable (not shown), and the router 16 is connected to a WAN (Wide Area Network) 24 such as the Internet. Thus, data is transmitted to and received from the external network. The network interface 15 performs wired communication based on, for example, IEEE (The Institute of Electrical and Electronics Engineers, Inc.) 802.3 standard. Alternatively, the network interface 15 may perform wireless communication based on the IEEE 802.11 standard, or may perform both wired / wireless communication.

HDD部16は、HDD16aとHDDインタフェース(I/F)16bとを備える。HDD16aは、記録媒体であるディスクと、このディスクの回転を行う回転部と、ディスクに対してデータの読み出し/書き込みを行うヘッド部とを備える(いずれも不図示)。HDDインタフェース16bは、このHDD16aに対するデータの読み出し/書き込み指令があった場合に、HDD16a全体の制御を行うとともに、データの読み出し/書き込み制御を行い、読み出されたデータを出力する。また、このHDD16aには、ユーザにより提供される第1の画像ファイル50、第2の画像ファイル51、補正値52、評価値テーブル53及び登録テーブル54が格納されている。   The HDD unit 16 includes an HDD 16a and an HDD interface (I / F) 16b. The HDD 16a includes a disk that is a recording medium, a rotating unit that rotates the disk, and a head unit that reads / writes data from / to the disk (all not shown). When there is a data read / write command to the HDD 16a, the HDD interface 16b controls the entire HDD 16a, performs data read / write control, and outputs the read data. Further, the HDD 16a stores a first image file 50, a second image file 51, a correction value 52, an evaluation value table 53, and a registration table 54 provided by the user.

第1及び第2の画像ファイル50、51をHDD16aに格納する手法は任意であるが、一例として、上述のように第1及び第2の撮像装置2、3が撮像して得られた第1及び第2の画像ファイル50、51をメモリーカード6内に格納し、このメモリーカード6をカードインタフェース13cのカードスロットに挿入して、入力指示部13bが操作されたことによりこのメモリーカード6内に格納された第1及び第2の画像ファイル50、51をHDD16a内に取り込む手法が挙げられる。また、第1及び第2の画像ファイル50、51を撮像した第1及び第2の撮像装置2、3に接続されたUSBケーブル5をUSBインタフェース13dのUSBコネクタに挿入して、入力指示部13bが操作されたことにより第1及び第2の撮像装置2、3内に格納された第1及び第2の画像ファイル50、51をHDD16a内に取り込んでもよい。さらに、WAN24に存在する第1及び第2の画像ファイル50、51をルータ23及びネットワークインタフェース15を介してHDD16a内に取り込んでもよい。第1、第2の画像ファイル50、51、補正値52、評価値テーブル53及び登録テーブル54の詳細な構成については後述する。なお、図2において第1及び第2の画像ファイル50、51はそれぞれ1つずつ図示されているが、本実施例においては第1及び第2の画像ファイル50、51は複数個HDD16a内に格納されていてもよい。   Although the method of storing the first and second image files 50 and 51 in the HDD 16a is arbitrary, as an example, the first and second imaging devices 2 and 3 obtained as described above are first images obtained as described above. And the second image file 50, 51 are stored in the memory card 6, the memory card 6 is inserted into the card slot of the card interface 13c, and the input instructing unit 13b is operated to store in the memory card 6. There is a method of taking the stored first and second image files 50 and 51 into the HDD 16a. Also, the USB cable 5 connected to the first and second imaging devices 2 and 3 that capture the first and second image files 50 and 51 is inserted into the USB connector of the USB interface 13d, and the input instruction unit 13b. The first and second image files 50 and 51 stored in the first and second image pickup devices 2 and 3 may be taken into the HDD 16a by operating. Further, the first and second image files 50 and 51 existing in the WAN 24 may be taken into the HDD 16 a via the router 23 and the network interface 15. Detailed configurations of the first and second image files 50 and 51, the correction value 52, the evaluation value table 53, and the registration table 54 will be described later. In FIG. 2, one each of the first and second image files 50 and 51 are shown, but in the present embodiment, a plurality of first and second image files 50 and 51 are stored in the HDD 16a. May be.

(一実施形態の情報処理装置の機能構成)
図3は、一実施形態の情報処理装置1の機能構成を示す機能ブロック図である。図3において、本実施形態の情報処理装置1は、制御部30、記憶部31、入力部32及び出力部33を備える。
(Functional configuration of information processing apparatus of one embodiment)
FIG. 3 is a functional block diagram illustrating a functional configuration of the information processing apparatus 1 according to the embodiment. In FIG. 3, the information processing apparatus 1 according to the present embodiment includes a control unit 30, a storage unit 31, an input unit 32, and an output unit 33.

記憶部31には、第1の画像ファイル50、第2の画像ファイル51、補正値52、評価値テーブル53及び登録テーブル54が格納されている。第1の画像ファイル50は、第1の画像データ50a及び撮像時刻データ50bを備える。同様に、第2の画像ファイル51は、第2の画像データ51a及び撮像時刻データ51bを備える。これら第1及び第2の画像ファイル50、51の画像データ50a、51a及び撮像時刻データ50b、51bは、第1及び第2の撮像装置2、3による被写体撮像の際にこれら第1及び第2の撮像装置2、3により生成、あるいは付与される。第1の画像ファイル50、第2の画像ファイル51、補正値52、評価値テーブル53及び登録テーブル54の詳細については後述する。   The storage unit 31 stores a first image file 50, a second image file 51, a correction value 52, an evaluation value table 53, and a registration table 54. The first image file 50 includes first image data 50a and imaging time data 50b. Similarly, the second image file 51 includes second image data 51a and imaging time data 51b. The image data 50a and 51a and the imaging time data 50b and 51b of the first and second image files 50 and 51 are used when the first and second imaging devices 2 and 3 capture the subject. Are generated or assigned by the imaging devices 2 and 3. Details of the first image file 50, the second image file 51, the correction value 52, the evaluation value table 53, and the registration table 54 will be described later.

制御部30は、配列部34、頻度算出部35、補正値算出部36、撮像時刻更新部37及び表示制御部38を備える。   The control unit 30 includes an arrangement unit 34, a frequency calculation unit 35, a correction value calculation unit 36, an imaging time update unit 37, and a display control unit 38.

配列部34は、第1及び第2の画像ファイル50、51の撮像時刻データ50b、51bに基づいて、撮像装置2、3毎に複数の画像ファイル50、51を時間軸上に配列する。より詳細には、配列部34は、第1及び第2の画像ファイル50、51がそれぞれ配列される時間軸を撮像装置2、3毎に(本実施形態では2つの時間軸)用意し、第1及び第2の画像ファイル50、51の撮像時刻データ50b、51bを参照して、この撮像時刻データ50b、51bが指し示す時間軸上の位置に第1及び第2の画像ファイル50、51を配列する。すなわち、一方の時間軸には第1の画像ファイル50が時間軸上に配列され、他方の時間軸には第2の画像ファイル51が時間軸上に配列される。   The arrangement unit 34 arranges the plurality of image files 50 and 51 on the time axis for each of the imaging devices 2 and 3 based on the imaging time data 50 b and 51 b of the first and second image files 50 and 51. More specifically, the arrangement unit 34 prepares time axes in which the first and second image files 50 and 51 are arranged for each of the imaging devices 2 and 3 (in this embodiment, two time axes). With reference to the imaging time data 50b and 51b of the first and second image files 50 and 51, the first and second image files 50 and 51 are arranged at positions on the time axis indicated by the imaging time data 50b and 51b. To do. That is, the first image file 50 is arranged on the time axis on one time axis, and the second image file 51 is arranged on the time axis on the other time axis.

頻度算出部35は、第1及び第2の画像ファイル50、51の撮像時刻データ50b、51bに基づいて、この撮像時刻データ50b、51bが指し示す撮像時刻が所定の時間範囲内に含まれる画像ファイル50、51の頻度を算出する。好ましくは、頻度算出部35は、配列部34が画像ファイル50、51を配列した時間軸上にそれぞれ略等しい時間範囲を有する時間区間を設け、配列部34により画像ファイル50、51を配列した状態で、この時間区間毎に、撮像時刻データ50b、51bが指し示す撮像時刻が時間区間内に含まれる画像ファイル50、51の頻度を撮像時刻データ50b、51bに基づいて算出する。   The frequency calculation unit 35, based on the imaging time data 50b and 51b of the first and second image files 50 and 51, an image file that includes the imaging time indicated by the imaging time data 50b and 51b within a predetermined time range. The frequency of 50 and 51 is calculated. Preferably, the frequency calculation unit 35 provides time sections having substantially equal time ranges on the time axis on which the arrangement unit 34 arranges the image files 50 and 51, and the arrangement unit 34 arranges the image files 50 and 51. Thus, for each time interval, the frequency of the image files 50 and 51 in which the imaging time indicated by the imaging time data 50b and 51b is included in the time interval is calculated based on the imaging time data 50b and 51b.

後述のように、第1及び第2の撮像装置2、3により付与される撮像時刻データ50b、51bは秒単位であることが多いので、頻度算出部35は時間軸上の画像ファイル50、51の頻度を秒単位で算出することが可能である。しかしながら、撮像装置2、3の性能により複数の画像ファイル50、51を連写する機能が異なり、撮像装置2、3の連写機能が高くない場合、秒単位で頻度を算出すると1〜2枚程度の頻度になってしまうこともある。また、撮像装置2、3の操作者(カメラマン)が連写機能を頻繁に使用するとも限らない。従って、頻度算出部35は、後述する補正値算出部36によって適切な補正値が算出できるように、例えば60秒間といった時間区間における画像ファイル50、51の頻度を算出してもよい。   As will be described later, since the imaging time data 50b and 51b provided by the first and second imaging devices 2 and 3 are often in units of seconds, the frequency calculation unit 35 uses the image files 50 and 51 on the time axis. Can be calculated in seconds. However, if the function of continuously shooting a plurality of image files 50 and 51 is different depending on the performance of the imaging devices 2 and 3, and the continuous shooting function of the imaging devices 2 and 3 is not high, calculating the frequency in units of 1 to 2 It may become a frequency of about. Further, the operator (cameraman) of the imaging devices 2 and 3 does not always use the continuous shooting function frequently. Accordingly, the frequency calculation unit 35 may calculate the frequency of the image files 50 and 51 in a time interval such as 60 seconds so that an appropriate correction value can be calculated by the correction value calculation unit 36 described later.

補正値算出部36は、頻度算出部35により算出された画像ファイル50、51の頻度を撮像装置2、3毎に比較し、この頻度が合致するように、一の撮像装置、すなわち第1の撮像装置2または第2の撮像装置3のうちいずれか一方により撮像された画像ファイル50、51の撮像時刻データ50b、51bに対する、他の撮像装置、すなわち第1の撮像装置2または第2の撮像装置3のうち他方により撮像された画像ファイル50、51の撮像時刻データ50b、51bの補正値を算出する。好ましくは、補正値算出部36は、他の撮像装置2、3のうち少なくとも一つの撮像装置2、3により撮像された画像ファイル50、51の撮像時刻データ50b、51bに差分値を加減し、頻度算出部35により算出された画像ファイル50、51の頻度を撮像装置2、3毎に比較してこの頻度が一致した差分値を補正値として出力する。さらに好ましくは、補正値算出部36は、頻度算出部35が算出した時間区間毎の画像ファイル50、51の頻度を撮像装置2、3毎に比較し、この頻度が合致するように、一の撮像装置、すなわち第1の撮像装置2または第2の撮像装置3のうちいずれか一方により撮像された画像ファイル50、51の撮像時刻データ50b、51bに対する、他の撮像装置、すなわち第1の撮像装置2または第2の撮像装置3のうち他方により撮像された画像ファイル50、51の撮像時刻データ50b、51bの補正値を算出する。補正値算出部36により算出された補正値は記憶部31内に格納される(補正値52)。   The correction value calculation unit 36 compares the frequencies of the image files 50 and 51 calculated by the frequency calculation unit 35 for each of the imaging devices 2 and 3, so that the frequencies match, that is, the first imaging device, that is, the first imaging device. Another imaging device, that is, the first imaging device 2 or the second imaging device, with respect to the imaging time data 50b and 51b of the image files 50 and 51 captured by either the imaging device 2 or the second imaging device 3. The correction values of the imaging time data 50b and 51b of the image files 50 and 51 captured by the other device 3 are calculated. Preferably, the correction value calculation unit 36 adjusts the difference value to the imaging time data 50b and 51b of the image files 50 and 51 captured by at least one imaging device 2 and 3 among the other imaging devices 2 and 3, The frequency of the image files 50 and 51 calculated by the frequency calculation unit 35 is compared for each of the imaging devices 2 and 3, and a difference value having the same frequency is output as a correction value. More preferably, the correction value calculation unit 36 compares the frequency of the image files 50 and 51 for each time interval calculated by the frequency calculation unit 35 for each of the imaging devices 2 and 3, so that the frequency matches. Another imaging device, that is, the first imaging device, for the imaging time data 50b and 51b of the image files 50 and 51 captured by either the imaging device, that is, the first imaging device 2 or the second imaging device 3. Correction values of the imaging time data 50b and 51b of the image files 50 and 51 captured by the other of the apparatus 2 or the second imaging apparatus 3 are calculated. The correction value calculated by the correction value calculation unit 36 is stored in the storage unit 31 (correction value 52).

補正値算出部36は、頻度算出部35により算出された画像ファイル50、51の頻度を完全に合致させた状態で補正値を算出するばかりではなく、完全に合致せずとも頻度の傾向を合致させた状態でも補正値を算出することが好ましい。撮像装置2、3の操作者によって、厳密な意味で被写体を撮像するタイミングは異なるので、同じシーンを撮像していても画像ファイル50、51の撮像時刻データ50b、51bは厳密に一致しない。従って、上述した時間区間の設定と同様に、補正値算出部36によって適切な補正値が算出できるように、頻度の合致状態を判定することが好ましい。一例として、頻度算出部35により算出された画像ファイル50、51の頻度のピーク値(極大値)が一定の閾値を超える撮像時刻データ50b、51bを捉え、第1の撮像装置2または第2の撮像装置3のうち他方の撮像装置により撮像された画像ファイル50、51の撮像時刻データ50b、51bに差分値を加減し、これら撮像時刻データ50b、51bが一致した際の差分値を補正値として算出してもよい。また、上述した時間区間に画像ファイル50、51が配列されていれば値「1」、配列されていなければ値「0」とし、この値を時間軸上に配列して一定のパターンを生成し、このパターンの合致度を評価値として数値化する。そして、第1の撮像装置2または第2の撮像装置3のうち他方の撮像装置により撮像された画像ファイル50、51の撮像時刻データ50b、51bに差分値を加減して都度評価値を算出し、評価値が極大値または極小値を示した際の差分値を補正値として算出してもよい。補正値算出部36により算出された評価値は差分値と組にされて評価値テーブル53として記憶部31に格納される。   The correction value calculation unit 36 not only calculates the correction value in a state where the frequencies of the image files 50 and 51 calculated by the frequency calculation unit 35 are completely matched, but also matches the frequency trend even if they do not match completely. It is preferable to calculate the correction value even in such a state. The timing of capturing the subject in a strict sense varies depending on the operator of the image capturing apparatuses 2 and 3, so that the capturing time data 50 b and 51 b of the image files 50 and 51 do not exactly match even when capturing the same scene. Therefore, it is preferable to determine the matching state of the frequencies so that an appropriate correction value can be calculated by the correction value calculation unit 36, similarly to the setting of the time interval described above. As an example, the imaging time data 50b and 51b in which the peak value (maximum value) of the frequency of the image files 50 and 51 calculated by the frequency calculation unit 35 exceeds a certain threshold is captured, and the first imaging device 2 or the second imaging device 2 is captured. The difference value is added to or subtracted from the imaging time data 50b and 51b of the image files 50 and 51 imaged by the other imaging device of the imaging device 3, and the difference value when the imaging time data 50b and 51b match is used as a correction value. It may be calculated. Further, if the image files 50 and 51 are arranged in the above-described time section, the value is “1”, and if not, the value is “0”, and this value is arranged on the time axis to generate a certain pattern. The degree of coincidence of this pattern is quantified as an evaluation value. The difference value is added to or subtracted from the imaging time data 50b, 51b of the image file 50, 51 captured by the other imaging device of the first imaging device 2 or the second imaging device 3, and an evaluation value is calculated each time. The difference value when the evaluation value shows the maximum value or the minimum value may be calculated as the correction value. The evaluation value calculated by the correction value calculation unit 36 is paired with the difference value and stored in the storage unit 31 as the evaluation value table 53.

撮像時刻更新部37は、補正値算出部36により算出された補正値により画像ファイル50、51の撮像時刻データ50b、51bを更新して記憶部31に格納する。但し、撮像時刻更新部37による撮像時刻データ50b、51bは必須ではなく、記憶部31に補正値52のみを保持し、後述する表示制御部38による画像表示用信号生成時にこの補正値52を参照して画像ファイル50、51の撮像時刻データ50b、51bを補正してもよい。   The imaging time update unit 37 updates the imaging time data 50 b and 51 b of the image files 50 and 51 with the correction values calculated by the correction value calculation unit 36 and stores them in the storage unit 31. However, the imaging time data 50b and 51b by the imaging time update unit 37 are not essential, and only the correction value 52 is held in the storage unit 31, and the correction value 52 is referred to when the display control unit 38 described later generates an image display signal. Then, the imaging time data 50b and 51b of the image files 50 and 51 may be corrected.

表示制御部38は、補正値算出部36により算出された補正値52により画像ファイル50、51の撮像時刻データ50b、51bを補正して、複数の画像ファイル50、51を時間の推移に従って表示する表示画面を表示するための画面表示用信号を生成する。このような表示画面としては、いわゆるスライドショー表示と呼ばれる表示画面が好適に挙げられる。   The display control unit 38 corrects the imaging time data 50b and 51b of the image files 50 and 51 with the correction value 52 calculated by the correction value calculation unit 36, and displays the plurality of image files 50 and 51 according to the transition of time. A screen display signal for displaying the display screen is generated. A preferred example of such a display screen is a display screen called a slide show display.

入力部32は、第1、第2の撮像装置2、3を含む外部入力機器から情報処理装置1に入力される各種データの入力を受け付け、入力された各種データを制御部30に入力し、あるいは記憶部31に格納する。出力部33は、画像表示用信号を含む、制御部30または記憶部31内の各種データを、画像表示装置4を含む外部出力機器に出力する。   The input unit 32 receives input of various data input to the information processing apparatus 1 from the external input device including the first and second imaging devices 2 and 3, and inputs the input various data to the control unit 30. Alternatively, it is stored in the storage unit 31. The output unit 33 outputs various data in the control unit 30 or the storage unit 31 including the image display signal to an external output device including the image display device 4.

以上の構成において、制御部30及び制御部30を構成する配列部34、頻度算出部35、補正値算出部36、撮像時刻更新部37及び表示制御部38は主にCPU10により構成され、記憶部31は主にメモリーカード6、ROM11、RAM12及びHDD部16により構成され、入力部32は主に入出力デバイス13及びネットワークインタフェース15により構成され、出力部33は主にHDMIインタフェース14及びネットワークインタフェース15により構成される。図3に示す情報処理装置1の各機能部の動作については後に詳述する。   In the above configuration, the control unit 30 and the array unit 34, the frequency calculation unit 35, the correction value calculation unit 36, the imaging time update unit 37, and the display control unit 38 that constitute the control unit 30 are mainly configured by the CPU 10, and the storage unit Reference numeral 31 mainly includes a memory card 6, ROM 11, RAM 12, and HDD unit 16, the input unit 32 mainly includes an input / output device 13 and a network interface 15, and the output unit 33 mainly includes an HDMI interface 14 and a network interface 15. Consists of. The operation of each functional unit of the information processing apparatus 1 shown in FIG. 3 will be described in detail later.

(画像ファイルのデータ構造)
図4は、本実施形態の情報処理装置1のHDD16a内に格納されている画像ファイルのデータ構造の一例を示す図である。本実施形態において、第1及び第2の画像ファイル50、51のデータ構造は同一であり、格納されているデータが異なるのみである。従って、以下のデータ構造の説明においては、第1の画像ファイル50について代表して説明を行う。本実施形態の第1の画像ファイル50はExif規格で定められるファイルフォーマットを有し、そのヘッダ部分60にタグ情報が格納され、さらにサムネイル画像データが格納されたサムネイル画像領域61、及び画像データ50aが格納された画像データ領域62が設けられている。本実施形態の第1の画像ファイル50では、ヘッダ部分60に格納されたタグ情報は、被写体撮像時に第1の撮像装置2により画像ファイル50のヘッダ部分60の所定領域に記述される。
(Data structure of image file)
FIG. 4 is a diagram illustrating an example of a data structure of an image file stored in the HDD 16a of the information processing apparatus 1 according to the present embodiment. In the present embodiment, the data structures of the first and second image files 50 and 51 are the same, and only the stored data is different. Therefore, in the following description of the data structure, the first image file 50 will be described as a representative. The first image file 50 of the present embodiment has a file format defined by the Exif standard, the tag information is stored in the header portion 60, the thumbnail image area 61 in which thumbnail image data is stored, and the image data 50a. Is stored in the image data area 62. In the first image file 50 of the present embodiment, the tag information stored in the header portion 60 is described in a predetermined area of the header portion 60 of the image file 50 by the first imaging device 2 when the subject is imaged.

第1の画像ファイル50のヘッダ部分60には、第1の画像ファイル50を特定するための一意の値が記述されるID領域63、第1の画像データ50aの画素数が記述される画素数領域64、画像ファイル50の撮影日時である撮像時刻データ50bが記述される撮影日時領域65、画像ファイル50の情報処理装置1への取り込み日時が記述される取り込み日時領域66、画像ファイル50が撮像された第1の撮像装置2の機種名が記述される機種名領域67、画像ファイル50の画像データ50aが撮像された際の撮像装置の各種情報、例えば絞り値、焦点距離が記述される撮影情報領域68、画像ファイル50が撮像されたときに撮像装置2が所在する位置をGPSシステムにより得た位置情報(例えば緯度、経度、高度情報)が記述されるGPS情報領域69、及び情報処理装置1のユーザが各種情報を任意に記述するためのユーザ定義領域70が設けられている。当然、これ以外の領域を画像ファイル50のヘッダ部分60に設けることは任意である。   In the header portion 60 of the first image file 50, an ID area 63 in which a unique value for specifying the first image file 50 is described, and the number of pixels in which the number of pixels of the first image data 50a is described. An area 64, an imaging date / time area 65 in which imaging date / time data 50 b that is the imaging date / time of the image file 50 is described, an acquisition date / time area 66 in which the acquisition date / time of the image file 50 into the information processing apparatus 1 is described, and the image file 50 are imaged. A model name area 67 in which the model name of the first imaging device 2 is described, and various types of information of the imaging device when the image data 50a of the image file 50 is imaged, for example, an aperture value and a focal length are described. Position information (for example, latitude, longitude, altitude information) obtained by the GPS system indicating the position where the imaging device 2 is located when the information area 68 and the image file 50 are captured is recorded. User-defined region 70 for GPS information area 69, and the user information processing apparatus 1 arbitrarily describe various types of information are provided is. Naturally, it is optional to provide a region other than this in the header portion 60 of the image file 50.

ここで、ヘッダ部分60の各領域に記述される各種情報について一例を挙げて説明する。撮影日時領域65には、第1の撮像装置2の内部時計を参考にして、第1の画像ファイル50の画像データ50aが撮像されたときの日時、つまり撮影日時を示す撮像時刻データ50bが、一例として“2011/12/08 10:15:24”、すなわち年月日及び秒単位までの時間として記述される。取り込み日時領域66には、情報処理装置1の図略の内部時計を参考にして、第1の画像ファイル50の画像データ50aが情報処理装置1に取り込まれたときの日時、つまり取り込み日時が、一例として“2012/03/07 18:00:58”、すなわち年月日及び秒単位までの時間として記述される。機種名領域67には、第1の撮像装置2の機種名が、第1の撮像装置2の製造者が定めたデータで、一例として「XYZ−○」として記述される。撮影情報領域68には、第1の画像ファイル50の画像データ50aが撮像された際の第1の撮像装置2の各種情報が、一例として「絞り値F=8、シャッタースピード1/125」として記述される。GPS情報領域69には、第1の画像ファイル50が生成されたときに第1の撮像装置2が所在する位置をGPSシステムを用いて得た位置情報を示すデータ、より詳細には撮像装置2が所在する位置の緯度情報、経度情報及び高度情報が、一例として“lat=+35.09.36.266, lon=+136.54.21.114,alt=50”として記述される。   Here, various information described in each area of the header portion 60 will be described with an example. In the shooting date / time area 65, referring to the internal clock of the first imaging device 2, the date / time when the image data 50a of the first image file 50 was shot, that is, the shooting time data 50b indicating the shooting date / time, As an example, it is described as “2011/12/08 10:15:24”, that is, the time to the year, month, and second. The date and time when the image data 50a of the first image file 50 is imported to the information processing apparatus 1, that is, the acquisition date and time, is stored in the acquisition date and time area 66 with reference to an internal clock (not shown) of the information processing apparatus 1. As an example, it is described as “2012/03/07 18:00:58”, that is, the date and time up to the second unit. In the model name area 67, the model name of the first imaging device 2 is data determined by the manufacturer of the first imaging device 2, and is described as “XYZ- ◯” as an example. In the shooting information area 68, various information of the first imaging device 2 when the image data 50a of the first image file 50 is imaged is, for example, “aperture value F = 8, shutter speed 1/125”. Described. In the GPS information area 69, data indicating the position information obtained by using the GPS system for the position where the first imaging device 2 is located when the first image file 50 is generated, more specifically, the imaging device 2 As an example, the latitude information, longitude information, and altitude information of the position where “is” are described as “lat = + 35.09.36.266, lon = + 136.54.21.114, alt = 50”.

(評価値テーブルのデータ構造)
図5は、本実施形態の情報処理装置1のHDD16a内に格納されている評価値テーブル53のデータ構造の一例を示す図である。本実施形態における評価値テーブル53には差分値領域71及び評価値領域72が設けられ、差分値領域71には、上述した補正値算出部36による補正値算出の経過で算出される差分値が格納され、評価値領域72には、この差分値を第1の撮像装置2または第2の撮像装置3のうち他方により撮像された画像ファイル50、51の撮像時刻データ50b、51bに加減した際の評価値が格納されている。
(Data structure of evaluation value table)
FIG. 5 is a diagram illustrating an example of a data structure of the evaluation value table 53 stored in the HDD 16a of the information processing apparatus 1 according to the present embodiment. The evaluation value table 53 in this embodiment is provided with a difference value area 71 and an evaluation value area 72, and the difference value calculated in the course of correction value calculation by the correction value calculation unit 36 described above is stored in the difference value area 71. The evaluation value area 72 is stored when the difference value is added to or subtracted from the imaging time data 50b, 51b of the image files 50, 51 captured by the other of the first imaging device 2 or the second imaging device 3. The evaluation value of is stored.

(登録テーブルのデータ構造)
図6は、本実施形態の情報処理装置1のHDD16a内に格納されている登録テーブル54のデータ構造の一例を示す図である。本実施形態における登録テーブル54にはグループ領域73及び機種名領域74が設けられている。機種名領域74には、後述する機器登録処理において、同一のグループに属するものとして登録及び追従がされた機種名が、同一のグループ領域73に属するものとして記述されている。機器登録処理の詳細については後述する。
(Data structure of registration table)
FIG. 6 is a diagram illustrating an example of a data structure of the registration table 54 stored in the HDD 16a of the information processing apparatus 1 according to the present embodiment. The registration table 54 in this embodiment is provided with a group area 73 and a model name area 74. In the model name area 74, model names registered and tracked as belonging to the same group in the device registration process described later are described as belonging to the same group area 73. Details of the device registration process will be described later.

(一実施形態の情報処理装置の概略動作)
次に、図7〜図9を参照して、本実施形態の情報処理装置1の概略動作について説明する。
(Schematic operation of the information processing apparatus of one embodiment)
Next, the schematic operation of the information processing apparatus 1 according to the present embodiment will be described with reference to FIGS.

図7は、本実施形態の情報処理装置1における補正値算出手順の一例を説明する図であり、第1の撮像装置2及び第2の撮像装置3により撮像され、情報処理装置1に取り込まれた第1及び第2の画像ファイル50、51について、配列部34が撮像時刻データ50b、51bを参照して、撮像装置2、3毎に設けられた時間軸上に配列した状態を示す図である。   FIG. 7 is a diagram illustrating an example of a correction value calculation procedure in the information processing apparatus 1 according to the present embodiment. The correction value calculation procedure is captured by the first imaging apparatus 2 and the second imaging apparatus 3 and is captured by the information processing apparatus 1. The arrangement unit 34 refers to the imaging time data 50b and 51b, and shows a state where the first and second image files 50 and 51 are arranged on the time axis provided for each of the imaging devices 2 and 3. is there.

この図において、第1の撮像装置2(図中「1」で表示している)により撮像された第1の画像ファイル50を配列するための時間軸80a上には、第1の画像ファイル50が、撮像時刻データ50bが指し示す位置に配列されている。時間軸80aはそれぞれ略等しい時間単位を有する時間区間81に区分されている。図示例では時間区間81は60秒である。そして、配列部34により配列された第1の画像ファイル50の時間軸上の頻度82aが頻度算出部35により算出されている。同様に、第2の撮像装置3(図中「2」で表示している)により撮像された第2の画像ファイル51を配列するための時間軸80b上には、第2の画像ファイル51が、撮像時刻データ51bが指し示す位置に配列されている。そして、配列部34により配列された第2の画像ファイル51の時間軸上の頻度82bが頻度算出部35により算出されている。   In this figure, the first image file 50 is arranged on the time axis 80a for arranging the first image files 50 imaged by the first imaging device 2 (indicated by “1” in the figure). Are arranged at positions indicated by the imaging time data 50b. The time axis 80a is divided into time sections 81 each having substantially the same time unit. In the illustrated example, the time interval 81 is 60 seconds. Then, the frequency 82 a on the time axis of the first image file 50 arranged by the arrangement unit 34 is calculated by the frequency calculation unit 35. Similarly, the second image file 51 is located on the time axis 80b for arranging the second image files 51 captured by the second imaging device 3 (indicated by “2” in the drawing). Are arranged at positions indicated by the imaging time data 51b. A frequency 82b on the time axis of the second image file 51 arranged by the arrangement unit 34 is calculated by the frequency calculation unit 35.

頻度算出部35が算出する頻度82a、82bは時間区間81単位であるが、図示例では第1及び第2の画像ファイル50、51の撮像時刻データ50b、51bの集中度を明確に図示するために、この時間区間81よりも短い時間単位(例えば10秒程度)の頻度を図示している。このため、時間区間81内において頻度82a、82bが極大値を示すように図示される。   The frequencies 82a and 82b calculated by the frequency calculation unit 35 are in units of 81 in the time interval, but in the illustrated example, in order to clearly illustrate the degree of concentration of the imaging time data 50b and 51b of the first and second image files 50 and 51. Further, the frequency of a time unit (for example, about 10 seconds) shorter than the time section 81 is illustrated. For this reason, the frequencies 82a and 82b are illustrated in the time interval 81 as maximal values.

図7に示すように、時間軸80a、80bの起点(図示例では9:00)を揃えた状態で頻度82a、82bを比較すると、同一の時間区間81における頻度82a、82bは必ずしも合致していない。そこで、補正値算出部36は、第1の撮像装置2により撮像された画像ファイル50の撮像時刻データ50bは正確であるものと仮定し、時間軸80a上の第1の画像ファイル50の撮像時刻データ50bはそのままで、時間軸80b上の第2の画像ファイル51の撮像時刻データ51bに対して差分値Δtを加減し、頻度82a、82bが合致するときの差分値Δtを補正値52として求める。差分値Δtの値の範囲をどの程度の値に設定するかは、補正値算出部36による補正値算出動作の速度、どの程度の数の画像ファイル50、51が補正の対象となっているか等の要因を勘案して決定すればよい。一例として、−300(秒)≦Δt≦300秒とされる。同様に、差分値Δtの変化単位についても、補正値算出部36による補正値算出動作の速度、どの程度の数の画像ファイル50、51が補正の対象となっているか等の要因を勘案して決定すればよい。一例として、差分値Δtは10秒単位で変化させる。   As shown in FIG. 7, when the frequencies 82a and 82b are compared with the starting points of the time axes 80a and 80b (9:00 in the illustrated example) aligned, the frequencies 82a and 82b in the same time section 81 do not necessarily match. Absent. Therefore, the correction value calculation unit 36 assumes that the imaging time data 50b of the image file 50 captured by the first imaging device 2 is accurate, and the imaging time of the first image file 50 on the time axis 80a. The difference value Δt is added to or subtracted from the imaging time data 51b of the second image file 51 on the time axis 80b with the data 50b as it is, and the difference value Δt when the frequencies 82a and 82b match is obtained as the correction value 52. . The value range to be set for the difference value Δt depends on the speed of the correction value calculation operation by the correction value calculation unit 36, how many image files 50 and 51 are subject to correction, and the like. This should be determined in consideration of these factors. As an example, −300 (seconds) ≦ Δt ≦ 300 seconds. Similarly, regarding the change unit of the difference value Δt, factors such as the speed of the correction value calculation operation by the correction value calculation unit 36 and the number of image files 50 and 51 to be corrected are taken into consideration. Just decide. As an example, the difference value Δt is changed in units of 10 seconds.

補正値算出部36による差分値Δt加減算の結果、頻度82a、82bが合致した状態を図8に示す。頻度82a、82bの全ての極大値が一致しているわけではないが、頻度82aの極大値が頻度82bの極大値に全て時間軸80a、80b上で合致している。補正値算出部36はこの状態を頻度82a、82bの合致と判定し、その際の差分値Δtを補正値52とする。図示例では、Δt=60秒であった。   FIG. 8 shows a state in which the frequencies 82a and 82b match as a result of the addition / subtraction of the difference value Δt by the correction value calculation unit 36. Although not all the maximum values of the frequencies 82a and 82b match, the maximum values of the frequency 82a all match the maximum values of the frequency 82b on the time axes 80a and 80b. The correction value calculation unit 36 determines that this state matches the frequencies 82a and 82b, and sets the difference value Δt at that time as the correction value 52. In the illustrated example, Δt = 60 seconds.

頻度82a、82bの合致度を算出する手法の一例を図9を参照して説明する。補正値算出部36は、時間軸80a、80b上における特定の時間区間81において第1または第2の画像ファイル50、51が配列されていれば、この時間区間81に対して値「1」を付与する。一方、補正値算出部36は、時間軸80a、80b上における特定の時間区間81において第1または第2の画像ファイル50、51が配列されていなければ、この時間区間81に対して値「0」を付与する。このようにして補正値算出部36は頻度82a、82bをパターン化する。次に、時間軸80aの値と時間軸80bの値とを同一時間区間81で比較し、値の差(つまり「時間軸80aの値−時間軸80bの値」)を算出する。そして、値の差を全て合算した値を算出し、これを評価値とする。図9に示す例では評価値は「−1」である。図9に示した手順により算出された評価値は、0に近い値を取った場合に頻度82a、82bが合致したと評価できる値である。   An example of a method for calculating the degree of coincidence of the frequencies 82a and 82b will be described with reference to FIG. If the first or second image file 50, 51 is arranged in a specific time section 81 on the time axis 80a, 80b, the correction value calculation unit 36 sets the value “1” for the time section 81. Give. On the other hand, if the first or second image file 50, 51 is not arranged in the specific time section 81 on the time axis 80a, 80b, the correction value calculation unit 36 sets the value “0” for the time section 81. Is given. In this way, the correction value calculation unit 36 patterns the frequencies 82a and 82b. Next, the value of the time axis 80a and the value of the time axis 80b are compared in the same time interval 81, and a difference between the values (that is, “value of the time axis 80a−value of the time axis 80b”) is calculated. And the value which totaled all the difference of a value is calculated, and let this be an evaluation value. In the example shown in FIG. 9, the evaluation value is “−1”. The evaluation value calculated by the procedure shown in FIG. 9 is a value that can be evaluated that the frequencies 82a and 82b match when a value close to 0 is taken.

但し、頻度82a、82bの時間区間81単位での出現順序、つまり頻度82a、82bのパターンによっては、複数の差分値Δtにおいて評価値が0に近い値を取る可能性がある。図10に示す例では、複数の差分値Δtの区間(Δt=10〜20及びΔt=30〜35)において評価値が0に近い値を取っている。この場合、区間が広い差分値Δt(図10の例ではΔt=10〜20)を採用し、この区間の中間値Δt=15を補正値として採用する。   However, depending on the appearance order of the frequencies 82a and 82b in the unit of the time interval 81, that is, the patterns of the frequencies 82a and 82b, the evaluation value may take a value close to 0 in the plurality of difference values Δt. In the example illustrated in FIG. 10, the evaluation value is close to 0 in a plurality of difference value Δt sections (Δt = 10 to 20 and Δt = 30 to 35). In this case, a difference value Δt having a wide interval (Δt = 10 to 20 in the example of FIG. 10) is adopted, and an intermediate value Δt = 15 of this interval is adopted as a correction value.

(一実施形態の情報処理装置の動作)
次に、図12〜図14のフローチャートを参照して、本実施形態の情報処理装置1の動作について説明する。
(Operation of Information Processing Device of One Embodiment)
Next, the operation of the information processing apparatus 1 of the present embodiment will be described with reference to the flowcharts of FIGS.

図12は、本実施形態の情報処理装置1の動作の全体を説明するためのフローチャートである。図12のフローチャートに示すプログラムは、情報処理装置1による第1及び第2の画像ファイル50、51の取り込み時に開始される。   FIG. 12 is a flowchart for explaining the overall operation of the information processing apparatus 1 of the present embodiment. The program shown in the flowchart of FIG. 12 is started when the information processing apparatus 1 takes in the first and second image files 50 and 51.

まず、ステップS1では、情報処理装置1の制御部30が第1及び第2の撮像装置2、3から第1及び第2の画像ファイル50、51を取り込み、記憶部31に格納する。次に、ステップS2では、取り込まれた画像ファイル50、51を生成した撮像装置2、3に対して機器登録処理が行われる。機器登録処理の詳細については後述する。ステップS3では、情報処理装置1に取り込まれた第1及び第2の画像ファイル50、51に対してその撮像時刻データ50b、51bの補正値を算出する補正処理が行われる。補正処理の詳細についても後述する。そして、ステップS4では、ステップS3により算出された補正値52により画像ファイル50、51の撮像時刻データ50b、51bを補正して、複数の画像ファイル50、51を時間の推移に従って表示する表示画面を表示するための画面表示用信号を生成する。そして、この画面表示用信号が出力部33を介して外部出力機器に出力され、この外部出力機器において画面表示用信号に基づいて表示画面が生成されることでスライドショー表示が行われる。この後、図12に示すプログラムは終了する。   First, in step S <b> 1, the control unit 30 of the information processing apparatus 1 takes in the first and second image files 50 and 51 from the first and second imaging devices 2 and 3 and stores them in the storage unit 31. Next, in step S <b> 2, device registration processing is performed on the imaging devices 2 and 3 that have generated the captured image files 50 and 51. Details of the device registration process will be described later. In step S <b> 3, correction processing for calculating correction values of the imaging time data 50 b and 51 b is performed on the first and second image files 50 and 51 captured in the information processing apparatus 1. Details of the correction processing will also be described later. In step S4, a display screen for correcting the imaging time data 50b and 51b of the image files 50 and 51 with the correction value 52 calculated in step S3 and displaying the plurality of image files 50 and 51 according to the transition of time is displayed. A screen display signal for display is generated. The screen display signal is output to an external output device via the output unit 33, and a slide screen is displayed by generating a display screen based on the screen display signal in the external output device. Thereafter, the program shown in FIG. 12 ends.

次に、図13は、本実施形態の情報処理装置1における機器登録動作を説明するためのフローチャートである。   Next, FIG. 13 is a flowchart for explaining a device registration operation in the information processing apparatus 1 of the present embodiment.

まず、ステップS10では、外部入力機器を介して操作者が入力した選択入力指示に基づいて、第1及び第2の撮像装置2、3のいずれかを、図12のステップS3及び後述する図14の補正処理において基準とする撮像装置とするかを決定する。基準とする撮像装置とは、上述した図6〜図8の説明における第1の撮像装置2のように、撮像装置2、3により撮像された画像ファイル50、51の撮像時刻データ50b、51bが正確なものであると仮定する撮像装置2、3である。特に、本実施形態では、第1の撮像装置2は、上述のようにGPSデータ入手の際にGPS衛星から取得した時刻情報に基づいて内部時計の時刻合わせを定期的に行っているので、第1の撮像装置2を基準とする撮像装置として設定することが好ましい。以降、基準とする撮像装置2、3以外の撮像装置2、3を補正すべき撮像装置2、3と称する。ステップS10により指定された基準とする撮像装置に関する情報、例えば画像ファイル50、51の機種名領域67に記述された、撮像装置2、3の機種名に関する情報は記憶部31に一時的に格納される。なお、操作者による選択入力指示に先立って、表示制御部38が選択入力指示用の表示画面を生成するための画面表示用信号を生成し、この画面表示用信号が出力部33を介して外部出力機器に出力され、この外部出力機器において画面表示用信号に基づいて表示画面が生成されることで選択入力指示用の表示画面が表示されてもよい。   First, in step S10, one of the first and second imaging devices 2 and 3 is selected from step S3 in FIG. 12 and FIG. Whether to use the imaging device as a reference in the correction process. The imaging device used as a reference is the imaging time data 50b and 51b of the image files 50 and 51 captured by the imaging devices 2 and 3 as in the first imaging device 2 in the description of FIGS. The imaging devices 2 and 3 are assumed to be accurate. In particular, in the present embodiment, the first imaging device 2 periodically adjusts the time of the internal clock based on the time information acquired from the GPS satellite when acquiring GPS data as described above. It is preferable to set the imaging device 2 as a reference. Hereinafter, the imaging devices 2 and 3 other than the reference imaging devices 2 and 3 are referred to as imaging devices 2 and 3 to be corrected. Information relating to the imaging device as the reference designated in step S10, for example, information relating to the model name of the imaging devices 2 and 3 described in the model name area 67 of the image files 50 and 51, is temporarily stored in the storage unit 31. The Prior to the selection input instruction by the operator, the display control unit 38 generates a screen display signal for generating a display screen for the selection input instruction, and this screen display signal is externally output via the output unit 33. The display screen for selection input instruction may be displayed by outputting to the output device and generating the display screen based on the screen display signal in the external output device.

次に、ステップS11では、取り込まれた画像ファイルが、ステップS10で指定された基準とする撮像装置により撮像されたものであるか否かが判定され、基準とする撮像装置により撮像されたものである(ステップS11においてYES)場合は、プログラムはステップS12に移行し、基準とする撮像装置により撮像されたものでない(ステップS11においてNO)場合は、プログラムはステップS13に移行する。ステップS11における判定は、画像ファイル50、51の機種名領域67に記述された、撮像装置2、3の機種名に関する情報や、取り込まれた画像ファイルのGPS情報領域69に位置情報が記述されているか否かにに基づいて行えばよい。   Next, in step S11, it is determined whether or not the captured image file has been captured by the reference imaging device specified in step S10, and is captured by the reference imaging device. If there is (YES in step S11), the program proceeds to step S12. If not (NO in step S11), the program proceeds to step S13. In the determination in step S11, the information on the model names of the imaging devices 2 and 3 described in the model name area 67 of the image files 50 and 51 and the position information are described in the GPS information area 69 of the captured image file. It may be based on whether or not.

ステップS12では、基準とする撮像装置の機器登録作業が行われる。一方、ステップS13では、補正すべき撮像装置の機器追従作業が行われる。この後、機器登録作業は終了する。   In step S12, device registration work for the imaging device as a reference is performed. On the other hand, in step S13, the device following operation of the imaging apparatus to be corrected is performed. Thereafter, the device registration work ends.

ステップS12及びステップS13において行われる機器登録作業及び機器追従作業の詳細について、図11を参照して説明する。   Details of the device registration work and device follow-up work performed in steps S12 and S13 will be described with reference to FIG.

図11は、本実施形態の情報処理装置1における機器登録または機器追従の手順の一例を説明するための図である。図11に示す機器登録または機器追従作業においては、情報処理装置1の制御部30が、第1及び第2の画像ファイル50、51の機種名領域67に記述された第1及び第2の撮像装置2、3の機種名情報に基づいて機器登録または機器追従作業を行う。一例として、機種名情報「XA」を有する第1の撮像装置2によって生成された第1の画像ファイル50が最初に取り込まれると、この第1の画像ファイル50の機種名領域67に記述された機種名情報「XA」が登録テーブル54の機種名領域74に記述される。次いで、機種名「YA」情報を有する第2の撮像装置3によって生成された第2の画像ファイル51が最初に取り込まれると、情報処理装置1の制御部30が、出力部33を介して、追従作業を行うべき第2の撮像装置3がいずれの第1の撮像装置2に追従すべきかを入力させるための入力画面を表示させるためのデータを画像表示装置4に出力する。そして、情報処理装置1の制御部30は、入力部32を介してユーザが入力を行った選択指示に基づいて、追従作業を行うべき第2の撮像装置3の機種名情報「YA」を、追従先である第1の撮像装置2の機種名情報「XA」が記述された登録テーブル54のグループ領域73に関連付けられた他の機種名領域74に記述する。同様に、機種名「XB」を有する第1の撮像装置2によって生成された第1の画像ファイル50が最初に取り込まれると、第1の画像ファイル50の機種名領域67に記述された機種名情報「XB」が登録テーブル54の機種名領域74に記述される。次いで、機種名「YB」情報を有する第2の撮像装置3によって生成された第2の画像ファイル51が最初に取り込まれると、制御部30が、出力部33を介して、追従作業を行うべき第2の撮像装置3がいずれの第1の撮像装置2に追従すべきかを入力させるための入力画面を表示させるためのデータを画像表示装置4に出力する。そして、制御部30は、入力部32を介してユーザが入力を行った選択指示に基づいて、追従作業を行うべき第2の撮像装置3の機種名情報「YB」を、追従先である第1の撮像装置2の機種名情報「XB」が記述された登録テーブル54のグループ領域73に関連付けられた他の機種名領域74に追記する。   FIG. 11 is a diagram for explaining an example of a procedure for device registration or device tracking in the information processing apparatus 1 according to the present embodiment. In the device registration or device following operation shown in FIG. 11, the control unit 30 of the information processing apparatus 1 performs first and second imaging described in the model name area 67 of the first and second image files 50 and 51. Device registration or device following work is performed based on the model name information of the devices 2 and 3. As an example, when the first image file 50 generated by the first imaging device 2 having the model name information “XA” is first captured, it is described in the model name area 67 of the first image file 50. Model name information “XA” is described in the model name area 74 of the registration table 54. Next, when the second image file 51 generated by the second imaging device 3 having the model name “YA” information is first captured, the control unit 30 of the information processing device 1 passes through the output unit 33. Data for displaying an input screen for inputting which first imaging device 2 should be followed by the second imaging device 3 that should perform the tracking operation is output to the image display device 4. Then, the control unit 30 of the information processing device 1 obtains the model name information “YA” of the second imaging device 3 that should perform the follow-up operation based on the selection instruction input by the user via the input unit 32. It is described in another model name area 74 associated with the group area 73 of the registration table 54 in which the model name information “XA” of the first imaging device 2 that is the follow-up destination is described. Similarly, when the first image file 50 generated by the first imaging device 2 having the model name “XB” is first captured, the model name described in the model name area 67 of the first image file 50 is acquired. Information “XB” is described in the model name area 74 of the registration table 54. Next, when the second image file 51 generated by the second imaging device 3 having the model name “YB” information is first captured, the control unit 30 should perform a follow-up operation via the output unit 33. Data for displaying an input screen for inputting which first imaging device 2 should be followed by the second imaging device 3 is output to the image display device 4. Then, based on the selection instruction input by the user via the input unit 32, the control unit 30 sets the model name information “YB” of the second imaging device 3 that should perform the tracking operation as the tracking destination. The information is added to another model name area 74 associated with the group area 73 of the registration table 54 in which the model name information “XB” of one imaging apparatus 2 is described.

次に、図14は、本実施形態の情報処理装置1における補正処理動作を説明するためのフローチャートである。   Next, FIG. 14 is a flowchart for explaining the correction processing operation in the information processing apparatus 1 of the present embodiment.

まず、ステップS20では、情報処理装置1の制御部30の配列部34が、情報処理装置1に取り込まれた、基準とする撮像装置2、3及び補正すべき撮像装置2、3により撮像された画像ファイル50、51の一群を特定する。ステップS20における画像ファイル50、51の一群は、図13において機器登録及び機器追従作業がされた一組の撮像装置2、3により撮像された画像ファイル50、51の一群である。
次に、ステップS21では、配列部34が、ステップS20において特定された画像ファイル50、51の一群に対して、その撮像時刻データ50b、51bを参照して、撮像装置2、3毎に設けられた時間軸上における撮像時刻データ50b、51bが指し示す位置にこれら画像ファイル50、51を配列する(図6参照)。次いで、ステップS22では、制御部30の頻度算出部35が、各々の時間軸上における時間区間毎の画像ファイル50、51の頻度を算出する(図6参照)。
First, in step S <b> 20, the array unit 34 of the control unit 30 of the information processing device 1 is captured by the imaging devices 2 and 3 that are taken into the information processing device 1 and the imaging devices 2 and 3 to be corrected. A group of image files 50 and 51 is specified. The group of image files 50 and 51 in step S20 is a group of image files 50 and 51 captured by the set of imaging devices 2 and 3 that have undergone device registration and device tracking operations in FIG.
Next, in step S21, the arrangement unit 34 is provided for each of the imaging devices 2 and 3 with reference to the imaging time data 50b and 51b for the group of the image files 50 and 51 specified in step S20. The image files 50 and 51 are arranged at positions indicated by the imaging time data 50b and 51b on the time axis (see FIG. 6). Next, in step S22, the frequency calculation unit 35 of the control unit 30 calculates the frequency of the image files 50 and 51 for each time interval on each time axis (see FIG. 6).

次に、ステップS23では、制御部30の補正値算出部36が、補正すべき撮像装置2、3により撮像された画像ファイル50、51の撮像時刻データ50b、51bに加減すべき差分値Δtを初期値に設定する。本実施形態において、初期値は−α(αは自然数)とされ、差分値Δtの変動範囲は−α≦Δt≦αとされる。   Next, in step S23, the correction value calculation unit 36 of the control unit 30 sets the difference value Δt to be added to or subtracted from the imaging time data 50b and 51b of the image files 50 and 51 captured by the imaging devices 2 and 3 to be corrected. Set to the initial value. In the present embodiment, the initial value is −α (α is a natural number), and the variation range of the difference value Δt is −α ≦ Δt ≦ α.

次いで、ステップS24では、補正値算出部36が、補正すべき撮像装置2、3により撮像された画像ファイル50、51の撮像時刻データ50b、51bに、ステップS23において設定された差分値Δtを加算する。ステップS25では、補正値算出部36が、時間軸に設けられた時間区間毎に画像ファイル50、51が配列されているか否かに基づいて値「1」「0」を割り当て、これを時間軸毎に同一時間区間で比較して得られる値の差から評価値を算出し(図8参照)、差分値Δtとともにこの評価値を評価値テーブル53に格納する。   Next, in step S24, the correction value calculation unit 36 adds the difference value Δt set in step S23 to the imaging time data 50b and 51b of the image files 50 and 51 captured by the imaging devices 2 and 3 to be corrected. To do. In step S25, the correction value calculation unit 36 assigns values “1” and “0” based on whether or not the image files 50 and 51 are arranged for each time interval provided on the time axis, and assigns this to the time axis. An evaluation value is calculated from the difference between values obtained by comparison in the same time interval every time (see FIG. 8), and this evaluation value is stored in the evaluation value table 53 together with the difference value Δt.

ステップS26では、現在の差分値Δtが変動範囲の終点に対応する値αであるか否かが補正値算出部36により判定され、現在の差分値Δtが変動範囲の終点に対応する値αである(ステップS26においてYES)場合は、プログラムはステップS28に移行し、現在の差分値Δtが変動範囲の終点に対応する値αでない(ステップS26においてNO)場合は、プログラムはステップS27に移行する。ステップS27では、補正値算出部36が、現在の差分値Δtに対して変動単位である値βを加算する。この後、プログラムはステップS24に戻り、上述の処理を繰り返す。   In step S26, the correction value calculation unit 36 determines whether or not the current difference value Δt is a value α corresponding to the end point of the fluctuation range, and the current difference value Δt is a value α corresponding to the end point of the fluctuation range. If yes (YES in step S26), the program proceeds to step S28, and if the current difference value Δt is not the value α corresponding to the end point of the fluctuation range (NO in step S26), the program proceeds to step S27. . In step S27, the correction value calculation unit 36 adds a value β that is a unit of variation to the current difference value Δt. Thereafter, the program returns to step S24 and repeats the above-described processing.

ステップS28では、補正値算出部36が、評価値テーブル53を参照して評価値の極小値を検出する。そして、ステップS29では、補正値算出部36が、ステップS28で検出した評価値の極小値に対応する差分値Δtを、評価値テーブル53を参照して検出し、この差分値Δtを補正値52として決定して記憶部31に格納する。   In step S <b> 28, the correction value calculation unit 36 refers to the evaluation value table 53 and detects a minimum value of the evaluation value. In step S29, the correction value calculation unit 36 detects the difference value Δt corresponding to the minimum value of the evaluation value detected in step S28 with reference to the evaluation value table 53, and this difference value Δt is detected as the correction value 52. And stored in the storage unit 31.

以上説明した手順により、第1及び第2の画像ファイル50、51の撮像時刻データ50b、51bの補正値52を得ることができ、この補正値52に基づいて、第1及び第2の撮像装置2、3の内部時計のずれに基づく撮像時刻データ50b、51bのずれを修正した状態で、画像表示装置4にスライドショー表示を行うことができる。ここで、本実施形態の情報処理装置1では、時間軸上の画像ファイル50、51の頻度を頻度算出部35により算出し、この頻度算出部35の算出結果に基づいて、撮像装置2、3単位での画像ファイル50、51の頻度が合致するように補正値52を算出しているので、画像ファイル50、51に含まれる被写体や構図によらず、撮像時刻データ50b、51bを適切に補正することができる。また、操作者が手作業で類似する画像ファイル50、51を選択して修正するような手間を省くことができる。よって、本実施形態の情報処理装置1によれば、複数の撮像装置2、3により撮像された画像ファイル50、51の撮像時刻データ50b、51bを簡易にかつ的確に補正することが可能となる。   The correction value 52 of the imaging time data 50b and 51b of the first and second image files 50 and 51 can be obtained by the procedure described above, and the first and second imaging devices are obtained based on the correction value 52. A slide show can be displayed on the image display device 4 in a state where the deviation of the imaging time data 50b and 51b based on the deviation of the internal clocks 2 and 3 is corrected. Here, in the information processing apparatus 1 of the present embodiment, the frequency calculation unit 35 calculates the frequency of the image files 50 and 51 on the time axis, and based on the calculation result of the frequency calculation unit 35, the imaging devices 2, 3 Since the correction value 52 is calculated so that the frequency of the image files 50 and 51 in units matches, the imaging time data 50b and 51b are appropriately corrected regardless of the subject and composition included in the image files 50 and 51. can do. Further, it is possible to save the operator from having to select and correct similar image files 50 and 51 manually. Therefore, according to the information processing apparatus 1 of the present embodiment, it is possible to easily and accurately correct the imaging time data 50b and 51b of the image files 50 and 51 captured by the plurality of imaging apparatuses 2 and 3. .

特に、本実施形態の情報処理装置1では、時間軸に略等しい時間範囲を有する時間区間を設け、この時間区間単位で頻度の合致度を検出して補正値52を算出しているので、例えば図7に示すように画像ファイル50、51の頻度が全て合致しない状態でも、撮像時刻データ50b、51bを適切に補正することができる。   In particular, in the information processing apparatus 1 of the present embodiment, a time interval having a time range substantially equal to the time axis is provided, and the correction value 52 is calculated by detecting the degree of coincidence of frequencies in units of this time interval. As shown in FIG. 7, even when the frequencies of the image files 50 and 51 do not all match, the imaging time data 50b and 51b can be corrected appropriately.

(変形例)
なお、本発明の情報処理装置は、その細部が上述の一実施形態に限定されず、種々の変形例が可能である。
(Modification)
The details of the information processing apparatus of the present invention are not limited to the above-described embodiment, and various modifications can be made.

一例として、上述の一実施形態では、2台の撮像装置、すなわち第1及び第2の撮像装置2、3により撮像された第1及び第2の画像ファイル50、51についてその撮像時刻データ50b、51bの補正を行っていたが、補正を行うべき撮像装置は2台に限定されず、3台以上の撮像装置に対しても適用可能である。   As an example, in the above-described embodiment, the imaging time data 50b of the first and second image files 50 and 51 captured by the two imaging devices, that is, the first and second imaging devices 2 and 3, Although the correction of 51b was performed, the number of imaging devices to be corrected is not limited to two, and the present invention can also be applied to three or more imaging devices.

3台以上の撮像装置に対して本発明を適用する場合、例えば1台の撮像装置が、被写体を撮像して画像ファイルを生成する際にこの画像ファイルの一部にGPSデータを付与する機能を有する場合、上述のようにGPSデータ入手の際にGPS衛星から取得した時刻情報に基づいて内部時計の時刻合わせを定期的に行っているので、この撮像装置を基準とする撮像装置として設定することができる。そして、これ以外の撮像装置が、被写体を撮像して画像ファイルを生成する際にこの画像ファイルの一部にGPSデータを付与する機能を有しない場合、上述の一実施形態で説明したように、基準となる撮像装置により撮像された画像ファイルと補正すべき撮像装置のいずれか一つにより撮像された画像ファイルとの間で補正を行い、これを順次繰り返して基準となる撮像装置以外の撮像装置により撮像された画像ファイルに対する補正を行う。あるいは、詳細な説明を省略する優先度付与手順に基づいて最も精度の高い撮像時刻データを付与する撮像装置を決定し、この撮像装置を基準として、基準となる撮像装置により撮像された画像ファイルと補正すべき撮像装置のいずれか一つにより撮像された画像ファイルとの間で補正を行い、これを順次繰り返して基準となる撮像装置以外の撮像装置により撮像された画像ファイルに対する補正を行うことも可能である。   When the present invention is applied to three or more image capturing apparatuses, for example, when one image capturing apparatus captures a subject and generates an image file, a function of adding GPS data to a part of the image file is provided. If so, the time of the internal clock is periodically adjusted based on the time information acquired from the GPS satellites when GPS data is obtained as described above, so this imaging device should be set as an imaging device. Can do. And when an imaging device other than this does not have a function to give GPS data to a part of this image file when imaging a subject and generating an image file, as described in the above-described embodiment, Correction is performed between the image file picked up by the reference image pickup device and the image file picked up by any one of the image pickup devices to be corrected, and this is sequentially repeated to pick up an image pickup device other than the reference image pickup device. The image file picked up by the above is corrected. Alternatively, an imaging device that gives the most accurate imaging time data based on a priority assigning procedure that omits detailed description is determined, and an image file captured by the imaging device serving as a reference with the imaging device as a reference It is also possible to perform correction for an image file captured by any one of the imaging devices to be corrected, and sequentially repeat this to correct an image file captured by an imaging device other than the reference imaging device. Is possible.

また、複数台の撮像装置が、被写体を撮像して画像ファイルを生成する際にこの画像ファイルの一部にGPSデータを付与する機能を有する場合、これら基準とすることが可能な撮像装置により撮像された画像ファイルの頻度をマージ(合体)させ、マージさせた頻度を基準としてそれ以外の撮像装置により撮像された画像ファイルに対する補正を行ってもよい。   Further, when a plurality of imaging devices have a function of adding GPS data to a part of the image file when the subject is imaged to generate an image file, imaging is performed by an imaging device that can be used as a reference. The frequency of the merged image files may be merged, and correction may be performed on the image file captured by the other imaging device on the basis of the merged frequency.

一方、画像ファイルのヘッダ領域に記述された各種情報が撮像装置により記述された後に追加、変更、消去されることがある。一例として、撮像装置が、被写体を撮像して画像ファイルを生成する際にこの画像ファイルの一部にGPSデータを付与する機能を有しない場合であっても、操作者がGPSデータを逐次取得する装置を同時に携帯し、この装置が取得したGPSデータを後日画像ファイルにマッチングさせる装置が発売されている(一例としてソニー株式会社製 GPSユニットキット GPS−CS3K(「GPS-CS3K|GPSユニット|ソニー株式会社」[平成25年3月15日検索]、インターネット<URL: http://www.sony.jp/gps/products/GPS-CS3K/index.html>)。このような装置に基づいて取得されたGPSデータを有する画像ファイルと、被写体を撮像して画像ファイルを生成する際にこの画像ファイルの一部にGPSデータを付与する機能を有する撮像装置により撮像された画像ファイルとがあった場合、GPSデータの精確さを追求する観点からは、被写体を撮像して画像ファイルを生成する際にこの画像ファイルの一部にGPSデータを付与する機能を有する撮像装置により撮像された画像ファイルを優先することが好ましい。このように、ヘッダ領域に記述された各種情報が撮像装置により記述された後に追加、変更、消去されたものと判断される画像ファイルが存在する場合、この画像ファイルを生成した撮像装置は基準としない処理を行うことが好ましい。   On the other hand, various information described in the header area of the image file may be added, changed, or deleted after being described by the imaging apparatus. As an example, even when the imaging device does not have a function of adding GPS data to a part of the image file when the subject is imaged to generate an image file, the operator sequentially acquires the GPS data. A device that carries the device at the same time and matches the GPS data acquired by this device to an image file at a later date is released (for example, GPS unit kit GPS-CS3K ("GPS-CS3K | GPS unit | Sony Stock" manufactured by Sony Corporation) "Company" [searched on March 15, 2013], Internet <URL: http://www.sony.jp/gps/products/GPS-CS3K/index.html>). An image file having GPS data and an image captured by an imaging device having a function of adding GPS data to a part of the image file when an image is generated by capturing an image of a subject If there is a file, from the viewpoint of pursuing the accuracy of the GPS data, when the subject is imaged and an image file is generated, the image is captured by an imaging device having a function of adding GPS data to a part of the image file. In this way, when there is an image file that is determined to have been added, changed, or deleted after the various types of information described in the header area have been described by the imaging device, It is preferable that the imaging apparatus that generated the image file performs processing that is not used as a reference.

撮像動作後に追加されたGPSデータを有する画像ファイルを検出する手法の一例としては、画像ファイルの機種名領域に記載された機種名を情報処理装置が取得し、この情報処理装置がインターネット上に存在するサーバ装置に対して検索を指示し、この検索結果に基づいて、その機種名がGPSデータ付与機能を有しないことが判明したら、この撮像装置により撮像された画像ファイルにかかるGPSデータは撮像動作後に追加されたものであると判断する手法が挙げられる。   As an example of a method for detecting an image file having GPS data added after an imaging operation, the information processing apparatus acquires the model name described in the model name area of the image file, and the information processing apparatus exists on the Internet. If the server name is instructed to search and if it is determined that the model name does not have a GPS data adding function based on the search result, the GPS data relating to the image file captured by the imaging device is captured. There is a method of judging that it was added later.

また、例えば画像ファイルを自宅等で撮像した場合に、その画像ファイルにかかるGPSデータが露呈してしまうことを防ぐ目的で、撮像動作後に、このGPSデータを削除、あるいは別のGPSデータに置換等することも考えられる。このような場合も、この画像ファイルを生成した撮像装置は基準としない処理を行うことが好ましい。   For example, when an image file is captured at home or the like, this GPS data is deleted or replaced with another GPS data after the imaging operation in order to prevent the GPS data related to the image file from being exposed. It is also possible to do. Even in such a case, it is preferable that the imaging apparatus that generated the image file performs processing that is not used as a reference.

また、上述の一実施形態では、情報処理装置1に取り込まれた画像ファイル50、51の全てについて補正値算出処理を行っていたが、取り込まれた画像ファイル50、51のうち一部の時間範囲、例えば特定の月に属する画像ファイル50、51についてのみ補正値算出処理を行ってもよい。加えて、時間軸を例えば月単位に区分し、区分された月単位で上述した補正値算出処理を行ってもよい。この場合、区分された月単位毎に補正値52が算出される。   In the above-described embodiment, the correction value calculation processing is performed for all of the image files 50 and 51 captured in the information processing apparatus 1, but some time ranges of the captured image files 50 and 51 are used. For example, the correction value calculation processing may be performed only for the image files 50 and 51 belonging to a specific month. In addition, for example, the time axis may be divided into monthly units, and the correction value calculation process described above may be performed in divided monthly units. In this case, the correction value 52 is calculated for each divided monthly unit.

さらに、上述の一実施形態では、図1に示すように情報処理装置1と第1及び第2の撮像装置2、3、さらには画像表示装置4はUSBケーブル5やHDMIケーブル7により接続されていたが、情報処理装置1をネットワーク上に設置し、画像ファイル50、51をネットワーク経由で情報処理装置1に転送し、また、情報処理装置1からの画面表示用信号をネットワーク経由で画像表示装置4が受信してもよい。   Further, in the above-described embodiment, as illustrated in FIG. 1, the information processing apparatus 1 and the first and second imaging apparatuses 2 and 3 and the image display apparatus 4 are connected by a USB cable 5 or an HDMI cable 7. However, the information processing apparatus 1 is installed on the network, the image files 50 and 51 are transferred to the information processing apparatus 1 via the network, and the screen display signal from the information processing apparatus 1 is transmitted via the network to the image display apparatus. 4 may receive.

そして、上述の一実施形態において、情報処理装置1を動作させるプログラムはROM11、HDD部16等に格納されて提供されていたが、不図示の光学ディスクドライブ、カードインタフェース13c、USBインタフェース13d等を用いて、プログラムが格納されたDVD(Digital Versatile Disc)、USBフラッシュメモリ装置、メモリーカード6等を接続し、このDVD等からプログラムを情報処理装置1に読み込んで動作させてもよい。また、WAN24上の装置内にプログラムを格納しておき、ネットワークインタフェース15を介してこのプログラムを情報処理装置1に読み込んで動作させてもよい。さらに、上述の一実施形態において、情報処理装置1は複数のハードウェア要素により構成されていたが、これらハードウェア要素の一部の動作をCPU10がプログラムの動作により実現することも可能である。   In the above-described embodiment, the program for operating the information processing apparatus 1 is stored and provided in the ROM 11, the HDD unit 16, and the like. However, an optical disk drive (not shown), the card interface 13c, the USB interface 13d, and the like It is also possible to connect a DVD (Digital Versatile Disc) storing a program, a USB flash memory device, a memory card 6 or the like and read the program from the DVD or the like into the information processing apparatus 1 to operate. Alternatively, a program may be stored in a device on the WAN 24 and the program may be read and operated by the information processing device 1 via the network interface 15. Furthermore, in the above-described embodiment, the information processing apparatus 1 is configured by a plurality of hardware elements. However, the CPU 10 can realize some operations of these hardware elements by the operation of a program.

1 情報処理装置
2 第1の撮像装置
3 第2の撮像装置
4 画像表示装置
5 USBケーブル
6 メモリーカード
7 HDMIケーブル
10 CPU
11 ROM
12 RAM
13 入出力デバイス
13a 入力インタフェース
13b 入力指示部
13c カードインタフェース
13d USBインタフェース
14 HDMIインタフェース
15 ネットワークインタフェース
16 HDD部
16a HDD
16b HDDインタフェース
20 入力機器
21 USB機器
22 HDMI出力機器
23 ルータ
24 WAN
30 制御部
31 記憶部
32 入力部
33 出力部
34 配列部
35 頻度算出部
36 補正値算出部
37 撮像時刻更新部
38 表示制御部
50 第1の画像ファイル
50a 第1の画像データ
50b、51b 時刻データ
51 第2の画像ファイル
51a 第2の画像データ
52 補正値
53 評価値テーブル
54 登録テーブル
80a、80b 時間軸
81 時間区間
82a、82b 頻度
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 2 1st imaging device 3 2nd imaging device 4 Image display apparatus 5 USB cable 6 Memory card 7 HDMI cable 10 CPU
11 ROM
12 RAM
13 I / O device 13a Input interface 13b Input instruction unit 13c Card interface 13d USB interface 14 HDMI interface 15 Network interface 16 HDD unit 16a HDD
16b HDD interface 20 Input device 21 USB device 22 HDMI output device 23 Router 24 WAN
30 control unit 31 storage unit 32 input unit 33 output unit 34 array unit 35 frequency calculation unit 36 correction value calculation unit 37 imaging time update unit 38 display control unit 50 first image file 50a first image data 50b, 51b time data 51 Second image file 51a Second image data 52 Correction value 53 Evaluation value table 54 Registration table 80a, 80b Time axis 81 Time interval 82a, 82b Frequency

Claims (8)

複数の撮像装置により撮像され、画像データ及びこの画像データの撮像時刻データを含む複数の画像ファイルが格納された記憶部を有する情報処理装置において、
前記撮像時刻データに基づいて、所定の時間範囲内に撮像時刻が含まれる前記画像ファイルの頻度を算出する頻度算出部と、
前記頻度算出部により算出された前記画像ファイルの頻度を前記撮像装置毎に比較し、この頻度が合致するように、一の前記撮像装置により撮像された前記画像ファイルの前記撮像時刻データに対する他の前記撮像装置により撮像された前記画像ファイルの前記撮像時刻データの補正値を算出する補正値算出部と、
前記補正値算出部により算出された前記補正値により前記撮像時刻データを補正して、複数の前記画像ファイルを時間の推移に従って表示する表示画面を表示するための画面表示用信号を生成する表示制御部と、
前記画面表示用信号を出力する出力部と
を備えることを特徴とする情報処理装置。
In an information processing apparatus having a storage unit in which a plurality of image files captured by a plurality of imaging devices and storing image data and imaging time data of the image data are stored.
A frequency calculating unit that calculates the frequency of the image file including the imaging time within a predetermined time range based on the imaging time data;
The frequency of the image file calculated by the frequency calculation unit is compared for each of the imaging devices, and the other of the imaging time data of the image file captured by one of the imaging devices is matched so that the frequency matches. A correction value calculation unit that calculates a correction value of the imaging time data of the image file captured by the imaging device;
Display control that corrects the imaging time data with the correction value calculated by the correction value calculation unit and generates a screen display signal for displaying a display screen that displays a plurality of the image files according to a transition of time. And
An information processing apparatus comprising: an output unit that outputs the screen display signal.
前記補正値算出部は、前記他の撮像装置のうち少なくとも一つの前記撮像装置により撮像された前記画像ファイルの前記撮像時刻データに差分値を加減し、前記頻度算出部により算出された前記画像ファイルの頻度を前記撮像装置毎に比較してこの頻度が一致した差分値を補正値として出力する
ことを特徴とする請求項1記載の情報処理装置。
The correction value calculation unit adds or subtracts a difference value to the imaging time data of the image file captured by at least one of the other imaging devices, and the image file calculated by the frequency calculation unit The information processing apparatus according to claim 1, wherein a difference value in which the frequencies coincide with each other is compared as a correction value.
前記情報処理装置は、前記撮像時刻データに基づいて、前記撮像装置毎に、複数の前記画像ファイルを時間軸上に配列する配列部を備えることを特徴とする請求項1または2記載の情報処理装置。   3. The information processing according to claim 1, wherein the information processing device includes an arrangement unit that arranges a plurality of the image files on a time axis for each of the imaging devices based on the imaging time data. apparatus. 前記頻度算出部は、前記時間軸上にそれぞれ略等しい時間範囲を有する時間区間を設け、前記配列部により配列された状態で、前記時間区間毎に撮像時刻が含まれる前記画像ファイルの頻度を前記撮像時刻データに基づいて算出することを特徴とする請求項3記載の情報処理装置。   The frequency calculation unit provides time intervals each having substantially the same time range on the time axis, and in the state arranged by the arrangement unit, the frequency of the image file including the imaging time for each time interval is The information processing apparatus according to claim 3, wherein the information processing apparatus calculates the time based on imaging time data. 前記補正値算出部は、前記頻度算出部が算出した前記時間区間毎の前記画像ファイルの頻度を前記撮像装置毎に比較し、この頻度が合致するように、前記一の撮像装置により撮像された前記画像ファイルの前記撮像時刻データに対する他の前記撮像装置により撮像された前記画像ファイルの前記撮像時刻データの補正値を算出することを特徴とする請求項4記載の情報処理装置。   The correction value calculation unit compares the frequency of the image file for each time interval calculated by the frequency calculation unit for each imaging device, and is captured by the one imaging device so that the frequencies match. The information processing apparatus according to claim 4, wherein a correction value of the imaging time data of the image file captured by the other imaging apparatus with respect to the imaging time data of the image file is calculated. 前記情報処理装置は、前記補正値算出部により算出された補正値により前記撮像時刻データを更新して前記記憶部に格納する撮像時刻更新部を備えることを特徴とする請求項1〜5のいずれかに記載の情報処理装置。   The said information processing apparatus is provided with the imaging time update part which updates the said imaging time data with the correction value calculated by the said correction value calculation part, and stores it in the said memory | storage part. An information processing apparatus according to claim 1. 複数の撮像装置により撮像され、画像データ及びこの画像データの撮像時刻データを含む複数の画像ファイルが格納された記憶部を有する情報処理装置における表示方法であって、
前記撮像時刻データに基づいて、所定の時間範囲内に撮像時刻が含まれる前記画像ファイルの頻度を算出する工程と、
算出された前記画像ファイルの頻度を前記撮像装置毎に比較し、この頻度が合致するように、一の前記撮像装置により撮像された前記画像ファイルの前記撮像時刻データに対する他の前記撮像装置により撮像された前記画像ファイルの前記撮像時刻データの補正値を算出する工程と、
算出された前記補正値により前記撮像時刻データを補正して、複数の前記画像ファイルを時間の推移に従って表示する表示画面を表示するための画面表示用信号を生成する工程と、
前記画面表示用信号を出力する工程と
を備えることを特徴とする情報処理装置における表示方法。
A display method in an information processing apparatus having a storage unit in which a plurality of image files captured by a plurality of imaging devices and storing a plurality of image files including image data and imaging time data of the image data are stored.
Calculating the frequency of the image file whose imaging time is included within a predetermined time range based on the imaging time data;
The calculated frequency of the image file is compared for each imaging device, and imaging is performed by another imaging device with respect to the imaging time data of the image file captured by one imaging device so that the frequencies match. Calculating a correction value of the imaging time data of the image file that has been
Correcting the imaging time data by the calculated correction value, and generating a screen display signal for displaying a display screen for displaying a plurality of the image files according to a transition of time;
And a step of outputting the screen display signal. A display method in an information processing apparatus.
複数の撮像装置により撮像され、画像データ及びこの画像データの撮像時刻データを含む複数の画像ファイルが格納された記憶部を有するコンピュータにより実行されるプログラムであって、
このプログラムは、コンピュータにより実行されると、
前記撮像時刻データに基づいて、所定の時間範囲内に撮像時刻が含まれる前記画像ファイルの頻度を算出する工程と、
算出された前記画像ファイルの頻度を前記撮像装置毎に比較し、この頻度が合致するように、一の前記撮像装置により撮像された前記画像ファイルの前記撮像時刻データに対する他の前記撮像装置により撮像された前記画像ファイルの前記撮像時刻データの補正値を算出する工程と、
算出された前記補正値により前記撮像時刻データを補正して、複数の前記画像ファイルを時間の推移に従って表示する表示画面を表示するための画面表示用信号を生成する工程と、
前記画面表示用信号を出力する工程と
を実行することを特徴とするプログラム。
A program executed by a computer having a storage unit that is captured by a plurality of imaging devices and stores a plurality of image files including image data and imaging time data of the image data,
When this program is executed by a computer,
Calculating the frequency of the image file whose imaging time is included within a predetermined time range based on the imaging time data;
The calculated frequency of the image file is compared for each imaging device, and imaging is performed by another imaging device with respect to the imaging time data of the image file captured by one imaging device so that the frequencies match. Calculating a correction value of the imaging time data of the image file that has been
Correcting the imaging time data by the calculated correction value, and generating a screen display signal for displaying a display screen for displaying a plurality of the image files according to a transition of time;
And a step of outputting the screen display signal.
JP2013067131A 2013-03-27 2013-03-27 Information processing apparatus, display method and program in information processing apparatus Active JP6089865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013067131A JP6089865B2 (en) 2013-03-27 2013-03-27 Information processing apparatus, display method and program in information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013067131A JP6089865B2 (en) 2013-03-27 2013-03-27 Information processing apparatus, display method and program in information processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017009289A Division JP6296182B2 (en) 2017-01-23 2017-01-23 Information processing apparatus, display method and program in information processing apparatus

Publications (2)

Publication Number Publication Date
JP2014192746A true JP2014192746A (en) 2014-10-06
JP6089865B2 JP6089865B2 (en) 2017-03-08

Family

ID=51838631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013067131A Active JP6089865B2 (en) 2013-03-27 2013-03-27 Information processing apparatus, display method and program in information processing apparatus

Country Status (1)

Country Link
JP (1) JP6089865B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5087555B2 (en) * 2006-11-22 2012-12-05 株式会社フジキン Fluid coupling

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097076A (en) * 2005-09-30 2007-04-12 Fujifilm Corp Photographic time correction apparatus, photographic time correction method and program
JP2010246050A (en) * 2009-04-09 2010-10-28 Canon Inc Data management device, method of controlling the same, and program
JP2011055294A (en) * 2009-09-02 2011-03-17 Sony Corp Imaging apparatus, imaging system and imaging method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097076A (en) * 2005-09-30 2007-04-12 Fujifilm Corp Photographic time correction apparatus, photographic time correction method and program
JP2010246050A (en) * 2009-04-09 2010-10-28 Canon Inc Data management device, method of controlling the same, and program
JP2011055294A (en) * 2009-09-02 2011-03-17 Sony Corp Imaging apparatus, imaging system and imaging method

Also Published As

Publication number Publication date
JP6089865B2 (en) 2017-03-08

Similar Documents

Publication Publication Date Title
US11516557B2 (en) System and method for enhanced video image recognition using motion sensors
US20160337718A1 (en) Automated video production from a plurality of electronic devices
CN108605115B (en) Tracking assistance device, tracking assistance system, and tracking assistance method
JP2016154306A (en) Chase support device, case support system and chase support method
JP5446794B2 (en) Imaging apparatus, data processing method, and program
US20190172423A1 (en) Image processing apparatus and image processing method
JP5292399B2 (en) Content editing device
JP4603403B2 (en) Video album automatic creation system and computer program
JP2012165142A (en) Information processor, control method therefor, and program
JP6089865B2 (en) Information processing apparatus, display method and program in information processing apparatus
JP6296182B2 (en) Information processing apparatus, display method and program in information processing apparatus
US9307113B2 (en) Display control apparatus and control method thereof
JP2008306355A (en) Image reproduction processing device, image reproduction processing method, program, and recording medium
JP6179315B2 (en) Information processing apparatus, image processing system, image processing method and program in information processing apparatus
JP6632360B2 (en) Information processing device
JP6146108B2 (en) Information processing apparatus, image display system, image display method, and program
JP2014120815A (en) Information processing apparatus, imaging device, information processing method, program, and storage medium
KR101741150B1 (en) An imaging photographing device and an imaging photographing method using an video editing
CN111683215A (en) Video playback method and device, electronic equipment and computer readable storage medium
JP2015119320A (en) Information processing system and program
JP6028605B2 (en) Information processing apparatus, data providing method and program in information processing apparatus
JP2011044990A (en) Imaging device
JP6098458B2 (en) Information processing device
US8810685B2 (en) Imagine apparatus, information processing apparatus, imaging system and methods thereof for management of image data
JP6222313B2 (en) Information processing apparatus, data providing method and program in information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R150 Certificate of patent or registration of utility model

Ref document number: 6089865

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250