JP6628670B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6628670B2
JP6628670B2 JP2016071787A JP2016071787A JP6628670B2 JP 6628670 B2 JP6628670 B2 JP 6628670B2 JP 2016071787 A JP2016071787 A JP 2016071787A JP 2016071787 A JP2016071787 A JP 2016071787A JP 6628670 B2 JP6628670 B2 JP 6628670B2
Authority
JP
Japan
Prior art keywords
data
shooting
shooting data
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016071787A
Other languages
Japanese (ja)
Other versions
JP2017184132A (en
Inventor
宇一郎 野澤
宇一郎 野澤
Original Assignee
サクサ株式会社
株式会社マイスター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サクサ株式会社, 株式会社マイスター filed Critical サクサ株式会社
Priority to JP2016071787A priority Critical patent/JP6628670B2/en
Publication of JP2017184132A publication Critical patent/JP2017184132A/en
Application granted granted Critical
Publication of JP6628670B2 publication Critical patent/JP6628670B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing device and an image processing method.

従来、動画コンテンツを編集する装置が知られている。特許文献1には、動画コンテンツのうち、ユーザがマーキングしたフレームの画像を削除することができる画像編集装置が開示されている。   2. Description of the Related Art Conventionally, an apparatus for editing moving image content is known. Patent Literature 1 discloses an image editing apparatus capable of deleting an image of a frame marked by a user from moving image content.

特表2014−501466号公報JP 2014-501466 A

従来の技術を用いることにより、ユーザは、動画コンテンツのうち、被写体が所望の通りに写っていない画像を削除することができる。そして、ユーザは、例えば、被写体にフォーカスが合っていない画像、障害物が被写体を隠してしまっている画像、被写体が暗い状態で写っている画像のように、ユーザにとって望ましくない画像が含まれない動画コンテンツを作成することができる。しかしながら、このようにして画像を削除してしまうと、削除した場面の記録が消えてしまうという問題があった。   By using the conventional technology, the user can delete an image in which the subject is not captured as desired from the moving image content. Then, the user does not include an image that is not desirable for the user, such as an image in which the subject is out of focus, an image in which an obstacle hides the subject, and an image in which the subject appears in a dark state. Can create video content. However, when the image is deleted in this way, there is a problem that the record of the deleted scene is lost.

そこで、本発明はこれらの点に鑑みてなされたものであり、ユーザが所望しない画像を削除しつつ、削除した場面の記録を残すことができるようにする画像処理装置及び画像処理方法を提供することを目的とする。   Accordingly, the present invention has been made in view of these points, and provides an image processing apparatus and an image processing method that allow a user to delete an undesired image and leave a record of the deleted scene. The purpose is to:

本発明の第1の態様に係る画像処理装置は、第1撮影装置が撮影して生成された複数の第1撮影データ、及び第2撮影装置が撮影して生成された複数の第2撮影データを取得する取得部と、前記複数の第1撮影データ及び前記複数の第2撮影データのうち、同一のタイミングで撮影された前記第1撮影データ及び前記第2撮影データを特定する特定部と、所定の品質条件に基づいて、前記特定部が特定した前記第1撮影データ及び前記第2撮影データのうち、いずれか一方の撮影データを選択する選択部と、前記選択部が選択した撮影データを出力する出力部と、を有する。   An image processing apparatus according to a first aspect of the present invention includes a plurality of first imaging data generated by imaging by a first imaging device and a plurality of second imaging data generated by imaging by a second imaging device. And an identification unit that identifies the first imaging data and the second imaging data captured at the same timing among the plurality of first imaging data and the plurality of second imaging data, A selection unit that selects one of the first imaging data and the second imaging data identified by the identification unit based on a predetermined quality condition; and a selection unit that selects the imaging data selected by the selection unit. And an output unit for outputting.

前記特定部は、例えば、前記複数の第1撮影データ及び前記複数の第2撮影データに共通に含まれる類似する特徴を抽出し、抽出した前記類似する特徴の間の類似度が所定の閾値以上であることを条件として、同一のタイミングで撮影された前記第1撮影データ及び前記第2撮影データを特定する。   The specifying unit may extract, for example, similar features commonly included in the plurality of first shooting data and the plurality of second shooting data, and a similarity between the extracted similar features may be equal to or greater than a predetermined threshold. The first imaging data and the second imaging data captured at the same timing are specified on the condition that

前記特定部は、前記類似する特徴が含まれる前記第1撮影データ及び前記第2撮影データの組み合わせを少なくとも一つ抽出した場合に、前記第1撮影データの第1撮影時刻情報と前記第2撮影データの第2撮影時刻情報との差分に基づいて前記複数の第1撮影データの撮影時刻と前記複数の第2撮影データの撮影時刻との関係を特定することにより、同一のタイミングで撮影された前記第1撮影データ及び前記第2撮影データを特定してもよい。   The identification unit, when extracting at least one combination of the first imaging data and the second imaging data including the similar feature, includes first imaging time information of the first imaging data and the second imaging data. By specifying the relationship between the shooting times of the plurality of first shooting data and the shooting times of the plurality of second shooting data based on the difference between the data and the second shooting time information, shooting was performed at the same timing. The first shooting data and the second shooting data may be specified.

前記選択部は、例えば、前記複数の第1撮影データ及び前記複数の第2撮影データに最も高い頻度で写っている被写体の画像の品質を前記所定の品質条件と比較することにより、いずれか一方の撮影データを選択する。   The selection unit may compare one of the plurality of first shooting data and the plurality of second shooting data with the predetermined image quality of an image of a subject, which is most frequently taken, with one of the predetermined quality conditions. Select the shooting data of.

前記選択部は、前記複数の第1撮影データ及び前記複数の第2撮影データに含まれている顔の領域が最も大きい被写体の画像の品質を前記所定の品質条件と比較することにより、いずれか一方の撮影データを選択してもよい。   The selecting unit compares any of the image quality of the subject having the largest face area included in the plurality of first shooting data and the plurality of second shooting data with the predetermined quality condition, One of the photographing data may be selected.

前記取得部は、前記選択部が品質を確認する対象とする被写体を特定する被写体情報をさらに取得し、前記選択部は、前記被写体情報に対応する被写体の画像の品質を前記所定の品質条件と比較することにより、いずれか一方の撮影データを選択してもよい。   The obtaining unit further obtains subject information specifying a subject whose quality is to be checked by the selecting unit, and the selecting unit sets the quality of an image of the subject corresponding to the subject information to the predetermined quality condition. Any one of the photographing data may be selected by comparing.

前記選択部は、前記複数の第1撮影データ及び前記複数の第2撮影データのうち、選択する撮影データを切り替えてから所定の時間が経過するまでは、選択した前記撮影データを撮影したカメラで撮影された撮影データを継続して選択してもよい。   The selection unit is a camera that captures the selected photographing data from the plurality of first photographing data and the plurality of second photographing data until a predetermined time elapses after switching the photographing data to be selected. The photographed data may be continuously selected.

前記選択部は、前記複数の第1撮影データ及び前記複数の第2撮影データのうち、選択した撮影データを切り替えてから所定の時間が経過する前と後とで、前記所定の品質条件を異なる条件としてもよい。   The selection unit changes the predetermined quality condition before and after a predetermined time elapses after switching the selected shooting data among the plurality of first shooting data and the plurality of second shooting data. It may be a condition.

本発明の第2の態様に係る画像処理方法は、第1撮影装置が撮影して生成された複数の第1撮影データ、及び第2撮影装置が撮影して生成された複数の第2撮影データを取得するステップと、前記複数の第1撮影データ及び前記複数の第2撮影データのうち、同一のタイミングで撮影された前記第1撮影データ及び前記第2撮影データを特定するステップと、特定した前記第1撮影データ及び前記第2撮影データのうち、所定の品質条件に基づいていずれか一方の撮影データを選択するステップと、選択した撮影データを出力するステップと、を有する。   The image processing method according to the second aspect of the present invention provides a plurality of first photographing data generated by photographing the first photographing device and a plurality of second photographing data generated by photographing the second photographing device. Acquiring, and identifying the first shooting data and the second shooting data shot at the same timing among the plurality of first shooting data and the plurality of second shooting data, The method includes a step of selecting one of the first shooting data and the second shooting data based on a predetermined quality condition, and a step of outputting the selected shooting data.

本発明によれば、ユーザが所望しない画像を削除しつつ、削除した場面の記録を残すことができるという効果を奏する。   Advantageous Effects of Invention According to the present invention, there is an effect that a record of a deleted scene can be left while deleting an image that the user does not want.

画像処理装置の概要を説明するための図である。FIG. 2 is a diagram illustrating an outline of an image processing apparatus. ユーザが撮影して得られた撮影データの例を示す図である。FIG. 5 is a diagram illustrating an example of photographing data obtained by photographing by a user. 画像処理装置の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of an image processing apparatus. 特定部が同じタイミングに撮影された撮影データの組み合わせを特定する処理について説明するための図である。FIG. 11 is a diagram for describing a process in which a specifying unit specifies a combination of pieces of shooting data shot at the same timing. 画像処理装置が実行する画像処理方法のフローチャートである。5 is a flowchart of an image processing method executed by the image processing device. 特定部が同じタイミングで撮影された撮影データを特定する手順を示すフローチャートである。9 is a flowchart illustrating a procedure in which a specifying unit specifies shooting data shot at the same timing.

[画像処理装置1の概要]
図1は、画像処理装置1の概要を説明するための図である。画像処理装置1は、複数の異なるアングルで撮影された複数の撮影データを含む複数の撮影ファイルを受信し、受信した複数の撮影ファイルに含まれる、同じタイミングで撮影されたデータのうち、被写体が良好に写っている撮影データを選択して編集した編集データを出力する。
[Overview of Image Processing Apparatus 1]
FIG. 1 is a diagram for explaining an outline of the image processing apparatus 1. The image processing apparatus 1 receives a plurality of shooting files including a plurality of shooting data shot at a plurality of different angles, and among the data shot at the same timing included in the plurality of received shooting files, the The editing data obtained by selecting and editing the photographing data that is well captured is output.

図1(a)に示すように、第1カメラ100(第1撮影装置)を所有する第1ユーザが、運動会及び学芸会等のイベントや旅行先において、第1のアングルで被写体を撮影し、第2カメラ200(第2撮影装置)を所有する第2ユーザ(例えば、第1ユーザの家族)が、第1ユーザが撮影中のイベントや旅行先において、第2のアングルで被写体を撮影しているとする。第1カメラ100で撮影された第1撮影データは、第1撮影ファイルとして第1カメラ100の記憶媒体に記憶される。また、第2カメラ200で撮影された第2撮影データは、第2撮影ファイルとして第2カメラ200の記憶媒体に記憶される。ここで、第1撮影データ及び第2撮影データは、映像を構成する複数のフレームのうちの1つのフレームに含まれるデータである。第1撮影ファイル及び第2撮影ファイルには、画像データとともに音データが含まれている。   As shown in FIG. 1A, a first user who owns a first camera 100 (first photographing device) photographs a subject at a first angle at an event such as an athletic meet or a school festival or a travel destination, A second user (for example, a family of the first user) who owns the second camera 200 (second imaging device) captures an object at a second angle at an event or a travel destination where the first user is capturing an image. Suppose you have The first photographing data photographed by the first camera 100 is stored in the storage medium of the first camera 100 as a first photographing file. Further, the second shooting data shot by the second camera 200 is stored in the storage medium of the second camera 200 as a second shooting file. Here, the first shooting data and the second shooting data are data included in one of a plurality of frames forming a video. The first shooting file and the second shooting file include sound data together with image data.

続いて、図1(b)に示すように、第1ユーザ及び第2ユーザは、ユーザ端末2を用いて、第1撮影ファイル及び第2撮影ファイルを画像処理装置1にアップロードする。ここでは、第1ユーザと第2ユーザとが家族であり、第1ユーザが、共用のユーザ端末2を用いて第1撮影ファイル及び第2撮影ファイルを画像処理装置1にアップロードする場合について説明するが、第1ユーザ及び第2ユーザが、それぞれのユーザ端末を用いて、第1撮影ファイル及び第2撮影ファイルを画像処理装置1にアップロードしてもよい。   Subsequently, as illustrated in FIG. 1B, the first user and the second user upload the first shooting file and the second shooting file to the image processing device 1 using the user terminal 2. Here, a case will be described in which the first user and the second user are family members, and the first user uploads the first shooting file and the second shooting file to the image processing apparatus 1 using the shared user terminal 2. However, the first user and the second user may upload the first shooting file and the second shooting file to the image processing device 1 using the respective user terminals.

画像処理装置1は、例えば、インターネットを介してユーザ端末2に接続されたサーバであり、第1ユーザが、ユーザ端末2を用いて画像処理装置1にアクセスすると、画像処理装置1は、撮影ファイルをアップロードするための画面をユーザ端末2に表示させる。第1ユーザは、記憶媒体やネットワークを介して、第1カメラ100及び第2カメラ200に記憶された第1撮影ファイル及び第2撮影ファイルをユーザ端末2に移動させた後に、ユーザ端末2から第1撮影ファイル及び第2撮影ファイルをアップロードする。   The image processing apparatus 1 is, for example, a server connected to the user terminal 2 via the Internet. When a first user accesses the image processing apparatus 1 using the user terminal 2, the image processing apparatus 1 Is displayed on the user terminal 2. The first user moves the first shooting file and the second shooting file stored in the first camera 100 and the second camera 200 to the user terminal 2 via a storage medium or a network, Upload the first shooting file and the second shooting file.

画像処理装置1は、第1撮影ファイル及び第2撮影ファイルを受信すると、第1撮影ファイルに含まれる複数の第1撮影データ及び第2撮影ファイルに含まれる複数の第2撮影データのいずれかに共通に含まれている特徴的な音(例えば、運動会におけるピストル音や放送の声)や画像(例えば、結婚披露宴におけるフラッシュの点滅)に基づいて、同じタイミングで撮影された画像を含む第1撮影データ及び第2撮影データを特定する。   Upon receiving the first shooting file and the second shooting file, the image processing apparatus 1 stores any one of the plurality of first shooting data included in the first shooting file and the plurality of second shooting data included in the second shooting file. First shooting including images shot at the same timing based on characteristic sounds (for example, a pistol sound or broadcast voice at an athletic meet) and images (for example, flashing flashes at a wedding reception) that are commonly included Data and second imaging data are specified.

画像処理装置1は、同じタイミングで撮影された第1撮影データ及び第2撮影データを特定すると、同じタイミングで撮影された第1撮影データ及び第2撮影データのうち、品質が良い撮影データを選択する。品質は、例えば、被写体にフォーカスが合っているか、被写体の全体が写っているか、被写体が適切な明るさで写っているか等の条件によって判定される。   When the image processing apparatus 1 specifies the first shooting data and the second shooting data shot at the same timing, the image processing apparatus 1 selects high-quality shooting data from the first shooting data and the second shooting data shot at the same timing. I do. The quality is determined based on, for example, conditions such as whether the subject is in focus, whether the entire subject is photographed, and whether the subject is photographed with appropriate brightness.

画像処理装置1は、品質が良い撮影データを選択すると、図1(c)に示すように、編集データを含む編集ファイルを出力する。画像処理装置1は、例えば、インターネットを介して、ユーザ端末2に編集ファイルを送信する。編集ファイルは、例えばDVDのフォーマットに適合しており、ユーザ端末2で編集ファイルを受信したユーザは、受信した編集ファイルをDVD等の記憶媒体に書き込むことができる。ユーザは、DVDレコーダで編集ファイルを再生すると、同じタイミングで別アングルから撮影された画像のうち、品質が良い画像を視聴することができる。このようにすることで、第1カメラ100で撮影した画像の品質が低い場合であっても、ユーザは、同じタイミングで同じ被写体を第2カメラ200で撮影した画像を視聴することができるので、品質が悪い画像の代わりに品質が良い画像を継続的に見ることができる。   When the image processing apparatus 1 selects high quality photographing data, the image processing apparatus 1 outputs an editing file including the editing data as shown in FIG. The image processing apparatus 1 transmits the edited file to the user terminal 2 via, for example, the Internet. The edited file conforms to, for example, a DVD format, and a user who has received the edited file at the user terminal 2 can write the received edited file to a storage medium such as a DVD. When the user plays back the edited file on the DVD recorder, the user can view a high-quality image among images shot from different angles at the same timing. By doing so, even if the quality of the image captured by the first camera 100 is low, the user can view an image of the same subject captured by the second camera 200 at the same timing, High quality images can be continuously viewed instead of poor quality images.

なお、画像処理装置1は、編集データを作成する際に、音声データは編集することなく、第1撮影データ及び第2撮影データのいずれか一方に付された音声データを編集データに含める。このようにすることで、ユーザが映像を視聴中に、音の大きさや質が変動することを防止できる。   When creating the editing data, the image processing apparatus 1 does not edit the audio data, but includes the audio data added to one of the first imaging data and the second imaging data in the editing data. By doing so, it is possible to prevent the sound volume and quality from fluctuating while the user is watching the video.

図2は、ユーザが撮影して得られた撮影データの例を示す図である。図2(a)は、第1撮影ファイルに含まれる複数の第1撮影データA1、A2、A3、及び第2撮影ファイルに含まれる複数の第2撮影データB1、B2を示している。図2に示す第1撮影データ及び第2撮影データは、運動会の同じ競技を行っている子供が、それぞれ異なるアングルから撮影されて生成されたデータである。第1撮影データA2は、撮影中に第1カメラ100の前に障害物が入ってしまい、斜線領域において被写体の一部が写っていない状態になっている。画像処理装置1は、このように品質が悪い画像を削除し、同じタイミングで第2カメラ200において撮影された画像に置き換えることで、図2(b)に示すように、品質が悪い画像が含まれない編集データを作成することができる。   FIG. 2 is a diagram illustrating an example of photographing data obtained by photographing by a user. FIG. 2A shows a plurality of first shooting data A1, A2, A3 included in the first shooting file, and a plurality of second shooting data B1, B2 included in the second shooting file. The first photographing data and the second photographing data shown in FIG. 2 are data generated by photographing children playing the same athletic meet from different angles. The first shooting data A2 is in a state where an obstacle enters in front of the first camera 100 during shooting and a part of the subject is not shown in the hatched area. The image processing apparatus 1 deletes such low-quality images and replaces the low-quality images with images captured by the second camera 200 at the same timing, as shown in FIG. Editing data can be created.

なお、第1撮影データ及び第2撮影データは、それぞれ異なるカメラで撮影されており、カメラに設定された時刻が不正確である場合、第2撮影データB1及びB2が、どの第1撮影データと同じタイミングで撮影されたかがわからない。画像処理装置1は、このように、撮影タイミングが未知の複数の第1撮影データ及び複数の第2撮影データのうち、どの第1撮影データとどの第2撮影データとが同じタイミングで撮影されたかを特定する。そして、同じタイミングで撮影された第1撮影データと第2撮影データのうち品質が良い撮影データを含む編集データを作成する。このようにすることで、ユーザは、ユーザが所望しない画像を削除しつつ、削除した場面の記録を残すことができる。
以下、画像処理装置1の構成及び動作について詳細に説明する。
It should be noted that the first shooting data and the second shooting data are shot by different cameras, respectively, and when the time set in the camera is incorrect, the second shooting data B1 and B2 correspond to any of the first shooting data. I don't know if they were shot at the same time. The image processing apparatus 1 determines which first shooting data and which second shooting data are shot at the same timing among the plurality of first shooting data and the plurality of second shooting data whose shooting timings are unknown. To identify. Then, edit data including high-quality shooting data of the first shooting data and the second shooting data shot at the same timing is created. By doing so, the user can leave a record of the deleted scene while deleting the image not desired by the user.
Hereinafter, the configuration and operation of the image processing apparatus 1 will be described in detail.

[画像処理装置1の構成]
図3は、画像処理装置1の構成を示す図である。画像処理装置1は、通信部11と、記憶部12と、制御部13とを有する。
通信部11は、例えば通信コントローラであり、インターネット等のネットワークを介して、ユーザ端末2との間でデータを送受信する。通信部11は、例えば、ユーザ端末2から撮影データを受信し、ユーザ端末2に対して合成データを送信する。
[Configuration of Image Processing Apparatus 1]
FIG. 3 is a diagram illustrating a configuration of the image processing apparatus 1. The image processing device 1 includes a communication unit 11, a storage unit 12, and a control unit 13.
The communication unit 11 is, for example, a communication controller, and transmits and receives data to and from the user terminal 2 via a network such as the Internet. The communication unit 11 receives, for example, photographing data from the user terminal 2 and transmits composite data to the user terminal 2.

記憶部12は、例えばROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体である。記憶部12は、制御部13が実行するプログラムや、制御部13が実行する処理に必要なデータを記憶している。また、記憶部12は、ユーザ端末2から受信した撮影データを記憶する。   The storage unit 12 is a storage medium such as a ROM (Read Only Memory), a RAM (Random Access Memory), and a hard disk. The storage unit 12 stores a program executed by the control unit 13 and data necessary for a process executed by the control unit 13. Further, the storage unit 12 stores the photographing data received from the user terminal 2.

制御部13は、例えばCPU(Central Processing Unit)であり、記憶部12に記憶されたプログラムを実行することにより、取得部131、特定部132、選択部133及び出力部134として機能する。   The control unit 13 is, for example, a CPU (Central Processing Unit), and functions as an acquisition unit 131, a specification unit 132, a selection unit 133, and an output unit 134 by executing a program stored in the storage unit 12.

取得部131は、第1カメラ100が撮影して生成された複数の第1撮影データを含む第1撮影ファイル、及び第2カメラ200が撮影して生成された複数の第2撮影データを含む第2撮影ファイルを、ユーザ端末2から取得する。取得部131は、取得した第1撮影ファイル及び第2撮影ファイルを記憶部12に記憶させる。
また、取得部131は、選択部133が撮影データの選択に用いる品質条件、及び品質を確認する対象とする被写体を特定する被写体情報等の各種の設定情報を取得する。
The acquisition unit 131 includes a first shooting file including a plurality of first shooting data generated by the first camera 100 and a second shooting file including a plurality of second shooting data generated by the second camera 200. 2. Acquire a shooting file from the user terminal 2. The acquisition unit 131 causes the storage unit 12 to store the acquired first photography file and second photography file.
In addition, the acquisition unit 131 acquires various setting information such as quality conditions used by the selection unit 133 to select photographing data and subject information for identifying a subject whose quality is to be checked.

特定部132は、複数の第1撮影データ及び複数の第2撮影データのうち、同一のタイミングで撮影された第1撮影データ及び第2撮影データを特定する。具体的には、特定部132は、特定部は、複数の第1撮影データ及び複数の第2撮影データのそれぞれに含まれる類似する特徴を抽出し、抽出した類似する特徴の間の類似度が所定の閾値以上であることを条件として、同一のタイミングで撮影された第1撮影データ及び第2撮影データを特定する。   The specifying unit 132 specifies the first shooting data and the second shooting data shot at the same timing among the plurality of first shooting data and the plurality of second shooting data. Specifically, the specifying unit 132 extracts the similar feature included in each of the plurality of first shooting data and the plurality of second shooting data, and determines the similarity between the extracted similar features. The first shooting data and the second shooting data shot at the same timing are specified on condition that they are equal to or larger than a predetermined threshold.

類似する特徴は、例えば音や画像の変化パターンである。特定部132は、音の特徴を抽出する場合、隣接する複数の第1撮影データ間で音のレベルが所定の閾値以上に変化している場合に、音の変化パターンを特徴として抽出する。複数の第1撮影データ及び複数の第2撮影データが、運動会で撮影されたデータである場合、競技の開始を知らせるピストル音は、他の音よりも大きい。したがって、ピストル音が鳴ったタイミングで撮影された第1撮影データ及び第2撮影データには、直前に撮影された第1撮影データ及び第2撮影データには存在しなかった高いレベルの音が記録されていると考えられる。そこで、特定部132は、第1撮影データに、直前の第1撮影データに比べて所定の閾値以上に変化している音が存在する場合、その音が記録されている複数の第1撮影データと音の変化パターンを特定する。例えば、ピストル音が鳴ってから消えるまでに0.3秒を要した場合、特定部132は、0.3秒分の複数の第1撮影データと、それぞれの第1撮影データに対応する音のレベルを特定し、特定した情報を記憶部12に記憶させる。   A similar feature is, for example, a sound or image change pattern. When extracting a feature of a sound, the specifying unit 132 extracts a change pattern of the sound as a feature when the level of the sound has changed by a predetermined threshold or more between a plurality of adjacent first imaging data. When the plurality of first shooting data and the plurality of second shooting data are data shot at an athletic meet, the pistol sound indicating the start of the competition is louder than other sounds. Therefore, a high-level sound that was not present in the first and second shooting data shot immediately before is recorded in the first and second shooting data shot at the timing of the pistol sound. It is thought that it is. Therefore, when the first photographing data includes a sound that has changed by a predetermined threshold or more as compared with the immediately preceding first photographing data, the specifying unit 132 determines the plurality of first photographing data in which the sound is recorded. And the sound change pattern. For example, when it takes 0.3 seconds from the sounding of the pistol sound to the disappearance of the sound, the identifying unit 132 outputs the plurality of first shooting data for 0.3 seconds and the sound corresponding to each of the first shooting data. The level is specified, and the specified information is stored in the storage unit 12.

続いて、特定部132は、第2撮影データ内の複数の第2撮影データを探索して、同等の音のパターンを含む複数の第2撮影データを特定する。特定部132は、例えば、直前の第2撮影データに比べて所定の閾値以上に変化している音が存在する第2撮影データを特定した後に、その後に続く第2撮影データにおいて、第1撮影データと同様に音のレベルが変化しているかどうかを確認する。   Subsequently, the specifying unit 132 searches for a plurality of second shooting data in the second shooting data, and specifies a plurality of second shooting data including an equivalent sound pattern. The specifying unit 132 specifies, for example, the second shooting data including the sound whose sound has changed by a predetermined threshold or more as compared with the immediately preceding second shooting data, and then performs the first shooting in the subsequent second shooting data. Check if the sound level is changing as well as the data.

特定部132は、第1撮影データにおいて抽出した音のパターンと第2撮影データにおいて抽出した音のパターンとを比較し、類似度を決定する。特定部132は、例えば、複数の第1撮影データに対応する複数の音のレベルと、複数の第2撮影データに対応する複数の音のレベルとの間の相関値を算出することで、類似度を決定する。特定部132は、類似度が所定の閾値以上である場合に、同等の音の変化パターンが含まれている複数の第1撮影データと複数の第2撮影データとが同じタイミングで撮影されたと判定する。   The specifying unit 132 compares the sound pattern extracted from the first image data with the sound pattern extracted from the second image data, and determines the similarity. The identification unit 132 calculates the similarity by calculating a correlation value between a plurality of sound levels corresponding to the plurality of first shooting data and a plurality of sound levels corresponding to the plurality of second shooting data, for example. Determine the degree. When the similarity is equal to or larger than the predetermined threshold, the specifying unit 132 determines that the plurality of first shooting data and the plurality of second shooting data including the same sound change pattern have been shot at the same timing. I do.

特定部132は、人の声や音楽等を特徴として抽出してもよい。例えば、特定部132は、複数の第1撮影データ及び複数の第2撮影データに共通に含まれている声の変化パターンや音楽の変化パターンに基づいて、同じタイミングで撮影された第1撮影データ及び第2撮影データを特定することができる。   The specifying unit 132 may extract a human voice, music, or the like as a feature. For example, the identification unit 132 may be configured to perform the first shooting data shooting at the same timing based on a voice change pattern or a music change pattern commonly included in the plurality of first shooting data and the plurality of second shooting data. And the second imaging data can be specified.

また、特定部132は、画像の変化パターンとして、フラッシュが点滅する変化パターンや被写体が変化するパターンを用いることができる。例えば、結婚披露宴の撮影データのように、第1撮影データ及び第2撮影データが、室内で撮影されて生成された場合に、多数の人のカメラで用いられるフラッシュが点滅するタイミングに同期して、第1撮影データ及び第2撮影データの輝度が変化すると考えられる。そこで、特定部132は、第1撮影データ及び第2撮影データにおける画像の輝度の変化パターンに基づいて、同じタイミングで撮影された第1撮影データ及び第2撮影データを特定することもできる。   In addition, the specifying unit 132 can use a change pattern in which the flash blinks or a pattern in which the subject changes as the change pattern of the image. For example, when the first image data and the second image data are generated by being imaged indoors, such as image data of a wedding reception, the flash used by the camera of many people is synchronized with the flashing timing. It is considered that the luminance of the first photographing data and the second photographing data changes. Therefore, the specifying unit 132 can also specify the first shooting data and the second shooting data shot at the same timing based on the luminance change pattern of the image in the first shooting data and the second shooting data.

特定部132は、同一の特徴が含まれている第1撮影データ及び第2撮影データを効率よく特定するために、第1撮影データ及び第2撮影データに含まれている撮影時刻情報が所定の範囲内の第1撮影データ及び第2撮影データから、類似する特徴を抽出してもよい。ユーザが第1カメラ100及び第2カメラ200に時刻を設定している場合、正確ではないとしても、概ね正しい時刻が設定されている可能性が高いので、同一のタイミングで撮影されたデータには、比較的近い撮影時刻情報が関連付けて記録されていると考えられる。したがって、特定部132は、第1撮影データに特徴的な音や画像の変化パターンを検出した際に、その第1撮影データに対応する撮影時刻情報に対して所定の範囲内の撮影時刻情報が付されている第2撮影データにおいて、類似する音や画像の変化パターンを探索することで、効率よく類似する特徴を抽出することができる。   The specifying unit 132 uses the predetermined shooting time information included in the first shooting data and the second shooting data in order to efficiently specify the first shooting data and the second shooting data that include the same feature. Similar features may be extracted from the first shooting data and the second shooting data within the range. If the user sets the time on the first camera 100 and the second camera 200, it is highly likely that the correct time is set, if not accurately. It is considered that relatively close photographing time information is recorded in association with the photographing time information. Therefore, when the identifying unit 132 detects a sound or a change pattern of an image characteristic of the first shooting data, the shooting time information within a predetermined range corresponds to the shooting time information corresponding to the first shooting data. By searching for a similar sound or a change pattern of an image in the attached second photographing data, a similar feature can be efficiently extracted.

特定部132は、類似する特徴が含まれる第1撮影データ及び第2撮影データの組み合わせを少なくとも一つ抽出した場合に、第1撮影データの第1撮影時刻情報と第2撮影データの第2撮影時刻情報との差分に基づいて複数の第1撮影データの撮影時刻と複数の第2撮影データの撮影時刻との関係を特定することにより、同一のタイミングで撮影された第1撮影データ及び第2撮影データを特定してもよい。特定部132は、例えば、類似する特徴が含まれる第1撮影データと第2撮影データの少なくとも一つの組み合わせを抽出すると、それらの撮影時刻情報の差分に基づいて、複数の第1撮影データに含まれる複数の第1撮影時刻情報及び複数の第2撮影データに含まれる複数の第2撮影時刻情報の少なくとも一方を補正することにより、複数の第1撮影データの撮影時刻と前記複数の第2撮影データの撮影時刻との関係を特定する。このようにすることで、特定部132は、同一のタイミングで撮影された複数の第1撮影データ及び複数の第2撮影データの特定に要する時間を短縮することができる。   When at least one combination of the first shooting data and the second shooting data including similar features is extracted, the specifying unit 132 determines the first shooting time information of the first shooting data and the second shooting data of the second shooting data. By specifying the relationship between the shooting time of the plurality of first shooting data and the shooting time of the plurality of second shooting data based on the difference with the time information, the first shooting data and the second shooting data shot at the same timing are specified. The shooting data may be specified. For example, upon extracting at least one combination of the first shooting data and the second shooting data including similar features, the specifying unit 132 includes the combination in the plurality of first shooting data based on the difference between the shooting time information. By correcting at least one of the plurality of pieces of first shooting time information and the plurality of pieces of second shooting time information included in the plurality of pieces of second shooting data, the shooting times of the plurality of pieces of first shooting data and the plurality of pieces of second shooting data are corrected. Specify the relationship between the data and the shooting time. By doing so, the specifying unit 132 can reduce the time required for specifying a plurality of first shooting data and a plurality of second shooting data shot at the same timing.

また、特定部132は、同一のシーンに含まれる第1撮影データ及び第2撮影データから類似する特徴を抽出してもよい。特定部132は、例えば、第1撮影データ及び第2撮影データに共通の被写体が写っている場合に、同一のシーンであると判定する。   Further, the specifying unit 132 may extract similar features from the first shooting data and the second shooting data included in the same scene. The specifying unit 132 determines that the scenes are the same when, for example, a common subject appears in the first shooting data and the second shooting data.

一例として、運動会の大玉ころがし競技で用いられる赤又は白の大玉の画像が、複数の第1撮影データ及び複数の第2撮影データに共通に含まれている場合、大玉が写っている複数の第1撮影データ及び複数の第2撮影データにおいて、類似する特徴が含まれているかどうかを抽出することが考えられる。第1撮影データ及び第2撮影データが旅行先で撮影されたデータである場合、特定部132は、共通の建築物が写っている場合に同一のシーンであると判定することができる。このように、特定部132は、同一のシーンに含まれる第1撮影データ及び第2撮影データから類似する特徴を抽出することにより、処理の時間を短縮できるとともに、同一のタイミングで撮影されたか否かの判定精度を向上させることができる。   As an example, when an image of a red or white large ball used in a large ball rolling competition of an athletic meet is commonly included in a plurality of first shooting data and a plurality of second shooting data, a plurality of second shots in which the big ball is captured It is conceivable to extract whether or not similar features are included in one shooting data and a plurality of second shooting data. When the first shooting data and the second shooting data are data shot at a travel destination, the specifying unit 132 can determine that the scene is the same when a common building is shown. As described above, the identifying unit 132 can reduce the processing time by extracting similar features from the first shooting data and the second shooting data included in the same scene, and determine whether or not shooting has been performed at the same timing. Accuracy of the determination can be improved.

特定部132は、同じタイミングに撮影された撮影データの組み合わせを特定するために、第1撮影データ及び第2撮影データのそれぞれから抽出された類似する特徴の間の類似度が所定の閾値以上である場合に、第1撮影データ及び第2撮影データに共通する識別情報を付与する。特定部132は、第1撮影データ及び第2撮影データを出力したビデオカメラが付与した撮影時刻情報とは異なる識別情報を付与するものとするが、特定部132は、撮影時刻情報を書き換えることにより識別情報を付与してもよい。   The specifying unit 132 specifies that the similarity between the similar features extracted from each of the first shooting data and the second shooting data is equal to or more than a predetermined threshold value in order to specify the combination of the shooting data shot at the same timing. In some cases, identification information common to the first imaging data and the second imaging data is added. The identifying unit 132 assigns identification information different from the imaging time information assigned by the video camera that outputs the first imaging data and the second imaging data, but the identifying unit 132 rewrites the imaging time information to Identification information may be added.

図4は、特定部132が同じタイミングに撮影された撮影データの組み合わせを特定する処理について説明するための図である。図4(a)は、ユーザ端末2から受信した第1撮影ファイル及び第2撮影ファイルの一部を示している。第2撮影ファイルにおいて、B14とB21との間ではシーンが切り替えられているものとしている。   FIG. 4 is a diagram for describing a process in which the specifying unit 132 specifies a combination of pieces of shooting data shot at the same timing. FIG. 4A shows a part of the first photographing file and the second photographing file received from the user terminal 2. In the second shooting file, it is assumed that the scene is switched between B14 and B21.

特定部132は、第1撮影データA12及び第2撮影データB13において、ピストル音を抽出している。また、特定部132は、第1撮影データA17及び第2撮影データB22において、放送の声を抽出している。特定部132は、第1撮影データA14において歓声を抽出しているが、第2撮影ファイルにおいては、歓声を抽出した撮影データが存在しない。このような場合、特定部132は、ピストル音が抽出された第1撮影データA12及び第2撮影データB13に識別情報としてID=0001を付与し、放送の声が抽出された第1撮影データA17及び第2撮影データB22にID=0002を付与する。   The specifying unit 132 extracts a pistol sound from the first shooting data A12 and the second shooting data B13. In addition, the specifying unit 132 extracts a broadcast voice from the first shooting data A17 and the second shooting data B22. The specifying unit 132 extracts cheers in the first photographing data A14, but there is no photographing data in which cheers are extracted in the second photographing file. In such a case, the specifying unit 132 assigns ID = 0001 as identification information to the first shooting data A12 and the second shooting data B13 from which the pistol sound is extracted, and the first shooting data A17 from which the broadcast voice is extracted. And ID = 0002 is assigned to the second photographing data B22.

また、特定部132は、同一の識別情報を付与した類似する特徴が含まれる第1撮影データ及び第2撮影データに基づいて、同じタイミングで撮影された複数の第1撮影データと複数の第2撮影データとを関連付けることで、同じタイミングで撮影された第1撮影データと第2撮影データの組み合わせを特定する。図4(b)は、特定部132が複数の第1撮影データと複数の第2撮影データとを関連付けた状態を示す図である。図4(b)においては、第1撮影データA11、A12、A13、A16、A17、A18が、第2撮影データB12、B13、B14、B21、B22、B23と同じタイミングで撮影されたデータとして関連付けられている。   In addition, the specifying unit 132 may generate a plurality of first shooting data and a plurality of second shooting data that are shot at the same timing based on the first shooting data and the second shooting data including similar features to which the same identification information is added. By associating with the photographing data, the combination of the first photographing data and the second photographing data photographed at the same timing is specified. FIG. 4B is a diagram illustrating a state in which the specifying unit 132 associates a plurality of first shooting data with a plurality of second shooting data. In FIG. 4B, the first photographing data A11, A12, A13, A16, A17, and A18 are associated as data photographed at the same timing as the second photographing data B12, B13, B14, B21, B22, and B23. Have been.

選択部133は、特定部132が同一のタイミングで撮影された撮影データとして特定した第1撮影データ及び第2撮影データのうち、所定の品質条件に基づいていずれか一方の撮影データを選択する。品質条件は、被写体にフォーカスが合っているか、被写体の全体が写っているか、被写体が適切な明るさで写っているか等である。選択部133は、各撮影データが、それぞれの品質条件をどの程度満たしているかに応じて品質を数値化し、品質が高い数値を示している撮影データを選択する。選択部133は、ユーザにより指定された優先順位に基づいて複数の品質条件に重み付けをして品質を数値化してもよい。   The selection unit 133 selects any one of the first imaging data and the second imaging data specified as the imaging data shot at the same timing by the identification unit 132 based on a predetermined quality condition. The quality conditions include whether the subject is in focus, whether the entire subject is captured, whether the subject is captured with appropriate brightness, and the like. The selection unit 133 quantifies the quality according to the degree to which each piece of image data satisfies each quality condition, and selects image data indicating a high quality numerical value. The selection unit 133 may weight the plurality of quality conditions based on the priority specified by the user and quantify the quality.

図4(c)は、選択部133が、品質が良い撮影データを選択することにより作成された編集ファイルの例を示す図である。図4(c)においては、B11〜B13の後にA13〜A16が選択され、A13〜A16の後にB22〜B24が選択されている。   FIG. 4C is a diagram illustrating an example of an edit file created by the selection unit 133 selecting high-quality shooting data. In FIG. 4C, A13 to A16 are selected after B11 to B13, and B22 to B24 are selected after A13 to A16.

選択部133は、例えば、複数の第1撮影データ及び複数の第2撮影データに最も高い頻度で写っている被写体の画像の品質を所定の品質条件と比較することにより、いずれか一方の撮影データを選択する。具体的には、選択部133は、複数の第1撮影データ及び複数の第2撮影データに含まれている被写体の色及び形状に基づいて特定した被写体の種別ごとに被写体IDを割り当て、それぞれの撮影データに含まれている被写体の被写体IDを示す情報を記憶部12に記憶させる。そして、全ての撮影データに最も多く含まれている被写体IDに対応する被写体を、最も高い頻度で写っている被写体であると特定する。   The selection unit 133 compares, for example, the quality of the image of the subject that appears most frequently in the plurality of first shooting data and the plurality of second shooting data with a predetermined quality condition, and thereby selects one of the shooting data. Select Specifically, the selection unit 133 assigns a subject ID to each of the types of the subjects specified based on the colors and shapes of the subjects included in the plurality of first shooting data and the plurality of second shooting data, and Information indicating the subject ID of the subject included in the photographing data is stored in the storage unit 12. Then, the subject corresponding to the subject ID included most in all the photographing data is specified as the subject most frequently photographed.

複数の第1撮影データ及び複数の第2撮影データが、例えば、ユーザの子供の学校でのイベントを撮影したデータである場合、ユーザの子供が写っている頻度が高いと考えられる。したがって、選択部133は、上記のように写っている頻度に基づいて、品質を確認する対象となる被写体を決定することで、ユーザが撮影した対象となる被写体が高い品質で写っている撮影データを選択することができる。   When the plurality of first shooting data and the plurality of second shooting data are, for example, data obtained by shooting an event of a user's child at school, it is considered that the frequency of the user's child is high. Therefore, the selection unit 133 determines the subject whose quality is to be checked based on the frequency of the shooting as described above, so that the shooting data in which the subject to be shot by the user is shot with high quality is determined. Can be selected.

選択部133は、複数の第1撮影データ及び複数の第2撮影データに含まれている顔の領域が最も大きい被写体の画像の品質を所定の品質条件と比較することにより、いずれか一方の撮影データを選択してもよい。具体的には、選択部133は、複数の第1撮影データ及び複数の第2撮影データに含まれている一以上の顔の領域を認識し、認識した一以上の顔の領域のうち、最も大きな顔の画像の品質が良い撮影データを選択する。複数の第1撮影データ及び複数の第2撮影データが、例えば、ユーザの子供の学校でのイベントを撮影したデータである場合、ユーザの子供が大きく写るように撮影されている可能性が高い。したがって、選択部133は、最も大きな顔の画像の品質が良い撮影データを選択することで、ユーザが撮影した対象の子供の画質が良好な撮影データを選択できる。   The selecting unit 133 compares one of the plurality of pieces of first shooting data and the plurality of pieces of second shooting data with an image quality of an object having the largest face area with a predetermined quality condition, thereby performing one of the shootings. Data may be selected. Specifically, the selection unit 133 recognizes one or more face regions included in the plurality of first shooting data and the plurality of second shooting data, and among the one or more recognized face regions, Select photographing data with good quality of a large face image. When the plurality of first shooting data and the plurality of second shooting data are, for example, data obtained by shooting an event of a user's child at a school, it is highly possible that the user's child is shot so as to be larger. Therefore, the selecting unit 133 can select photographing data in which the image quality of the target child photographed by the user is good by selecting photographing data in which the quality of the largest face image is good.

また、選択部133は、取得部131がユーザ端末2から取得した被写体情報に対応する被写体の画像の品質を所定の品質条件と比較することにより、いずれか一方の撮影データを選択してもよい。被写体情報は、例えば、複数の第1撮影データ及び複数の第2撮影データのうち一以上の撮影データにおいて、ユーザが選択した被写体の画像を特定するための情報である。選択部133は、複数の第1撮影データ及び複数の第2撮影データにおいて、被写体情報が示す被写体と類似する被写体を特定し、特定した被写体の画像の品質が良好な撮影データを選択する。このようにすることで、選択部133は、ユーザが良い画質で写っていることを所望する被写体の画質が良好な撮影データを選択することができる。   Further, the selection unit 133 may select one of the imaging data by comparing the quality of the image of the subject corresponding to the subject information acquired by the acquisition unit 131 from the user terminal 2 with a predetermined quality condition. . The subject information is, for example, information for specifying an image of a subject selected by the user in one or more pieces of photographing data among the plurality of first photographing data and the plurality of second photographing data. The selecting unit 133 specifies a subject similar to the subject indicated by the subject information in the plurality of first shooting data and the plurality of second shooting data, and selects shooting data having good image quality of the specified subject. By doing so, the selection unit 133 can select photographing data with good image quality of a subject that the user desires to have good image quality.

選択部133が選択する撮影データが、第1撮影データと第2撮影データとの間で頻繁に切り替わることを防ぐために、選択部133は、複数の第1撮影データ及び複数の第2撮影データのうち、選択する撮影データを切り替えてから所定の時間(例えば、5秒)が経過するまでは、選択した撮影データを撮影したカメラで撮影された撮影データを継続して選択してもよい。すなわち、選択部133は、第1撮影データを選択した後に、第2撮影データの品質が良くなって第2撮影データを選択した後に所定の時間が経過するまでは、第1撮影データの品質が第2撮影データの品質よりも良い場合であっても、第2撮影データを選択し続ける。   In order to prevent the photographing data selected by the selecting unit 133 from frequently switching between the first photographing data and the second photographing data, the selecting unit 133 includes a plurality of first photographing data and a plurality of second photographing data. The photographing data obtained by the camera that has photographed the selected photographing data may be continuously selected until a predetermined time (for example, 5 seconds) elapses after switching the photographing data to be selected. That is, after selecting the first shooting data, the selection unit 133 keeps the quality of the first shooting data until the quality of the second shooting data improves and a predetermined time elapses after selecting the second shooting data. Even if the quality of the second shooting data is better, the selection of the second shooting data is continued.

また、選択部133は、複数の第1撮影データ及び複数の第2撮影データのうち、選択した撮影データを切り替えてから所定の時間が経過する前と後とで、所定の品質条件を異なる条件としてもよい。例えば、選択部133は、第1撮影データと第2撮影データのうち、選択する撮影データを切り替えてから所定の時間が経過するまでの間は、同じタイミングに対応する第1撮影データの品質と第2撮影データの品質との差が所定の閾値以上であることを条件に、撮影データを切り替えるものとする。このようにすることで、第1撮影データの品質と第2撮影データの品質とが大差ないにもかかわらず画面が切り替わってしまうことを防止できる。   In addition, the selection unit 133 sets a predetermined quality condition different before and after a predetermined time has elapsed after switching the selected shooting data among the plurality of first shooting data and the plurality of second shooting data. It may be. For example, the selector 133 switches the quality of the first shooting data corresponding to the same timing until a predetermined time elapses after switching the shooting data to be selected from the first shooting data and the second shooting data. It is assumed that the imaging data is switched on the condition that the difference from the quality of the second imaging data is equal to or more than a predetermined threshold. By doing so, it is possible to prevent the screen from being switched even though the quality of the first shooting data and the quality of the second shooting data are not much different.

出力部134は、選択部133が選択した撮影データにより構成される編集データを含む編集ファイルを出力する。出力部134は、例えば、図4(c)に示すように、品質が良好な撮影データを含む編集ファイルを出力する。出力部134は、通信部11を介して、ユーザ端末2に編集ファイルを送信してもよく、DVD等の記憶媒体にデータを書き込む装置に編集ファイルを送信してもよい。   The output unit 134 outputs an edit file including edit data constituted by the photographing data selected by the selection unit 133. The output unit 134 outputs, for example, as shown in FIG. 4C, an edited file including photographing data of good quality. The output unit 134 may transmit the edited file to the user terminal 2 via the communication unit 11, or may transmit the edited file to a device that writes data to a storage medium such as a DVD.

[画像処理装置1の動作フローチャート]
続いて、画像処理装置1が実行する画像処理方法の手順について説明する。
図5は、画像処理装置1が実行する画像処理方法のフローチャートである。まず、取得部131は、ユーザ端末2から送信された第1撮影ファイル及び第2撮影ファイルを受信し、これらのファイルに含まれている複数の第1撮影データ及び複数の第2撮影データを取得する(S21)。
[Operation Flowchart of Image Processing Apparatus 1]
Subsequently, a procedure of an image processing method executed by the image processing apparatus 1 will be described.
FIG. 5 is a flowchart of an image processing method executed by the image processing apparatus 1. First, the acquiring unit 131 receives the first photographing file and the second photographing file transmitted from the user terminal 2, and acquires a plurality of first photographing data and a plurality of second photographing data included in these files. (S21).

続いて、特定部132は、複数の第1撮影データと複数の第2撮影データのうち、同じタイミングで撮影された第1撮影データ及び第2撮影データを特定することにより(S22)、図4(b)に示したような撮影データ列を作成する。   Subsequently, the specifying unit 132 specifies the first shooting data and the second shooting data shot at the same timing from among the plurality of first shooting data and the plurality of second shooting data (S22), and FIG. A photographing data string as shown in FIG.

続いて、選択部133は、同じタイミングで撮影された第1撮影データ及び第2撮影データのうち、品質が良い撮影データを選択する。この際、選択部133は、品質が良い撮影データを切り替えてから所定の時間が経過したか否かを判定する(S23)。選択部133は、撮影データを切り替えてから所定の時間が経過している場合(S23においてYES)、品質が良い撮影データを選択する(S24)。選択部133は、撮影データを切り替えてから所定の時間が経過していない場合(S23においてNO)、品質によらず、選択されている撮影データに対応する撮影ファイルに含まれる撮影データを継続して選択する(S25)。   Subsequently, the selection unit 133 selects high quality imaging data from the first imaging data and the second imaging data captured at the same timing. At this time, the selection unit 133 determines whether or not a predetermined time has elapsed since the switching of the high quality imaging data (S23). When a predetermined time has elapsed since the switching of the imaging data (YES in S23), the selection unit 133 selects imaging data with good quality (S24). If the predetermined time has not elapsed since the switching of the photographing data (NO in S23), the selecting unit 133 continues the photographing data included in the photographing file corresponding to the selected photographing data regardless of the quality. To select (S25).

選択部133が、全ての撮影データに対して選択処理を実行すると(S26においてYES)、出力部134が、図4(c)に示したような編集データを含む編集ファイルを出力する(S27)。   When the selecting unit 133 executes the selecting process on all the photographing data (YES in S26), the output unit 134 outputs an editing file including the editing data as shown in FIG. 4C (S27). .

図6は、特定部132が、同じタイミングで撮影された撮影データを特定するステップS22の手順を示すフローチャートである。
まず、特定部132は、複数の第1撮影データに含まれている特徴的な音や画像を抽出する(S221)。そして、特定部132は、複数の第1撮影データから、特徴的な音や画像を抽出した第1撮影データを選択する(S222)。この際、特徴的な音や画像が複数の第1撮影データにわたって含まれている場合、特定部132は、複数の第1撮影データを抽出してもよい。続いて、特定部132は、抽出した第1撮影データに含まれる特徴と類似する特徴を探索する対象となる第2撮影データを選択する(S223)。
FIG. 6 is a flowchart illustrating a procedure of Step S22 in which the specifying unit 132 specifies the photographing data photographed at the same timing.
First, the specifying unit 132 extracts characteristic sounds and images included in the plurality of first shooting data (S221). Then, the specifying unit 132 selects, from the plurality of first shooting data, first shooting data in which a characteristic sound or image is extracted (S222). At this time, when a characteristic sound or image is included over a plurality of first shooting data, the specifying unit 132 may extract the plurality of first shooting data. Subsequently, the specifying unit 132 selects second shooting data to be searched for a feature similar to the feature included in the extracted first shooting data (S223).

特定部132は、選択した第2撮影データに含まれる特徴と、ステップS222で選択した第1撮影データに含まれる特徴との間の類似度を算出し、算出した類似度が所定の閾値以上であるか否かを判定する(S224)。特定部132は、類似度が閾値以上であると判定した場合(S224においてYES)、類似する特徴が含まれる第1撮影データ及び第2撮影データに識別番号を付与する(S225)。特定部132は、類似度が閾値未満であると判定した場合(S224においてNO)、ステップS226に処理を進める。   The specifying unit 132 calculates the similarity between the feature included in the selected second shooting data and the feature included in the first shooting data selected in step S222, and when the calculated similarity is equal to or greater than a predetermined threshold. It is determined whether or not there is (S224). When determining that the similarity is equal to or greater than the threshold (YES in S224), the specifying unit 132 assigns identification numbers to the first imaging data and the second imaging data that include similar features (S225). If the identifying unit 132 determines that the similarity is smaller than the threshold (NO in S224), the processing proceeds to step S226.

特定部132は、全ての第2撮影データに対して、ステップS222で選択した第1撮影データに含まれる特徴の有無の判定が終了していない場合(S226においてNO)、ステップS223に戻って、未判定の第2撮影データに対してステップS223からS225を実行する。特定部132は、全ての第2撮影データに対して、ステップS222で選択した第1撮影データに含まれる特徴の有無の判定が終了している場合(S226においてYES)、全ての第1撮影データで抽出された特徴に対して、第2撮影データの探索が終了したかどうかを判定する(S227)。特定部132は、全ての第1撮影データで抽出された特徴に対して処理が終了していない場合(S227においてNO)、ステップS222に戻って、ステップS222からS226を実行する。   When the determination of the presence or absence of the feature included in the first shooting data selected in step S222 has not been completed for all the second shooting data (NO in S226), the specifying unit 132 returns to step S223. Steps S223 to S225 are executed for the undetermined second photographing data. If the determination unit 132 determines that all of the second shooting data does not include the feature included in the first shooting data selected in step S222 (YES in S226), the determination unit 132 determines that all of the first shooting data have been processed. It is determined whether or not the search for the second shooting data has been completed for the feature extracted in (2) (S227). If the processing has not been completed for all the features extracted from the first shooting data (NO in S227), the specifying unit 132 returns to step S222 and executes steps S222 to S226.

特定部132は、全ての第1撮影データで抽出された特徴に対して、類似する特徴を有する第1撮影データと第2撮影データの組み合わせを特定すると(S227においてYES)、類似する特徴を有する第1撮影データと第2撮影データが同じ再生位置になるように、全ての第1撮影データ及び第2撮影データを並び替えて、図4(b)に示したように、同一のタイミングで撮影された第1撮影データと第2撮影データの組み合わせを特定する(S228)。
その後、制御部13は、図5に示したステップS23以降の処理を実行することにより、編集データを出力することができる。
If the specifying unit 132 specifies a combination of the first shooting data and the second shooting data having similar features with respect to all the features extracted from the first shooting data (YES in S227), the specifying unit 132 has similar features. All the first shooting data and the second shooting data are rearranged so that the first shooting data and the second shooting data are at the same playback position, and shooting is performed at the same timing as shown in FIG. The combination of the obtained first image data and second image data is specified (S228).
After that, the control unit 13 can output the edited data by executing the processing after step S23 shown in FIG.

[変形例1]
以上の説明において、取得部131が2つの撮影ファイルを取得する例について説明したが、取得部131は3つ以上の撮影ファイルを取得してもよい。この場合、特定部132は、取得部131が取得した複数の撮影ファイル内の複数の撮影データのうち、少なくとも2つ以上に共通に含まれている類似する特徴を抽出し、同じタイミングで撮影された複数の撮影データを特定する。そして、選択部133は、同一のタイミングで撮影された複数の撮影データから品質条件に基づいて1つの撮影データを選択する。このようにすることで、ユーザは、3つ以上の撮影データのうちで最も品質が良い撮影データを見ることができる。
[Modification 1]
In the above description, an example in which the acquiring unit 131 acquires two photographing files has been described, but the acquiring unit 131 may acquire three or more photographing files. In this case, the specifying unit 132 extracts a similar feature commonly included in at least two or more of the plurality of pieces of photographing data in the plurality of photographing files acquired by the acquiring unit 131, and captures images at the same timing. And specify a plurality of shooting data. Then, the selection unit 133 selects one piece of photographing data based on the quality condition from a plurality of pieces of photographing data photographed at the same timing. By doing so, the user can see the highest quality shooting data among the three or more shooting data.

[変形例2]
以上の説明においては、画像処理装置1が1台のユーザ端末2から複数の撮影データを取得する例について説明したが、画像処理装置1は、複数の異なるユーザ端末2から複数の撮影データを取得してもよい。このようにすることで、画像処理装置1は、例えば一つのイベントに参加した多数の人が撮影して得られた多数の撮影データを取得し、取得した多数の撮影データのうちで最も良い品質の撮影データを組み合わせた編集データを作成することができる。
[Modification 2]
In the above description, the example in which the image processing apparatus 1 acquires a plurality of pieces of photographing data from one user terminal 2 has been described, but the image processing apparatus 1 acquires a plurality of pieces of photographing data from a plurality of different user terminals 2. May be. By doing so, the image processing apparatus 1 acquires, for example, a large number of pieces of photographing data obtained by photographing a large number of people who have participated in one event, and has the best quality among the large number of pieces of acquired photographing data. Edit data can be created by combining the shooting data.

この際、画像処理装置1は、合成データの作成を希望するユーザのユーザ端末2から、多数の撮影データのうち、どの撮影データを組み合わせて合成データを作成するかの指定を受け付けてもよい。例えば、画像処理装置1は、ユーザ端末2に対して、編集が可能な撮影データのサムネイル画像を送信し、ユーザが選択したサムネイル画像に対応する撮影データから品質が良い撮影データを選択して編集データを作成する。このようにすることで、ユーザは、記録に残したい被写体が良好に映った映像コンテンツを取得することができる。   At this time, the image processing apparatus 1 may receive, from the user terminal 2 of the user who wants to create the composite data, a designation as to which combination of the multiple pieces of image data to create the composite data. For example, the image processing apparatus 1 transmits a thumbnail image of photographing data that can be edited to the user terminal 2 and selects high-quality photographing data from photographing data corresponding to the thumbnail image selected by the user to edit the photographing data. Create data. By doing so, the user can acquire video content in which the subject to be recorded is well reflected.

[本実施形態の画像処理装置1による効果]
以上説明したように、画像処理装置1においては、取得部131が、複数の異なるアングルから被写体を撮影して生成された複数の第1撮影データ及び複数の第2撮影データを取得し、特定部132が、複数の第1撮影データ及び複数の第2撮影データのうち、同一のタイミングで撮影された第1撮影データ及び第2撮影データを特定する。そして、選択部133は、所定の品質条件に基づいて、特定部132が特定した同じタイミングで撮影された第1撮影データ及び第2撮影データのうち、いずれか一方の撮影データを選択する。このようにすることで、ユーザは、被写体を同一のタイミングで複数のアングルから撮影している場合に、ユーザが所望しない失敗画像を削除しつつ、削除した場面の記録を残すことができる。
[Effects of Image Processing Device 1 of Present Embodiment]
As described above, in the image processing apparatus 1, the acquisition unit 131 acquires a plurality of first imaging data and a plurality of second imaging data generated by imaging an object from a plurality of different angles, and 132 specifies the first shooting data and the second shooting data shot at the same timing among the plurality of first shooting data and the plurality of second shooting data. Then, the selection unit 133 selects one of the first shooting data and the second shooting data that are shot at the same timing specified by the specifying unit 132 based on a predetermined quality condition. By doing so, the user can leave a record of the deleted scene while deleting unsuccessful failure images that the user does not want when the subject is photographed from a plurality of angles at the same timing.

特定部132は、複数の第1撮影データ及び複数の第2撮影データのそれぞれに含まれる類似する特徴を抽出し、抽出した類似する特徴の間の類似度が所定の閾値以上であることを条件として、同一のタイミングで撮影された第1撮影データ及び第2撮影データを特定する。このようにすることで、特定部132は、複数の第1撮影データ及び複数の第2撮影データに撮影時刻に関する情報が含まれていない場合であっても、同じタイミングで撮影された撮影データを特定することができる。   The specifying unit 132 extracts similar features included in each of the plurality of first shooting data and the plurality of second shooting data, and sets a condition that a similarity between the extracted similar features is equal to or greater than a predetermined threshold. , The first shooting data and the second shooting data shot at the same timing are specified. By doing in this way, even when the information regarding the photographing time is not included in the plurality of first photographing data and the plurality of second photographing data, the specifying unit 132 can store the photographing data photographed at the same timing. Can be identified.

選択部133は、最も高い頻度で写っている被写体、最も顔が大きく写っている被写体、ユーザが指定した被写体の品質に基づいて、撮影データを選択することもできる。このようにすることで、選択部133は、ユーザが撮影していた対象の被写体の画質が良い撮影データを選択することができる。   The selection unit 133 can also select shooting data based on the quality of the subject appearing at the highest frequency, the subject showing the largest face, and the subject specified by the user. By doing so, the selection unit 133 can select shooting data with good image quality of the target subject that was shot by the user.

また、選択部133は、複数の第1撮影データ及び複数の第2撮影データのうち、選択する撮影データを切り替えてから所定の時間が経過するまでは、選択した前記撮影データを撮影したカメラで撮影された撮影データを継続して選択する。このようにすることで、編集データを再生する際に、撮影データが頻繁に切り替わってしまうことを防止できる。   In addition, the selection unit 133 switches the selected photographing data among the plurality of first photographing data and the plurality of second photographing data until a predetermined time elapses from a camera that has photographed the selected photographing data. Continue to select the photographed data. By doing so, it is possible to prevent the photographic data from being frequently switched when reproducing the edited data.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As described above, the present invention has been described using the embodiments, but the technical scope of the present invention is not limited to the scope described in the above embodiments. It is apparent to those skilled in the art that various changes or improvements can be made to the above embodiment. It is apparent from the description of the appended claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

例えば、上記の説明では、合成ファイルがDVDのフォーマットに適合している例を示したが、合成ファイルはブルーレイ等の他のフォーマットに適合していてもよい。
また、上記の説明では、画像処理装置1がインターネットを介してユーザ端末2に接続されたサーバである例を示したが、画像処理装置1は、PC(Personal Computer)又はクラウド上のサーバ等の他の装置であってもよい。
For example, in the above description, an example is shown in which the composite file conforms to the DVD format, but the composite file may conform to another format such as Blu-ray.
Further, in the above description, an example is described in which the image processing apparatus 1 is a server connected to the user terminal 2 via the Internet, but the image processing apparatus 1 may be a PC (Personal Computer) or a server such as a server on the cloud. Other devices may be used.

1 画像処理装置
2 ユーザ端末
11 通信部
12 記憶部
13 制御部
131 取得部
132 特定部
133 選択部
134 出力部
100 第1カメラ
200 第2カメラ

1 image processing device 2 user terminal 11 communication unit 12 storage unit 13 control unit 131 acquisition unit 132 identification unit 133 selection unit 134 output unit 100 first camera 200 second camera

Claims (9)

第1撮影装置が撮影して生成された複数の第1撮影データ、及び第2撮影装置が撮影して生成された複数の第2撮影データを取得する取得部と、
前記複数の第1撮影データ及び前記複数の第2撮影データのうち、同一のタイミングで撮影された前記第1撮影データ及び前記第2撮影データを特定する特定部と、
前記取得部が取得した前記複数の第1撮影データ及び前記複数の第2撮影データに最も高い頻度で写っている被写体の画像の品質を所定の品質条件と比較することにより、前記特定部が特定した前記第1撮影データ及び前記第2撮影データのうち、いずれか一方の撮影データを選択する選択部と、
前記選択部が選択した撮影データを出力する出力部と、
を有する画像処理装置。
An acquisition unit configured to acquire a plurality of first imaging data generated by imaging by the first imaging device and a plurality of second imaging data generated by imaging by the second imaging device;
A specifying unit that specifies the first shooting data and the second shooting data shot at the same timing among the plurality of first shooting data and the plurality of second shooting data;
The identifying unit identifies the image by comparing the quality of the image of the subject most frequently appearing in the plurality of first shooting data and the plurality of second shooting data acquired by the acquiring unit with a predetermined quality condition. A selecting unit that selects one of the first shooting data and the second shooting data,
An output unit that outputs the imaging data selected by the selection unit,
An image processing apparatus having:
第1撮影装置が撮影して生成された複数の第1撮影データ、及び第2撮影装置が撮影して生成された複数の第2撮影データを取得する取得部と、
前記複数の第1撮影データ及び前記複数の第2撮影データのうち、同一のタイミングで撮影された前記第1撮影データ及び前記第2撮影データを特定する特定部と、
前記取得部が取得した前記複数の第1撮影データ及び前記複数の第2撮影データに含まれている顔の領域が最も大きい被写体の画像の品質を所定の品質条件と比較することにより、前記特定部が特定した前記第1撮影データ及び前記第2撮影データのうち、いずれか一方の撮影データを選択する選択部と、
前記選択部が選択した撮影データを出力する出力部と、
を有する画像処理装置。
An acquisition unit configured to acquire a plurality of first imaging data generated by imaging by the first imaging device and a plurality of second imaging data generated by imaging by the second imaging device;
A specifying unit that specifies the first shooting data and the second shooting data shot at the same timing among the plurality of first shooting data and the plurality of second shooting data;
The identification is performed by comparing the quality of an image of a subject having the largest face area included in the plurality of first shooting data and the plurality of second shooting data acquired by the acquisition unit with a predetermined quality condition. A selection unit that selects any one of the first imaging data and the second imaging data specified by the unit;
An output unit that outputs the imaging data selected by the selection unit,
An image processing apparatus having:
前記特定部は、前記複数の第1撮影データ及び前記複数の第2撮影データに共通に含まれる類似する特徴を抽出し、抽出した前記類似する特徴の間の類似度が所定の閾値以上であることを条件として、同一のタイミングで撮影された前記第1撮影データ及び前記第2撮影データを特定する、
請求項1又は2に記載の画像処理装置。
The specifying unit extracts a similar feature commonly included in the plurality of first shooting data and the plurality of second shooting data, and a similarity between the extracted similar features is equal to or greater than a predetermined threshold. On the condition that the first photographing data and the second photographing data photographed at the same timing are specified,
The image processing apparatus according to claim 1 or 2.
前記特定部は、前記類似する特徴が含まれる前記第1撮影データ及び前記第2撮影データの組み合わせを少なくとも一つ抽出した場合に、前記第1撮影データの第1撮影時刻情報と前記第2撮影データの第2撮影時刻情報との差分に基づいて前記複数の第1撮影データの撮影時刻と前記複数の第2撮影データの撮影時刻との関係を特定することにより、同一のタイミングで撮影された前記第1撮影データ及び前記第2撮影データを特定する、
請求項に記載の画像処理装置。
The identification unit, when extracting at least one combination of the first imaging data and the second imaging data including the similar feature, includes first imaging time information of the first imaging data and the second imaging data. By specifying the relationship between the shooting times of the plurality of first shooting data and the shooting times of the plurality of second shooting data based on the difference between the data and the second shooting time information, shooting was performed at the same timing. Specifying the first shooting data and the second shooting data,
The image processing device according to claim 3 .
前記取得部は、前記選択部が品質を確認する対象とする被写体を特定する被写体情報をさらに取得し、
前記選択部は、前記被写体情報に対応する被写体の画像の品質を前記所定の品質条件と比較することにより、いずれか一方の撮影データを選択する、
請求項1からのいずれか1項に記載の画像処理装置。
The obtaining unit further obtains subject information that specifies a subject whose quality is to be checked by the selecting unit,
The selecting unit selects one of the photographing data by comparing the quality of the image of the subject corresponding to the subject information with the predetermined quality condition,
The image processing apparatus according to any one of claims 1 to 4.
前記選択部は、前記複数の第1撮影データ及び前記複数の第2撮影データのうち、選択する撮影データを切り替えてから所定の時間が経過するまでは、選択した前記撮影データを撮影したカメラで撮影された撮影データを継続して選択する、
請求項1からのいずれか1項に記載の画像処理装置。
The selection unit is a camera that captures the selected photographing data from the plurality of first photographing data and the plurality of second photographing data until a predetermined time elapses after switching the photographing data to be selected. Continue to select the captured data,
The image processing apparatus according to any one of claims 1 to 5.
前記選択部は、前記複数の第1撮影データ及び前記複数の第2撮影データのうち、選択した撮影データを切り替えてから所定の時間が経過する前と後とで、前記所定の品質条件を異なる条件とする、
請求項1からのいずれか1項に記載の画像処理装置。
The selection unit changes the predetermined quality condition before and after a predetermined time elapses after switching the selected shooting data among the plurality of first shooting data and the plurality of second shooting data. Condition
The image processing apparatus according to any one of claims 1 to 6.
第1撮影装置が撮影して生成された複数の第1撮影データ、及び第2撮影装置が撮影して生成された複数の第2撮影データを取得するステップと、
前記複数の第1撮影データ及び前記複数の第2撮影データのうち、同一のタイミングで撮影された前記第1撮影データ及び前記第2撮影データを特定するステップと、
取得した前記複数の第1撮影データ及び前記複数の第2撮影データに最も高い頻度で写っている被写体の画像の品質を所定の品質条件と比較することにより、特定した前記第1撮影データ及び前記第2撮影データのうち、いずれか一方の撮影データを選択するステップと、
選択した撮影データを出力するステップと、
を有する画像処理方法。
Obtaining a plurality of first shooting data generated by shooting by the first shooting device and a plurality of second shooting data generated by shooting by the second shooting device;
Identifying the first shooting data and the second shooting data shot at the same timing among the plurality of first shooting data and the plurality of second shooting data;
By comparing the quality of the image of the subject that appears in the acquired plurality of first shooting data and the plurality of second shooting data with the highest frequency with a predetermined quality condition, the specified first shooting data and the specified Selecting any one of the second photographing data;
Outputting the selected shooting data;
An image processing method comprising:
第1撮影装置が撮影して生成された複数の第1撮影データ、及び第2撮影装置が撮影して生成された複数の第2撮影データを取得するステップと、
前記複数の第1撮影データ及び前記複数の第2撮影データのうち、同一のタイミングで撮影された前記第1撮影データ及び前記第2撮影データを特定するステップと、
取得した前記複数の第1撮影データ及び前記複数の第2撮影データに含まれている顔の領域が最も大きい被写体の画像の品質を所定の品質条件と比較することにより、特定した前記第1撮影データ及び前記第2撮影データのうち、いずれか一方の撮影データを選択するステップと、
選択した撮影データを出力するステップと、
を有する画像処理方法。
Obtaining a plurality of first shooting data generated by shooting by the first shooting device and a plurality of second shooting data generated by shooting by the second shooting device;
Identifying the first shooting data and the second shooting data shot at the same timing among the plurality of first shooting data and the plurality of second shooting data;
By comparing the quality of the image of the subject with the largest face area included in the acquired plurality of first shooting data and the plurality of second shooting data with a predetermined quality condition, the specified first shooting image is obtained. Selecting one of the photographing data from the data and the second photographing data;
Outputting the selected shooting data;
An image processing method comprising:
JP2016071787A 2016-03-31 2016-03-31 Image processing apparatus and image processing method Active JP6628670B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016071787A JP6628670B2 (en) 2016-03-31 2016-03-31 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016071787A JP6628670B2 (en) 2016-03-31 2016-03-31 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2017184132A JP2017184132A (en) 2017-10-05
JP6628670B2 true JP6628670B2 (en) 2020-01-15

Family

ID=60008724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016071787A Active JP6628670B2 (en) 2016-03-31 2016-03-31 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6628670B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020008733A1 (en) 2018-07-03 2020-01-09 富士フイルム株式会社 Image correction device, imaging device, image correction method, and image correction program

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3617052B2 (en) * 2001-08-30 2005-02-02 日本電気株式会社 Camera image providing system and camera image time correction method
JP2007158860A (en) * 2005-12-06 2007-06-21 Canon Inc Photographing system, photographing device, image switching device, and data storage device
JP2007201862A (en) * 2006-01-27 2007-08-09 Toshiba Corp Communication terminal device
JP4720687B2 (en) * 2006-09-04 2011-07-13 株式会社ニコン Video sharing system
JP2008199557A (en) * 2007-02-16 2008-08-28 Nec Corp Stream synchronization reproducing system, stream synchronization reproducing apparatus, synchronous reproduction method, and program for synchronous reproduction
JP2009267773A (en) * 2008-04-25 2009-11-12 Hitachi Ltd Video editing device, photographic device, and video-editing method
JP5532645B2 (en) * 2009-03-26 2014-06-25 株式会社ニコン Video editing program and video editing apparatus
JP2012175175A (en) * 2011-02-17 2012-09-10 Nikon Corp Image storage apparatus, camera and imaging system
WO2013161319A1 (en) * 2012-04-27 2013-10-31 パナソニック株式会社 Content playback method, content playback system, and content filming device
CN108322653B (en) * 2012-06-12 2020-11-13 奥林巴斯株式会社 Image pickup apparatus
JP5954535B2 (en) * 2012-07-31 2016-07-20 カシオ計算機株式会社 Image selection apparatus, image selection method, and program
JP5803868B2 (en) * 2012-09-20 2015-11-04 カシオ計算機株式会社 Movie processing apparatus, movie processing method and program
JP2014143457A (en) * 2013-01-22 2014-08-07 Canon Inc HDR switching control method
JP6238134B2 (en) * 2014-03-17 2017-11-29 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP6299863B2 (en) * 2014-05-16 2018-03-28 富士通株式会社 Monitor device and computer program for switching display image
JP6397243B2 (en) * 2014-07-22 2018-09-26 キヤノン株式会社 Display device, control method, and program

Also Published As

Publication number Publication date
JP2017184132A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
US9013604B2 (en) Video summary including a particular person
US8665345B2 (en) Video summary including a feature of interest
US8199213B2 (en) Method for selecting desirable images from among a plurality of images and apparatus thereof
JP4760892B2 (en) Display control apparatus, display control method, and program
US8013913B2 (en) Image recording method, image recording device, and storage medium
US8331691B2 (en) Image data processing apparatus and image data processing method
US20100066847A1 (en) Imaging apparatus and program
KR20150090999A (en) Image processing apparatus, image processing method and computer readable recording medium having program for generating time-lapse moving image
US20230040548A1 (en) Panorama video editing method,apparatus,device and storage medium
US20110096994A1 (en) Similar image retrieval system and similar image retrieval method
JP2020092354A (en) Imaging apparatus, control method of the same, program, and storage medium
JP2010232814A (en) Video editing program, and video editing device
CN110581950B (en) Camera, system and method for selecting camera settings
KR101665175B1 (en) Image acquisition apparatus,image acquisition method and recording medium
JP6628670B2 (en) Image processing apparatus and image processing method
JP2011030089A (en) Image processing apparatus and program
JP2008236729A (en) Method and apparatus for generating digest
JP2008199330A (en) Moving image management apparatus
JP6394184B2 (en) Judgment program, method, and apparatus
JP2007215086A (en) Camera capable of taking moving picture
JP2013074466A (en) Moving image capturing system, moving image analysis device, moving image analysis method, and computer program
JP6485238B2 (en) Tagging device, tagging system, tagging method and program
JP2010213052A (en) Imaging apparatus, imaging method, and imaging program
JP2010166212A (en) Moving image processing device, moving image processing method, program, and storage medium
JP2017184131A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191203

R150 Certificate of patent or registration of utility model

Ref document number: 6628670

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250