JP2016201712A - Video processing apparatus - Google Patents

Video processing apparatus Download PDF

Info

Publication number
JP2016201712A
JP2016201712A JP2015081333A JP2015081333A JP2016201712A JP 2016201712 A JP2016201712 A JP 2016201712A JP 2015081333 A JP2015081333 A JP 2015081333A JP 2015081333 A JP2015081333 A JP 2015081333A JP 2016201712 A JP2016201712 A JP 2016201712A
Authority
JP
Japan
Prior art keywords
video
event
shooting
data
theme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015081333A
Other languages
Japanese (ja)
Inventor
四宮 岳史
Takeshi Shinomiya
岳史 四宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015081333A priority Critical patent/JP2016201712A/en
Publication of JP2016201712A publication Critical patent/JP2016201712A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a video processing apparatus capable of generating a video in line with a theme desired by a user even when the user missed to photograph an event.SOLUTION: The video processing apparatus includes: theme holding means for holding theme information in which time-order-relation between events of information of a plurality of events to be photographed is specified; event time estimation means for estimating photographing time of an event that is not associated with a video; and video extraction means for extracting a video that matches the estimated time by the event time estimation means.SELECTED DRAWING: Figure 1

Description

本発明は、テーマに沿って複数回に分けて撮影した映像データから、テーマに沿った映像データを生成する映像処理装置に関する。   The present invention relates to a video processing apparatus that generates video data according to a theme from video data shot in multiple times along a theme.

今日、デジタルビデオカメラ・デジタルカメラの普及に伴い、一般消費者が自ら映像を撮影したり、編集したりすることによって、映像を作成する機会が増えている。このような状況の中で、撮影や動画編集などの映像作成において、運動会や旅行・結婚式などの特定のテーマの映像(ストーリを持った映像)を作成したいという要求がある。   Today, with the widespread use of digital video cameras and digital cameras, the opportunity for general consumers to create and edit videos is increasing. Under such circumstances, there is a demand for creating a video of a specific theme (video with a story) such as athletic meet, travel, wedding, etc. in video creation such as shooting and video editing.

このような要求に対し、特許文献1には、台本等の情報を外部から入力し、その情報をビューファインダに表示することによって、台本に記載されたストーリに沿った撮影が可能になるシステムが開示されている。また、特許文献2には、ユーザが選択した映像のテーマ(テンプレート)にしたがって、映像データを割り当てることによってDVDやVideo CDなどのコンテンツを作成することができる装置が開示されている。   In response to such a request, Patent Document 1 discloses a system that enables photographing along a story described in a script by inputting information such as a script from the outside and displaying the information on a viewfinder. It is disclosed. Patent Document 2 discloses an apparatus that can create content such as a DVD or a Video CD by assigning video data according to a video theme (template) selected by a user.

ところで、上述した運動会や旅行・結婚式というような撮影機会は、映画やドラマの撮影機会とは大きく異なる点がある。すなわち、運動会や旅行・結婚式などでは、撮影すべきイベントを撮り逃がすと、再撮影が不可能か非常に困難な場合がある。例えば、結婚式において、ケーキ入刀は1度きりのイベントであり、ケーキ入刀を撮り逃がしたからと言って、再撮影を行うことは不可能である。このため、撮影すべきイベントを撮り逃した場合は、ユーザがテーマにしたがって作成したいと考えている映像を構成すべきデータが不足してしまう、という問題が生じる。   By the way, the shooting opportunities such as the athletic meet, travel, and wedding mentioned above are greatly different from the shooting opportunities for movies and dramas. In other words, at an athletic meet, travel, wedding, etc., if an event to be photographed is missed, re-shooting may be impossible or very difficult. For example, at a wedding, a cake sword is a one-time event, and it is impossible to re-photograph just because the cake sword is missed. For this reason, when an event to be photographed is missed, there arises a problem that data for constituting a video that the user wants to create according to the theme is insufficient.

このような問題に対し、前記の特許文献2では、テンプレートに対応した割り付けるべき映像データが存在しない場合は、補完用のデータを生成して割り付ける技術を開示している。補完用のデータとは、たとえば対応する映像がない旨のメッセージを表示するための映像データなどである。この技術に従えば、撮り逃してしまったイベントの映像に代わる補完データを生成することによって、ユーザが選択した映像のテーマに従ったコンテンツを作成することができる。   With respect to such a problem, the above-mentioned Patent Document 2 discloses a technique for generating and allocating complementary data when there is no video data to be allocated corresponding to the template. The complementary data is, for example, video data for displaying a message indicating that there is no corresponding video. According to this technique, content in accordance with the theme of the video selected by the user can be created by generating complementary data in place of the video of the event that was missed.

特開2006−93795号公報JP 2006-93795 A 特開2001−320666号公報JP 2001-320666 A

しかしながら、上記のような従来技術では次のような問題がある。すなわち、撮り逃してしまったイベントの映像の代替として用いられる補完用のデータは、対応する映像の不存在を示す情報などであるため、必ずしもユーザが選択した映像のテーマに沿ったものではない。このため、そのような補完用データを用いて作成された映像は、結果的にユーザの期待するテーマ(ストーリ)に沿った映像とは異なってしまう可能性があった。   However, the conventional techniques as described above have the following problems. That is, the complementary data used as a substitute for the video of an event that has been missed is information indicating the absence of the corresponding video, and therefore does not necessarily conform to the video theme selected by the user. For this reason, there is a possibility that a video created using such complementary data is different from a video in line with the theme (story) expected by the user.

本発明は、上記課題を鑑みてなされたものであって、撮り逃したイベントがあった場合においても、ユーザが所望するテーマに沿った映像を生成することができる映像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a video processing apparatus that can generate a video according to a user's desired theme even when an event is missed. Objective.

上記の目的を達成するために、本発明の映像処理装置は、撮影すべき複数イベントの情報がイベント間の前後関係を指定されたテーマ情報を保持するテーマ保持手段と、映像が関連付けられていないイベントの撮影時間を推定するイベント時間推定手段と、イベント時間推定手段による推定時間と合致した映像を抽出する映像抽出手段とを備えることを特徴とする。   In order to achieve the above object, the video processing apparatus of the present invention does not associate video with theme holding means for holding theme information in which information on a plurality of events to be photographed specifies the context between events. An event time estimating means for estimating the shooting time of the event, and a video extracting means for extracting a video that matches the estimated time by the event time estimating means are provided.

本発明の映像処理装置によれば、ユーザが選択したテーマに沿って複数回に分けて撮影した映像データからテーマに沿った映像を生成する映像処理装置において、撮影すべき複数イベントの情報がイベント間の前後関係を指定されたテーマ情報を保持し、映像が関連付けられていないイベントの撮影時間を推定するするとともに、推定した撮影時間と合致する映像を抽出することによって、撮り逃したイベントがあった場合においても、テーマに沿った動画を生成することができる。   According to the video processing device of the present invention, in a video processing device that generates video in accordance with a theme from video data shot in multiple times along a theme selected by a user, information on a plurality of events to be captured is an event. By holding theme information with specified context, estimating the shooting time of events that are not associated with video, and extracting video that matches the estimated shooting time, there are events that have been missed. Even in such a case, it is possible to generate a moving image according to the theme.

本発明の第一の実施例における映像処理装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the video processing apparatus in the 1st Example of this invention. 本発明の第一の実施例における映像処理装置の外観を示すブロック図である。It is a block diagram which shows the external appearance of the video processing apparatus in 1st Example of this invention. 本発明の第一の実施例における映像処理装置のテーマ撮影モードにおける開始操作時のGUIを示す図である。It is a figure which shows GUI at the time of start operation in the theme imaging | photography mode of the video processing apparatus in 1st Example of this invention. 本発明の第一の実施例における映像処理装置で利用されるテーマデータの例である。It is an example of the theme data utilized with the video processing apparatus in 1st Example of this invention. 本発明の第一の実施例における映像処理装置のテーマ撮影モードにおける撮影操作時のGUIを示す図である。It is a figure which shows GUI at the time of imaging | photography operation in the theme imaging | photography mode of the video processing apparatus in 1st Example of this invention. 本発明の第一の実施例における映像処理装置で利用される撮影データの例である。It is an example of the imaging | photography data utilized with the video processing apparatus in 1st Example of this invention. 本発明の第一の実施例における映像処理装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the video processing apparatus in 1st Example of this invention. 本発明の第一および第四の実施例における映像処理装置のイベント推定処理を説明するためのフローチャートである。It is a flowchart for demonstrating the event estimation process of the video processing apparatus in the 1st and 4th Example of this invention. 本発明の第一の実施例における映像処理装置の再生処理時のGUIを示す図である。It is a figure which shows GUI at the time of the reproduction | regeneration processing of the video processing apparatus in 1st Example of this invention. 本発明の第一の実施例における映像処理装置の抽出した映像の選択処理時のGUIを示す図である。It is a figure which shows GUI at the time of the selection process of the image | video extracted by the video processing apparatus in 1st Example of this invention. 本発明の第一の実施例における映像処理装置により生成される再生リストの例である。It is an example of the reproduction | regeneration list | wrist produced | generated by the video processing apparatus in 1st Example of this invention. 本発明の第一の実施例における映像処理装置の再生時の出力画面の例である。It is an example of the output screen at the time of reproduction | regeneration of the video processing apparatus in 1st Example of this invention. 本発明の第二の実施例における映像処理装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the video processing apparatus in the 2nd Example of this invention. 本発明の第二の実施例における近接ネットワークを説明するための図である。It is a figure for demonstrating the proximity network in the 2nd Example of this invention. 本発明の第二の実施例における映像処理装置により生成される再生リストの例である。It is an example of the reproduction | regeneration list | wrist produced | generated by the video processing apparatus in 2nd Example of this invention. 本発明の第三の実施例における映像処理装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the video processing apparatus in the 3rd Example of this invention. 本発明の第三の実施例における映像処理装置により生成される再生リストの例である。It is an example of the reproduction | regeneration list | wrist produced | generated by the video processing apparatus in the 3rd Example of this invention. 本発明の第四の実施例における映像処理装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the video processing apparatus in the 4th Example of this invention. 本発明の第四の実施例における映像処理装置で利用されるテーマデータの例である。It is an example of the theme data utilized with the video processing apparatus in the 4th example of the present invention. 本発明の第四の実施例における映像処理装置に格納されている映像データの例である。It is an example of the video data stored in the video processing apparatus in 4th Example of this invention. 本発明の第四の実施例における映像処理装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the video processing apparatus in the 4th Example of this invention. 本発明の第四の実施例における映像処理装置の映像の選択処理時のGUIを示す図である。It is a figure which shows GUI at the time of the selection process of the image | video of the video processing apparatus in 4th Example of this invention. 本発明の第四の実施例における映像処理装置により生成される映像リストの例である。It is an example of the video list produced | generated by the video processing apparatus in the 4th Example of this invention.

以下、図面を参照しながら本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[実施例1]
実施例1においては、本発明による映像処理装置を、ユーザが選択したテーマ情報にしたがって撮影を行うことによって、テーマに沿った映像を生成することができるデジタルビデオカメラとした場合を例にして説明する。
[Example 1]
In the first embodiment, a case where the video processing apparatus according to the present invention is a digital video camera capable of generating video in accordance with the theme by shooting according to the theme information selected by the user will be described as an example. To do.

<装置説明>
図1に、本発明を適用可能な映像処理装置100の構成の一例を示す。図1において、内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、撮像部104、画像処理部105、表示部106、操作部107、記録媒体I/F108、外部I/F110、通信I/F111、RTC113が接続されている。
<Device description>
FIG. 1 shows an example of the configuration of a video processing apparatus 100 to which the present invention can be applied. In FIG. 1, a CPU 101, a memory 102, a nonvolatile memory 103, an imaging unit 104, an image processing unit 105, a display unit 106, an operation unit 107, a recording medium I / F 108, an external I / F 110, and a communication I are connected to an internal bus 150. / F111 and RTC113 are connected.

内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。   Each unit connected to the internal bus 150 can exchange data with each other via the internal bus 150.

メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。   The memory 102 is composed of, for example, a RAM (a volatile memory using a semiconductor element).

CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、映像処理装置100の各部を制御する。   The CPU 101 controls each unit of the video processing apparatus 100 using the memory 102 as a work memory, for example, according to a program stored in the nonvolatile memory 103.

不揮発性メモリ103には、映像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばハードディスク(HD)やROMなどで構成される。   The nonvolatile memory 103 stores video data, audio data, other data, various programs for operating the CPU 101, and the like. The nonvolatile memory 103 is composed of, for example, a hard disk (HD) or ROM.

撮像部104は、CPU101の制御に基づいて、映像(光)を電気的な映像信号に変換し、映像信号を内部バス150に出力する。撮像部104は、例えば、光学レンズユニットと絞り・ズーム・フォーカスなど制御する光学系と、光学レンズユニットを経て導入された光(映像)を電気的な映像信号に変換するための撮像素子などで構成される。撮像素子としては、一般的には、CMOSを利用したCMOS撮像素子(CMOSイメージセンサー)か、CCDを利用したCCD撮像素子(CCDイメージセンサー)が利用される。   The imaging unit 104 converts video (light) into an electrical video signal based on the control of the CPU 101, and outputs the video signal to the internal bus 150. The imaging unit 104 includes, for example, an optical lens unit, an optical system that controls aperture, zoom, focus, and the like, and an imaging element that converts light (video) introduced through the optical lens unit into an electrical video signal. Composed. In general, a CMOS image sensor (CMOS image sensor) using a CMOS or a CCD image sensor (CCD image sensor) using a CCD is used as the image sensor.

画像処理部105は、CPU101の制御に基づいて、不揮発性メモリ103や記録媒体108に格納された映像データや、撮像部104が出力する映像信号、外部I/F109を介して取得した映像信号、通信I/F111を介して取得した映像データなどに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、映像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理、顔検出処理などが含まれる。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成しても良い。   Based on the control of the CPU 101, the image processing unit 105 includes video data stored in the nonvolatile memory 103 and the recording medium 108, a video signal output from the imaging unit 104, a video signal acquired via the external I / F 109, Various image processing is performed on video data acquired via the communication I / F 111. The image processing performed by the image processing unit 104 includes A / D conversion processing, D / A conversion processing, video data encoding processing, compression processing, decoding processing, enlargement / reduction processing (resizing), noise reduction processing, and color conversion. Processing, face detection processing, and the like. The image processing unit 104 may be configured with a dedicated circuit block for performing specific image processing.

また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。   Further, depending on the type of image processing, the CPU 101 can perform image processing according to a program without using the image processing unit 104.

表示部106は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。表示部106は、例えば、液晶表示装置(LCD)とそれをコントロールするLCDドライバユニットで構成される。CPU101は、プログラムに従い表示制御信号を生成し、表示部106に表示するための映像信号を生成して表示部106に出力するように映像処理装置100の各部を制御する。   Based on the control of the CPU 101, the display unit 106 displays an image, a GUI screen configuring a GUI (Graphical User Interface), and the like. The display unit 106 includes, for example, a liquid crystal display device (LCD) and an LCD driver unit that controls the liquid crystal display device (LCD). The CPU 101 generates a display control signal according to a program, and controls each unit of the video processing apparatus 100 so as to generate a video signal to be displayed on the display unit 106 and output it to the display unit 106.

表示部106は出力された映像信号に基づいて映像を表示する。なお、映像処理装置100自体が備える構成としては表示部105に表示させるための映像信号を出力するためのインターフェースまでとし、表示部105は外付けのモニタ(テレビなど)で構成してもよい。   The display unit 106 displays a video based on the output video signal. The video processing apparatus 100 itself may include an interface for outputting a video signal to be displayed on the display unit 105, and the display unit 105 may be configured with an external monitor (such as a television).

操作部107は、ボタン・ダイヤル・ジョイスティック・タッチパネルなどを含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、表示部106に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。   The operation unit 107 is an input device for accepting user operations including buttons, dials, joysticks, touch panels, and the like. Note that the touch panel is an input device that is configured to overlap with the display unit 106 and to output coordinate information corresponding to the touched position.

記憶媒体I/F108は、メモリカードやハードディスクドライブなどの記録媒体109が装着可能とされ、CPU101の制御に基づき、装着された記録媒体109からのデータの読み出しや、当該記録媒体109に対するデータの書き込みを行う。   The storage medium I / F 108 can be loaded with a recording medium 109 such as a memory card or a hard disk drive. Under the control of the CPU 101, data can be read from the loaded recording medium 109 and data can be written to the recording medium 109. I do.

外部I/F110は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。   The external I / F 110 is an interface that is connected to an external device by a wired cable or wirelessly to input / output a video signal or an audio signal.

通信I/F111は、外部機器やインターネット112などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。RTC113は、時計機能であるリアルタイムクロックであり、CPU101は時刻を認識するためにRTC113を使用する。   The communication I / F 111 is an interface for communicating with an external device, the Internet 112, and the like to transmit and receive various data such as files and commands. The RTC 113 is a real-time clock that is a clock function, and the CPU 101 uses the RTC 113 to recognize the time.

図2は本発明の実施形態にかかる映像処理装置であるデジタルビデオカメラの外観を示す図である。図2の(a)は正面図、図2の(b)は背面図、図2の(c)は側面図に相当する。   FIG. 2 is a view showing the appearance of a digital video camera which is a video processing apparatus according to an embodiment of the present invention. 2A corresponds to a front view, FIG. 2B corresponds to a rear view, and FIG. 2C corresponds to a side view.

201は、光学レンズであり、撮像部104を構成するユニットである。202は、タッチパネル機能を備えたLCD(液晶ディスプレイ)であり、映像の撮影中にはその被写体像が表示され、撮影されている映像を確認することができる。また、撮影開始前には撮影範囲に使用したり、後述する操作メニューを表示したり、撮影した映像データを再生して表示するためにも使用される。タッチパネル機能はユーザがLCD202の画面に触れることによって、LCD202上の任意の座標を本デジタルビデオカメラに入力することができる。これは、LCD202上に表示されるGUIの操作に利用する。   Reference numeral 201 denotes an optical lens, which is a unit that constitutes the imaging unit 104. Reference numeral 202 denotes an LCD (Liquid Crystal Display) having a touch panel function, and the subject image is displayed while the video is being shot, so that the shot video can be confirmed. It is also used for shooting range before starting shooting, for displaying an operation menu described later, and for playing back and displaying shot video data. The touch panel function allows a user to input arbitrary coordinates on the LCD 202 to the digital video camera by touching the screen of the LCD 202. This is used to operate a GUI displayed on the LCD 202.

LCD202の表示機能は表示部106であり、タッチパネル機能は操作部107の一部を構成する。203〜213はユーザが操作を行うためのボタン・ダイヤル・ジョイスティックであり、操作部107を構成する。203は中央に押しボタンを備えたジョイスティックであり、ユーザは上下左右を含む任意の方向の入力と、ボタン押下による選択指示をすることができる。これは、LCD202に表示されるGUIの操作に利用することができる。   The display function of the LCD 202 is the display unit 106, and the touch panel function constitutes a part of the operation unit 107. Reference numerals 203 to 213 denote buttons, dials, and joysticks for the user to operate, and constitute the operation unit 107. Reference numeral 203 denotes a joystick having a push button in the center, and the user can input in any direction including up, down, left, and right, and can select by pressing the button. This can be used to operate a GUI displayed on the LCD 202.

204はファンクションボタンであり、ユーザはこのボタンを押すことによってLCD202上に操作メニューを表示することができる。操作メニューは、例えば、記録する映像データの解像度や圧縮率などの撮影パラメータを設定したり、すでに撮影した映像データを選択してLCD202に表示したり場合などに利用する。   Reference numeral 204 denotes a function button, and the user can display an operation menu on the LCD 202 by pressing this button. The operation menu is used, for example, when setting shooting parameters such as resolution and compression rate of video data to be recorded, or selecting video data that has already been shot and displaying it on the LCD 202.

205は再生・一時停止ボタンであり、ユーザは撮影した映像データを再生する場合にこのボタンを押下することによって、再生を開始したり一時停止したりすることができる。なお、再生した映像データはLCD202に表示されるか、後述するコネクタ303を介して外部機器に出力される。なお、本ボタンは後述する撮影開始・停止ボタン212と同様に撮影の開始・停止を指示するためにも用いることができる。   Reference numeral 205 denotes a playback / pause button. The user can start or pause playback by pressing this button when playing back captured video data. The reproduced video data is displayed on the LCD 202 or output to an external device via a connector 303 described later. Note that this button can also be used for instructing start / stop of shooting, similar to a shooting start / stop button 212 described later.

206は早戻しボタンであり、再生・一時停止ボタン205で再生している動画を巻き戻すために用いる。また、一時停止中に本ボタンを押下するとスロー逆再生となる。なお、撮影中には、本ボタンを押すことによって、後述するズームレバー210の左寄せと同様にズームアウト(広角)を行うことができる。   Reference numeral 206 denotes a fast reverse button, which is used for rewinding the moving image being played by the play / pause button 205. If this button is pressed during pause, slow reverse playback is performed. During shooting, by pressing this button, zoom-out (wide angle) can be performed in the same manner as the left alignment of the zoom lever 210 described later.

207は早送りボタンであり、再生・一時停止ボタン205で再生している動画を早送りするために用いる。また、一時停止中に本ボタンを押下するとスロー再生になる。なお、撮影中には、本ボタンを押すことによって、ズームレバー210の右寄せと同様にズームイン(望遠)を行うことができる。   A fast-forward button 207 is used to fast-forward the moving image being played by the play / pause button 205. If this button is pressed during pause, slow playback is performed. During shooting, by pressing this button, zooming in (telephoto) can be performed in the same way as when the zoom lever 210 is right-justified.

208は停止ボタンであり、再生・一時停止ボタン205で再生している動画を停止するために用いる。なお、撮影中には、本ボタンを押すことによって、明るさ(露出)を自動的に調整する逆光補正を指示するために用いることができる。209は電源ボタンであり、本デジタルビデオカメラの電源をON・OFFする。210はズームレバーであり、左右にずらすことのできるレバー状のボタンである。撮影時にこのズームレバーを左側に寄せるとズームアウト(広角)、右側に寄せるとズームイン(望遠)となる。   Reference numeral 208 denotes a stop button, which is used to stop the moving image being played by the play / pause button 205. During shooting, pressing this button can be used to instruct backlight correction for automatically adjusting the brightness (exposure). Reference numeral 209 denotes a power button, which turns on / off the power of the digital video camera. Reference numeral 210 denotes a zoom lever, which is a lever-like button that can be shifted left and right. Zoom in (wide angle) by moving this zoom lever to the left side during shooting and zoom in (telephoto) by moving it to the right side.

211はモードダイヤルであり、回転させることによって本デジタルビデオカメラの動作モードを変更することができる。動作モードは、動画撮影モード・静止画撮影モード・動画再生モード・静止画再生モードの4モードを備える。212はスタート・ストップボタンであり、動画撮影の開始と停止を指示するために用いる。213はフォトボタンであり、モードダイヤ211ルが静止画撮影モードである場合に静止画の撮影を指示するために用いる。フォトボタン213は、ユーザにより半押し状態と全押し状態とを区別して検出可能な2段階押し込みスイッチとなっており、半押し状態のときにオートフォーカス制御を開始し、全押し状態の場合に静止画データを撮影するための撮影動作を開始する。   Reference numeral 211 denotes a mode dial which can change the operation mode of the digital video camera by rotating. The operation mode includes four modes of a moving image shooting mode, a still image shooting mode, a moving image playback mode, and a still image playback mode. Reference numeral 212 denotes a start / stop button, which is used to instruct start and stop of moving image shooting. Reference numeral 213 denotes a photo button, which is used to instruct shooting of a still image when the mode dial 211 is in the still image shooting mode. The photo button 213 is a two-stage push-in switch that can be detected by the user by distinguishing between a half-pressed state and a fully-pressed state, and starts autofocus control when in the half-pressed state, and is stationary when in the fully-pressed state. A shooting operation for shooting image data is started.

214は挿抜自在(着脱自在)な記録媒体であるメモリカードを装着するためのメモリカードスロットであり、本デジタルビデオカメラで得られる映像データはこのメモリカードスロットに装着されるメモリカードに記録される。214は、記憶媒体I/F108を構成するユニットである。   Reference numeral 214 denotes a memory card slot for mounting a memory card which is a detachable recording medium. Video data obtained by the digital video camera is recorded on a memory card mounted in the memory card slot. . Reference numeral 214 denotes a unit constituting the storage medium I / F 108.

215はHDMI(登録商標)ミニ出力コネクタであり、本デジタルビデオカメラの映像を外部の機器に出力するために使用する。例えば、HDMI(登録商標)入力コネクタを備える高解像テレビとHDMI(登録商標)ケーブルで接続すると、高品位な映像を大画面で楽しむことができる。215は、外部I/F110を構成するユニットである。   Reference numeral 215 denotes an HDMI (registered trademark) mini-output connector which is used to output video of the digital video camera to an external device. For example, when a high-resolution television provided with an HDMI (registered trademark) input connector is connected with an HDMI (registered trademark) cable, a high-definition video can be enjoyed on a large screen. Reference numeral 215 denotes a unit constituting the external I / F 110.

216はUSBコネクタであり、USBケーブルを用いて、プリンタ・パーソナルコンピュータ・ディスクライタなどのさまざまな機器と接続するために使用される。例えば、プリンタと接続した場合は、プリンタがPictBridge(登録商標)対応であれば、本デジタルビデオカメラで撮影した静止画をプリンタで印刷することができる。パーソナルコンピュータと接続した場合は、本デジタルビデオカメラ内の動画データ・静止画データをパーソナルコンピュータにコピー(バックアップ)することができる。逆に、パーソナルコンピュータ上の動画データ・静止画データを本デジタルビデオカメラ内下記戻すこともできる。216は、通信I/F111を構成するユニットである。   A USB connector 216 is used to connect various devices such as a printer, a personal computer, and a disc writer using a USB cable. For example, when connected to a printer, if the printer is compatible with PictBridge (registered trademark), a still image captured by the digital video camera can be printed by the printer. When connected to a personal computer, moving image data and still image data in the digital video camera can be copied (backed up) to the personal computer. Conversely, moving picture data and still picture data on a personal computer can be returned in the digital video camera as follows. Reference numeral 216 denotes a unit constituting the communication I / F 111.

<動作説明>
本実施例における本発明の映像処理装置の動作について、図3〜図12の図とフローチャートに基づいて説明する。ここでは、まずテーマに沿った撮影を行うテーマ撮影モードの動作について説明し、その後、本発明の特徴的な動作である再生処理について説明を行う。
<Description of operation>
The operation of the video processing apparatus according to the present invention in this embodiment will be described with reference to FIGS. Here, the operation in the theme shooting mode in which shooting is performed in accordance with the theme will be described first, and then the reproduction process which is a characteristic operation of the present invention will be described.

初めにテーマ撮影モードの動作について説明する。図3はテーマ撮影モードの操作を説明するための図である。CPU101は、表示部106に図3(a)のGUI画面を表示し、ユーザに撮影モードの選択を促す。ユーザが、操作部107を操作することによって、撮影モードとしてテーマ撮影モードを選択すると、CPU101は図3(b)の画面を表示部106に表示する。図3(b)の画面は、テーマ撮影モードで使用するテーマデータを選択するテーマ選択画面である。ユーザは、操作部107を操作することによって、使用するテーマデータを選択する。テーマデータとは、撮影すべきイベントを前後関係(撮影順序)とともに指定したデータであり、不揮発性メモリ103に保持されている。   First, the operation in the theme shooting mode will be described. FIG. 3 is a diagram for explaining the operation in the theme shooting mode. The CPU 101 displays the GUI screen of FIG. 3A on the display unit 106 and prompts the user to select a shooting mode. When the user operates the operation unit 107 to select the theme shooting mode as the shooting mode, the CPU 101 displays the screen in FIG. The screen in FIG. 3B is a theme selection screen for selecting theme data used in the theme shooting mode. The user selects theme data to be used by operating the operation unit 107. The theme data is data that designates events to be photographed together with the context (shooting order), and is held in the nonvolatile memory 103.

図4はテーマデータを説明するための例である。テーマデータは、「撮影順序401」「撮影イベント名402」「顔検出403」「再生順序404」の組み合わせからなる撮影イベントデータが集合したものである。凡例405は、撮影順序401に記載されている内容の意味を示している。凡例406は、顔検出403に記載されている内容の意味を示している。この例では、結婚式のテーマには10個の撮影イベントデータがあり、それぞれの撮影イベントの前後関係が撮影順序401として指定されている。例えば、「ゲストからのお祝いの言葉」という撮影イベントは、撮影順序が「F」となっているので、いつでも発生しうる(撮影可能な)イベントである。   FIG. 4 is an example for explaining the theme data. The theme data is a collection of shooting event data including a combination of “shooting order 401”, “shooting event name 402”, “face detection 403”, and “playback order 404”. A legend 405 indicates the meaning of the contents described in the shooting order 401. A legend 406 indicates the meaning of the contents described in the face detection 403. In this example, the wedding theme includes 10 shooting event data, and the order of the shooting events is designated as the shooting order 401. For example, a shooting event “a congratulatory message from a guest” is an event that can occur at any time (capable of shooting) because the shooting order is “F”.

また、「乾杯」という撮影イベントは、撮影順序が「1−2」となっているので、撮影順序「1」の「新郎新婦入場」イベントと撮影順序「2」の「ケーキ入刀」イベントの間で発生しうるイベントである。同様に、「新郎新婦あいさつ」という撮影イベントは、撮影順序が「3」となっているので、撮影順序「2」の「ケーキ入刀」イベントと撮影順序「4」の「新郎新婦退場」イベントの間で発生しうるイベントである。   In addition, since the shooting order “Cheers” has the shooting order “1-2”, the “bride and groom admission” event with the shooting order “1” and the “cake sword” event with the shooting order “2”. It is an event that can occur between. Similarly, in the shooting event “Bride and Groom Greeting”, the shooting order is “3”, so the “cake entry” event in the shooting order “2” and the “leave the bride and groom” event in the shooting order “4”. Events that can occur between

図5はテーマ撮影モードにおける撮影操作を説明するための図である。CPU101は、表示部106に図5(a)のGUI画面を表示し、ユーザに撮影イベントの選択を促すユーザが、操作部107を操作することによって、撮影イベントを選択するとCPU101は図5(b)の画面を表示部106に表示する。図5(b)の画面は、選択した撮影イベントを撮影する際に、表示部106に表示されるプレビュー画面の例である。図5(b)の画面では、撮像部104による映像をプレビュー映像として501のように表示し、図5(a)の画面で選択した撮影イベントの撮影を促すメッセージを502のようにオーバーレイする。   FIG. 5 is a diagram for explaining the shooting operation in the theme shooting mode. The CPU 101 displays the GUI screen of FIG. 5A on the display unit 106, and when the user who prompts the user to select a shooting event selects the shooting event by operating the operation unit 107, the CPU 101 displays FIG. ) Is displayed on the display unit 106. The screen in FIG. 5B is an example of a preview screen displayed on the display unit 106 when shooting the selected shooting event. On the screen of FIG. 5B, the image by the imaging unit 104 is displayed as a preview image as 501, and a message for prompting shooting of the shooting event selected on the screen of FIG.

さらに、撮影中・撮影停止中を表すアイコンを、503のようにオーバーレイする。ユーザは、502のように表示されたメッセージに従い、被写体や構図を決定し、操作部107を操作して撮影を行う。撮影により生成されたデータは、不揮発性メモリ103に格納される。   In addition, an icon representing that shooting is being performed and shooting is stopped is overlaid as indicated by reference numeral 503. The user determines the subject and composition according to the message displayed as in 502, and operates the operation unit 107 to perform shooting. Data generated by shooting is stored in the nonvolatile memory 103.

図6はテーマ撮影モード(結婚式テーマ)で撮影したデータを説明するための例である。テーマ撮影モードによる撮影データは、「撮影開始時刻601」「動画の長さ602」「イベント名603」「イベント動画ファイル」の組み合わせからなるイベント動画データが集合したものである。この例では、テーマ撮影モードとして、撮影イベントを選択して12回撮影したことを表している。例えば、1行目のデータは、2010年11月22日 12時00分10秒から11秒間「会場の雰囲気」イベントとして撮影し、その動画は00001.mtsというファイル名である、ということを示している。   FIG. 6 is an example for explaining data photographed in the theme photographing mode (wedding theme). The shooting data in the theme shooting mode is a collection of event moving image data including a combination of “shooting start time 601”, “moving image length 602”, “event name 603”, and “event moving image file”. In this example, as the theme shooting mode, a shooting event is selected and shooting is performed 12 times. For example, the data in the first row is taken as an “atmosphere of the venue” event for 11 seconds from 12:00:10 on November 22, 2010, and the video is 00001.10. It indicates that the file name is mts.

次に、図7と図8のフローチャートを参照しながら、本発明の映像処理装置による再生処理を詳細に説明する。これらのフローチャートの説明の際には、具体的なデータ例として図4で示した結婚式のテーマデータと図6の撮影データを用いる。   Next, reproduction processing by the video processing apparatus of the present invention will be described in detail with reference to the flowcharts of FIGS. In the description of these flowcharts, the wedding theme data shown in FIG. 4 and the shooting data of FIG. 6 are used as specific data examples.

ステップS700では、CPU101はユーザがテーマに沿って撮影した映像を再生する選択を行ったかどうかを判定する。この時に、CPU101が表示部106に表示するGUI例を図9(a)と図9(b)に示す。ユーザは操作部107を操作して、どのような再生をおこなうのか図9(a)のGUIにおいて選択する。ユーザがテーマ再生モードを選択すると、CPU101は、テーマ撮影モードで撮影した映像をそれぞれのテーマでグループ化して図9(b)のように表示する。図9(b)において、ユーザがいずれかのテーマ動画を選択すると、ステップS701へ移行する。   In step S <b> 700, the CPU 101 determines whether the user has made a selection to reproduce a video shot along the theme. 9A and 9B show examples of GUIs that the CPU 101 displays on the display unit 106 at this time. The user operates the operation unit 107 to select what kind of reproduction is to be performed on the GUI in FIG. 9A. When the user selects the theme playback mode, the CPU 101 groups the videos shot in the theme shooting mode according to the respective themes and displays them as shown in FIG. 9B. In FIG. 9B, when the user selects any theme video, the process proceeds to step S701.

ステップS701では、CPU101は再生する動画データの情報を管理する再生リストをクリアする。再生リストについては、後述のステップS711で詳細に説明する。   In step S701, the CPU 101 clears a reproduction list that manages information of moving image data to be reproduced. The reproduction list will be described in detail in step S711 described later.

ステップS702では、CPU101は図9(b)で選択したテーマのテーマデータ(図4)を読み出し、後述のステップS703〜S711の処理の対象となる撮影イベントを順次選択する。このときの選択の順序は、テーマデータで定義されている再生順序(図4の404の列)に従う。図4の結婚式のテーマデータに従った場合は、1回目の処理では「会場の雰囲気」イベント、2回目の処理では「受付」イベント、3回目の処理では「ゲストからのお祝いの言葉」イベント、・・・のようになる。   In step S702, the CPU 101 reads the theme data (FIG. 4) of the theme selected in FIG. 9B, and sequentially selects shooting events to be processed in steps S703 to S711 described later. The selection order at this time follows the reproduction order defined by the theme data (column 404 in FIG. 4). According to the wedding theme data in FIG. 4, “atmosphere of the venue” event in the first process, “reception” event in the second process, “congratulations from guest” event in the third process ,···become that way.

ステップS703では、CPU101はステップS701で選択したテーマに対応した撮影データ(図6)の情報を不揮発性メモリ103から取得し、ステップS702で選択したイベントに対応したイベント動画データが存在するか否かを判定する。対応するイベント動画データが存在する場合にはステップS711へ、存在しない場合にはステップS704へ進む。例えば、ステップS702においてイベントとして「会場の雰囲気」イベントを選択した場合は、図6に対応するイベント動画データが存在するので、ステップS711へ進む。一方、ステップS702においてイベントとして「乾杯」イベント・「料理紹介」イベント・新郎新婦あいさつ」イベントを選択した場合には、イベント動画データが存在しないのでステップS704へ進む。   In step S703, the CPU 101 acquires information of the shooting data (FIG. 6) corresponding to the theme selected in step S701 from the nonvolatile memory 103, and whether or not event moving image data corresponding to the event selected in step S702 exists. Determine. If the corresponding event video data exists, the process proceeds to step S711, and if not, the process proceeds to step S704. For example, when the “atmosphere at the venue” event is selected as the event in step S702, the event moving image data corresponding to FIG. 6 exists, and the process proceeds to step S711. On the other hand, if the “cheers” event, “cooking introduction” event, and bride and groom greetings event are selected as events in step S702, the event video data does not exist, and the process proceeds to step S704.

ステップS704では、CPU101はステップS702で選択したイベントが発生した時間を推定する。この推定の処理については、図8のフローチャートを用いて詳細に説明する。   In step S704, the CPU 101 estimates the time when the event selected in step S702 has occurred. This estimation process will be described in detail with reference to the flowchart of FIG.

図8において、ステップS801では、CPU101はステップS702で選択したイベントが、テーマデータ(図4)において、どのような撮影順序として定義されているかを判定する。当該イベントの撮影順序が「数値」となっている場合はステップS802へ、「数値N−数値M」となっている場合にはステップS806へ、「F」となっている場合にはステップS813へ進む。まず、撮影順序が「数値」となっているイベントに対する処理を、ステップS802〜S805で説明する。   In FIG. 8, in step S801, the CPU 101 determines what shooting order is defined in the theme data (FIG. 4) for the event selected in step S702. If the shooting order of the event is “numerical value”, go to step S802, if “numeric value N−numerical value M”, go to step S806, and if “F”, go to step S813. move on. First, processing for an event whose shooting order is “numerical value” will be described in steps S802 to S805.

ステップS802では、CPU101はステップS702で選択したイベントに対し撮影順序が前であり、実際に撮影が行われたイベントと、そのイベント動画データを不揮発性メモリ103から取得する。例えば、ステップS702において、撮影順序が「3」である「新郎新婦あいさつ」イベントを選択した場合は、撮影順序が前となる「ケーキ入刀(撮影順序:2)」イベント・「乾杯(撮影順序:1−2)」イベント・「新郎新婦入場(撮影順序1)」イベントのイベント動画データを取得し、そのうち最も遅い時刻に撮影を開始したイベント動画データを選択する。この例では、図6の「ケーキ入刀」イベントのイベント動画データ(605)を直前のイベント情報として取得する。   In step S <b> 802, the CPU 101 acquires from the nonvolatile memory 103 the event in which the shooting order is before the event selected in step S <b> 702 and the shooting is actually performed and the event moving image data. For example, in the case where the “Bride and groom greeting” event whose shooting order is “3” is selected in step S702, the “cake sword (shooting order: 2)” event “toast (shooting order) whose shooting order is the previous one is selected. : 1-2) Event video data of the event “Bride and groom admission (shooting order 1)” event is acquired, and event video data that started shooting at the latest time is selected. In this example, event video data (605) of the “cake sword” event of FIG. 6 is acquired as the previous event information.

ステップS803では、CPU101はステップS802で取得したイベント動画データから、そのイベント撮影終了時刻を算出し、その時刻をステップS702で選択したイベントの推定開始時刻とする。例えば、ステップS802で、「ケーキ入刀」イベントのイベント動画データを取得したとすると、ステップS702で選択したイベントの推定開始時刻は2010/11/22 13:33:30となる。   In step S803, the CPU 101 calculates the event shooting end time from the event moving image data acquired in step S802, and sets the time as the estimated start time of the event selected in step S702. For example, if event video data of the “cake entered” event is acquired in step S802, the estimated start time of the event selected in step S702 is 2010/11/22 13:33:30.

ステップS804では、CPU101はステップS702で選択したイベントに対し撮影順序が後であり、実際に撮影が行われたイベントと、そのイベント動画データを不揮発性メモリ103から取得する。例えば、ステップS702において、撮影順序が「3」である「新郎新婦あいさつ」イベントを選択した場合は、撮影順序が後となる「新郎新婦退場(撮影順序:4)」イベントのイベント動画データを取得し、そのうち最も新しい時刻に撮影を開始したイベント動画データを選択する。この例では、図6の「新郎新婦退場」イベントのイベント動画データ(606)を直後のイベント情報として取得する。   In step S <b> 804, the CPU 101 acquires from the nonvolatile memory 103 the event in which the shooting order is later with respect to the event selected in step S <b> 702, and the event that was actually shot and its event moving image data. For example, in the case where the “bridal bride and groom greeting” event whose shooting order is “3” is selected in step S702, event video data of the “leave the bride and groom (shooting order: 4)” event whose shooting order is later is acquired. Event video data that started shooting at the latest time is selected. In this example, the event moving image data (606) of the “bride and groom leaving” event of FIG. 6 is acquired as event information immediately after.

ステップS805では、CPU101はステップS804で取得したイベント動画データから、そのイベント撮影開始時刻を取得し、その時刻をステップS702で選択したイベントの推定終了時刻とする。例えば、ステップS804で、「新郎新婦退場」イベントのイベント動画データを取得したとすると、ステップS702で選択したイベントの推定終了時刻は2010/11/22 14:15:00となる。   In step S805, the CPU 101 acquires the event shooting start time from the event moving image data acquired in step S804, and sets the time as the estimated end time of the event selected in step S702. For example, assuming that event moving image data of the “leave the bride and groom” event is acquired in step S804, the estimated end time of the event selected in step S702 is 2010/11/22 14:15:00.

このように、CPU101は、ステップS702で選択したイベントの撮影時間を推定することができる。たとえば、ステップS702で「新郎新婦あいさつ」イベントを選択した場合は、このイベントの推定時間は2010/11/22 13:33:30〜14:15:00となる。   As described above, the CPU 101 can estimate the shooting time of the event selected in step S702. For example, when the “Bride and Groom Greeting” event is selected in step S702, the estimated time of this event is 2010/11/22 13:33:30 to 14:15:00.

次に、撮影順序が「数値N−数値M」となっているイベントに対する処理を、ステップS806〜S812を用いて説明する。ステップS806では、CPU101はステップS702で選択したイベントに対し撮影順序が前であり、実際に撮影が行われたイベントと、そのイベント動画データを不揮発性メモリ103から取得する。例えば、ステップS702において、撮影順序が「1−2」である「乾杯」イベントを選択した場合は、撮影順序が前となる「新郎新婦入場(撮影順序:1)」イベントのイベント動画データを取得する。複数のイベントが該当する場合は、そのうち最も遅い時刻に撮影を開始したイベント動画データを選択する。この例では、図6の「新郎新婦入場」イベントのイベント動画データ(607)を直前のイベント情報として取得する。   Next, processing for an event whose shooting order is “numerical value N−numerical value M” will be described using steps S806 to S812. In step S <b> 806, the CPU 101 acquires from the nonvolatile memory 103 the event in which the shooting order is before the event selected in step S <b> 702 and the shooting is actually performed and the event moving image data. For example, if a “Cheers” event with a shooting order of “1-2” is selected in step S702, event video data of the “bride and groom admission (shooting order: 1)” event with the shooting order preceding is acquired. To do. When a plurality of events are applicable, event moving image data that has started shooting at the latest time is selected. In this example, the event moving image data (607) of the “bride and groom admission” event of FIG. 6 is acquired as the immediately preceding event information.

ステップS807では、CPU101はステップS806で取得したイベント動画データから、そのイベント撮影終了時刻を算出し、その時刻をステップS702で選択したイベントの推定開始時刻とする。例えば、ステップS806で、「新郎新婦入場」イベントのイベント動画データを取得したとすると、ステップS702で選択したイベントの推定開始時刻は2010/11/22 13:02:20となる。   In step S807, the CPU 101 calculates the event shooting end time from the event moving image data acquired in step S806, and sets the time as the estimated start time of the event selected in step S702. For example, assuming that event moving image data of the “bride and groom entrance” event is acquired in step S806, the estimated start time of the event selected in step S702 is 2010/11/22 13:02:20.

ステップS808では、CPU101はステップS702で選択したイベントに対し撮影順序が後であり、実際に撮影が行われたイベントと、そのイベント動画データを不揮発性メモリ103から取得する。例えば、ステップS702において、撮影順序が「1−2」である「乾杯」イベントを選択した場合は、撮影順序が後となる「ケーキ入刀(撮影順序:2)」イベント、「新郎新婦あいさつ(撮影順序:3)」イベント、「新郎新婦退場(撮影順序:4)」イベントのイベント動画データを取得し、そのうち最も新しい時刻に撮影を開始したイベント動画データを選択する。この例では、図6の「ケーキ入刀」イベントのイベント動画データ(605)を直後のイベント情報として取得する。   In step S <b> 808, the CPU 101 acquires from the nonvolatile memory 103 the event in which the shooting order is later with respect to the event selected in step S <b> 702, and the event that was actually shot and its event moving image data. For example, if a “Cheers” event whose shooting order is “1-2” is selected in step S702, a “cake entry (shooting order: 2)” event, “Bride and groom greeting ( Shooting order: 3) Event video data of the event “Bride and groom exit (shooting order: 4)” event is acquired, and event video data that started shooting at the latest time is selected. In this example, the event moving image data (605) of the “cake sword” event of FIG. 6 is acquired as event information immediately after.

ステップS809では、CPU101はステップS808で取得したイベント動画データから、そのイベント撮影開始時刻を取得し、その時刻をステップS702で選択したイベントの推定終了時刻とする。例えば、ステップS808で、「ケーキ入刀」イベントのイベント動画データを取得したとすると、ステップS702で選択したイベントの推定終了時刻は2010/11/22 13:30:00となる。   In step S809, the CPU 101 acquires the event shooting start time from the event moving image data acquired in step S808, and sets the time as the estimated end time of the event selected in step S702. For example, if event video data of the “cake entered” event is acquired in step S808, the estimated end time of the event selected in step S702 is 2010/11/22 13:30.

ステップS810では、CPU101はテーマ撮影モードによる撮影データ(図6)の全てのイベント動画データを不揮発性メモリから取得する。   In step S810, the CPU 101 acquires all event moving image data of shooting data (FIG. 6) in the theme shooting mode from the nonvolatile memory.

ステップS811では、CPU101はステップS807とステップS809で決定した推定開始時刻と推定終了時刻の間に、テーマ撮影モードにより他のイベントの撮影が行われたか否かを判定する。他のイベントが撮影されていた場合には、ステップS812に進む。他のイベントが撮影されていなかった場合には、ステップS807とステップS809で決定した時刻からなる期間を、ステップS702で選択したイベントの推定時間とする。   In step S811, the CPU 101 determines whether another event has been shot in the theme shooting mode between the estimated start time and the estimated end time determined in steps S807 and S809. If another event has been shot, the process proceeds to step S812. If no other event has been photographed, the period consisting of the times determined in steps S807 and S809 is set as the estimated time of the event selected in step S702.

ステップS812では、ステップS807とステップS809で決定した時刻からなる期間から、他のイベントに関するイベント動画データが撮影された期間を除いたものを、ステップS702で選択したイベントの推定時間とする。   In step S812, the estimated time of the event selected in step S702 is obtained by excluding the period in which the event moving image data related to other events is taken from the period determined by steps S807 and S809.

このように、CPU101は、ステップS702で選択したイベントの撮影時間を推定することができる。たとえば、ステップS702で「乾杯」イベントを選択した場合は、このイベントの推定時間は2010/11/22 13:02:20〜13:30:00となる。   As described above, the CPU 101 can estimate the shooting time of the event selected in step S702. For example, when the “Cheers” event is selected in step S702, the estimated time of this event is 2010/11/22 13:02:20 to 13:30.

次に、撮影順序が「F」となっているイベントの処理を、ステップS813〜S816を用いて説明する。   Next, processing of an event whose shooting order is “F” will be described using steps S813 to S816.

ステップS813では、CPU101はテーマ撮影モードによる撮影データ(図6)のうち、最も古い時刻に撮影されたイベントのイベント動画データを不揮発性メモリ103から取得する。例えば、ステップS702で撮影順序が「F」である「料理紹介」イベントを選択した場合は、図6のデータにしたがって先頭イベントとして「会場の雰囲気」イベントのイベント動画データ(608)を取得する。   In step S813, the CPU 101 acquires, from the nonvolatile memory 103, event moving image data of an event shot at the oldest time among shooting data (FIG. 6) in the theme shooting mode. For example, when the “cooking introduction” event whose shooting order is “F” is selected in step S702, event video data (608) of the “venue atmosphere” event is acquired as the top event according to the data of FIG.

ステップS814では、CPU101はテーマ撮影モードによる撮影データ(図6)のうち、最も新しい時刻に撮影されたイベントのイベント動画データを不揮発性メモリ103から取得する。例えば、ステップS702で撮影順序が「F」である「料理紹介」イベントを選択した場合は、図6のデータにしたがって最終イベントとして「新郎新婦退場」イベントのイベント動画データ(606)を取得する。   In step S <b> 814, the CPU 101 acquires, from the nonvolatile memory 103, event moving image data of an event shot at the latest time among shooting data (FIG. 6) in the theme shooting mode. For example, when the “dishes introduction” event whose shooting order is “F” is selected in step S702, event video data (606) of the “leave the bride and groom” event is acquired as the final event according to the data of FIG.

ステップS815では、CPU101はステップS813とステップS814で取得した先頭イベントと最終イベントから、テーマ撮影モードにより撮影が行われた期間を決定する。例えば、ステップS813で「会場の雰囲気」イベントのイベント動画データを、ステップS814で「新郎新婦退場」イベントのイベント動画データを取得した場合は、撮影期間は2010/11/22 12:00:10〜14:17:50となる。   In step S815, the CPU 101 determines a period during which shooting was performed in the theme shooting mode from the first event and the last event acquired in steps S813 and S814. For example, when the event video data of the “atmosphere of the venue” event is acquired in step S813 and the event video data of the “leave the bride and groom” event is acquired in step S814, the shooting period is 2010/11/22 12:00:10. 14:17:50.

ステップS816では、CPU101はテーマ撮影モードによる撮影データ(図6)の全てのイベント動画データを不揮発性メモリから取得し、ステップS815で決定した撮影期間からイベント動画データが撮影された期間を除いたものを、ステップS702で選択したイベントの推定時間とする。図6の例では、推定時間は2010/11/22 12:00:21〜12:10:06、 2010/11/22 12:10:11〜12:15:33、・・・、2010/11/22 14:00:20〜14:15:00のように複数の期間となる。   In step S816, the CPU 101 acquires all event moving image data of the shooting data (FIG. 6) in the theme shooting mode from the nonvolatile memory, and excludes the period in which the event moving image data was shot from the shooting period determined in step S815. Is the estimated time of the event selected in step S702. In the example of FIG. 6, the estimated time is 2010/11/22 12:00:21 to 12:10:06, 2010/11/22 12:10:11 to 12:15:33, ..., 2010/11. / 22 It is a plurality of periods such as 14:00:20 to 14:15:00.

以上が、ステップS702で選択したイベントの撮影時間を推定する処理の説明である。図7に戻り、ステップS705では、CPU101はステップS702で選択したイベントの撮影時間が、ステップS704(図8)の処理によって得られたか否かを判定する。イベントの推定時間として1期間以上を算出できた場合は、推定成功としてステップS706へ進み、イベントの推定時間が得られなかった場合は、推定に失敗したとしてステップS712に進む。   The above is the description of the process for estimating the shooting time of the event selected in step S702. Returning to FIG. 7, in step S705, the CPU 101 determines whether the shooting time of the event selected in step S702 has been obtained by the processing in step S704 (FIG. 8). If one or more periods can be calculated as the estimated event time, the process proceeds to step S706 as a successful estimation, and if the estimated event time cannot be obtained, the process proceeds to step S712 because the estimation has failed.

ステップS706では、CPU101は記憶媒体I/F108を介して記憶媒体109にアクセスし、記憶媒体109に格納されている映像(静止画あるいは動画)データを、2段階の処理により抽出する。   In step S706, the CPU 101 accesses the storage medium 109 via the storage medium I / F 108, and extracts video (still image or moving image) data stored in the storage medium 109 by a two-stage process.

第一段階の処理は、映像データの撮影時間による抽出であり、ステップS704で得られた推定時間内に撮影された映像データを抽出する。第二段階の処理は、顔検出の有無による抽出である。第二段階の処理では、CPU101は画像処理部105を用いて第一段階の処理により抽出された映像データ内における、顔検出の有無を取得する。次に、テーマデータ(図4)において、ステップS702で選択したイベントの、顔検出の項の値を取得する。そして、第一段階の処理で抽出された映像データから、顔検出の項の値が「有」である場合は顔検出された映像データを、顔検出の項の値が「無」である場合は顔検出されなかった映像データを、顔検出の項の値が「−」である場合はすべての映像データを抽出する。   The first stage of processing is extraction of video data based on the shooting time. Video data shot within the estimated time obtained in step S704 is extracted. The second stage processing is extraction based on the presence or absence of face detection. In the second stage process, the CPU 101 uses the image processing unit 105 to acquire the presence / absence of face detection in the video data extracted by the first stage process. Next, in the theme data (FIG. 4), the value of the face detection term of the event selected in step S702 is acquired. Then, from the video data extracted in the first stage processing, when the face detection term value is “Yes”, the face detected video data is used. When the face detection term value is “None” Extracts video data for which no face has been detected, and extracts all video data if the value of the face detection term is “−”.

ステップS707では、CPU101はステップS706で抽出した映像データの情報を、GUIとして表示部106に表示する。GUIは、抽出した映像データのサムネイル画像・撮影日時・動画静止画種別などから構成される。図10にGUIの例を示す。ユーザは、操作部107を操作し、ステップS706で抽出された映像データの情報を閲覧し、ステップS702で選択されたイベント(図10の例では「新郎新婦あいさつ」イベント)にふさわしい映像データを選択することができる。   In step S707, the CPU 101 displays the video data information extracted in step S706 on the display unit 106 as a GUI. The GUI is composed of thumbnail images of the extracted video data, shooting date / time, moving image still image type, and the like. FIG. 10 shows an example of the GUI. The user operates the operation unit 107, browses the information of the video data extracted in step S706, and selects video data suitable for the event selected in step S702 (in the example of FIG. 10, “bridal groom greeting” event). can do.

ステップS708では、CPU101はステップS707で提示した映像データをユーザが1個以上選択したか否かを判定する。ユーザが映像データを選択した場合はステップS709に、選択しなかった場合はステップS712へ進む。   In step S708, the CPU 101 determines whether or not the user has selected one or more video data presented in step S707. If the user has selected video data, the process proceeds to step S709; otherwise, the process proceeds to step S712.

ステップS709では、CPU101はユーザが選択した映像データに静止画データが含まれるか否かを判定する。静止画データが含まれていた場合にはステップS710に、含まれていなかった場合にはステップS711に進む。   In step S709, the CPU 101 determines whether still image data is included in the video data selected by the user. If still image data is included, the process proceeds to step S710; otherwise, the process proceeds to step S711.

ステップS710では、CPU101はユーザが選択した映像データに含まれている静止画データを元に動画データを生成する。具体的には、間隔をあけて複数の静止画データを順次表示(スライドショー)するような動画データに変換したり、静止画データの一部を表示しながらスクロール(デジタルパン・チルト)するような動画に変換したりして行う。CPU101は、生成した動画データを不揮発性メモリ103に保存する。   In step S710, the CPU 101 generates moving image data based on still image data included in the video data selected by the user. Specifically, it is converted into moving image data that sequentially displays a plurality of still image data at intervals (slide show), or scrolls (digital pan / tilt) while displaying a part of the still image data. Or convert it to video. The CPU 101 stores the generated moving image data in the nonvolatile memory 103.

ステップS711では、CPU101は「ステップS703で取得した、撮影した映像データ」「ステップS706で抽出し、ユーザが選択した動画データ」「ステップS706で抽出し、ユーザが選択した静止画から生成した動画データ」を再生リストに追加する。再生リストに追加する順序は、撮影時刻順などでよい。   In step S711, the CPU 101 obtains “the captured video data acquired in step S703”, “moving image data selected by the user in step S706”, and “moving image data extracted in step S706 and generated from the still image selected by the user. To the playlist. The order of adding to the play list may be the order of shooting times.

図11は図7の一連の処理で生成される再生リストの例である。この再生リストは、図4のテーマデータの例と図6の撮影データの例に対応している。図11の再生リストでは、テーマデータの再生順序403にしたがって、動画データが再生リストに追加されている。図6の撮影データの例では、「乾杯」イベント・「料理紹介」イベント・「新郎新婦あいさつイベント」は含まれていない(撮影していない)ので、これらはステップS704〜S710の処理によって外部の記録媒体から取得した映像データを使用している(1101〜1104)。なお、この例では、1101と1104では外部の記憶媒体にある動画データを表しており、1102と1103は外部の記憶媒体にある静止画データからステップS710で生成された動画データを表している。   FIG. 11 shows an example of a play list generated by the series of processes shown in FIG. This reproduction list corresponds to the example of the theme data in FIG. 4 and the example of the shooting data in FIG. In the reproduction list of FIG. 11, moving image data is added to the reproduction list according to the reproduction order 403 of the theme data. In the example of the shooting data in FIG. 6, the “Cheers” event, “Cooking introduction” event, and “Bride and groom greeting event” are not included (not shot). Video data acquired from a recording medium is used (1101 to 1104). In this example, reference numerals 1101 and 1104 denote moving image data in an external storage medium, and reference numerals 1102 and 1103 denote moving image data generated in step S710 from still image data in the external storage medium.

ステップS712では、CPU101はステップS702において、テーマデータ(図4)の全ての撮影イベントを選択したか否かを選択する。図4の例では、ステップS702において「新郎新婦退場」イベントを選択していた場合は、すべての撮影イベントを選択したということになる。ステップS702において全ての撮影イベントを選択済みの場合は、ステップS711で更新した再生リストが完成したとして、ステップS713へ進む。一方、未選択の撮影イベントがある場合は、ステップS702に戻り次の撮影イベントの処理を行う。   In step S712, the CPU 101 selects whether or not all shooting events in the theme data (FIG. 4) have been selected in step S702. In the example of FIG. 4, if the “leave the bride and groom” event is selected in step S702, it means that all the shooting events have been selected. If all shooting events have been selected in step S702, the reproduction list updated in step S711 is completed, and the process proceeds to step S713. On the other hand, if there is an unselected shooting event, the process returns to step S702 to process the next shooting event.

ステップS713では、CPU101はステップS711で生成した再生リストにしたがって、動画データを不揮発性メモリ103あるいは記憶媒体109から取得する。CPU101は取得した画像データを画像処理部105と連携してデータをデコードして表示部106に表示する。また、映像信号として外部I/F110から出力してもよい。   In step S713, the CPU 101 acquires the moving image data from the nonvolatile memory 103 or the storage medium 109 according to the reproduction list generated in step S711. The CPU 101 decodes the acquired image data in cooperation with the image processing unit 105 and displays the decoded data on the display unit 106. Further, it may be output from the external I / F 110 as a video signal.

図12は、デコードして表示された映像の例である。本実施例の映像処理装置では、このように映像を表示するとともに、撮影イベント名と連動した文字列1201をオーバーレイして表示することによって、再生する映像によりストーリ性を持たせることができる。   FIG. 12 is an example of a video that is decoded and displayed. In the video processing apparatus according to the present embodiment, the video is displayed as described above, and the character string 1201 linked to the shooting event name is overlaid and displayed, so that the video to be reproduced can have a story.

なお、本実施例では再生リストを作成し、再生リストにしたがって順次動画データを再生する例を示したが、再生リストを設けず、ステップS711で動画データを連結した新たな動画データを生成し、ステップS713でその動画データを再生してもよい。   In the present embodiment, an example is shown in which a playlist is created and video data is sequentially played according to the playlist. However, no new playlist is provided, and new video data in which video data is linked is generated in step S711. The moving image data may be reproduced in step S713.

このような処理を行うことによって、例えば結婚式のテーマデータにしたがって撮影していた場合に、ある撮影イベントの撮り忘れてしまったとしても、例えば同席していた友人の記録媒体を使用することによって、容易に撮り忘れたイベントの映像データを入手し、テーマに沿った映像を得ることができる。   By performing such processing, for example, when shooting according to wedding theme data, even if you forget to take a certain shooting event, for example, by using the recording medium of a friend who was present You can easily get video data of events that you forgot to take and get videos that match the theme.

以上、本実施例によれば、撮影すべき複数イベントの情報がイベント間の前後関係を指定されたテーマ情報を保持し、映像が関連付けられていないイベントの撮影時間を推定するするとともに、推定した撮影時間と合致する映像を装着された記憶媒体から抽出することによって、撮り逃したイベントがあった場合においても、テーマに沿った動画を生成する映像処理装置を提供することができる。   As described above, according to the present embodiment, the information on a plurality of events to be photographed holds the theme information in which the context between events is specified, and the estimated shooting time of the event not associated with the video is estimated. By extracting a video that matches the shooting time from the attached storage medium, it is possible to provide a video processing device that generates a moving image according to a theme even when there is an event that has been missed.

[実施例2]
実施例2においては、実施例1と同様に、ユーザが選択したテーマ情報にしたがって撮影を行うことによって、テーマに沿った映像を生成することができるデジタルビデオカメラを説明する。
[Example 2]
In the second embodiment, as in the first embodiment, a digital video camera capable of generating a video according to a theme by shooting according to the theme information selected by the user will be described.

実施例1とは、映像データを近接通信手段により取得する点で異なる。本実施例の説明では、実施例1と異なる構成・動作を中心に説明する。   The difference from the first embodiment is that the video data is acquired by the proximity communication means. In the description of the present embodiment, the configuration and operation different from those of the first embodiment will be mainly described.

<装置説明>
図13に、本発明を適用可能な映像処理装置1300の構成の一例を示す。図13において、1301〜1310および1313〜1350は、図1の101〜110および113〜150と同様であるため説明を省略する。通信I/F1311は、近接ネットワーク1312を介して近くの他の装置と通信し、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。具体的には、無線LAN(IEEE802。11a/b/g/n)やBluetooth(登録商標)などの通信を実現する通信ユニットである。
<Device description>
FIG. 13 shows an example of the configuration of a video processing apparatus 1300 to which the present invention can be applied. In FIG. 13, reference numerals 1301 to 1310 and 1313 to 1350 are the same as 101 to 110 and 113 to 150 in FIG. The communication I / F 1311 is an interface for communicating with other nearby devices via the proximity network 1312 and transmitting / receiving various data such as files and commands. Specifically, it is a communication unit that realizes communication such as wireless LAN (IEEE802.11a / b / g / n) or Bluetooth (registered trademark).

図14に、近接ネットワークの例(模式図)を示す。1401が本発明の映像処理装置であり、映像処理装置1401は、近接ネットワーク1450を介して、周囲のデジタルカメラ1402・1403やノートPC1404と通信を行う。   FIG. 14 shows an example (schematic diagram) of a proximity network. Reference numeral 1401 denotes a video processing apparatus according to the present invention. The video processing apparatus 1401 communicates with surrounding digital cameras 1402 and 1403 and a notebook PC 1404 via a proximity network 1450.

<動作説明>
本実施例における映像処理装置の動作について、実施例1との違いを元に説明する。実施例2において、再生処理は実施例1と同様に図7と図8のフローチャートに基づいて動作する。
<Description of operation>
The operation of the video processing apparatus in the present embodiment will be described based on the difference from the first embodiment. In the second embodiment, the reproduction process operates based on the flowcharts of FIGS. 7 and 8 as in the first embodiment.

実施例1と異なる点は、図7のステップS706、ステップS711、ステップS713の動作である。その他のステップにおいては、101〜110をそれぞれ1301〜1310に読み替えることにより、実施例2に適用することができる。   The difference from the first embodiment is the operations in step S706, step S711, and step S713 in FIG. In other steps, it can be applied to the second embodiment by replacing 101 to 110 with 1301 to 1310, respectively.

以降は、ステップS706、S711、S713について説明する。実施例2におけるステップS706では、CPU1301は通信I/F1311を介して近接ネットワーク1312上の他の装置にアクセスし、それぞれの装置に格納されている映像(静止画あるいは動画)データを実施例1と同様に2段階の処理により抽出する。   Hereinafter, steps S706, S711, and S713 will be described. In step S706 in the second embodiment, the CPU 1301 accesses another device on the proximity network 1312 via the communication I / F 1311 and uses the video (still image or moving image) data stored in each device as in the first embodiment. Similarly, extraction is performed by a two-stage process.

実施例2におけるステップS711では、CPU1301は実施例1のステップS711と同様に再生リストを更新する。図15に、一連の処理で生成される再生リストの例を示す。実施例1と異なり、格納場所には近接ネットワーク上の装置を特定するアドレスが用いられることがある(1501および1502)。   In step S711 in the second embodiment, the CPU 1301 updates the reproduction list in the same manner as in step S711 in the first embodiment. FIG. 15 shows an example of a playlist generated by a series of processes. Unlike the first embodiment, an address that identifies a device on a neighboring network may be used as a storage location (1501 and 1502).

実施例2におけるステップS713では、CPU1301はステップS711で生成した再生リストにしたがって、動画データを不揮発性メモリ1303あるいは通信I/Fを介して近接ネットワーク1312上の他の装置から取得する。CPU1301は取得した画像データを画像処理部1305と連携してデータをデコードして表示部1306に表示する。また、映像信号として外部I/F1310から出力してもよい。   In step S713 in the second embodiment, the CPU 1301 acquires moving image data from another device on the proximity network 1312 via the nonvolatile memory 1303 or the communication I / F according to the reproduction list generated in step S711. The CPU 1301 decodes the acquired image data in cooperation with the image processing unit 1305 and displays it on the display unit 1306. Further, it may be output from the external I / F 1310 as a video signal.

このような処理を行うことによって、例えば結婚式のテーマデータにしたがって撮影していた場合に、ある撮影イベントの撮り忘れてしまったとしても、周囲のカメラやパーソナルコンピュータから撮り忘れたイベントの映像データを入手し、テーマに沿った映像を得ることができる。   By performing such processing, for example, when shooting according to wedding theme data, even if you forget to take a shooting event, the video data of the event you forgot to take from a surrounding camera or personal computer You can get a video according to the theme.

以上、本実施例によれば、撮影すべき複数イベントの情報がイベント間の前後関係を指定されたテーマ情報を保持し、映像が関連付けられていないイベントの撮影時間を推定するするとともに、推定した撮影時間と合致する映像を周囲の他の装置から抽出することによって、撮り逃したイベントがあった場合においても、テーマに沿った動画を生成する映像処理装置を提供することができる。   As described above, according to the present embodiment, the information on a plurality of events to be photographed holds the theme information in which the context between events is specified, and the estimated shooting time of the event not associated with the video is estimated. By extracting a video that matches the shooting time from other peripheral devices, it is possible to provide a video processing device that generates a moving image according to a theme even when there is an event that is missed.

[実施例3]
実施例3においては、実施例1と同様に、ユーザが選択したテーマ情報にしたがって撮影を行うことによって、テーマに沿った映像を生成することができるデジタルビデオカメラを説明する。
[Example 3]
In the third embodiment, as in the first embodiment, a digital video camera capable of generating a video according to a theme by shooting according to the theme information selected by the user will be described.

実施例1とは、映像データを通信手段によりインターネット上のサーバから取得する点で異なる。本実施例の説明では、実施例1と異なる構成・動作を中心に説明する。   The difference from the first embodiment is that video data is acquired from a server on the Internet by communication means. In the description of the present embodiment, the configuration and operation different from those of the first embodiment will be mainly described.

<装置説明>
図15に、本発明を適用可能な映像処理装置1500の構成の一例を示す。図15において、1501〜1513および1550は、図1の101〜113および150と同様であるため、説明を省略する。GPS1514は、GPS(Global Positioning System)衛星からの信号を受信し、緯度・経度・高度などの地理的情報を算出するユニットである。CPU1501は、内部バス1550を介してGPS1514にアクセスし、映像処理装置1500の現在地を取得することができる。
<Device description>
FIG. 15 shows an example of the configuration of a video processing apparatus 1500 to which the present invention can be applied. In FIG. 15, reference numerals 1501 to 1513 and 1550 are the same as 101 to 113 and 150 of FIG. The GPS 1514 is a unit that receives a signal from a GPS (Global Positioning System) satellite and calculates geographical information such as latitude, longitude, and altitude. The CPU 1501 can access the GPS 1514 via the internal bus 1550 and acquire the current location of the video processing device 1500.

<動作説明>
本実施例における映像処理装置の動作について、実施例1との違いを元に説明する。実施例3において、再生処理は実施例1と同様に図7と図8のフローチャートに基づいて動作する。
<Description of operation>
The operation of the video processing apparatus in the present embodiment will be described based on the difference from the first embodiment. In the third embodiment, the reproduction process operates based on the flowcharts of FIGS. 7 and 8 as in the first embodiment.

実施例1と異なる点は、図7のステップS706、ステップS711、ステップS713の動作である。その他のステップにおいては、101〜110をそれぞれ1501〜1510に読み替えることにより、実施例3に適用することができる。   The difference from the first embodiment is the operations in step S706, step S711, and step S713 in FIG. In other steps, 101 to 110 can be read as 1501 to 1510, respectively, and can be applied to the third embodiment.

以降は、ステップS706、S711、S713について説明する。実施例3におけるステップS706では、CPU1501は通信I/F1511を介してインターネット上のサーバにアクセスし、サーバに映像(静止画あるいは動画)データを3段階の処理により抽出する。   Hereinafter, steps S706, S711, and S713 will be described. In step S706 in the third embodiment, the CPU 1501 accesses a server on the Internet via the communication I / F 1511, and extracts video (still image or moving image) data from the server through three stages of processing.

第一段階と第二段階の抽出処理は、実施例1と同様に推定した時間と顔検出の有無によって行う。実施例3のおいては、さらにGPS1514から取得した位置情報を用いて第三段階の抽出処理を行う。具体的には、GPS1514から取得した位置情報(現在値の情報)を基準とし、映像データの位置情報(ジオタグと呼ばれる撮影場所を表す情報)を比較し、2つの位置情報が所定の距離以内(たとえば100m以内など)である映像データを抽出する。この距離については、表示部1506に距離を選択するGUIを表示し、ユーザに指定させておいてもよい。   The extraction process in the first stage and the second stage is performed according to the estimated time and presence / absence of face detection as in the first embodiment. In the third embodiment, the third stage extraction process is further performed using the position information acquired from the GPS 1514. Specifically, based on the position information (current value information) acquired from the GPS 1514, the position information of the video data (information indicating the shooting location called geotag) is compared, and the two position information are within a predetermined distance ( For example, video data that is within 100 m is extracted. For this distance, a GUI for selecting the distance may be displayed on the display unit 1506 and specified by the user.

なお、映像を取得するサーバを、GPS1514から取得した位置情報によって決定してもよい。この場合は、例えばGPS1514により取得した位置情報が、結婚式場内であった場合には、その結婚式場が提供するサーバにアクセスして映像を取得する。   Note that the server that acquires the video may be determined based on the position information acquired from the GPS 1514. In this case, for example, if the position information acquired by the GPS 1514 is in the wedding hall, the video is obtained by accessing a server provided by the wedding hall.

実施例3におけるステップS711では、CPU1501は実施例1のステップS711と同様に再生リストを更新する。図17に、一連の処理で生成される再生リストの例を示す。実施例1と異なり、格納場所にはサーバを特定する情報(ホスト名など)が用いられることがある(1701および1702)。   In step S711 in the third embodiment, the CPU 1501 updates the reproduction list in the same manner as in step S711 in the first embodiment. FIG. 17 shows an example of a playlist generated by a series of processes. Unlike the first embodiment, information (a host name or the like) for specifying a server may be used as a storage location (1701 and 1702).

実施例3におけるステップS713では、CPU1501はステップS711で生成した再生リストにしたがって、動画データを不揮発性メモリ1503あるいは通信I/Fを介してサーバから取得する。CPU1501は取得した画像データを画像処理部1505と連携してデータをデコードして表示部1506に表示する。また、映像信号として外部I/F1510から出力してもよい。   In step S713 in the third embodiment, the CPU 1501 acquires moving image data from the server via the nonvolatile memory 1503 or the communication I / F according to the reproduction list generated in step S711. The CPU 1501 decodes the acquired image data in cooperation with the image processing unit 1505 and displays the decoded data on the display unit 1506. Further, it may be output from the external I / F 1510 as a video signal.

このような処理を行うことによって、例えば結婚式のテーマデータにしたがって撮影していた場合に、ある撮影イベントの撮り忘れてしまったとしても、インターネット上のサーバから近くの場所で撮影した映像データを入手し、テーマに沿った映像を得ることができる。   By performing such processing, for example, when shooting according to wedding theme data, even if you forget to take a shooting event, video data shot at a nearby location from a server on the Internet. You can get and get a video according to the theme.

以上、本実施例によれば、撮影すべき複数イベントの情報がイベント間の前後関係を指定されたテーマ情報を保持し、映像が関連付けられていないイベントの撮影時間を推定するするとともに、推定した撮影時間と合致する映像をサーバから抽出することによって、撮り逃したイベントがあった場合においても、テーマに沿った動画を生成する映像処理装置を提供することができる。   As described above, according to the present embodiment, the information on a plurality of events to be photographed holds the theme information in which the context between events is specified, and the estimated shooting time of the event not associated with the video is estimated. By extracting a video that matches the shooting time from the server, it is possible to provide a video processing device that generates a moving image according to a theme even when there is an event that has been missed.

[実施例4]
実施例4においては、本発明による映像処理装置を、ユーザがテーマ(テンプレート)に沿った映像データを選択することによってDVDやブルーレイディスクなどのコンテンツを作成することのできるオーサリング装置とした場合を例にして説明する。
[Example 4]
In the fourth embodiment, the video processing apparatus according to the present invention is an authoring apparatus in which a user can create content such as a DVD or a Blu-ray disc by selecting video data according to a theme (template). I will explain.

<装置説明>
図18に、本発明を適用可能な映像処理装置1800の構成の一例を示す。図18において、内部バス1850に対してCPU1801、メモリ1802、不揮発性メモリ1803、画像処理部1804、表示I/F1805、操作部1807、記録部1808、記憶媒体I/F1810、外部I/F1812、通信I/F1813、RTC1815が接続されている。
<Device description>
FIG. 18 shows an example of the configuration of a video processing apparatus 1800 to which the present invention can be applied. In FIG. 18, the CPU 1801, the memory 1802, the non-volatile memory 1803, the image processing unit 1804, the display I / F 1805, the operation unit 1807, the recording unit 1808, the storage medium I / F 1810, the external I / F 1812, communication with respect to the internal bus 1850 An I / F 1813 and an RTC 1815 are connected.

内部バス1850に接続される各部は、内部バス1850を介して互いにデータのやりとりを行うことができるようにされている。   Each unit connected to the internal bus 1850 can exchange data with each other via the internal bus 1850.

メモリ1802は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU1801は、例えば不揮発性メモリ1803に格納されるプログラムに従い、メモリ1802をワークメモリとして用いて、映像処理装置1800の各部を制御する。不揮発性メモリ1803には、映像データや音声データ、その他のデータ、CPU1801が動作するための各種プログラムなどが格納される。不揮発性メモリ1803は例えばハードディスク(HD)やROMなどで構成される。   The memory 1802 is composed of, for example, a RAM (a volatile memory using a semiconductor element). The CPU 1801 controls each unit of the video processing apparatus 1800 using the memory 1802 as a work memory, for example, according to a program stored in the nonvolatile memory 1803. The nonvolatile memory 1803 stores video data, audio data, other data, various programs for the CPU 1801 to operate, and the like. The non-volatile memory 1803 is composed of, for example, a hard disk (HD) or ROM.

画像処理部1804は、CPU1801の制御に基づいて、不揮発性メモリ1803や記録媒体1811に格納された映像データや、外部I/F1812を介して取得した映像信号、通信I/F1813を介して取得した映像データなどに対して各種画像処理を施す。画像処理部1804が行う画像処理には、A/D変換処理、D/A変換処理、映像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理、顔検出処理などが含まれる。画像処理部1804は特定の画像処理を施すための専用の回路ブロックで構成しても良い。また、画像処理の種別によっては画像処理部1804を用いずにCPU1801がプログラムに従って画像処理を施すことも可能である。   Based on the control of the CPU 1801, the image processing unit 1804 acquires video data stored in the nonvolatile memory 1803 and the recording medium 1811, a video signal acquired via the external I / F 1812, and a communication I / F 1813. Various image processing is performed on video data. Image processing performed by the image processing unit 1804 includes A / D conversion processing, D / A conversion processing, video data encoding processing, compression processing, decoding processing, enlargement / reduction processing (resizing), noise reduction processing, and color conversion. Processing, face detection processing, and the like. The image processing unit 1804 may be configured by a dedicated circuit block for performing specific image processing. Also, depending on the type of image processing, the CPU 1801 can perform image processing according to a program without using the image processing unit 1804.

表示I/F部1805は、CPU1801の制御に基づいて、映像やGUI(Graphical User Interface)画面などを、外部の表示装置1806に表示する。表示I/F1805は、例えば、外部に映像信号を出力するビデオドライバユニットとフレームバッファで構成される。   The display I / F unit 1805 displays an image, a GUI (Graphical User Interface) screen, and the like on the external display device 1806 based on the control of the CPU 1801. The display I / F 1805 includes, for example, a video driver unit that outputs a video signal to the outside and a frame buffer.

表示装置1806は、受信した映像信号を、目視可能な映像として表示する装置である。たとえば、液晶ディスプレイやCRTなどが用いられる。CPU1801は、プログラムに従い表示要求と表示データを生成し表示装置1806に表示するように表示I/F1805を含む映像処理装置1800の各部を制御する。表示I/F1805は、制御とデータに基づいて映像信号を表示装置1806に出力し、表示装置1806は受信した映像信号にしたがって映像を表示する。なお、映像処理装置1800自体が備える構成としては、表示装置1806を映像処理装置1800に内蔵して構成してもよい。   The display device 1806 is a device that displays a received video signal as a visual image. For example, a liquid crystal display or a CRT is used. The CPU 1801 controls each unit of the video processing apparatus 1800 including the display I / F 1805 so as to generate a display request and display data according to the program and display the display request and display data on the display apparatus 1806. The display I / F 1805 outputs a video signal to the display device 1806 based on the control and data, and the display device 1806 displays a video according to the received video signal. Note that the video processing apparatus 1800 itself may include a display device 1806 built in the video processing apparatus 1800.

操作部1807は、ボタン・キーボード・マウス・タッチパネルなどを含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、表示装置1806に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。   The operation unit 1807 is an input device for accepting user operations including buttons, a keyboard, a mouse, a touch panel, and the like. Note that the touch panel is an input device that is configured to overlap with the display device 1806 and is configured to output coordinate information according to the touched position.

記録部1808は、DVDやブルーレイディスクなどの映像の記録に用いられる記録媒体1809に映像データを記録するための装置である。例えば、記録型DVDドライブや記録型ブルーレイディスクドライブが相当する。   The recording unit 1808 is a device for recording video data on a recording medium 1809 used for recording video such as a DVD or a Blu-ray disc. For example, a recordable DVD drive or a recordable Blu-ray disc drive is equivalent.

記憶媒体I/F1810は、メモリカードやハードディスクドライブなどの記録媒体1811が装着可能とされ、CPU1801の制御に基づき、装着された記録媒体1811からのデータの読み出しや、当該記録媒体1810に対するデータの書き込みを行う。外部I/F1812は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。   The storage medium I / F 1810 can be loaded with a recording medium 1811 such as a memory card or a hard disk drive, and reads data from the loaded recording medium 1811 and writes data to the recording medium 1810 under the control of the CPU 1801. I do. The external I / F 1812 is an interface that is connected to an external device by a wired cable or wirelessly and inputs / outputs a video signal and an audio signal.

通信I/F1813、外部機器やインターネット1814などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。RTC1815は、時計機能であるリアルタイムクロックであり、CPU1801は時刻を認識するためにRTC1815を使用する。   It is an interface for communicating with a communication I / F 1813, an external device, the Internet 1814, etc., and transmitting / receiving various data such as files and commands. The RTC 1815 is a real-time clock that is a clock function, and the CPU 1801 uses the RTC 1815 to recognize the time.

<動作説明>
本実施例における本発明の映像処理装置の動作について、図19〜図23の図とフローチャートに基づいて説明する。ここでは、まずあらかじめ不揮発性メモリ1803に格納されているテーマデータ(テンプレート)と映像データの例を説明し、本発明の特徴的な動作であるオーサリング処理について説明を行う。
<Description of operation>
The operation of the video processing apparatus of the present invention in this embodiment will be described based on the diagrams and flowcharts of FIGS. Here, first, an example of theme data (template) and video data stored in advance in the nonvolatile memory 1803 will be described, and authoring processing which is a characteristic operation of the present invention will be described.

図19はテーマデータ(テンプレート)を説明するための例である。テーマデータは、「構成順序1901」「イベント名1902」「顔検出1903」「想定撮影順序1904」の組み合わせからなるイベントデータが集合したものである。凡例1905は、顔検出1903に記載されている内容の意味を示している。凡例1906は、想定撮影順序1904に記載されている内容の意味を示している。この例では、結婚式のテーマ(テンプレート)は10個のイベントデータから構成される。それぞれのイベントに対し、想定される撮影時の前後関係が想定撮影順序1904として指定されている。   FIG. 19 is an example for explaining the theme data (template). The theme data is a collection of event data composed of combinations of “configuration order 1901”, “event name 1902”, “face detection 1903”, and “assumed shooting order 1904”. A legend 1905 indicates the meaning of the contents described in the face detection 1903. A legend 1906 indicates the meaning of the contents described in the assumed shooting order 1904. In this example, a wedding theme (template) is composed of 10 event data. For each event, an assumed shooting order is specified as an assumed shooting order 1904.

例えば、「ゲストからのお祝いの言葉」というイベントは、想定撮影順序が「F」となっているので、いつでも発生しうる(撮影可能な)イベントである。また、「乾杯」というイベントは、想定撮影順序が「1−2」となっているので、想定撮影順序「1」の「新郎新婦入場」イベントと想定撮影順序「2」の「ケーキ入刀」イベントの間で撮影されうるイベントである。同様に、「新郎新婦あいさつ」というイベントは、想定撮影順序が「3」となっているので、想定撮影順序「2」の「ケーキ入刀」イベントと想定撮影順序「4」の「新郎新婦退場」イベントの間で撮影されうるイベントである。   For example, an event “celebration from a guest” is an event that can occur at any time (can be photographed) because the assumed shooting order is “F”. In addition, since the assumed shooting order of the event “Cheers” is “1-2”, the “bride and groom admission” event of the assumed shooting order “1” and the “cake entry” of the assumed shooting order “2”. It is an event that can be filmed between events. Similarly, for the event “Bride and Groom Greeting”, the assumed shooting order is “3”, so the “cake entry” event in the assumed shooting order “2” and the “bride and groom exit” in the assumed shooting order “4”. An event that can be filmed between events.

図20は不揮発性メモリ1803に格納されている映像データを説明するための例である。不揮発性メモリ1803に格納されている映像データは、「撮影開始時刻2001」「動画の長さ2002」「イベント名2003」「ファイル名2004」の組み合わせからなるイベント動画データが集合したものである。この例では、不揮発性メモリに12個の映像データが格納されていることを表している。例えば、1行目のデータは、2010年11月22日 12時00分10秒から11秒間「会場の雰囲気」イベントとして撮影した映像が、00001.mtsというファイル名で格納されているということを示している。   FIG. 20 is an example for explaining video data stored in the nonvolatile memory 1803. The video data stored in the non-volatile memory 1803 is a collection of event moving image data including a combination of “shooting start time 2001”, “moving image length 2002”, “event name 2003”, and “file name 2004”. In this example, twelve pieces of video data are stored in the nonvolatile memory. For example, the data in the first row is an image taken as an “atmosphere of the venue” event for 11 seconds from 12:00:10 on November 22, 2010. This indicates that the file is stored with the file name mts.

なお、イベント動画データに対するイベント名の付与は、これらの撮影時に撮像装置で付与するような仕組みとしてもよいし、本実施例の映像処理装置でユーザが操作部1807を用いて付与するような仕組みとしてもよい。   Note that the event name may be assigned to the event moving image data by a mechanism that is given by the imaging device at the time of shooting, or a mechanism that is given by the user using the operation unit 1807 in the video processing apparatus of the present embodiment. It is good.

次に、図21と図8を参照しながら、本発明の映像処理装置によるオーサリング処理を詳細に説明する。これらのフローチャートの説明の際には、具体的なデータ例として図19で示した結婚式のテーマデータと、図20で示した不揮発性メモリ1803内の映像データを用いる。   Next, the authoring process by the video processing apparatus of the present invention will be described in detail with reference to FIG. 21 and FIG. In the explanation of these flowcharts, wedding theme data shown in FIG. 19 and video data in the nonvolatile memory 1803 shown in FIG. 20 are used as specific data examples.

ステップS2101では、CPI1801はオーサリング開始するに際し、ユーザがテーマデータ(テンプレート)を選択したか否かを判定する。テーマデータの選択は、CPU1801が、表示I/F1805を介して表示装置1806に選択のためのGUIを表示し、ユーザが操作部1807を操作することによって行う。   In step S2101, the CPI 1801 determines whether or not the user has selected theme data (template) when starting authoring. The theme data is selected by the CPU 1801 displaying a selection GUI on the display device 1806 via the display I / F 1805 and the user operating the operation unit 1807.

ステップS2102では、CPU101はオーサリングにより生成するコンテンツを管理する動画リストをクリアする。映像リストについては、後述のステップS2114で詳細に説明する。ステップS2103では、CPU1801はステップS2101で選択したテーマデータ(図19)を読み出し、後述するステップS2104〜ステップS2114で処理すべきイベントを順次選択する。この時の選択の順序は、テーマデータで定義されている構成順序(図19の1901の列)に従う。   In step S2102, the CPU 101 clears the moving image list for managing content generated by authoring. The video list will be described in detail in step S2114 described later. In step S2103, the CPU 1801 reads the theme data (FIG. 19) selected in step S2101 and sequentially selects events to be processed in steps S2104 to S2114 described later. The selection order at this time follows the configuration order defined in the theme data (column 1901 in FIG. 19).

図19の結婚式のテーマデータを選択した場合は、1回目の処理では「会場の雰囲気」イベント、2回目の処理では「受付」イベント、3回目の処理では「ゲストからのお祝いの言葉」イベント、・・・のようになる。ステップS2104では、CPU1801はステップS2103で選択したイベントに対応したイベント動画データが、不揮発性メモリ1803に存在するか否かを判定する。対応するイベント動画データが存在する場合はステップS2105へ、存在しない場合はステップS2107へ進む。   When the wedding theme data in FIG. 19 is selected, the “atmosphere at the venue” event is performed in the first process, the “reception” event is performed in the second process, and the “congratulations from guest” event is performed in the third process. ,···become that way. In step S2104, the CPU 1801 determines whether event moving image data corresponding to the event selected in step S2103 exists in the nonvolatile memory 1803. If the corresponding event moving image data exists, the process proceeds to step S2105. Otherwise, the process proceeds to step S2107.

ステップS2105では、CPU1801はステップS2103で選択したイベントに対応したイベント動画データの情報を、GUIとして表示I/F1805を介して表示装置1806に表示する。GUIは、イベントに対応するイベント動画データのサムネイル画像・撮影日時などから構成される。図22(a)にGUIの例を示す。ユーザは、操作部1807を操作し、イベントに対応した映像データの情報を閲覧し、当該イベント(図22(a)の例では「ゲストからのお祝いの言葉」イベント)にふさわしいイベント動画データを選択することができる。   In step S2105, the CPU 1801 displays information on the event moving image data corresponding to the event selected in step S2103 as a GUI on the display device 1806 via the display I / F 1805. The GUI is composed of thumbnail images, shooting date and time of event moving image data corresponding to the event. FIG. 22A shows an example of the GUI. The user operates the operation unit 1807, browses the information of the video data corresponding to the event, and selects event video data appropriate for the event (in the example of FIG. 22A, “congratulations from the guest” event). can do.

ステップS2106では、CPU1801はステップS2105においてステップS2103で選択したイベント動画データ選択されたか否かを判定する。イベント動画データが選択された場合はステップS2114へ、選択されなかった場合はステップS2115へ進む。ステップS2107〜ステップS2113は、ステップS2104の処理により、不揮発性メモリ1803にステップS2103で選択したイベントに対応するイベント動画データが格納されていない場合の処理である。   In step S2106, the CPU 1801 determines whether or not the event moving image data selected in step S2103 in step S2105 has been selected. If event video data is selected, the process proceeds to step S2114. If not selected, the process proceeds to step S2115. Steps S2107 to S2113 are processing when event moving image data corresponding to the event selected in step S2103 is not stored in the nonvolatile memory 1803 by the processing of step S2104.

ステップS2107では、CPU1801はステップS2103で選択したイベントが発生した時間を推定する。この推定の処理については、図8のフローチャートを適用することができる。   In step S2107, the CPU 1801 estimates the time when the event selected in step S2103 has occurred. The flowchart of FIG. 8 can be applied to this estimation process.

図8の処理は、実施例1において説明した処理と同等である。実施例1の図8の処理の説明は、ステップS702をステップS2103、CPU101をCPU1801、不揮発性メモリ103を不揮発性メモリ1803、図6を図20、601〜608を2001〜2008と読み替えることによって、本実施例に適用することができる。   The processing in FIG. 8 is equivalent to the processing described in the first embodiment. The processing of FIG. 8 according to the first embodiment is described by replacing step S702 with step S2103, CPU 101 with CPU 1801, nonvolatile memory 103 with nonvolatile memory 1803, FIG. 6 with FIG. 20, and 601 to 608 with 2001 to 2008. The present embodiment can be applied.

図21に戻り、ステップS2108では、CPU1801はステップS2103で選択したイベントの撮影時間が、ステップS2107(図8)の処理によって得られたか否かを判定する。イベントの推定時間として1期間以上を算出できた場合は、推定成功としてステップS2109へ進み、イベントの推定時間が得られなかった場合は、推定に失敗したとしてステップS2115に進む。   Returning to FIG. 21, in step S2108, the CPU 1801 determines whether or not the shooting time of the event selected in step S2103 has been obtained by the process of step S2107 (FIG. 8). If one or more periods can be calculated as the estimated event time, the process proceeds to step S2109 as a successful estimation, and if the estimated event time cannot be obtained, the process proceeds to step S2115 because the estimation has failed.

ステップS2109では、CPU1801は記憶媒体I/F1810を介して記憶媒体1811にアクセスし、記憶媒体1811に格納されている映像(静止画あるいは動画)データを、2段階の処理により抽出する。第一段階の処理は、映像データの撮影時間による抽出であり、ステップS2107で得られた推定時間内に撮影された映像データを抽出する。第二段階の処理は、顔検出の有無による抽出である。第二段階の処理では、CPU1801は画像処理部1804を用いて第一段階の処理により抽出された映像データ内における、顔検出の有無を取得する。   In step S2109, the CPU 1801 accesses the storage medium 1811 via the storage medium I / F 1810, and extracts video (still image or moving image) data stored in the storage medium 1811 by a two-stage process. The first stage of processing is extraction of video data based on the shooting time, and video data shot within the estimated time obtained in step S2107 is extracted. The second stage processing is extraction based on the presence or absence of face detection. In the second stage process, the CPU 1801 uses the image processing unit 1804 to acquire the presence / absence of face detection in the video data extracted by the first stage process.

次に、テーマデータ(図19)において、ステップS2103で選択したイベントの、顔検出の項の値を取得する。そして、第一段階の処理で抽出された映像データから、顔検出の項の値が「有」である場合は顔検出された映像データを、顔検出の項の値が「無」である場合は顔検出されなかった映像データを、顔検出の項の値が「−」である場合はすべての映像データを抽出する。   Next, in the theme data (FIG. 19), the value of the face detection term of the event selected in step S2103 is acquired. Then, from the video data extracted in the first stage processing, when the face detection term value is “Yes”, the face detected video data is used. When the face detection term value is “None” Extracts video data for which no face has been detected, and extracts all video data if the value of the face detection term is “−”.

ステップS2110では、CPU1801はステップS2109で抽出した映像データの情報を、GUIとして表示I/F1805を介して表示装置1806に表示する。GUIは、抽出した映像データのサムネイル画像・撮影日時・動画静止画種別などから構成される。図22(b)にGUIの例を示す。ユーザは、操作部1807を操作し、ステップS2109で抽出された映像データの情報を閲覧し、ステップS2103で選択されたイベント(図22(b)の例では「新郎新婦あいさつ」イベント)にふさわしい映像データを選択することができる。   In step S2110, the CPU 1801 displays the information of the video data extracted in step S2109 as a GUI on the display device 1806 via the display I / F 1805. The GUI is composed of thumbnail images of the extracted video data, shooting date / time, moving image still image type, and the like. FIG. 22B shows an example of the GUI. The user operates the operation unit 1807, browses the information of the video data extracted in step S2109, and the video suitable for the event selected in step S2103 (the “bride and groom greeting” event in the example of FIG. 22B). Data can be selected.

ステップS2111では、CPU1801はステップS2110で提示した映像データをユーザが1個以上選択したか否かを判定する。ユーザが映像でテータを選択した場合はステップS2112に、選択しなかった場合はステップS2115へ進む。ステップS2112では、CPU1801はユーザが選択した映像データに静止画データが含まれるか否かを判定する。静止画データが含まれていた場合にはステップS2113に、含まれていなかった場合にはステップS2114に進む。   In step S2111, the CPU 1801 determines whether the user has selected one or more video data presented in step S2110. If the user selects the data in the video, the process proceeds to step S2112. If not, the process proceeds to step S2115. In step S2112, the CPU 1801 determines whether still image data is included in the video data selected by the user. If still image data is included, the process proceeds to step S2113. If not, the process proceeds to step S2114.

ステップS2113では、CPU1801はユーザが選択した映像データに含まれている静止画データを元に動画データを生成する。具体的には、間隔をあけて複数の静止画データを順次表示(スライドショー)するような動画データに変換したり、静止画データの一部を表示しながらスクロール(デジタルパン・チルト)するような動画に変換したりして行う。CPU1801は、生成した動画データを不揮発性メモリ1803に保存する。   In step S2113, the CPU 1801 generates moving image data based on still image data included in the video data selected by the user. Specifically, it is converted into moving image data that sequentially displays a plurality of still image data at intervals (slide show), or scrolls (digital pan / tilt) while displaying a part of the still image data. Or convert it to video. The CPU 1801 stores the generated moving image data in the nonvolatile memory 1803.

ステップS2114では、CPU1801は「ステップS2105で取得した、撮影した映像データ」「ステップS2109で抽出し、ユーザが選択した動画データ」「ステップS2109で抽出し、ユーザが選択した静止画から生成した動画データ」を映像リストに順次追加する。図23は、図21の一連の処理で生成される映像リストの例である。この映像リストは、図19のテーマデータの例と、図20の不揮発性メモリ1803に格納されている映像データの例に対応している。図23の映像リストでは、テーマデータの構成順序1901にしたがって、映像データが映像リストに追加されている。   In step S2114, the CPU 1801 “captured video data acquired in step S2105” “moving image data extracted in step S2109 and selected by the user” “moving image data extracted in step S2109 and generated from the still image selected by the user. Are sequentially added to the video list. FIG. 23 is an example of a video list generated by the series of processes in FIG. This video list corresponds to the example of theme data in FIG. 19 and the example of video data stored in the nonvolatile memory 1803 in FIG. In the video list of FIG. 23, video data is added to the video list in accordance with the composition order 1901 of the theme data.

図20の映像データの例では、「乾杯」イベント・「料理紹介」イベント・「新郎新婦あいさつイベント」は含まれていない(格納されていない)ので、これらはステップS2107〜S2113の処理によって外部の記録媒体から取得した映像データを使用している(2301〜2304)。なお、この例では、2301と2304では外部の記憶媒体にある動画データを表しており、2302と2303は外部の記憶媒体にある静止画データからステップS2113で生成された動画データを表している。   In the example of the video data in FIG. 20, the “Cheers” event, “Cooking introduction” event, and “Bride and groom greeting event” are not included (not stored). Video data acquired from a recording medium is used (2301 to 2304). In this example, 2301 and 2304 represent moving image data in an external storage medium, and 2302 and 2303 represent moving image data generated in step S2113 from still image data in the external storage medium.

ステップS2115では、CPU1801はステップS2103において、テーマデータ(図19)の全てのイベントを選択したか否かを選択する。図19の例では、ステップS2103において「新郎新婦退場」イベントを選択していた場合は、すべての撮影イベントを選択したということになる。ステップS2103において全ての撮影イベントを選択済みの場合は、ステップS2114で更新した映像リストが完成したとして、ステップS2115へ進む。一方、未選択のイベントがある場合は、ステップS2103に戻り次のイベントの処理を行う。   In step S2115, the CPU 1801 selects whether or not all events in the theme data (FIG. 19) have been selected in step S2103. In the example of FIG. 19, if the “leave the bride and groom” event is selected in step S2103, it means that all shooting events have been selected. If all shooting events have been selected in step S2103, it is determined that the video list updated in step S2114 has been completed, and the process advances to step S2115. On the other hand, if there is an unselected event, the process returns to step S2103 to process the next event.

ステップS2116では、CPU1801はステップS2144で生成した映像リストにしたがって、動画データを不揮発性メモリ1803あるいは記憶媒体1811から取得し、作成したいコンテンツに応じたデータを生成する。たとえば、DVD−VideoフォーマットやBlu−ray(登録商標) Discフォーマットのデータを生成する。ステップS2117では、CPU1801はステップS2116で作成したデータを、記録部1808を利用して記録媒体1809に書き込む。   In step S2116, the CPU 1801 acquires moving image data from the nonvolatile memory 1803 or the storage medium 1811 according to the video list generated in step S2144, and generates data corresponding to the content to be created. For example, data in a DVD-Video format or Blu-ray (registered trademark) Disc format is generated. In step S2117, the CPU 1801 writes the data created in step S2116 into the recording medium 1809 using the recording unit 1808.

このような処理を行うことによって、例えば結婚式のテーマデータにしたがってコンテンツをオーサリングしていた場合に、あるイベントの映像データが不足していた場合においても、例えば同席していた友人の記録媒体を使用することによって、不足していたイベントの映像データを入手し、テーマに沿った映像を得ることができる。   By performing such processing, for example, when content is authored according to wedding theme data, even when there is a shortage of video data of an event, for example, a recording medium of a friend who was present at the event By using it, it is possible to obtain video data of a lacking event and obtain video in line with the theme.

以上、本実施例によれば、撮影すべき複数イベントの情報がイベント間の前後関係を指定されたテーマ情報を保持し、映像が関連付けられていないイベントの撮影時間を推定するするとともに、推定した撮影時間と合致する映像を装着された記憶媒体から抽出することによって、撮り逃したイベントがあった場合においても、テーマに沿った動画を生成する映像処理装置を提供することができる。   As described above, according to the present embodiment, the information on a plurality of events to be photographed holds the theme information in which the context between events is specified, and the estimated shooting time of the event not associated with the video is estimated. By extracting a video that matches the shooting time from the attached storage medium, it is possible to provide a video processing device that generates a moving image according to a theme even when there is an event that has been missed.

[その他の実施例]
実施例3では、位置情報の取得にGPSを用いたが、本発明はこれに限定されるわけではなく、ユーザによる入力により位置情報を取得したり、IPアドレスから位置情報を決定したりしてもよい。
[Other Examples]
In the third embodiment, the GPS is used to acquire the position information. However, the present invention is not limited to this, and the position information is acquired by the input by the user or the position information is determined from the IP address. Also good.

実施例3では、ステップS706の第三段階の抽出処理に用いる位置情報は、映像処理装置の現在の位置情報を使用したが、本発明はこれに限定されるわけではない。たとえば、直前に再生リストに追加された映像データの位置情報(ジオタグ)を用いてもよい。   In the third embodiment, the current position information of the video processing apparatus is used as the position information used for the extraction process in the third stage of step S706, but the present invention is not limited to this. For example, position information (geotag) of video data added to the reproduction list immediately before may be used.

実施例3では、ステップS706において3段階の抽出処理をCPU1501が行ったが、本発明はこれに限定されるわけではなく、CPU1501が抽出処理に必要な情報をサーバに送信し、抽出結果をサーバから取得するような構成にしてもよい。   In the third embodiment, the CPU 1501 performs the three-stage extraction process in step S706. However, the present invention is not limited to this, and the CPU 1501 transmits information necessary for the extraction process to the server, and the extraction result is sent to the server. You may make it the structure which acquires from.

実施例4では、記憶媒体から映像の抽出を行ったが、本発明はこれ限定されているわけではなく、実施例1に対する実施例2・3と同様に、周辺の機器やインターネット上から映像データを抽出してもよい。   In the fourth embodiment, the video is extracted from the storage medium. However, the present invention is not limited to this, and the video data is obtained from peripheral devices and the Internet as in the second and third embodiments. May be extracted.

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。   The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

100 映像処理装置、101 CPU(イベント時間推定手段、映像抽出手段)、102 メモリ、103 不揮発性メモリ(テーマ保持手段)、104 撮像部、
105 画像処理部、106 表示部、107 操作部、108 記憶媒体I/F、109 記憶媒体、110 外部I/F、111 通信I/F、
112 外部ネットワーク、113 RTC、150 内部バス
100 video processing apparatus, 101 CPU (event time estimation means, video extraction means), 102 memory, 103 non-volatile memory (theme holding means), 104 imaging unit,
105 image processing unit, 106 display unit, 107 operation unit, 108 storage medium I / F, 109 storage medium, 110 external I / F, 111 communication I / F,
112 External network, 113 RTC, 150 Internal bus

Claims (12)

撮影すべき複数イベントの情報がイベント間の前後関係を指定されたテーマ情報を保持するテーマ保持手段と、
映像が関連付けられていないイベントの撮影時間を推定するイベント時間推定手段と、
イベント時間推定手段による推定時間と合致した映像を抽出する映像抽出手段と
を備えることを特徴とする映像処理装置。
Theme holding means for holding theme information in which information of multiple events to be photographed specifies the context between events;
Event time estimation means for estimating the shooting time of an event with no associated video;
An image processing apparatus comprising: an image extracting means for extracting an image that matches the estimated time by the event time estimating means.
映像抽出手段により抽出した映像を取得する映像取得手段と、
映像取得手段により取得した映像を、映像が関連付けられていないイベントに対応付けることによって映像を生成する映像生成手段と
を備えることを特徴とする請求項1に記載の映像処理装置。
Video acquisition means for acquiring the video extracted by the video extraction means;
The video processing apparatus according to claim 1, further comprising: a video generation unit configured to generate a video by associating the video acquired by the video acquisition unit with an event not associated with the video.
映像抽出手段により抽出した映像のうち1個以上の映像を選択することのできる映像選択手段を備え、
映像取得手段は映像選択手段により選択した映像を取得することを特徴とする請求項2に記載の映像処理装置。
Video selection means capable of selecting one or more videos among the videos extracted by the video extraction means;
The video processing apparatus according to claim 2, wherein the video acquisition unit acquires the video selected by the video selection unit.
1個以上の静止画データを動画データに変換する動画変換手段を備え、
映像取得手段により取得した映像が静止画データであった場合に該静止画データを動画データに変換することを特徴とする請求項2又は請求項3に記載の映像処理装置。
A moving image converting means for converting one or more still image data into moving image data;
4. The video processing apparatus according to claim 2, wherein when the video acquired by the video acquisition means is still image data, the still image data is converted into moving image data.
記録媒体を読み取り可能な状態で装着するための記録媒体接続手段を備え、
映像抽出手段は前記記録媒体接続手段に装着された記録媒体から映像を抽出することができることを特徴とする請求項1乃至請求項4の何れか一項に記載の映像処理装置。
A recording medium connecting means for mounting the recording medium in a readable state;
5. The video processing apparatus according to claim 1, wherein the video extraction unit is capable of extracting a video from a recording medium attached to the recording medium connecting unit.
近隣の装置と通信するための近接通信手段を備え、
映像抽出手段は前記近接通信手段により通信可能な装置から映像を抽出することができることを特徴とする請求項1乃至請求項5の何れか一項に記載の映像処理装置。
Proximity communication means for communicating with neighboring devices,
The video processing apparatus according to claim 1, wherein the video extraction unit can extract a video from a device that can communicate with the proximity communication unit.
インターネットのネットワークシステムに接続するためのネットワーク通信手段を備え、
映像抽出手段は前記ネットワーク通信手段により通信可能なサーバから映像を抽出することができることを特徴とする請求項1乃至請求項6の何れか一項に記載の映像処理装置。
Network communication means for connecting to an Internet network system;
The video processing apparatus according to claim 1, wherein the video extraction unit can extract a video from a server that can communicate with the network communication unit.
該映像処理装置の位置情報を取得する位置情報取得手段を備え、
映像抽出手段は位置情報取得手段により取得した位置情報に応じたサーバから映像を抽出することを特徴とする請求項7に記載の映像処理装置。
Position information acquisition means for acquiring position information of the video processing device,
The video processing apparatus according to claim 7, wherein the video extraction unit extracts a video from a server corresponding to the position information acquired by the position information acquisition unit.
該映像処理装置の位置情報を取得する位置情報取得手段を備え、
映像抽出手段は位置情報取得手段により取得した位置情報に応じた映像群から映像を抽出することを特徴とする請求項7に記載の映像処理装置。
Position information acquisition means for acquiring position information of the video processing device,
8. The video processing apparatus according to claim 7, wherein the video extraction unit extracts a video from a video group corresponding to the position information acquired by the position information acquisition unit.
映像に特定の物体が含まれているか否かを判定する物体検出手段を備え、
テーマ保持手段により保持されるテーマ情報には、各イベントにおいて特定の物体の撮影が行われるか否かの情報を含み、
イベント時間推定手段により撮影時間を推定したイベントが特定の物体の撮影を行うイベントであった場合に、
映像抽出手段は、イベント時間推定手段による推定時間と合致し、かつ、物体検出手段により該特定の物体が含まれていると判定された映像を抽出することを特徴とする請求項1乃至請求項9の何れか一項に記載の映像処理装置。
Comprising object detection means for determining whether or not a specific object is included in the video;
The theme information held by the theme holding means includes information on whether or not shooting of a specific object is performed in each event,
If the event whose shooting time was estimated by the event time estimation means was an event that shot a specific object,
The video extracting means extracts a video that matches the estimated time by the event time estimating means and that is determined by the object detecting means to contain the specific object. The video processing device according to any one of claims 9 to 9.
映像に特定の物体が含まれているか否かを判定する物体検出手段を備え、
テーマ保持手段により保持されるテーマ情報には、各イベントにおいて特定の物体の撮影が行われるか否かの情報を含み、
イベント時間推定手段により撮影時間を推定したイベントが特定の物体の撮影を行わないイベントであった場合に、
映像抽出手段は、イベント時間推定手段による推定時間と合致し、かつ、物体検出手段により該特定の物体が含まれていないと判定された映像を抽出することを特徴とする請求項1乃至請求項10の何れか一項に記載の映像処理装置。
Comprising object detection means for determining whether or not a specific object is included in the video;
The theme information held by the theme holding means includes information on whether or not shooting of a specific object is performed in each event,
If the event whose shooting time is estimated by the event time estimation means is an event that does not shoot a specific object,
The video extraction means extracts a video that matches the estimated time by the event time estimation means and that is determined by the object detection means to not contain the specific object. The video processing apparatus according to claim 10.
特定の物体とは人物を意味し、物体検出手段は映像中に人物か含まれているかを検出することを特徴とする請求項10又は請求項11に記載の映像処理装置。 12. The video processing apparatus according to claim 10, wherein the specific object means a person, and the object detection unit detects whether the person is included in the video.
JP2015081333A 2015-04-13 2015-04-13 Video processing apparatus Pending JP2016201712A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015081333A JP2016201712A (en) 2015-04-13 2015-04-13 Video processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015081333A JP2016201712A (en) 2015-04-13 2015-04-13 Video processing apparatus

Publications (1)

Publication Number Publication Date
JP2016201712A true JP2016201712A (en) 2016-12-01

Family

ID=57424672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015081333A Pending JP2016201712A (en) 2015-04-13 2015-04-13 Video processing apparatus

Country Status (1)

Country Link
JP (1) JP2016201712A (en)

Similar Documents

Publication Publication Date Title
JP6324063B2 (en) Image reproducing apparatus and control method thereof
JP5092469B2 (en) Imaging apparatus, image processing apparatus, image display control method, and computer program
US10972674B2 (en) Electronic apparatus
JP2010136191A (en) Imaging apparatus, recording device, and recording method
JP2009199586A (en) Information processing apparatus and control method thereof
US20100003010A1 (en) Imaging apparatus and method to control the same
JP2006191300A (en) Digital camera and electronic equipment
US9307113B2 (en) Display control apparatus and control method thereof
JP6632360B2 (en) Information processing device
JP5754936B2 (en) Imaging device, control method thereof, program
JP2009124591A (en) Imaging apparatus, information recording device and information recording method
JP2007293555A (en) Image reproduction device, its control method, and its control program
JP2016201712A (en) Video processing apparatus
JP6248314B2 (en) Imaging apparatus, captured image processing method, and imaging system
JP6341815B2 (en) Imaging device, control method thereof, and program
JP7420886B2 (en) Image processing device and method
JP6548538B2 (en) Image delivery system and server
JP5509159B2 (en) Image processing device
JP5723168B2 (en) Image reproducing apparatus, control method therefor, program, and recording medium
JP2022187301A (en) Image capture apparatus, control method, and program
JP5704945B2 (en) Imaging apparatus, control method therefor, and program
KR101643604B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium
CN103167238A (en) Method and apparatus for reproducing image, and computer-readable storage medium
JP2014086805A (en) Imaging apparatus, imaging apparatus control method, and program
JP2017201831A (en) Image apparatus