JP2011244343A - Electronic apparatus and dynamic image generating method - Google Patents

Electronic apparatus and dynamic image generating method Download PDF

Info

Publication number
JP2011244343A
JP2011244343A JP2010116580A JP2010116580A JP2011244343A JP 2011244343 A JP2011244343 A JP 2011244343A JP 2010116580 A JP2010116580 A JP 2010116580A JP 2010116580 A JP2010116580 A JP 2010116580A JP 2011244343 A JP2011244343 A JP 2011244343A
Authority
JP
Japan
Prior art keywords
effect
moving image
image
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010116580A
Other languages
Japanese (ja)
Other versions
JP5550446B2 (en
Inventor
Kazuyo Kuroda
和代 黒田
Yoshitaka Tobita
義賢 飛田
Sukenori Kaneko
祐紀 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010116580A priority Critical patent/JP5550446B2/en
Publication of JP2011244343A publication Critical patent/JP2011244343A/en
Application granted granted Critical
Publication of JP5550446B2 publication Critical patent/JP5550446B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus and a dynamic image generating method that can easily determine an object to which an effect is applied.SOLUTION: According to one embodiment, an electronic apparatus comprises object detection means, object display means, selection means, effect means, and dynamic image generation means. The object detection means analyzes a plurality of materials and detects objects included therein. The object display means determines a representative image for each object detected and displays a list of the representative images on a screen. The effect means applies an effect to a first object selected by the selection means. The video generation means generates a dynamic image using the materials including the first object to which the effect has been applied.

Description

本発明の実施形態は、動画像を生成する電子機器及び該機器に適用される動画像生成方法に関する。   Embodiments described herein relate generally to an electronic device that generates a moving image and a moving image generation method applied to the device.

近年、デジタルフォトフレーム等と称される画像再生装置が普及している。デジタルフォトフレームは、例えば、カード型記憶メディアに格納される複数枚の静止画像を所定時間間隔で順次表示する機能を有している。例えばパーソナルコンピュータやデジタルカメラ等においても、デジタルフォトフレームと同様に、複数枚の静止画像を所定時間間隔で順次表示する機能を有するものが一般的である。   In recent years, an image reproducing apparatus called a digital photo frame has been widely used. For example, the digital photo frame has a function of sequentially displaying a plurality of still images stored in a card-type storage medium at predetermined time intervals. For example, personal computers, digital cameras, and the like generally have a function of sequentially displaying a plurality of still images at predetermined time intervals, like a digital photo frame.

特開2007−49387号公報JP 2007-49387 A

また、上述の画像再生装置では、静止画像にエフェクトを施して表示する機能を有するものもある。例えば、2枚の静止画像に対して、これら静止画像をスライドさせて切り替える(スライドイン/スライドアウト)エフェクトが施される。   In addition, some of the above-described image playback devices have a function of displaying an effect on a still image. For example, an effect of sliding (switching in / out) the two still images is slid and switched.

エフェクトは、例えば、ユーザが注目する静止画像や該静止画像内のオブジェクトに対して施される。しかし、ユーザが注目する静止画像や該静止画像内のオブジェクトを、静止画像毎に判定して決定する作業は、ユーザにとって煩雑であるという課題があった。   The effect is applied to, for example, a still image that is noticed by the user or an object in the still image. However, the task of determining and determining a still image to be noticed by the user and an object in the still image for each still image has been problematic for the user.

本発明は、エフェクトが施されるオブジェクトを容易に決定できる電子機器及び動画像生成方法を提供することを目的とする。   An object of the present invention is to provide an electronic apparatus and a moving image generation method that can easily determine an object to which an effect is applied.

実施形態によれば、電子機器は、オブジェクト検出手段、オブジェクト表示手段、選択手段、エフェクト手段、及び動画像生成手段を具備する。オブジェクト検出手段は、複数の素材を分析し、前記複数の素材に含まれるオブジェクトを検出する。オブジェクト表示手段は、前記検出されたオブジェクトから、オブジェクト毎の代表画像を決定し、前記決定された代表画像のリストを画面に表示する。エフェクト手段は、前記選択手段により選択された第1オブジェクトにエフェクトを施す。動画像生成手段は、前記エフェクトが施された第1オブジェクトを含む前記複数の素材を用いて、動画像を生成する。   According to the embodiment, the electronic device includes an object detection unit, an object display unit, a selection unit, an effect unit, and a moving image generation unit. The object detection means analyzes a plurality of materials and detects objects included in the plurality of materials. The object display means determines a representative image for each object from the detected objects, and displays the determined list of representative images on the screen. The effect means applies an effect to the first object selected by the selection means. The moving image generation means generates a moving image using the plurality of materials including the first object to which the effect has been applied.

実施形態に係る電子機器の構成を示すブロック図。1 is a block diagram illustrating a configuration of an electronic device according to an embodiment. 同実施形態の電子機器のシステム構成を示すブロック図。2 is an exemplary block diagram showing the system configuration of the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって実行される動画像再生アプリケーションプログラムの機能構成を示すブロック図。2 is an exemplary block diagram illustrating a functional configuration of a moving image reproduction application program executed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって実行される動画像再生アプリケーションプログラムが用いる素材情報の例を示す図。6 is an exemplary view showing an example of material information used by a moving image reproduction application program executed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって実行される動画像再生アプリケーションプログラムが用いるオブジェクト情報の例を示す図。4 is an exemplary view showing an example of object information used by a moving image reproduction application program executed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって実行される動画像再生アプリケーションプログラムが用いる出現頻度情報の例を示す図。6 is an exemplary view showing an example of appearance frequency information used by a moving image reproduction application program executed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって表示される顔画像選択画面の例を示す図。4 is an exemplary view showing an example of a face image selection screen displayed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって表示される顔画像選択画面の別の例を示す図。6 is an exemplary view showing another example of a face image selection screen displayed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって実行される動画像再生アプリケーションプログラムが用いるテンプレート情報の例を示す図。6 is an exemplary view showing an example of template information used by a moving image reproduction application program executed by the electronic apparatus of the embodiment. 同実施形態の電子機器によって実行される動画像再生アプリケーションプログラムが用いるエフェクト情報の例を示す図。6 is an exemplary view illustrating an example of effect information used by a moving image reproduction application program executed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって実行される動画像再生アプリケーションプログラムが用いる合成動画生成情報の例を示す図。4 is an exemplary view showing an example of synthetic moving image generation information used by a moving image reproduction application program executed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって実行される動画像再生アプリケーションプログラムが用いる合成動画生成情報の別の例を示す図。6 is an exemplary view showing another example of the composite moving image generation information used by the moving image reproduction application program executed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって生成される動画像の例を示す図。FIG. 6 is an exemplary view showing an example of a moving image generated by the electronic apparatus of the embodiment. 同実施形態の電子機器によって表示されるパラメータ設定画面の例を示す図。4 is an exemplary view showing an example of a parameter setting screen displayed by the electronic apparatus of the embodiment. FIG. 同実施形態の電子機器によって実行される素材分析・動画生成処理の手順の例を示すフローチャート。6 is an exemplary flowchart illustrating an example of a procedure of material analysis / moving image generation processing executed by the electronic apparatus of the embodiment. 同実施形態の電子機器によって実行される優先オブジェクト選択処理の手順の例を示すフローチャート。6 is an exemplary flowchart illustrating an example of a priority object selection process performed by the electronic apparatus of the embodiment. 同実施形態の電子機器によって実行される最優先オブジェクト選択処理の手順の例を示すフローチャート。6 is an exemplary flowchart illustrating an example of the procedure of the highest priority object selection process which is executed by the electronic apparatus of the embodiment. 同実施形態の電子機器によって実行される合成動画生成処理の手順の例を示すフローチャート。6 is an exemplary flowchart illustrating an example of a procedure of a synthetic moving image generation process which is executed by the electronic apparatus of the embodiment.

以下、実施の形態について図面を参照して説明する。
図1は、実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えばノートブックタイプのパーソナルコンピュータ10として実現されている。図1に示すように、本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、LCD(liquid crystal display)17が組み込まれている。ディスプレイユニット12は、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在にコンピュータ本体11に取り付けられている。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a perspective view illustrating an appearance of an electronic apparatus according to an embodiment. This electronic apparatus is realized as a notebook type personal computer 10, for example. As shown in FIG. 1, the computer 10 includes a computer main body 11 and a display unit 12. The display unit 12 includes an LCD (liquid crystal display) 17. The display unit 12 is attached to the computer main body 11 so as to be rotatable between an open position where the upper surface of the computer main body 11 is exposed and a closed position covering the upper surface of the computer main body 11.

コンピュータ本体11は、薄い箱形の筐体を有しており、その上面には、キーボード13、本コンピュータ10を電源オン/電源オフするためのパワーボタン14、入力操作パネル15、タッチパッド16、スピーカ18A,18Bなどが配置されている。入力操作パネル15上には、各種操作ボタンが設けられている。   The computer main body 11 has a thin box-shaped casing. On the upper surface of the computer main body 11, a keyboard 13, a power button 14 for powering on / off the computer 10, an input operation panel 15, a touch pad 16, Speakers 18A, 18B, etc. are arranged. Various operation buttons are provided on the input operation panel 15.

また、コンピュータ本体11の右側面には、例えばUSB(universal serial bus)2.0規格のUSBケーブルやUSBデバイスを接続するためのUSBコネクタ19が設けられている。   Further, on the right side surface of the computer main body 11, for example, a USB (Universal Serial Bus) 2.0 standard USB cable or a USB connector 19 for connecting a USB device is provided.

図2は、本コンピュータ10のシステム構成を示す図である。
本コンピュータ10は、図2に示されているように、CPU(central processing unit)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、GPU(Graphics Processing Unit)105、VRAM(ビデオRAM:random access memory)105A、サウンドコントローラ106、BIOS−ROM(basic input/output system-read only memory)107、LAN(local area network)コントローラ108、ハードディスクドライブ(HDD)109、光ディスクドライブ(ODD)110、USBコントローラ111A、カードコントローラ111B、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM(electrically erasable programmable ROM)114等を備える。
FIG. 2 is a diagram showing a system configuration of the computer 10.
As shown in FIG. 2, the computer 10 includes a CPU (central processing unit) 101, a north bridge 102, a main memory 103, a south bridge 104, a GPU (Graphics Processing Unit) 105, a VRAM (video RAM: random access). memory) 105A, sound controller 106, BIOS-ROM (basic input / output system-read only memory) 107, LAN (local area network) controller 108, hard disk drive (HDD) 109, optical disk drive (ODD) 110, USB controller 111A , A card controller 111B, a wireless LAN controller 112, an embedded controller / keyboard controller (EC / KBC) 113, an EEPROM (electrically erasable programmable ROM) 114, and the like.

CPU101は、本コンピュータ10内の各部の動作を制御するプロセッサである。CPU101は、HDD109から主メモリ103にロードされる、オペレーティングシステム(OS)201、及び動画像再生アプリケーションプログラム202のような各種アプリケーションプログラムを実行する。動画像再生アプリケーションプログラム202は、例えばHDD109等に格納された各種デジタルコンテンツデータ(例えば、フォトムービー)を再生するソフトウェアである。この動画像再生アプリケーションプログラム202は、動画像生成機能を有している。この動画像生成機能は、例えば、HDD109等に格納された写真等の素材(デジタルコンテンツ)を用いて、合成動画(動画像)を作成する機能である。さらに、この動画像生成機能は、動画像に用いる素材を分析する機能を含む。動画像再生アプリケーションプログラム202は、素材を用いて作成された動画像を再生し、画面(LCD17)に表示する。   The CPU 101 is a processor that controls the operation of each unit in the computer 10. The CPU 101 executes various application programs such as an operating system (OS) 201 and a moving image reproduction application program 202 that are loaded from the HDD 109 to the main memory 103. The moving image reproduction application program 202 is software for reproducing various digital content data (for example, photo movies) stored in the HDD 109 or the like, for example. The moving image reproduction application program 202 has a moving image generation function. This moving image generation function is a function for creating a composite moving image (moving image) using a material (digital content) such as a photograph stored in the HDD 109 or the like, for example. Further, the moving image generation function includes a function of analyzing a material used for the moving image. The moving image reproduction application program 202 reproduces a moving image created using the material and displays it on the screen (LCD 17).

また、CPU101は、BIOS−ROM107に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。   The CPU 101 also executes the BIOS stored in the BIOS-ROM 107. The BIOS is a program for hardware control.

ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、例えば、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。   The north bridge 102 is a bridge device that connects the local bus of the CPU 101 and the south bridge 104. The north bridge 102 also includes a memory controller that controls access to the main memory 103. The north bridge 102 also has a function of executing communication with the GPU 105 via, for example, a PCI EXPRESS serial bus.

GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。   The GPU 105 is a display controller that controls the LCD 17 used as a display monitor of the computer 10. A display signal generated by the GPU 105 is sent to the LCD 17.

サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイス及びLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109及びODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。   The south bridge 104 controls each device on a peripheral component interconnect (PCI) bus and each device on a low pin count (LPC) bus. Further, the south bridge 104 includes an IDE (Integrated Drive Electronics) controller for controlling the HDD 109 and the ODD 110. Further, the south bridge 104 has a function of executing communication with the sound controller 106.

サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18Bに出力する。LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、(USBコネクタ19を介して接続される)例えばUSB 2.0規格に対応した外部機器との通信を実行する。例えば、USBコントローラ111Aは、例えば、デジタルカメラに格納されている画像データファイルを受信するために使用される。カードコントローラ111Bは、コンピュータ本体11に設けられたカードスロットに挿入される、SDカードのようなメモリカードに対するデータの書き込み及び読み出しを実行する。   The sound controller 106 is a sound source device and outputs audio data to be reproduced to the speakers 18A and 18B. The LAN controller 108 is a wired communication device that executes IEEE 802.3 standard wired communication, for example, while the wireless LAN controller 112 is a wireless communication device that executes IEEE 802.11g standard wireless communication, for example. The USB controller 111A executes communication with an external device (connected via the USB connector 19) that supports, for example, the USB 2.0 standard. For example, the USB controller 111A is used for receiving an image data file stored in a digital camera, for example. The card controller 111B executes data writing and reading with respect to a memory card such as an SD card inserted into a card slot provided in the computer main body 11.

EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13及びタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC113は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10を電源オン/電源オフする機能を有している。   The EC / KBC 113 is a one-chip microcomputer in which an embedded controller for power management and a keyboard controller for controlling the keyboard 13 and the touch pad 16 are integrated. The EC / KBC 113 has a function of turning on / off the computer 10 in accordance with the operation of the power button 14 by the user.

次いで、図3を参照して、以上のような構成を有するコンピュータ10上で動作する動画像再生アプリケーションプログラム202の一機能構成を説明する。ここでは、動画像再生アプリケーションプログラム202が有する機能のうち、動画像生成機能を実現するための構成例について説明する。この動画像生成機能は、インタフェース部(上述のUSBコントローラ111A、カードコントローラ111B等)を介して外部デバイス(デジタルカメラ、メモリカード等)から格納された素材データ51だけでなく、HDD109内の所定のディレクトリに格納された素材データ51やネットワークを介して格納された素材データ51等に対しても適用することができる。なお、この素材データ51は、例えば、静止画像データ301A、音声データ301B、動画像データ301C等である。
動画像再生アプリケーションプログラム202は、素材入力部21、素材分析部22及び動画再生部23を備える。
Next, with reference to FIG. 3, a functional configuration of the moving image reproduction application program 202 operating on the computer 10 having the above configuration will be described. Here, a configuration example for realizing a moving image generation function among the functions of the moving image reproduction application program 202 will be described. This moving image generation function is not limited to the material data 51 stored from an external device (digital camera, memory card, etc.) via the interface unit (the above-mentioned USB controller 111A, card controller 111B, etc.), The present invention can also be applied to material data 51 stored in a directory, material data 51 stored via a network, and the like. The material data 51 is, for example, still image data 301A, audio data 301B, moving image data 301C, and the like.
The moving image reproduction application program 202 includes a material input unit 21, a material analysis unit 22, and a moving image reproduction unit 23.

素材入力部21は、USBコントローラ111A、カードコントローラ111B等のインタフェース部を介して、素材データ51が入力されたことに応答して、素材データ51をHDD109内の素材データベース301に格納する。素材データベース301は、生成される動画像に用いられる素材データ51を格納するためのデータベースである。具体的には、素材データベース301には、素材データ51である、静止画像データ301A、音声データ301B、動画像データ301C等が格納される。素材データベース301に格納された素材データ51は、合成動画の素材候補として用いられる。また、素材入力部21は、素材データ51がHDD109に格納されたことを素材分析部22に通知する。   The material input unit 21 stores the material data 51 in the material database 301 in the HDD 109 in response to the input of the material data 51 via the interface unit such as the USB controller 111A and the card controller 111B. The material database 301 is a database for storing material data 51 used for generated moving images. Specifically, the material database 301 stores material data 51, such as still image data 301A, audio data 301B, and moving image data 301C. The material data 51 stored in the material database 301 is used as a material candidate for a composite moving image. In addition, the material input unit 21 notifies the material analysis unit 22 that the material data 51 has been stored in the HDD 109.

素材分析部22は、素材入力部21からの通知に応答して、素材データ51を分析する処理を開始する。素材分析部22は、オブジェクト検出部221、出現頻度算出部222、優先オブジェクト選択部223、及び最優先オブジェクト選択部224を備える。なお、以下では、分析対象の素材データ51が静止画像データ301Aである場合を想定する。   In response to the notification from the material input unit 21, the material analysis unit 22 starts processing for analyzing the material data 51. The material analysis unit 22 includes an object detection unit 221, an appearance frequency calculation unit 222, a priority object selection unit 223, and a top priority object selection unit 224. In the following, it is assumed that the material data 51 to be analyzed is still image data 301A.

オブジェクト検出部221は、静止画像データ301Aからオブジェクトを検出するオブジェクト検出処理を実行する。オブジェクトは、例えば、静止画像データ301Aの特徴を解析し、予め用意されたオブジェクトの特徴サンプルと類似する特徴を有する領域(オブジェクト画像)を探索することによって検出することができる。オブジェクトの特徴サンプルは、多数のオブジェクトそれぞれの画像特徴を統計的に処理することによって得られた特徴データである。オブジェクト検出処理により、静止画像301A内に含まれる各オブジェクト画像の位置(座標)、サイズ、正面度等が検出される。また、オブジェクト検出部221は、検出したオブジェクト画像にそれぞれオブジェクト画像IDを付与する。オブジェクト検出部221は、静止画像301Aに付加された情報と検出したオブジェクト画像の情報とを含む素材情報302Aを生成し、HDD109内の素材情報データベース302に格納する。   The object detection unit 221 executes an object detection process for detecting an object from the still image data 301A. The object can be detected by, for example, analyzing the feature of the still image data 301A and searching for a region (object image) having a feature similar to a feature sample of an object prepared in advance. An object feature sample is feature data obtained by statistically processing image features of a large number of objects. By the object detection process, the position (coordinates), size, frontality, and the like of each object image included in the still image 301A are detected. The object detection unit 221 also assigns an object image ID to each detected object image. The object detection unit 221 generates material information 302A including information added to the still image 301A and information of the detected object image, and stores the material information 302A in the material information database 302 in the HDD 109.

図4は素材情報302Aの一構成例を示す。素材情報302Aは、素材ID、ファイル名、ファイルパス、ファイルサイズ、生成日時、属性、グループID、オブジェクト画像ID、オブジェクト画像情報等を含む。「素材ID」は、素材データ51に一意に割り当てられる識別情報を示す。「ファイル名」は、素材データ51に対応するデータファイルの名称を示す。「ファイルパス」は、素材データ51が格納される場所を示す。「ファイルサイズ」は、素材データ51のデータサイズを示す。「生成日時」は、素材データ51が生成された日時を表す時刻情報を示す。「属性」は、素材データ51の属性情報を示す。「グループID」は、素材データ51が属するグループに一意に割り当てられる識別情報を示す。このグループIDは、例えば生成日時に基づいて分類された素材データ51が属するグループのIDを表す。また、このグループIDは、例えば関連性に基づいて分類された素材データ51が属する(関連性が高い素材データ51が同一のグループに分類された)グループのIDを表す。「オブジェクト画像ID」は、素材データ51に含まれるオブジェクト画像に一意に割り当てられる識別情報を示す。「オブジェクト画像情報」は、各オブジェクト画像の画像、位置(座標)、サイズ、正面度等を示す情報を含む。   FIG. 4 shows a configuration example of the material information 302A. The material information 302A includes a material ID, a file name, a file path, a file size, a generation date / time, an attribute, a group ID, an object image ID, object image information, and the like. “Material ID” indicates identification information uniquely assigned to the material data 51. “File name” indicates the name of the data file corresponding to the material data 51. “File path” indicates a location where the material data 51 is stored. “File size” indicates the data size of the material data 51. “Generation date / time” indicates time information indicating the date / time when the material data 51 was generated. “Attribute” indicates attribute information of the material data 51. “Group ID” indicates identification information uniquely assigned to a group to which the material data 51 belongs. This group ID represents, for example, the ID of the group to which the material data 51 classified based on the generation date / time belongs. The group ID represents, for example, the ID of a group to which the material data 51 classified based on the relevance belongs (the material data 51 with high relevance is classified into the same group). “Object image ID” indicates identification information uniquely assigned to an object image included in the material data 51. “Object image information” includes information indicating the image, position (coordinates), size, frontality, and the like of each object image.

オブジェクト画像は、例えば顔画像である。その場合、オブジェクト検出部221は、静止画像データ301Aから顔画像を検出する顔画像検出処理を実行する。そして、オブジェクト検出部221は、検出した顔画像の情報を含む素材情報302Aを素材情報データベース302に格納する。なお、オブジェクト画像は、顔画像に限らず、顔画像を含む人物の全身や体の一部が描画された領域を示す人物画像、動物が描画された領域を示す動物画像等、何らかの物体が描画された領域を含む。   The object image is, for example, a face image. In that case, the object detection unit 221 executes a face image detection process for detecting a face image from the still image data 301A. Then, the object detection unit 221 stores material information 302A including information of the detected face image in the material information database 302. Note that the object image is not limited to a face image, and any object such as a person image showing a whole body or a part of the body of the person including the face image or an animal image showing an animal drawn area is drawn. Including the specified region.

例えば、図4に示す例において、素材IDが“1”である素材データ51に対応する素材情報302Aは、ファイル名が“AAA.jpg”、ファイルパスが“AAA/AAA”、ファイルサイズが“200kByte”、生成日時が“2010/02/01”、属性が“AA”、グループIDが“A”であることを示す。また、この素材情報302Aは、素材IDが“1”である素材データ51から、オブジェクト画像IDが“1, 2, 3, 4, 5, 6”である6つのオブジェクト画像が検出されていることを示す。さらに、この素材情報302Aは、それら6つのオブジェクト画像の各々の情報(画像、位置、サイズ、正面度等)も示している。   For example, in the example shown in FIG. 4, the material information 302A corresponding to the material data 51 with the material ID “1” has a file name “AAA.jpg”, a file path “AAA / AAA”, and a file size “ “200kByte”, generation date and time “2010/02/01”, attribute “AA”, and group ID “A”. In the material information 302A, six object images with object image IDs “1, 2, 3, 4, 5, 6” are detected from material data 51 with material ID “1”. Indicates. Further, the material information 302A also indicates information (image, position, size, frontality, etc.) of each of the six object images.

また、オブジェクト検出部221は検出したオブジェクト画像を分類する。オブジェクト検出部221は、静止画像データ301Aから検出した複数のオブジェクト画像を、同一のオブジェクトと推定されるオブジェクト画像別のグループに分類する。また、オブジェクト検出部221は検出したオブジェクト画像に対応するオブジェクトを識別してもよい。その場合、オブジェクト検出部221は、例えば、識別するオブジェクトの画像特徴サンプルを用いて、検出したオブジェクト画像がそのオブジェクトであるか否かを判定する。オブジェクト検出部221は、分類されたオブジェクト画像にグループ毎(すなわち、オブジェクト毎)のID(オブジェクトID)を付与する。このオブジェクトIDは、オブジェクトに一意に割り当てられる識別情報である。そして、オブジェクト検出部221は、分類されたオブジェクト画像の情報を示すオブジェクト情報302Bを生成し、素材情報データベース302に格納する。   The object detection unit 221 classifies the detected object image. The object detection unit 221 classifies the plurality of object images detected from the still image data 301A into groups for each object image estimated as the same object. Further, the object detection unit 221 may identify an object corresponding to the detected object image. In this case, the object detection unit 221 determines whether the detected object image is the object using, for example, an image feature sample of the object to be identified. The object detection unit 221 assigns an ID (object ID) for each group (that is, for each object) to the classified object image. This object ID is identification information uniquely assigned to the object. Then, the object detection unit 221 generates object information 302B indicating the information of the classified object image and stores it in the material information database 302.

図5は、オブジェクト情報302Bの一構成例を示す。オブジェクト情報302Bは、例えば、オブジェクトID、オブジェクト画像ID及び属性を含む。「オブジェクトID」は、オブジェクトに一意に割り当てられる識別情報を示す。「オブジェクト画像ID」は、オブジェクトに対応するオブジェクト画像のIDを示す。オブジェクト検出部221によって、入力された複数の素材データ51(静止画像301A)から、当該オブジェクトに対応する複数のオブジェクト画像が検出されたとき、「オブジェクト画像ID」には、それら複数のオブジェクト画像に対応する複数のオブジェクト画像IDが示される。「属性」は、オブジェクトIDに対応する属性情報を示す。「属性」は、例えば、オブジェクトIDに対応するオブジェクトの名称を示す。例えば、オブジェクト画像が顔画像であるときには、「属性」は、顔画像に対応する人物の名前を示す。したがって、オブジェクト情報302Bは、オブジェクト毎に、当該オブジェクトに対応するオブジェクト画像の情報(オブジェクト画像ID)を示す。   FIG. 5 shows a configuration example of the object information 302B. The object information 302B includes, for example, an object ID, an object image ID, and an attribute. “Object ID” indicates identification information uniquely assigned to an object. “Object image ID” indicates the ID of the object image corresponding to the object. When the object detection unit 221 detects a plurality of object images corresponding to the object from a plurality of input material data 51 (still image 301A), the “object image ID” includes the plurality of object images. A plurality of corresponding object image IDs are shown. “Attribute” indicates attribute information corresponding to the object ID. “Attribute” indicates, for example, the name of the object corresponding to the object ID. For example, when the object image is a face image, the “attribute” indicates the name of a person corresponding to the face image. Accordingly, the object information 302B indicates object image information (object image ID) corresponding to the object for each object.

例えば、図5に示す例において、オブジェクトIDが“1”であるオブジェクトに対応するオブジェクト情報302Bは、当該オブジェクトであると認識されたオブジェクト画像が、オブジェクト画像ID“1, 9, 12, 18, 25, 30”で示される6つのオブジェクト画像であることを表す。そして、このオブジェクト情報302Bは、オブジェクトIDが“1”であるオブジェクトの属性が「Aさん」であることを示す。つまり、「Aさん」という人物(オブジェクト)であると認識された顔画像(オブジェクト画像)が、オブジェクト画像ID“1, 9, 12, 18, 25, 30”で示される画像であることがわかる。なお、図4に示すように、オブジェクト画像ID“1, 9, 12, 18, 25, 30”で示される画像は、素材IDが“1”から“6”である素材データ51から、それぞれ検出されている。   For example, in the example shown in FIG. 5, the object information 302B corresponding to the object having the object ID “1” indicates that the object image recognized as the object is the object image ID “1, 9, 12, 18,”. It represents six object images indicated by 25, 30 ″. The object information 302B indicates that the attribute of the object whose object ID is “1” is “Mr. A”. That is, it is understood that the face image (object image) recognized as the person (object) “Mr. A” is the image indicated by the object image ID “1, 9, 12, 18, 25, 30”. . As shown in FIG. 4, the images indicated by the object image IDs “1, 9, 12, 18, 25, 30” are detected from the material data 51 whose material IDs are “1” to “6”, respectively. Has been.

オブジェクト検出部221は、生成した素材情報302A及びオブジェクト情報302Bを出現頻度算出部222に出力する。なお、オブジェクト検出部221は、入力された素材データ51に対応する素材情報302A及びオブジェクト情報302Bが素材情報データベース302に格納されたことを、出現頻度算出部222に通知してもよい。   The object detection unit 221 outputs the generated material information 302A and object information 302B to the appearance frequency calculation unit 222. The object detection unit 221 may notify the appearance frequency calculation unit 222 that the material information 302A and the object information 302B corresponding to the input material data 51 are stored in the material information database 302.

出現頻度算出部222は、検出されたオブジェクトの統計情報を算出する。出現頻度算出部222は、例えば、オブジェクト検出部221によって生成された素材情報302A及びオブジェクト情報302Bに基づいて、オブジェクト毎の出現頻度を算出する。出現頻度算出部222は、例えば、素材情報302AのグループID及びオブジェクト画像IDと、オブジェクト情報302BのオブジェクトID及びオブジェクト画像IDとに基づいて、一つのグループ内でのオブジェクト毎のオブジェクト画像の数を出現頻度として算出する。そして、出現頻度算出部222は、算出した出現頻度を含む出現頻度情報302Cを生成し、素材情報データベース302に格納する。また、出現頻度算出部222は、生成した出現頻度情報302Cを優先オブジェクト選択部223に出力する。なお、出現頻度算出部222は、出現頻度情報302Cが生成されたことを優先オブジェクト選択部223に通知してもよい。   The appearance frequency calculation unit 222 calculates statistical information of the detected object. For example, the appearance frequency calculation unit 222 calculates the appearance frequency for each object based on the material information 302A and the object information 302B generated by the object detection unit 221. For example, the appearance frequency calculation unit 222 calculates the number of object images for each object in one group based on the group ID and object image ID of the material information 302A and the object ID and object image ID of the object information 302B. Calculated as appearance frequency. Then, the appearance frequency calculation unit 222 generates appearance frequency information 302 </ b> C including the calculated appearance frequency and stores it in the material information database 302. Also, the appearance frequency calculation unit 222 outputs the generated appearance frequency information 302C to the priority object selection unit 223. Note that the appearance frequency calculation unit 222 may notify the priority object selection unit 223 that the appearance frequency information 302C has been generated.

図6は、出現頻度情報302Cの一構成例を示す。出現頻度情報302Cは、例えば、出現頻度ID、グループID、オブジェクトID、オブジェクト画像ID、及び出現頻度を含む。「出現頻度ID」は、一つの出現頻度情報に一意に割り当てられる識別情報を示す。「グループID」は、当該出現頻度が算出されたグループの識別情報を示す。「オブジェクトID」は、当該出現頻度が算出されたオブジェクトの識別情報を示す。「オブジェクト画像ID」は、「グループID」で指定されるグループに属する素材データ51から検出されたオブジェクト画像のうち、「オブジェクトID」で指定されるオブジェクトが認識されたオブジェクト画像の識別情報を示す。「出現頻度」は、「オブジェクト画像ID」に示されるオブジェクト画像の数を示す。   FIG. 6 shows a configuration example of the appearance frequency information 302C. The appearance frequency information 302C includes, for example, an appearance frequency ID, a group ID, an object ID, an object image ID, and an appearance frequency. “Appearance frequency ID” indicates identification information uniquely assigned to one piece of appearance frequency information. “Group ID” indicates identification information of the group for which the appearance frequency is calculated. “Object ID” indicates identification information of the object for which the appearance frequency is calculated. The “object image ID” indicates identification information of an object image in which the object specified by the “object ID” is recognized among the object images detected from the material data 51 belonging to the group specified by the “group ID”. . “Appearance frequency” indicates the number of object images indicated by “object image ID”.

例えば、図6に示す例において、「出現頻度ID」が“1”である出現頻度に対応する出現頻度情報302Cは、当該出現頻度が算出されたグループのIDが“A”であり、オブジェクトのIDが“1”であることを示す。そして、この出現頻度情報302Cは、「グループID」が“A”のグループに属する素材データ51から検出されたオブジェクト画像のうち、「オブジェクトID」が“1”のオブジェクトが認識されたオブジェクト画像に対応する「オブジェクト画像ID」が“1, 9, 12, 30”であることを示す。つまり、「オブジェクトID」が“1”のオブジェクトが認識されたオブジェクト画像は、「オブジェクト画像ID」が“1, 9, 12, 30”である4つのオブジェクト画像である。したがって、この出現頻度情報302Cは、「出現頻度」が“4”であることを示す。   For example, in the example illustrated in FIG. 6, the appearance frequency information 302 </ b> C corresponding to the appearance frequency whose “appearance frequency ID” is “1” has the ID of the group for which the appearance frequency is calculated as “A”, Indicates that the ID is “1”. The appearance frequency information 302C is an object image in which an object with an “object ID” of “1” is recognized among object images detected from material data 51 belonging to a group with a “group ID” of “A”. It indicates that the corresponding “object image ID” is “1, 9, 12, 30”. That is, the object images in which the object having the “object ID” “1” is recognized are the four object images having the “object image ID” “1, 9, 12, 30”. Therefore, the appearance frequency information 302C indicates that the “appearance frequency” is “4”.

なお、図4に示すように、「グループID」が“A”である素材データ51の素材IDは“1, 2, 3, 6”であり、これらグループ“A”に属する素材データ51から、「オブジェクト画像ID」が“1”から“17”のオブジェクト画像、及び“30”のオブジェクト画像が検出されている。また、図5に示すように、「オブジェクトID」が“1”であるオブジェクトが認識されたオブジェクト画像の「オブジェクト画像ID」は“1, 9, 12, 18, 25, 30”である。したがって、図6に示すように、グループID“A”のグループに属する素材データ51から検出されたオブジェクト画像のうち、オブジェクトID“1”のオブジェクト(すなわち、「Aさん」)が認識されたオブジェクト画像に対応する「オブジェクト画像ID」は“1, 9, 12, 30”である。   As shown in FIG. 4, the material ID of the material data 51 whose “group ID” is “A” is “1, 2, 3, 6”. From the material data 51 belonging to the group “A”, Object images having an “object image ID” of “1” to “17” and an object image of “30” are detected. Further, as shown in FIG. 5, the “object image ID” of the object image in which the object whose “object ID” is “1” is recognized is “1, 9, 12, 18, 25, 30”. Therefore, as shown in FIG. 6, among the object images detected from the material data 51 belonging to the group with the group ID “A”, the object with the object ID “1” (that is, “Mr. A”) is recognized. The “object image ID” corresponding to the image is “1, 9, 12, 30”.

なお、出現頻度算出部222は、オブジェクトの出現頻度を、グループ毎に限らず、生成日時に基づく期間毎、属性毎等に算出してもよい。また、出現頻度算出部222は、グループ、期間、属性等に基づく所定の条件を満たす複数の素材データ51について、オブジェクトの出現頻度を算出してもよい。   Note that the appearance frequency calculation unit 222 may calculate the appearance frequency of the object not only for each group but for each period based on the generation date and time, for each attribute, and the like. In addition, the appearance frequency calculation unit 222 may calculate the appearance frequency of objects for a plurality of material data 51 that satisfy a predetermined condition based on a group, a period, an attribute, and the like.

優先オブジェクト選択部223は、オブジェクト検出部221によって検出されたオブジェクトの統計情報に基づいて、優先的にエフェクトを施す対象である優先オブジェクト(第2オブジェクト)を選択する。具体的には、優先オブジェクト選択部223は、出現頻度情報302Cに基づいて、出現頻度が高い順に、所定番目(例えば、二番目)までのオブジェクトを優先オブジェクトに選択する。優先オブジェクト選択部223は、選択した優先オブジェクトの情報を動画再生部23に出力する。   The priority object selection unit 223 selects a priority object (second object) that is a target to which an effect is to be preferentially applied based on the statistical information of the object detected by the object detection unit 221. Specifically, the priority object selection unit 223 selects, as priority objects, predetermined objects (for example, second) in descending order of appearance frequency based on the appearance frequency information 302C. The priority object selection unit 223 outputs information on the selected priority object to the moving image reproduction unit 23.

例えば、図6に示す例では、優先オブジェクト選択部223は、グループID“A”のグループに対して、出現頻度が“4”であるオブジェクトID“1”のオブジェクトと、出現頻度が“3”であるオブジェクトID“2”のオブジェクトとを優先オブジェクトに選択する。したがって、グループ“A”では、オブジェクト画像IDが“1, 9, 12, 30”及び“2, 10, 13”であるオブジェクト画像に対して優先エフェクト(第2エフェクト)が施される。また、例えば、優先オブジェクト選択部223は、グループID“B”のグループに対して、出現頻度が“2”であるオブジェクトID“1”のオブジェクトと、出現頻度が“2”であるオブジェクトID“2”のオブジェクトとを優先オブジェクトに選択する。したがって、グループ“B”では、オブジェクト画像IDが“18, 25”及び“26, 31”であるオブジェクト画像に対して優先エフェクト(第2エフェクト)が施される。   For example, in the example illustrated in FIG. 6, the priority object selection unit 223 has the object ID “1” having the appearance frequency “4” and the appearance frequency “3” for the group having the group ID “A”. The object with the object ID “2” is selected as the priority object. Therefore, in the group “A”, the priority effect (second effect) is applied to the object images whose object image IDs are “1, 9, 12, 30” and “2, 10, 13”. Further, for example, the priority object selection unit 223 performs the object ID “1” having the appearance frequency “2” and the object ID “2” having the appearance frequency “2” for the group having the group ID “B”. Select the 2 ”object as the priority object. Therefore, in the group “B”, the priority effect (second effect) is applied to the object images whose object image IDs are “18, 25” and “26, 31”.

また、最優先オブジェクト選択部224は、ユーザによって指定されたオブジェクトを、最優先にエフェクトを施す最優先オブジェクト(第1オブジェクト)に選択する。具体的には、まず、最優先オブジェクト選択部224は、素材情報302Aとオブジェクト情報302Bとを用いて、オブジェクトのリストを表示する。最優先オブジェクト選択部224は、例えば、図7に示すオブジェクト選択画面50を表示する。オブジェクト選択画面50では、静止画像50A〜50Dが表示され、静止画像50A〜50Dから検出されたオブジェクトを囲む枠が描画されている。この枠によって囲まれた領域を選択することによって、ユーザは、当該領域に対応するオブジェクトを最優先オブジェクトに指定することができる。   Further, the highest priority object selection unit 224 selects the object designated by the user as the highest priority object (first object) to which the effect is applied with the highest priority. Specifically, first, the highest priority object selection unit 224 displays a list of objects using the material information 302A and the object information 302B. The highest priority object selection unit 224 displays, for example, an object selection screen 50 shown in FIG. On the object selection screen 50, still images 50A to 50D are displayed, and a frame surrounding an object detected from the still images 50A to 50D is drawn. By selecting an area surrounded by the frame, the user can designate an object corresponding to the area as the highest priority object.

また、最優先オブジェクト選択部224は、例えば、図8に示すオブジェクト選択画面52を表示する。オブジェクト選択画面52では、素材データ51から検出された、オブジェクト毎の代表画像のリストが表示されている。具体的には、オブジェクト選択画面52では、静止画像301Aから検出された、人物毎の顔画像51A〜51Eのリストが表示されている。その場合、最優先オブジェクト選択部224は、素材情報302Aとオブジェクト情報302Bとを用いて、人物毎の代表画像(顔画像)を選択し、選択した代表画像のリストを画面に表示する。ユーザは、リストから代表画像を選択することによって、当該代表画像に対応するオブジェクト(人物)を最優先オブジェクトに指定することができる。   Further, the highest priority object selection unit 224 displays, for example, an object selection screen 52 shown in FIG. On the object selection screen 52, a list of representative images for each object detected from the material data 51 is displayed. Specifically, the object selection screen 52 displays a list of face images 51A to 51E for each person detected from the still image 301A. In that case, the highest priority object selection unit 224 selects a representative image (face image) for each person using the material information 302A and the object information 302B, and displays a list of the selected representative images on the screen. The user can designate an object (person) corresponding to the representative image as the highest priority object by selecting the representative image from the list.

最優先オブジェクト選択部224は、オブジェクト選択画面50,52等を用いて、ユーザによって指定されたオブジェクトを最優先オブジェクトに選択する。最優先オブジェクト選択部224は、選択された最優先オブジェクトの情報を動画再生部23に出力する。   The highest priority object selection unit 224 uses the object selection screens 50 and 52 and the like to select an object designated by the user as the highest priority object. The highest priority object selection unit 224 outputs information on the selected highest priority object to the moving image reproduction unit 23.

例えば、図5及び図6に示す例では、オブジェクトIDが“2”であるオブジェクト(すなわち、「Bさん」)が選択されたとき、最優先オブジェクト選択部224は、オブジェクトIDが“2”であるオブジェクトを最優先オブジェクトに選択する。したがって、グループ“A”では、オブジェクト画像IDが“2, 10, 13”であるオブジェクト画像に対して最優先エフェクト(第1エフェクト)が施される。また、グループ“B”では、オブジェクト画像IDが“26, 31”であるオブジェクト画像に対して最優先エフェクト(第1エフェクト)が施される。   For example, in the example shown in FIGS. 5 and 6, when an object having an object ID “2” (that is, “Mr. B”) is selected, the highest priority object selecting unit 224 has an object ID “2”. Select an object as the highest priority object. Therefore, in the group “A”, the highest priority effect (first effect) is applied to the object images having the object image ID “2, 10, 13”. In the group “B”, the highest priority effect (first effect) is applied to the object image having the object image ID “26, 31”.

上述の構成により、素材分析部22は、入力された素材データ51を分析し、優先オブジェクトと最優先オブジェクトとを選択する。なお、最優先オブジェクト選択部224によって選択された最優先オブジェクトが、優先オブジェクト選択部223によって選択された優先オブジェクトと同じであるとき、優先オブジェクト選択部223は、選択された優先オブジェクトを変更する。具体的には、優先オブジェクト選択部223は、出現頻度情報302Cに基づいて、現在選択されているオブジェクトの次に出現頻度が高いオブジェクトを、新たに優先オブジェクトに選択する。   With the above-described configuration, the material analysis unit 22 analyzes the input material data 51 and selects a priority object and a top priority object. When the highest priority object selected by the highest priority object selection unit 224 is the same as the priority object selected by the priority object selection unit 223, the priority object selection unit 223 changes the selected priority object. Specifically, based on the appearance frequency information 302C, the priority object selection unit 223 newly selects an object having the next highest appearance frequency after the currently selected object as a priority object.

動画再生部23は、選択された優先オブジェクトと最優先オブジェクトとにエフェクトが施された動画像を生成する。動画像再生部23は、抽出キー選択部231、素材情報抽出部232、テンプレート選択部233、エフェクト選択部234、合成動画生成部235、及び合成動画出力部236を備える。   The moving image reproduction unit 23 generates a moving image in which an effect is applied to the selected priority object and the highest priority object. The moving image playback unit 23 includes an extraction key selection unit 231, a material information extraction unit 232, a template selection unit 233, an effect selection unit 234, a composite video generation unit 235, and a composite video output unit 236.

抽出キー選択部231は、合成動画に用いる素材データ51を抽出するための抽出キーを選択する。具体的には、抽出キー選択部231は、例えば、素材データ51が分類されたグループのリストを画面に表示する。抽出キー選択部231は、表示されたリストから、ユーザによって選択されたグループを抽出キーに決定する。例えば、ユーザが、グループIDが“A”であるグループを選択したとき、抽出キー選択部231は、グループID“A”を抽出キーに決定する。なお、抽出キー選択部231は、素材データ51が分類されたグループのリストから所定の条件を満たすグループ(例えば、生成日時が最も新しい素材データ51を含むグループ)を選択してもよい。また、抽出キーには、素材データ51が分類されたグループに限らず、例えば、素材データ51の生成日時、属性、格納場所(素材データ51が格納されているディレクトリ)等を指定することができる。抽出キー選択部231は、決定された抽出キーを素材情報抽出部232に出力する。   The extraction key selection unit 231 selects an extraction key for extracting the material data 51 used for the composite moving image. Specifically, the extraction key selection unit 231 displays, for example, a list of groups into which the material data 51 is classified on the screen. The extraction key selection unit 231 determines a group selected by the user from the displayed list as an extraction key. For example, when the user selects a group whose group ID is “A”, the extraction key selection unit 231 determines the group ID “A” as an extraction key. The extraction key selection unit 231 may select a group satisfying a predetermined condition (for example, a group including the material data 51 with the latest generation date and time) from the list of groups into which the material data 51 is classified. In addition, the extraction key is not limited to the group into which the material data 51 is classified, and for example, the generation date and time of the material data 51, the attribute, the storage location (directory where the material data 51 is stored), and the like can be specified. . The extraction key selection unit 231 outputs the determined extraction key to the material information extraction unit 232.

素材情報抽出部232は、素材情報データベース302に格納された素材情報302A等を参照し、決定された抽出キーに基づいて合成動画に用いられる素材データ51を選択する。図4に示す例では、例えば、抽出キーがグループID“A”であるとき、素材情報抽出部232は、素材IDが“1”,“2”,“3”,“6”である素材データ51を、合成動画に用いられる素材データ51に選択する。素材情報抽出部232は、合成動画に用いられる素材データ51が選択されたことをテンプレート選択部233に通知する。   The material information extraction unit 232 refers to the material information 302A stored in the material information database 302, and selects the material data 51 used for the synthesized moving image based on the determined extraction key. In the example shown in FIG. 4, for example, when the extraction key is the group ID “A”, the material information extraction unit 232 has the material data whose material ID is “1”, “2”, “3”, “6”. 51 is selected as the material data 51 used for the synthesized moving image. The material information extraction unit 232 notifies the template selection unit 233 that the material data 51 used for the synthesized moving image has been selected.

テンプレート選択部233は、合成動画に用いられるテンプレート(テンプレートデータ)を選択する。テンプレートは、合成動画に用いられる素材データ51の数、素材データ51を出力するタイミング(例えば、静止画像301Aを表示するタイミング、音声301Bを出力するタイミング等)、静止画像51の画面上での配置、配色等を規定する。また、テンプレートデータは、例えばHDD109内に格納されている。テンプレート選択部233は、例えば、素材情報抽出部232によって選択された素材データ51(合成動画に用いられる素材データ51)を分析する。そして、テンプレート選択部233は、テンプレート情報303Aを参照し、分析結果に基づいて、素材情報抽出部232によって選択された素材データ51に適切なテンプレートを、合成動画に用いられるテンプレートに決定する。また、テンプレート選択部233は、例えば、ユーザによって選択されたテンプレートを合成動画に用いられるテンプレートに決定してもよい。   The template selection unit 233 selects a template (template data) used for the synthesized moving image. The template includes the number of material data 51 used for the composite moving image, the timing for outputting the material data 51 (for example, the timing for displaying the still image 301A, the timing for outputting the sound 301B, etc.), Specify the color scheme. The template data is stored in the HDD 109, for example. For example, the template selection unit 233 analyzes the material data 51 selected by the material information extraction unit 232 (the material data 51 used for the synthesized moving image). Then, the template selection unit 233 refers to the template information 303A, and determines a template suitable for the material data 51 selected by the material information extraction unit 232 as a template used for the synthesized moving image based on the analysis result. Further, the template selection unit 233 may determine, for example, a template selected by the user as a template used for the synthesized moving image.

図9は、テンプレート情報303Aの一構成例を示す。テンプレート情報303Aは、例えば、テンプレートID、ファイル名、ファイルパス、及び属性を含む。「テンプレートID」は、テンプレートに一意に割り当てられる識別情報を示す。「ファイル名」は、テンプレートデータが格納されるファイルの名称を示す。「ファイルパス」は、「ファイル名」に示されるファイルが格納される場所(アドレス)を示す。「属性」は、テンプレートの属性情報を示す。この属性情報は、例えば、テンプレートの特徴(印象)を示す「華やか」、「楽しい」等のキーワードである。例えば、図9に示す例において、「テンプレートID」が“1”であるテンプレート情報303Aは、「ファイル名」が“III”、「ファイルパス」が“III/III”、「属性」が“華やか”であることを示す。   FIG. 9 shows a configuration example of the template information 303A. The template information 303A includes, for example, a template ID, a file name, a file path, and an attribute. “Template ID” indicates identification information uniquely assigned to a template. “File name” indicates the name of a file in which template data is stored. “File path” indicates a location (address) where the file indicated by “file name” is stored. “Attribute” indicates attribute information of the template. This attribute information is, for example, keywords such as “gorgeous” and “fun” indicating the feature (impression) of the template. For example, in the example illustrated in FIG. 9, the template information 303 </ b> A whose “template ID” is “1” has a “file name” of “III”, a “file path” of “III / III”, and an “attribute” of “gorgeous”. ".

テンプレート選択部233は、例えば、素材情報抽出部232によって選択された素材データ51に適切な、テンプレートID“1”のテンプレートを合成動画に用いられるテンプレートに決定する。また、例えば、テンプレート選択部233は、ユーザによって選択されたテンプレートID“1”のテンプレートを合成動画に用いられるテンプレートに決定する。テンプレート選択部233は、テンプレートが決定されたことをエフェクト選択部234に通知する。   For example, the template selection unit 233 determines a template with the template ID “1” appropriate for the material data 51 selected by the material information extraction unit 232 as a template used for the synthesized moving image. Further, for example, the template selection unit 233 determines the template with the template ID “1” selected by the user as a template used for the synthesized moving image. The template selection unit 233 notifies the effect selection unit 234 that the template has been determined.

エフェクト選択部234は、合成動画に用いられるエフェクト(エフェクトデータ)を選択する。エフェクトは、合成動画に用いられる素材データ51や素材データ51に含まれるオブジェクトに装飾的な効果を施す。このエフェクトは、例えば、ズーム、回転、スライドイン/スライドアウト、枠等の画像の重畳表示、フェードイン/フェードアウト等である。エフェクトは、用いられる色、形状、動き(モーション)、オブジェクト等を変更することによって、ユーザに認識される印象が変化するように設計できる。エフェクトデータは、例えばHDD109内に格納されている。   The effect selection unit 234 selects an effect (effect data) used for the synthesized moving image. The effect applies a decorative effect to the material data 51 used in the synthesized moving image and the objects included in the material data 51. This effect includes, for example, zoom, rotation, slide-in / slide-out, superimposed display of images such as frames, fade-in / fade-out, and the like. The effect can be designed such that the impression recognized by the user is changed by changing the color, shape, motion (motion), object, or the like used. The effect data is stored in the HDD 109, for example.

エフェクト選択部234は、例えば、エフェクト情報303Bを参照して、最優先オブジェクト選択部224によって選択された最優先オブジェクトに施す最優先エフェクト(第1エフェクト)を選択する。同様に、エフェクト選択部234は、エフェクト情報303Bを参照して、優先オブジェクト選択部223によって選択された優先オブジェクトに施す優先エフェクト(第2エフェクト)を選択する。また、エフェクト選択部234は、エフェクト情報303Bを参照して、最優先オブジェクト及び優先オブジェクト以外のオブジェクト(通常のオブジェクト)に施す通常エフェクトを選択する。より具体的には、エフェクト選択部234は、例えば、最優先オブジェクト(優先オブジェクト)に対して、他のオブジェクトと区別するためのマークを付加するエフェクトや、他のオブジェクトに施されるエフェクトよりも視覚的な効果が高いエフェクトを選択する。なお、エフェクト選択部234は、ユーザによって指定されたエフェクトを、最優先エフェクト、優先エフェクト又は通常エフェクトに選択してもよい。   For example, the effect selection unit 234 selects the highest priority effect (first effect) to be applied to the highest priority object selected by the highest priority object selection unit 224 with reference to the effect information 303B. Similarly, the effect selection unit 234 refers to the effect information 303B and selects a priority effect (second effect) to be applied to the priority object selected by the priority object selection unit 223. Further, the effect selection unit 234 refers to the effect information 303B and selects a normal effect to be applied to an object (normal object) other than the highest priority object and the priority object. More specifically, for example, the effect selection unit 234 has a higher priority object (priority object) than an effect that adds a mark for distinguishing it from other objects or an effect applied to other objects. Select an effect with a high visual effect. Note that the effect selection unit 234 may select the effect designated by the user as the highest priority effect, the priority effect, or the normal effect.

図10は、エフェクト情報303Bの一構成例を示す。エフェクト情報303Bは、例えば、エフェクトID、ファイル名、ファイルパス、エフェクトレベル、属性を含む。「エフェクトID」は、エフェクト(エフェクトデータ)に一意に割り当てられる識別情報を示す。「ファイル名」は、エフェクトデータが格納されるファイルの名称を示す。「ファイルパス」は、「ファイル名」に示されるファイルが格納される場所(アドレス)を示す。「エフェクトレベル」は、当該エフェクトに適したオブジェクトのレベル(優先度)を示す。例えば、エフェクトレベルが10である(エフェクトレベルが高い)エフェクトは、最優先オブジェクトに施される。例えば、エフェクトレベルが5である(エフェクトレベルが中間的な値)エフェクトは、優先オブジェクトに施される。また、例えば、エフェクトレベルが1である(エフェクトレベルが低い)エフェクトは、通常のオブジェクトに施される。「属性」は、エフェクトの属性情報を示す。この属性情報は、例えば、エフェクトの特徴(印象)を示す「目立つ」、「かわいい」等のキーワードである。   FIG. 10 shows a configuration example of the effect information 303B. The effect information 303B includes, for example, an effect ID, a file name, a file path, an effect level, and an attribute. “Effect ID” indicates identification information uniquely assigned to an effect (effect data). “File name” indicates the name of the file in which the effect data is stored. “File path” indicates a location (address) where the file indicated by “file name” is stored. “Effect level” indicates the level (priority) of an object suitable for the effect. For example, an effect with an effect level of 10 (high effect level) is applied to the highest priority object. For example, an effect whose effect level is 5 (effect level is an intermediate value) is applied to the priority object. Further, for example, an effect whose effect level is 1 (low effect level) is applied to a normal object. “Attribute” indicates attribute information of the effect. This attribute information is, for example, a keyword such as “conspicuous” or “cute” indicating the feature (impression) of the effect.

例えば、図10に示す例において、「エフェクトID」が“1”であるエフェクト情報303Bは、「ファイル名」が“MMM”、「ファイルパス」が“MMM/MMM”、「エフェクトレベル」が“10”、「属性」が“目立つ”であることを示す。エフェクトレベルが“10”であることから、「エフェクトID」が“1”であるエフェクトは、最優先オブジェクトに適している。   For example, in the example shown in FIG. 10, the effect information 303B whose “effect ID” is “1” has the “file name” “MMM”, the “file path” “MMM / MMM”, and the “effect level” “ 10 ”and“ attribute ”are“ conspicuous ”. Since the effect level is “10”, the effect whose “effect ID” is “1” is suitable for the highest priority object.

エフェクト選択部234は、例えば、エフェクトID“1”のエフェクトを最優先エフェクトに選択する。エフェクト選択部234は、例えば、エフェクトID“3”のエフェクトを優先エフェクトに選択する。また、エフェクト選択部234は、例えば、エフェクトID“2”のエフェクトを通常エフェクトに選択する。エフェクト選択部234は、合成動画に用いられるエフェクトが決定したことを合成動画生成部235に通知する。   For example, the effect selection unit 234 selects the effect with the effect ID “1” as the highest priority effect. For example, the effect selection unit 234 selects the effect with the effect ID “3” as the priority effect. The effect selection unit 234 selects, for example, the effect with the effect ID “2” as the normal effect. The effect selection unit 234 notifies the composite video generation unit 235 that the effect used for the composite video has been determined.

なお、素材抽出部232、テンプレート選択部233及びエフェクト選択部234は、それぞれにおいて選択した素材データ51、テンプレート、エフェクトの情報を、合成動画データベース303に格納された合成動画生成情報303Cに記述する。合成動画データベース303は、例えばHDD109内に格納されている。   Note that the material extraction unit 232, template selection unit 233, and effect selection unit 234 describe the material data 51, template, and effect information selected in the composite video generation information 303C stored in the composite video database 303, respectively. The composite moving image database 303 is stored in the HDD 109, for example.

図11及び図12は、合成動画生成情報303Cの一構成例を示す。合成動画生成情報303Cは、例えば、管理ID、グループID、ファイル名、最優先オブジェクト、優先オブジェクト、合成動画テンプレート、最優先エフェクト、優先エフェクト、通常エフェクトを含む。「管理ID」は、合成動画に用いられる素材データ51に一意に割り当てられる識別情報を示す。「グループID」は、当該素材データ51が属するグループの識別情報を示す。「ファイル名」は、当該素材データ51に対応するファイルの名称を示す。「最優先オブジェクト」は、当該素材データ51に含まれるオブジェクト画像のうち、最優先オブジェクトに選択されたオブジェクト画像のオブジェクト画像IDを示す。「優先オブジェクト」は、当該素材データ51に含まれるオブジェクト画像のうち、優先オブジェクトに選択されたオブジェクト画像のオブジェクト画像IDを示す。「合成動画テンプレート」は、合成動画に用いられるテンプレートのテンプレートIDを示す。「最優先エフェクト」は、最優先オブジェクトに施されるエフェクトのエフェクトIDを示す。「優先エフェクト」は、優先オブジェクトに施されるエフェクトのエフェクトIDを示す。「通常エフェクト」は、通常のオブジェクトに施されるエフェクトのエフェクトIDを示す。   11 and 12 show a configuration example of the composite moving image generation information 303C. The composite video generation information 303C includes, for example, a management ID, group ID, file name, top priority object, priority object, composite video template, top priority effect, priority effect, and normal effect. “Management ID” indicates identification information uniquely assigned to the material data 51 used for the composite moving image. “Group ID” indicates identification information of a group to which the material data 51 belongs. “File name” indicates the name of the file corresponding to the material data 51. “Highest priority object” indicates the object image ID of the object image selected as the highest priority object among the object images included in the material data 51. “Priority object” indicates the object image ID of the object image selected as the priority object among the object images included in the material data 51. “Synthetic moving image template” indicates a template ID of a template used for the synthetic moving image. “Highest priority effect” indicates an effect ID of an effect applied to the highest priority object. “Priority effect” indicates the effect ID of the effect applied to the priority object. “Normal effect” indicates an effect ID of an effect applied to a normal object.

例えば、抽出キー選択部231によって、グループID“A”のグループが抽出キーに選択されたとき、素材情報抽出部232は、図4に示す素材情報302Aを参照して、グループ“A”に属する素材データ51(素材ID“1, 2, 3, 6”)の情報を抽出する。そして、図10の合成動画生成情報303Cに示すように、素材情報抽出部232は、合成動画に用いられる素材データ51の「ファイル名」に“AAA.jpg”,“ABB.jpg”,“ACC.jpg”,“AFF.jpg”を記述する。また、素材情報抽出部232は、合成動画に用いられる素材データ51の「グループID」に“A”を記述する。   For example, when the extraction key selection unit 231 selects the group with the group ID “A” as the extraction key, the material information extraction unit 232 refers to the material information 302A illustrated in FIG. 4 and belongs to the group “A”. Information of material data 51 (material ID “1, 2, 3, 6”) is extracted. 10, the material information extraction unit 232 adds “AAA.jpg”, “ABB.jpg”, “ACC” to the “file name” of the material data 51 used for the composite video. .jpg ”and“ AFF.jpg ”are described. In addition, the material information extraction unit 232 describes “A” in the “group ID” of the material data 51 used for the synthesized moving image.

次いで、例えば、最優先オブジェクト選択部224によって、オブジェクトID“2”のオブジェクトが最優先オブジェクトに選択されているとき、素材情報抽出部232は、合成動画に用いられる素材データ51に含まれるオブジェクト画像のうち、オブジェクトID“2”に対応するオブジェクト画像ID(図6では、グループID“A”且つオブジェクトID“2”であるオブジェクト画像ID“2, 10, 13”)を、合成動画生成情報303Cの「最優先オブジェクト」に記述する。したがって、図11では、管理ID“1”の素材データ51に対応する最優先オブジェクトに“2”が、管理ID“2”の素材データ51に対応する最優先オブジェクトに“10”が、管理ID“3”の素材データ51に対応する最優先オブジェクトに“13”が記述される。なお、管理ID“4”の素材データ51には、対応する最優先オブジェクト(オブジェクト画像)が登場しないため記載されない。   Next, for example, when the object with the object ID “2” is selected as the top-priority object by the top-priority object selection unit 224, the material information extraction unit 232 includes the object image included in the material data 51 used for the composite video. Among them, the object image ID corresponding to the object ID “2” (in FIG. 6, the object image ID “2, 10, 13” having the group ID “A” and the object ID “2”) is combined with the composite moving image generation information 303C. Described in “Highest priority object”. Therefore, in FIG. 11, “2” is assigned to the highest priority object corresponding to the material data 51 with the management ID “1”, and “10” is assigned to the highest priority object corresponding to the material data 51 with the management ID “2”. “13” is described in the highest priority object corresponding to the material data 51 of “3”. The material data 51 with the management ID “4” is not described because the corresponding highest priority object (object image) does not appear.

また、例えば、優先オブジェクト選択部223によって、出現頻度が最も高いオブジェクトID“1”のオブジェクトが優先オブジェクトに選択されているとき、素材情報抽出部232は、合成動画に用いられる素材データ51に含まれるオブジェクト画像のうち、オブジェクトID“1”に対応するオブジェクト画像ID(図6では、グループID“A”且つオブジェクトID“1”であるオブジェクト画像ID“1, 9, 12, 30”)を、合成動画生成情報303Cの「優先オブジェクト」に記述する。したがって、図11では、管理ID“1”の素材データ51に対応する優先オブジェクトに“1”が、管理ID“2”の素材データ51に対応する優先オブジェクトに“9”が、管理ID“3”の素材データ51に対応する優先オブジェクトに“12”が、管理ID“4”の素材データ51に対応する優先オブジェクトに“30”が記述される。   Further, for example, when the priority object selection unit 223 selects the object with the object ID “1” having the highest appearance frequency as the priority object, the material information extraction unit 232 is included in the material data 51 used for the composite video. Object image ID corresponding to the object ID “1” (in FIG. 6, the object image ID “1, 9, 12, 30” having the group ID “A” and the object ID “1” in FIG. 6), It is described in “priority object” of the composite video generation information 303C. Therefore, in FIG. 11, “1” is assigned to the priority object corresponding to the material data 51 with the management ID “1”, “9” is assigned to the priority object corresponding to the material data 51 with the management ID “2”, and the management ID “3”. "12" is described in the priority object corresponding to the material data 51 of "", and "30" is described in the priority object corresponding to the material data 51 of the management ID "4".

そして、テンプレート選択部233は、例えば、テンプレートID“1”のテンプレートを合成動画に用いられるテンプレートに決定したとき、合成動画生成情報303Cの「合成動画テンプレート」に“1”を記述する。   Then, for example, when the template selection unit 233 determines that the template with the template ID “1” is a template used for the synthesized moving image, “1” is described in “synthesized moving image template” of the synthesized moving image generation information 303C.

また、エフェクト選択部234は、例えば、エフェクトID“1”のエフェクトを合成動画に用いられる最優先エフェクトに決定したとき、合成動画生成情報303Cの「最優先エフェクト」に“1”を記述する。エフェクト選択部234は、例えば、エフェクトID“3”のエフェクトを合成動画に用いられる優先エフェクトに決定したとき、合成動画生成情報303Cの「優先エフェクト」に“3”を記述する。エフェクト選択部234は、例えば、エフェクトID“2”のエフェクトを合成動画に用いられる通常エフェクトに決定したとき、合成動画生成情報303Cの「通常エフェクト」に“2”を記述する。   For example, when the effect selection unit 234 determines the effect with the effect ID “1” as the highest priority effect used for the synthesized moving image, “1” is described in the “highest priority effect” of the synthesized moving image generation information 303C. For example, when the effect selection unit 234 determines the effect with the effect ID “3” as the priority effect used for the synthesized moving image, “3” is described in the “priority effect” of the synthesized movie generation information 303C. For example, when the effect selecting unit 234 determines that the effect with the effect ID “2” is the normal effect used for the synthesized moving image, “2” is described in the “normal effect” of the synthesized moving image generation information 303C.

また、抽出キー選択部231によって、グループID“B”のグループが抽出キーに選択されたときにも、同様にして、図11に示す合成動画生成情報303Cが作成される。   Similarly, when the group with the group ID “B” is selected as the extraction key by the extraction key selection unit 231, the composite moving image generation information 303 </ b> C illustrated in FIG. 11 is created.

合成動画生成部235は、上述の合成動画生成情報303Cを用いて合成動画を生成する。まず、合成動画生成部235は、合成動画生成情報303Cに記述されたファイル名及びIDに対応する素材データ51、テンプレートデータ、エフェクトデータを、例えばHDD109から読み出す。そして、合成動画生成部235は、例えば、テンプレートに規定されたタイミング及び配置等に基づいて、素材データ51が表示(出力)される合成動画を生成する。また、合成動画生成部235は、表示される素材データ51に含まれるオブジェクトに対して、エフェクト選択部234により選択されたエフェクトを施す。具体的には、合成動画生成部235は、素材データ51に登場する最優先オブジェクト(合成動画生成情報303Cの「最優先オブジェクト」に対応するオブジェクト画像)に最優先エフェクト(合成動画生成情報303Cの「優先エフェクト」に対応するエフェクト)を施す。合成動画生成部235は、素材データ51に登場する優先オブジェクト(合成動画生成情報303Cの「優先オブジェクト」に対応するオブジェクト画像)に優先エフェクト(合成動画生成情報303Cの「優先エフェクト」に対応するエフェクト)を施す。そして、合成動画生成部235は、素材データ51に登場する通常のオブジェクトに通常エフェクト(合成動画生成情報303Cの「通常エフェクト」に対応するエフェクト)を施す。合成動画生成部235は、生成した合成動画を合成動画出力部236に出力する。   The composite video generation unit 235 generates a composite video using the above-described composite video generation information 303C. First, the composite video generation unit 235 reads material data 51, template data, and effect data corresponding to the file name and ID described in the composite video generation information 303C from the HDD 109, for example. Then, the synthetic moving image generating unit 235 generates a synthetic moving image in which the material data 51 is displayed (output) based on, for example, the timing and arrangement specified in the template. In addition, the synthesized moving image generating unit 235 applies the effect selected by the effect selecting unit 234 to the object included in the displayed material data 51. Specifically, the composite video generation unit 235 applies the highest priority effect (the object of the composite video generation information 303C) to the highest priority object (the object image corresponding to the “highest priority object” of the composite video generation information 303C) appearing in the material data 51. Apply the effect corresponding to “Priority effect”. The composite video generation unit 235 applies the priority effect (the effect corresponding to the “priority effect” of the composite video generation information 303C) to the priority object (the object image corresponding to the “priority object” of the composite video generation information 303C) that appears in the material data 51. ). Then, the synthesized moving image generating unit 235 applies a normal effect (an effect corresponding to “normal effect” of the synthesized moving image generation information 303 </ b> C) to a normal object appearing in the material data 51. The composite video generation unit 235 outputs the generated composite video to the composite video output unit 236.

図13は、素材データ51(静止画像301A)に含まれるオブジェクトにエフェクトが施された合成動画の例(画面62〜64)を示す。なお、画面61は、最優先オブジェクト選択部224によって最優先オブジェクトを選択するための最優先オブジェクト選択画面である。この画面61では、図8に示す画面52と同様に、静止画像301Aに含まれる顔画像から選択された、人物毎の代表画像のリストが表示されている。ここでは、ユーザが、人物(代表画像)61Aを最優先オブジェクト(主役)に選択したことによって、最優先オブジェクト選択部224が、人物61Aを最優先オブジェクトに選択したことを想定する。また、優先オブジェクト選択部223が、出現頻度が高い人物63Aを優先オブジェクト(準主役)に選択したことを想定する。   FIG. 13 shows an example (screens 62 to 64) of a synthesized moving image in which an effect is applied to an object included in the material data 51 (still image 301A). The screen 61 is a top-priority object selection screen for selecting the top-priority object by the top-priority object selection unit 224. In this screen 61, as in the screen 52 shown in FIG. 8, a list of representative images for each person selected from the face images included in the still image 301A is displayed. Here, it is assumed that the user has selected the person 61A as the top priority object because the user has selected the person (representative image) 61A as the top priority object (main role). Further, it is assumed that the priority object selection unit 223 has selected a person 63A with a high appearance frequency as a priority object (quasi-main character).

画面62では、最優先オブジェクトに選択された人物61Aに視覚的な効果が高いエフェクト(最優先エフェクト)62Aが施されている。また、画面63では、優先オブジェクトに選択された人物63Aに優先エフェクト63Bが施されている。また、画面64に示すように、最優先オブジェクトに選択された人物61Aには、優先オブジェクトに選択された人物63Aに施された優先エフェクト64Bよりも視覚的な効果が高い最優先エフェクト64Aが施されている。   On the screen 62, an effect (highest priority effect) 62A having a high visual effect is applied to the person 61A selected as the highest priority object. On the screen 63, the priority effect 63B is applied to the person 63A selected as the priority object. Further, as shown in the screen 64, the person 61A selected as the highest priority object is given the highest priority effect 64A having a higher visual effect than the priority effect 64B applied to the person 63A selected as the priority object. Has been.

なお、合成動画生成部235は、素材情報抽出部232によって抽出された素材51(合成動画に用いられる素材データ51)から、さらに素材データ51を選択して合成動画を生成してもよい。これは例えば、選択されたテンプレートに用いられる素材数よりも、素材情報抽出部232によって抽出された素材数が多い際に行われる。合成動画生成部235は、例えば、最優先オブジェクト及び優先オブジェクトの少なくともいずれかを含む素材データ51を、重要度が高い素材データ51と見なし、素材情報抽出部232によって抽出された素材データ51から優先的に選択する。また、重要度が高い素材データ51が選択される度合いを示す指標(パラメータ)を設定し、この指標に基づいて、合成動画生成部235によって選択される素材データ51に、重要度が高い素材データ51が含まれる割合を決定してもよい。   Note that the composite video generation unit 235 may further select the material data 51 from the material 51 (the material data 51 used for the composite video) extracted by the material information extraction unit 232 to generate a composite video. This is performed, for example, when the number of materials extracted by the material information extraction unit 232 is larger than the number of materials used for the selected template. For example, the composite video generation unit 235 regards the material data 51 including at least one of the highest priority object and the priority object as the material data 51 with high importance, and prioritizes the material data 51 extracted by the material information extraction unit 232. To choose. In addition, an index (parameter) indicating the degree to which the material data 51 with high importance is selected is set, and material data with high importance is added to the material data 51 selected by the synthesized moving image generating unit 235 based on this index. The ratio including 51 may be determined.

図14は、重要度が高い素材データ51が選択される度合いを示す指標を設定するためのパラメータ設定画面71の例を示す。パラメータ設定画面71には、最優先オブジェクト及び優先オブジェクトに選択された人物71A〜71Dが示されている。また、パラメータ設定画面71には、重要度が高い素材データ51が選択される度合いを指定するスライダー71Eが表示されている。特に、パラメータ設定画面71では、重要度が高い素材データ51が選択される度合いを「人のゆらぎ」と称し、重要度が高い素材データ51が含まれる割合を大きくする場合には、スライダー71Eの値を小さく設定する。つまり、重要度が高い素材データ51が含まれる割合を大きくする場合には、人物71A〜71Dが登場する素材データ51がより多く選択されるため、人物71A〜71Dが登場する可能性が相対的に高く、「人のゆらぎ」が小さい素材データ51(素材群)が選択されると云える。一方、重要度が高い素材データ51が含まれる割合を小さくする場合には、スライダー71Eの値を大きく設定する。つまり、重要度が高い素材データ51が含まれる割合を小さくする場合には、人物71A〜71Dが登場する素材データ51以外の素材データ51選択され易くなるため、人物71A〜71D以外の人物が登場する可能性が相対的に高く、「人のゆらぎ」が大きい素材データ51(素材群)が選択されると云える。   FIG. 14 shows an example of a parameter setting screen 71 for setting an index indicating the degree of selection of material data 51 with high importance. The parameter setting screen 71 shows the top priority object and the persons 71A to 71D selected as the priority object. Further, the parameter setting screen 71 displays a slider 71E for designating the degree to which the material data 51 with high importance is selected. In particular, in the parameter setting screen 71, the degree to which the material data 51 with high importance is selected is referred to as “person fluctuation”, and when the ratio of the material data 51 with high importance is increased, the slider 71E Set a smaller value. That is, when the ratio of the material data 51 having a high importance level is increased, more material data 51 in which the persons 71A to 71D appear is selected, and thus the possibility that the persons 71A to 71D appear is relative. It can be said that the material data 51 (material group) having a high “small fluctuation” is selected. On the other hand, when the ratio of the material data 51 having high importance is reduced, the value of the slider 71E is set to be large. That is, when the ratio of the material data 51 having high importance is reduced, the material data 51 other than the material data 51 in which the persons 71A to 71D appear can be easily selected, so that a person other than the persons 71A to 71D appears. It can be said that the material data 51 (material group) with a relatively high possibility of being large and having a large “human fluctuation” is selected.

なお、エフェクト選択部234は、合成動画に用いられる素材データ51に含まれるオブジェクト(最優先オブジェクト、優先オブジェクト、通常のオブジェクト)に対して、選択したエフェクト(最優先エフェクト、優先エフェクト、通常エフェクト)を施してもよい。その場合、エフェクト選択部234は、エフェクトが施されたオブジェクトを含む素材データ51を合成動画生成部235に出力する。合成動画生成部235は、エフェクトが施されたオブジェクトを含む素材データ51を用いて、合成動画(動画像)を生成する。   Note that the effect selection unit 234 selects the selected effect (highest priority effect, priority effect, normal effect) for the object (highest priority object, priority object, normal object) included in the material data 51 used for the composite video. May be applied. In this case, the effect selection unit 234 outputs the material data 51 including the object to which the effect has been applied to the synthesized moving image generation unit 235. The composite moving image generation unit 235 generates a composite moving image (moving image) using the material data 51 including the object to which the effect has been applied.

合成動画出力部236は、合成動画生成部222によって生成された合成動画を出力する。合成動画出力部236は、合成動画を再生し、画面(LCD17)に表示する。また、合成動画出力部236は、合成動画をエンコードし、エンコードした合成動画のファイルを所定の記憶装置(例えば、HDD109等)に格納してもよい。   The composite video output unit 236 outputs the composite video generated by the composite video generation unit 222. The synthesized moving image output unit 236 reproduces the synthesized movie and displays it on the screen (LCD 17). Further, the composite video output unit 236 may encode the composite video and store the encoded composite video file in a predetermined storage device (for example, the HDD 109).

以上の構成により、動画像再生アプリケーションプログラム202は、エフェクトが施されるオブジェクトを容易に選択することができる。具体的には、最優先オブジェクト選択部224は、素材情報302A、オブジェクト情報302B等を用いて、最優先オブジェクトの候補となるオブジェクトのリストを表示する。例えば、最優先オブジェクト選択部224は、オブジェクトのリストとして人物毎の代表画像のリストを表示する。ユーザは、表示されたリストからエフェクトを施したいオブジェクト(例えば、注目する人物)を容易に選択することができる。したがって、素材データ51毎に、注目するオブジェクトやそのオブジェクトに施されるエフェクトを選択する方法よりも、ユーザによる作業を省力化することができる。   With the above configuration, the moving image playback application program 202 can easily select an object to which an effect is applied. Specifically, the highest priority object selection unit 224 displays a list of objects that are candidates for the highest priority object using the material information 302A, the object information 302B, and the like. For example, the highest priority object selection unit 224 displays a list of representative images for each person as a list of objects. The user can easily select an object (for example, a person of interest) to which an effect is to be applied from the displayed list. Therefore, the work by the user can be saved more than the method of selecting the object of interest and the effect applied to the object for each material data 51.

また、優先オブジェクト選択部223は、入力された素材データ51を分析することによって、素材データ51に含まれるオブジェクトの出現頻度情報302Cを生成する。そして、優先オブジェクト選択部223は、出現頻度が高いオブジェクト(例えば、人物)を優先オブジェクトに選択する。出現頻度が高いオブジェクトを優先オブジェクトに選択することにより、ユーザによる関心が高いと推定されるオブジェクトを、エフェクトが施されるオブジェクトとすることができる。したがって、ユーザが気付いていない(意識していない)ようなオブジェクトに対してもエフェクトを施すことができ、ユーザに対して新たな発見や意外性のある動画像を提供することもできる。   Further, the priority object selection unit 223 generates appearance frequency information 302 </ b> C of objects included in the material data 51 by analyzing the input material data 51. Then, the priority object selection unit 223 selects an object (for example, a person) with a high appearance frequency as a priority object. By selecting an object having a high appearance frequency as a priority object, an object that is estimated to be highly interested by the user can be an object to which an effect is applied. Therefore, an effect can be applied to an object that the user is not aware of (not aware of), and a new moving image with unexpected findings can be provided to the user.

次いで、図15のフローチャートを参照して、動画像再生アプリケーションプログラム202によって実行される素材分析・動画像生成処理の手順について説明する。
まず、素材分析部22は、素材入力部21を介して入力された素材データ51を分析し、分析結果に基づいて優先オブジェクトを選択する(ブロックB20)。次に、最優先オブジェクト選択部224は、ユーザによって選択されたオブジェクトを最優先オブジェクトに決定する(ブロックB30)。そして、合成動画生成部236は、エフェクトが施された、最優先オブジェクトと優先オブジェクトとを含む合成動画(動画像)を生成する(ブロックB40)。以下では、図16から図18のフローチャートを参照して、各ブロックの詳細な手順を説明する。
Next, the material analysis / moving image generation process executed by the moving image playback application program 202 will be described with reference to the flowchart of FIG.
First, the material analysis unit 22 analyzes the material data 51 input via the material input unit 21, and selects a priority object based on the analysis result (block B20). Next, the highest priority object selection unit 224 determines the object selected by the user as the highest priority object (block B30). Then, the synthesized moving image generating unit 236 generates a synthesized moving image (moving image) including the highest priority object and the priority object to which the effect has been applied (block B40). Hereinafter, the detailed procedure of each block will be described with reference to the flowcharts of FIGS. 16 to 18.

図16のフローチャートは、図15のブロックB20に対応する優先オブジェクト選択処理の手順の例を示す。
まず、オブジェクト検出部221は、未処理の素材データ51があるか否かを判定する(ブロックB201)。未処理の素材データ51がある場合(ブロックB201のYES)、オブジェクト検出部221は、素材データ51からオブジェクトを検出する(ブロックB202)。具体的には、まず、オブジェクト検出部221は、素材データ51からオブジェクトに対応する領域を検出する。そして、オブジェクト検出部221は、検出した領域に識別情報(オブジェクト画像ID)を付与する。次いで、オブジェクト検出部221は、検出した領域に対応するオブジェクトを認識する。認識されるオブジェクトには、識別情報(オブジェクトID)が付与されている。したがって、オブジェクト検出部221は、検出した領域毎に、オブジェクトIDとオブジェクト画像IDとの対応を導出する。
The flowchart of FIG. 16 shows an example of the priority object selection processing procedure corresponding to block B20 of FIG.
First, the object detection unit 221 determines whether there is unprocessed material data 51 (block B201). When there is unprocessed material data 51 (YES in block B201), the object detection unit 221 detects an object from the material data 51 (block B202). Specifically, first, the object detection unit 221 detects an area corresponding to the object from the material data 51. Then, the object detection unit 221 gives identification information (object image ID) to the detected area. Next, the object detection unit 221 recognizes an object corresponding to the detected area. Identification information (object ID) is given to the recognized object. Therefore, the object detection unit 221 derives the correspondence between the object ID and the object image ID for each detected area.

次いで、オブジェクト検出部221は、ファイル名や生成日時等を含む素材データ51に付加された情報と、オブジェクト画像の情報とを含む素材情報302Aを生成する(ブロックB203)。そして、オブジェクト検出部221は、オブジェクトの認識結果に基づいて、オブジェクトIDと対応するオブジェクト画像IDとを含むオブジェクト情報302Bを生成する(ブロックB204)。なお、当該オブジェクトIDに対応するオブジェクト情報302Bが既に素材情報データベース302に格納されている際には、オブジェクト検出部221は、そのオブジェクト情報302Bにオブジェクト画像IDを追加して更新する。オブジェクト情報302Bが生成(更新)された後、オブジェクト検出部221は、再度ブロックB201の判定を行う。   Next, the object detection unit 221 generates material information 302A including information added to the material data 51 including the file name and generation date and time, and information on the object image (block B203). Then, the object detection unit 221 generates object information 302B including the object ID and the corresponding object image ID based on the recognition result of the object (block B204). When the object information 302B corresponding to the object ID is already stored in the material information database 302, the object detection unit 221 updates the object information 302B by adding the object image ID. After the object information 302B is generated (updated), the object detection unit 221 determines the block B201 again.

未処理の素材データ51がない場合(ブロックB201のNO)、出現頻度算出部222は、素材情報302Aとオブジェクト情報302Bとに基づいて、出現頻度情報302Cを生成(更新)する(ブロックB205)。出現頻度算出部222は、オブジェクト毎の出現回数を示す出現頻度情報302Cを生成する。そして、優先オブジェクト選択部223は、出現頻度情報302Cに基づいて優先オブジェクト(第2オブジェクト)を選択する(ブロックB206)。優先オブジェクト選択部223は、例えば、出現頻度が高い順に所定番目までのオブジェクトを優先オブジェクトに決定する。優先オブジェクト選択部223は、決定した優先オブジェクトに対応するオブジェクトIDを動画生成部235に出力する。   When there is no unprocessed material data 51 (NO in block B201), the appearance frequency calculation unit 222 generates (updates) appearance frequency information 302C based on the material information 302A and the object information 302B (block B205). The appearance frequency calculation unit 222 generates appearance frequency information 302C indicating the number of appearances for each object. Then, the priority object selection unit 223 selects a priority object (second object) based on the appearance frequency information 302C (block B206). For example, the priority object selection unit 223 determines up to a predetermined number of objects as priority objects in descending order of appearance frequency. The priority object selection unit 223 outputs the object ID corresponding to the determined priority object to the moving image generation unit 235.

以上の処理により、優先オブジェクト選択部223は、優先的にエフェクトを施す対象である優先オブジェクト(第2オブジェクト)を決定することができる。   Through the above processing, the priority object selection unit 223 can determine a priority object (second object) that is a target to which the effect is to be preferentially applied.

次いで、図17のフローチャートは、図15のブロックB30に対応する最優先オブジェクト選択処理の手順の例を示す。
まず、最優先オブジェクト選択部224は、素材情報302Aとオブジェクト情報302Bとを用いて、オブジェクトのリストを表示する(ブロックB301)。最優先オブジェクト選択部224は、例えば、図7に示すように、静止画像301A毎に、検出されたオブジェクト(例えば、顔画像)を選択可能に表示する。最優先オブジェクト選択部224は、例えば、各オブジェクトを枠で囲んで表示する。また、最優先オブジェクト選択部224は、例えば、図8に示すように、静止画像301Aから検出された、人物毎の顔画像のリストを表示してもよい。
Next, the flowchart of FIG. 17 shows an example of the procedure of the highest priority object selection process corresponding to the block B30 of FIG.
First, the highest priority object selection unit 224 displays a list of objects using the material information 302A and the object information 302B (block B301). For example, as shown in FIG. 7, the top-priority object selection unit 224 displays a detected object (for example, a face image) so as to be selectable for each still image 301A. For example, the highest priority object selection unit 224 displays each object surrounded by a frame. Further, the highest priority object selection unit 224 may display a list of face images for each person detected from the still image 301A, for example, as shown in FIG.

次に、最優先オブジェクト選択部224は、最優先オブジェクト(第1オブジェクト)の選択が完了したか否かを判定する(ブロックB302)。最優先オブジェクト選択部224は、例えば、選択されたオブジェクトを最優先オブジェクトに確定してよいか否かを確認するためのメッセージを表示する。そして、表示されたメッセージに対して、ユーザが確定してよいという指示を入力したこと(例えば、OKボタンを押したこと)に応答して、最優先オブジェクト選択部224は選択が完了したと判定する。   Next, the highest priority object selection unit 224 determines whether or not selection of the highest priority object (first object) has been completed (block B302). For example, the top-priority object selection unit 224 displays a message for confirming whether or not the selected object can be confirmed as the top-priority object. Then, in response to the input of an instruction that the user may confirm to the displayed message (for example, pressing the OK button), the top-priority object selection unit 224 determines that the selection has been completed. To do.

最優先オブジェクトの選択が完了していない場合(ブロックB302のNO)、最優先オブジェクト選択部224は、表示されたリストからオブジェクトが選択されたか否かを判定する(ブロックB303)。オブジェクトが選択されていない場合(ブロックB303のNO)、最優先オブジェクト選択部224は、再度ブロックB302の判定を行う。   When selection of the highest priority object is not completed (NO in block B302), the highest priority object selection unit 224 determines whether an object is selected from the displayed list (block B303). When an object is not selected (NO in block B303), the highest priority object selection unit 224 performs determination of block B302 again.

オブジェクトが選択されている場合(ブロックB303のYES)、最優先オブジェクト選択部224は、選択されたオブジェクトを最優先オブジェクトに決定する(ブロックB304)。その際、最優先オブジェクトが既に決定されているとき(以前に選択されたオブジェクトが最優先オブジェクトに決定されているとき)には、最優先オブジェクト選択部224は、新たに選択されたオブジェクトを最優先オブジェクトに決定するための更新を行う。そして、最優先オブジェクトは、再度ブロックB302の判定を行う。   When an object is selected (YES in block B303), the highest priority object selection unit 224 determines the selected object as the highest priority object (block B304). At this time, when the highest priority object has already been determined (when the previously selected object has been determined as the highest priority object), the highest priority object selection unit 224 selects the newly selected object as the highest priority. Update to determine priority object. Then, the highest-priority object performs the determination of block B302 again.

最優先オブジェクトの選択が完了している場合(ブロックB302のYES)、最優先オブジェクト選択部224は、最優先オブジェクトを確定する。最優先オブジェクト選択部224は、確定された最優先オブジェクトに対応するオブジェクトIDを動画生成部235に出力する。   When selection of the highest priority object has been completed (YES in block B302), the highest priority object selection unit 224 determines the highest priority object. The highest priority object selection unit 224 outputs the object ID corresponding to the determined highest priority object to the moving image generation unit 235.

以上の処理により、最優先オブジェクト選択部224は、最優先にエフェクトを施す対象である最優先オブジェクト(第1オブジェクト)を選択することができる。なお、最優先オブジェクト選択部224によって選択された最優先オブジェクトが、優先オブジェクト選択部223によって選択された優先オブジェクトと同じであるとき、優先オブジェクト選択部223は、選択された優先オブジェクトを変更する。具体的には、優先オブジェクト選択部223は、出現頻度情報302Cに基づいて、現在選択されているオブジェクトの次に出現頻度が高いオブジェクトを、新たに優先オブジェクトに選択する。   Through the above processing, the highest priority object selection unit 224 can select the highest priority object (first object) that is the target to which the effect is applied with the highest priority. When the highest priority object selected by the highest priority object selection unit 224 is the same as the priority object selected by the priority object selection unit 223, the priority object selection unit 223 changes the selected priority object. Specifically, based on the appearance frequency information 302C, the priority object selection unit 223 newly selects an object having the next highest appearance frequency after the currently selected object as a priority object.

また、図18のフローチャートは、図15のブロックB40に対応する合成動画生成処理の手順の例を示す。
まず、抽出キー選択部231は、合成動画に用いられる素材データ51を抽出するための抽出キーを選択する(ブロックB401)。抽出キーには、例えば、素材データ51の生成日時、属性、グループ、格納場所(素材データ51が格納されているディレクトリ等)を指定することができる。また、抽出キーには、指定された静止画像301Aを用いることもできる。抽出キー選択部231は、例えば、素材情報302A等を用いて、抽出キーの候補のリストを表示する。ユーザが、表示されたリストから抽出キーに用いる抽出キー候補を選択したことに応答して、抽出キー選択部231は、選択された抽出キー候補を抽出キーに決定する。また、抽出キー選択部231は、所定の条件を満たす抽出キー候補を抽出キーに決定してもよい。
Further, the flowchart in FIG. 18 shows an example of the procedure of the synthetic moving image generation process corresponding to the block B40 in FIG.
First, the extraction key selection unit 231 selects an extraction key for extracting the material data 51 used for the composite moving image (block B401). As the extraction key, for example, the generation date and time, the attribute, the group, and the storage location (such as the directory in which the material data 51 is stored) of the material data 51 can be designated. Also, the designated still image 301A can be used as the extraction key. The extraction key selection unit 231 displays a list of extraction key candidates using, for example, the material information 302A. In response to the user selecting an extraction key candidate to be used as an extraction key from the displayed list, the extraction key selection unit 231 determines the selected extraction key candidate as the extraction key. The extraction key selection unit 231 may determine an extraction key candidate that satisfies a predetermined condition as an extraction key.

次に、素材情報抽出部232は、素材情報データベース302に格納された素材情報302A等を参照し、決定された抽出キーに基づいて、合成動画に用いられる素材データ51を選択する(ブロックB402)。つまり、素材情報抽出部232は、抽出キーに対応する素材データ51を選択する。例えば、抽出キーに1つのグループが決定されたとき、素材情報抽出部232は、当該グループに属する素材データ51を合成動画に用いられる素材データ51に選択する。また、例えば、抽出キーに1つの静止画像301Aが決定されたとき、素材情報抽出部232は、当該静止画像301Aに関連する素材データ51を合成動画に用いられる素材データ51に選択する。   Next, the material information extraction unit 232 refers to the material information 302A and the like stored in the material information database 302, and selects the material data 51 used for the composite video based on the determined extraction key (block B402). . That is, the material information extraction unit 232 selects the material data 51 corresponding to the extraction key. For example, when one group is determined as the extraction key, the material information extraction unit 232 selects the material data 51 belonging to the group as the material data 51 used for the synthesized moving image. For example, when one still image 301A is determined as the extraction key, the material information extraction unit 232 selects the material data 51 related to the still image 301A as the material data 51 used for the composite moving image.

そして、テンプレート選択部233は、合成動画に用いられるテンプレートを選択する(ブロックB403)。テンプレート選択部233は、例えば、テンプレート情報303Aを参照して、素材情報抽出部232によって選択された素材データ51に適したテンプレートを選択する。また、テンプレート選択部233は、ユーザによって指定されたテンプレートを、合成動画に用いられるテンプレートに選択してもよい。   And the template selection part 233 selects the template used for a synthetic | combination moving image (block B403). For example, the template selection unit 233 refers to the template information 303A and selects a template suitable for the material data 51 selected by the material information extraction unit 232. Moreover, the template selection part 233 may select the template designated by the user as a template used for a synthetic moving image.

次いで、エフェクト選択部234は、合成動画に用いられるエフェクトを選択する(ブロックB404)。エフェクト選択部234は、例えば、エフェクト情報303Bを参照して、最優先オブジェクト選択部224によって選択された最優先オブジェクトに施す最優先エフェクト(第1エフェクト)を選択する。同様に、エフェクト選択部234は、エフェクト情報303Bを参照して、優先オブジェクト選択部223によって選択された優先オブジェクトに施す優先エフェクト(第2エフェクト)を選択する。また、エフェクト選択部234は、エフェクト情報303Bを参照して、最優先オブジェクト及び優先オブジェクト以外のオブジェクト(通常のオブジェクト)に施す通常エフェクトを選択する。なお、エフェクト選択部234は、ユーザによって指定されたエフェクトを、最優先エフェクト、優先エフェクト又は通常エフェクトに選択してもよい。   Next, the effect selection unit 234 selects an effect used for the synthesized moving image (block B404). For example, the effect selection unit 234 selects the highest priority effect (first effect) to be applied to the highest priority object selected by the highest priority object selection unit 224 with reference to the effect information 303B. Similarly, the effect selection unit 234 refers to the effect information 303B and selects a priority effect (second effect) to be applied to the priority object selected by the priority object selection unit 223. Further, the effect selection unit 234 refers to the effect information 303B and selects a normal effect to be applied to an object (normal object) other than the highest priority object and the priority object. Note that the effect selection unit 234 may select the effect designated by the user as the highest priority effect, the priority effect, or the normal effect.

そして、合成動画生成部235は、選択された素材データ51、テンプレート及びエフェクトを用いて合成動画を生成する(ブロックB405)。合成動画生成部235は、テンプレートに指定されたタイミング及び配置等に基づいて、素材データ51が表示(出力)される合成動画を生成する。また、合成動画生成部235は、表示される素材データ51に含まれるオブジェクトに対して、エフェクト選択部234により選択されたエフェクトを施す。具体的には、合成動画生成部235は、素材データ51に登場する最優先オブジェクトに最優先エフェクトを施す。合成動画生成部235は、素材データ51に登場する優先オブジェクトに優先エフェクトを施す。そして、合成動画生成部235は、素材データ51に登場する通常のオブジェクトに通常エフェクトを施す。合成動画生成部235は、生成した合成動画を合成動画出力部236に出力する。   Then, the synthetic moving image generating unit 235 generates a synthetic moving image using the selected material data 51, template, and effect (block B405). The synthetic moving image generating unit 235 generates a synthetic moving image on which the material data 51 is displayed (output) based on the timing and arrangement specified in the template. In addition, the synthesized moving image generating unit 235 applies the effect selected by the effect selecting unit 234 to the object included in the displayed material data 51. Specifically, the composite moving image generation unit 235 applies the highest priority effect to the highest priority object appearing in the material data 51. The synthesized moving image generation unit 235 applies a priority effect to the priority object appearing in the material data 51. Then, the synthetic moving image generation unit 235 applies a normal effect to a normal object appearing in the material data 51. The composite video generation unit 235 outputs the generated composite video to the composite video output unit 236.

次いで、合成動画出力部236は、合成動画の出力方法が再生とファイル出力のいずれであるかを判定する(ブロックB406)。合成動画を再生する出力方法が選択されている場合(ブロックB406の再生)、合成動画出力部236は、合成動画を再生し、画面に出力する(ブロックB407)。一方、合成動画をファイル出力する出力方法が選択されている場合(ブロックB406のファイル出力)、合成動画出力部236は、合成動画を所定の形式でファイルに出力する(ブロックB408)。   Next, the composite video output unit 236 determines whether the output method of the composite video is playback or file output (block B406). When the output method for reproducing the synthesized video is selected (reproduction of block B406), the synthesized video output unit 236 reproduces the synthesized video and outputs it to the screen (block B407). On the other hand, when the output method for outputting the synthetic moving image as a file is selected (file output in block B406), the synthetic moving image output unit 236 outputs the synthetic moving image to a file in a predetermined format (block B408).

以上の処理により、合成動画生成部235は、指定されたエフェクトが施された最優先オブジェクトと優先オブジェクトとを含む合成動画を生成することができる。なお、最優先オブジェクト選択部224及び優先オブジェクト選択部223は、素材情報抽出部232によって合成動画に用いられる素材データ51が選択された後に、それぞれ最優先オブジェクトと優先オブジェクトとを選択してもよい。つまり、最優先オブジェクト選択部224及び優先オブジェクト選択部223は、合成動画に用いられる素材データ51に含まれるオブジェクトから、最優先オブジェクトと優先オブジェクトとを選択してもよい。   Through the above processing, the composite moving image generation unit 235 can generate a composite moving image including the highest priority object and the priority object to which the designated effect is applied. Note that the highest priority object selection unit 224 and the priority object selection unit 223 may select the highest priority object and the priority object, respectively, after the material data 51 used for the composite video is selected by the material information extraction unit 232. . That is, the highest priority object selection unit 224 and the priority object selection unit 223 may select the highest priority object and the priority object from the objects included in the material data 51 used for the composite moving image.

以上説明したように、本実施形態によれば、エフェクトが施されるオブジェクトを容易に決定できる。最優先オブジェクト選択部224は、例えば、オブジェクトの候補を示すリストからユーザによって選択されたオブジェクトを、最優先オブジェクトに決定する。また、優先オブジェクト選択部223は、例えば、出現頻度が高いオブジェクトを優先オブジェクトに決定する。そして、合成動画生成部235は、合成動画に用いられる素材データ51に登場する最優先オブジェクトと優先オブジェクトとに、指定されたエフェクトを施す。これにより、ユーザが注目する(重要度が高い)オブジェクトにエフェクトが施された動画像を容易に作成することができる。   As described above, according to the present embodiment, an object to which an effect is applied can be easily determined. The highest priority object selection unit 224 determines, for example, the object selected by the user from the list indicating the object candidates as the highest priority object. Further, the priority object selection unit 223 determines, for example, an object with a high appearance frequency as a priority object. Then, the synthesized moving image generating unit 235 applies the designated effect to the highest priority object and the priority object that appear in the material data 51 used for the synthesized moving image. As a result, it is possible to easily create a moving image in which an effect is applied to an object that is noticed by the user (high importance).

なお、本実施形態の動画像生成処理の手順は全てソフトウェアによって実行することができる。このため、動画像生成処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。   Note that all the procedures of the moving image generation process of the present embodiment can be executed by software. For this reason, the same effect as that of the present embodiment can be easily realized simply by installing and executing this program on a normal computer through a computer-readable storage medium storing a program for executing the procedure of moving image generation processing. be able to.

また本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Further, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

109…HDD、202…動画像再生アプリケーションプログラム、21…素材入力部、22…素材分析部、221…オブジェクト検出部、222…出現頻度算出部、223…優先オブジェクト選択部、224…最優先オブジェクト選択部、23…動画再生部、231…抽出キー選択部、232…素材情報抽出部、233…テンプレート選択部、234…エフェクト選択部、235…合成動画生成部、236…合成動画出力部、301…素材データベース、301A…静止画像データ、301B…音声データ、301C…動画像データ、302…素材情報データベース、302A…素材情報、302B…オブジェクト情報、302C…出現頻度情報、303…合成動画生成部、303A…テンプレート情報、303B…エフェクト情報、303C…合成動画生成情報、51…素材データ。   DESCRIPTION OF SYMBOLS 109 ... HDD, 202 ... Moving image reproduction application program, 21 ... Material input part, 22 ... Material analysis part, 221 ... Object detection part, 222 ... Appearance frequency calculation part, 223 ... Priority object selection part, 224 ... Highest priority object selection , 23: Video playback unit, 231 ... Extraction key selection unit, 232 ... Material information extraction unit, 233 ... Template selection unit, 234 ... Effect selection unit, 235 ... Synthetic video generation unit, 236 ... Synthetic video output unit, 301 ... Material database 301A: Still image data 301B Sound data 301C Moving image data 302 Material information database 302A Material information 302B Object information 302C Appearance frequency information 303 Synthetic video generator 303A ... Template information, 303B ... Effect information, 30 C ... composite moving picture generation information, 51 ... material data.

Claims (8)

複数の素材を分析し、前記複数の素材に含まれるオブジェクトを検出するオブジェクト検出手段と、
前記検出されたオブジェクトから、オブジェクト毎の代表画像を決定し、前記決定された代表画像のリストを画面に表示するオブジェクト表示手段と、
前記表示された代表画像のリストから、ユーザが第1オブジェクトを選択するための選択手段と、
前記選択手段により選択された第1オブジェクトにエフェクトを施すエフェクト手段と、
前記エフェクトが施された第1オブジェクトを含む前記複数の素材を用いて、動画像を生成する動画像生成手段とを具備する電子機器。
Object detecting means for analyzing a plurality of materials and detecting objects included in the plurality of materials;
An object display means for determining a representative image for each object from the detected objects, and displaying a list of the determined representative images on a screen;
Selection means for the user to select the first object from the displayed list of representative images;
Effect means for applying an effect to the first object selected by the selection means;
An electronic apparatus comprising: a moving image generation unit configured to generate a moving image using the plurality of materials including the first object subjected to the effect.
前記検出されたオブジェクトを分析し、前記検出されたオブジェクトの統計情報を算出する統計情報算出手段と、
前記複数の素材に含まれるオブジェクトから、前記統計情報に基づいて第2オブジェクトを選択する第2オブジェクト選択手段とをさらに具備し、
前記エフェクト手段は、前記第2オブジェクトにエフェクトを施し、
前記動画像生成手段は、前記エフェクトが施された、前記第1オブジェクトと前記第2オブジェクトとを含む前記複数の素材を用いて、動画像を生成する請求項1記載の電子機器。
Statistical information calculating means for analyzing the detected object and calculating statistical information of the detected object;
A second object selecting means for selecting a second object from the objects included in the plurality of materials based on the statistical information;
The effect means applies an effect to the second object,
The electronic apparatus according to claim 1, wherein the moving image generating unit generates a moving image using the plurality of materials including the first object and the second object to which the effect has been applied.
前記統計情報は、オブジェクト毎の出現頻度を含み、
前記第2オブジェクト選択手段は、前記オブジェクト毎の出現頻度に基づいて、出現頻度が高い第2オブジェクトを選択する請求項2記載の電子機器。
The statistical information includes an appearance frequency for each object,
The electronic device according to claim 2, wherein the second object selecting unit selects a second object having a high appearance frequency based on the appearance frequency for each object.
前記エフェクト手段は、前記第1オブジェクトに第1エフェクトを施し、前記第2オブジェクトに第2エフェクトを施し、
前記動画像生成手段は、前記第1エフェクトが施された第1オブジェクトと、前記第2エフェクトが施された第2オブジェクトとを含む前記複数の素材を用いて、動画像を生成する請求項2記載の電子機器。
The effect means applies a first effect to the first object, applies a second effect to the second object,
The moving image generation means generates a moving image using the plurality of materials including a first object to which the first effect is applied and a second object to which the second effect is applied. The electronic device described.
前記第1エフェクトと前記第2エフェクトとを選択するエフェクト選択手段をさらに具備する請求項4記載の電子機器。   The electronic device according to claim 4, further comprising effect selecting means for selecting the first effect and the second effect. 前記素材は静止画像、動画像及び音声の少なくともいずれかを含む請求項1記載の電子機器。   The electronic device according to claim 1, wherein the material includes at least one of a still image, a moving image, and sound. 複数の静止画像を分析し、前記複数の静止画像に含まれる顔画像を検出する顔画像検出手段と、
前記検出された顔画像から、人物毎の代表画像を決定し、前記決定された代表画像のリストを画面に表示する顔画像表示手段と、
前記表示された代表画像のリストから、ユーザが人物を選択するための選択手段と、
前記選択手段により選択された人物に対応する顔画像に第1エフェクトを施し、前記複数の静止画像に含まれる顔画像のうち、出現頻度が高い人物に対応する顔画像に第2エフェクトを施すエフェクト手段と、
前記第1エフェクトが施された顔画像と、前記第2エフェクトが施された顔画像とを含む前記複数の静止画像を用いて、動画像を生成する動画像生成手段とを具備する電子機器。
A face image detecting means for analyzing a plurality of still images and detecting a face image included in the plurality of still images;
Face image display means for determining a representative image for each person from the detected face image, and displaying a list of the determined representative images on a screen;
A selection means for the user to select a person from the displayed list of representative images;
An effect of applying a first effect to a face image corresponding to a person selected by the selection means, and applying a second effect to a face image corresponding to a person with a high appearance frequency among the face images included in the plurality of still images. Means,
An electronic apparatus comprising: a moving image generation unit configured to generate a moving image using the plurality of still images including a face image subjected to the first effect and a face image subjected to the second effect.
複数の素材を分析し、前記複数の素材に含まれるオブジェクトを検出し、
前記検出されたオブジェクトから、オブジェクト毎の代表画像を決定して、前記決定された代表画像のリストを画面に表示し、
前記表示された代表画像のリストから第1オブジェクトを選択し、
前記選択された第1オブジェクトにエフェクトを施し、
前記エフェクトが施された前記第1オブジェクトを含む前記複数の素材を用いて、動画像を生成する動画像生成方法。
Analyzing multiple materials, detecting objects contained in the multiple materials,
Determining a representative image for each object from the detected objects, displaying a list of the determined representative images on a screen;
Selecting a first object from the displayed list of representative images;
Apply an effect to the selected first object,
A moving image generation method for generating a moving image using the plurality of materials including the first object to which the effect is applied.
JP2010116580A 2010-05-20 2010-05-20 Electronic apparatus and moving image generation method Expired - Fee Related JP5550446B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010116580A JP5550446B2 (en) 2010-05-20 2010-05-20 Electronic apparatus and moving image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010116580A JP5550446B2 (en) 2010-05-20 2010-05-20 Electronic apparatus and moving image generation method

Publications (2)

Publication Number Publication Date
JP2011244343A true JP2011244343A (en) 2011-12-01
JP5550446B2 JP5550446B2 (en) 2014-07-16

Family

ID=45410510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010116580A Expired - Fee Related JP5550446B2 (en) 2010-05-20 2010-05-20 Electronic apparatus and moving image generation method

Country Status (1)

Country Link
JP (1) JP5550446B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014110469A (en) * 2012-11-30 2014-06-12 Toshiba Corp Electronic device, image processing method, and program
KR20180126068A (en) * 2016-04-01 2018-11-26 이베이 인크. Analyzing and Linking Images
CN111726545A (en) * 2020-06-22 2020-09-29 广州市百果园信息技术有限公司 Material file processing method and device, computer equipment and storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303907A (en) * 2004-04-15 2005-10-27 Fuji Photo Film Co Ltd Image editing apparatus, method, and program
JP2006079460A (en) * 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd System, method and program for displaying electronic album and device, method, and program for classifying image
JP2006166208A (en) * 2004-12-09 2006-06-22 Fuji Photo Film Co Ltd Coma classification information imparting apparatus, and program
JP2006323621A (en) * 2005-05-19 2006-11-30 Noritsu Koki Co Ltd Electronic album system
JP2008084213A (en) * 2006-09-28 2008-04-10 Sony Corp Image processor, imaging apparatus, image processing method, and program
JP2008283486A (en) * 2007-05-10 2008-11-20 Sony Corp Information processor, information processing method, and program
JP2009033351A (en) * 2007-07-25 2009-02-12 Canon Inc Recording and reproducing device and method
JP2009124206A (en) * 2007-11-12 2009-06-04 Mega Chips Corp Multimedia composing data generation device
JP2010057003A (en) * 2008-08-29 2010-03-11 Mitsubishi Electric Corp Image recording device, and image recording method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005303907A (en) * 2004-04-15 2005-10-27 Fuji Photo Film Co Ltd Image editing apparatus, method, and program
JP2006079460A (en) * 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd System, method and program for displaying electronic album and device, method, and program for classifying image
JP2006166208A (en) * 2004-12-09 2006-06-22 Fuji Photo Film Co Ltd Coma classification information imparting apparatus, and program
JP2006323621A (en) * 2005-05-19 2006-11-30 Noritsu Koki Co Ltd Electronic album system
JP2008084213A (en) * 2006-09-28 2008-04-10 Sony Corp Image processor, imaging apparatus, image processing method, and program
JP2008283486A (en) * 2007-05-10 2008-11-20 Sony Corp Information processor, information processing method, and program
JP2009033351A (en) * 2007-07-25 2009-02-12 Canon Inc Recording and reproducing device and method
JP2009124206A (en) * 2007-11-12 2009-06-04 Mega Chips Corp Multimedia composing data generation device
JP2010057003A (en) * 2008-08-29 2010-03-11 Mitsubishi Electric Corp Image recording device, and image recording method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014110469A (en) * 2012-11-30 2014-06-12 Toshiba Corp Electronic device, image processing method, and program
KR20180126068A (en) * 2016-04-01 2018-11-26 이베이 인크. Analyzing and Linking Images
KR102203046B1 (en) * 2016-04-01 2021-01-14 이베이 인크. Analysis and linking of images
US11809692B2 (en) 2016-04-01 2023-11-07 Ebay Inc. Analyzing and linking a set of images by identifying objects in each image to determine a primary image and a secondary image
CN111726545A (en) * 2020-06-22 2020-09-29 广州市百果园信息技术有限公司 Material file processing method and device, computer equipment and storage medium

Also Published As

Publication number Publication date
JP5550446B2 (en) 2014-07-16

Similar Documents

Publication Publication Date Title
US10786196B2 (en) Display apparatus and control method thereof for skin care analysis
JP4940345B2 (en) Electronic apparatus and image processing method
JP4987943B2 (en) Electronic apparatus and image display method
JP4988012B2 (en) Electronic device and indexing control method
US9202299B2 (en) Hint based spot healing techniques
KR20140012757A (en) Facilitating image capture and image review by visually impaired users
US8244005B2 (en) Electronic apparatus and image display method
JP5017424B2 (en) Electronic apparatus and image processing method
JP2011065277A (en) Electronic apparatus, image display method, and content reproduction program
JP2011217183A (en) Electronic device, image output method and program
JP5550446B2 (en) Electronic apparatus and moving image generation method
JP4940333B2 (en) Electronic apparatus and moving image reproduction method
EP2911115B1 (en) Electronic device and method for color extraction
JP5225330B2 (en) Electronic apparatus and image processing method
JP2012004747A (en) Electronic equipment and image display method
JP5479198B2 (en) Electronic device and image processing program
US8463052B2 (en) Electronic apparatus and image search method
JP5558187B2 (en) Electronic device and image processing program
JP5550447B2 (en) Electronic apparatus and method
JP5289527B2 (en) Image processing apparatus, image processing program, and image processing method
JP2011193386A (en) Electronic apparatus and image processing method
JP5050115B2 (en) Electronic device, image display method, and content reproduction program
US20190042065A1 (en) Portable terminal and control method thereof
JP2014002625A (en) Display control device, touch panel control method, control program, and recording medium
JP2007123960A (en) Recording and reproducing apparatus and recording and reproducing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130208

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140520

LAPS Cancellation because of no payment of annual fees