JP2011244155A - Electronic apparatus and image processing program - Google Patents

Electronic apparatus and image processing program Download PDF

Info

Publication number
JP2011244155A
JP2011244155A JP2010113487A JP2010113487A JP2011244155A JP 2011244155 A JP2011244155 A JP 2011244155A JP 2010113487 A JP2010113487 A JP 2010113487A JP 2010113487 A JP2010113487 A JP 2010113487A JP 2011244155 A JP2011244155 A JP 2011244155A
Authority
JP
Japan
Prior art keywords
moving image
image
face
information
materials
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010113487A
Other languages
Japanese (ja)
Inventor
Yoshitaka Tobita
義賢 飛田
Sukenori Kaneko
祐紀 金子
Nagayoshi Obara
永喜 小原
Emi Yajima
恵美 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010113487A priority Critical patent/JP2011244155A/en
Publication of JP2011244155A publication Critical patent/JP2011244155A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a moving image having both of arbitrariness and randomness according to appearance order of material, using still image and moving image as material.SOLUTION: In a moving image generation application program 152, a material input unit 201 stores material input via an interface unit 250 in a material storage 211 and stores material information in a material information database 212. A material analyzer 202 analyzes material stored in the material storage 211 and stores the analysis result in the material information database 212. A synthesized moving image generation unit 204 generates synthesized moving image sequentially using material read from the material storage 211 in accordance with order of extraction key from an operation acceptance unit 203 and material information from the material information database 212. The synthesized moving image generation unit 204 stores the generated synthesized moving image in a synthesized moving image storage 213.

Description

本発明の実施形態は、画像を処理する電子機器及び当該電子機器で実行される画像処理プログラムに関する。   Embodiments described herein relate generally to an electronic device that processes an image and an image processing program that is executed by the electronic device.

近年、静止画や動画を撮影するカメラを搭載した電子機器の普及により、写真や動画といった情報が多く収集されるようになっている。また、放送波の受信、ケーブルネットワークやインターネットへの接続ができる電子機器の普及により、これらを介して提供される動画像コンテンツや音声コンテンツも容易に収集されている。そして収集された情報を大容量の記憶媒体に蓄積することも実現されている。   In recent years, with the spread of electronic devices equipped with cameras that capture still images and moving images, a large amount of information such as photographs and moving images has been collected. In addition, with the widespread use of electronic devices that can receive broadcast waves and connect to cable networks and the Internet, moving image content and audio content provided through these devices are easily collected. Accumulating the collected information in a large-capacity storage medium is also realized.

特定の情報に含まれるオブジェクト(例えば、顔)の認識により、このオブジェクトに基づいて、収集又は蓄積された情報の中から他の情報を検索する技術が開示されている。また、収集又は蓄積された情報を素材とした静止画や動画を生成する技術も開示されている。これらの技術により、様々なルートで収集された情報のうち所定の条件を満たす静止画や動画を素材とし、これらの素材を利用した静止画や動画が容易に生成されるようになっている。   A technique for recognizing an object (for example, a face) included in specific information and searching for other information from the collected or accumulated information based on the object is disclosed. Also disclosed is a technique for generating a still image or a moving image using collected or accumulated information as a material. With these technologies, still images and moving images that satisfy a predetermined condition among information collected by various routes are used as materials, and still images and moving images using these materials are easily generated.

特開2001−103415号公報JP 2001-103415 A 特開2006−129389号公報JP 2006-129389 A

ところが従来の技術では、所定の条件を満たす静止画や動画を素材とした動画の生成において、登場する順序を素材それぞれに対して設定することを、電子機器の利用者に行わせることが多かった。逆に、所定の条件を満たす静止画や動画を素材とした動画の生成において、各素材の登場する順序にランダム性を持たせることもあった。   However, in the conventional technology, in the generation of a moving image using still images or moving images that satisfy a predetermined condition as a material, the order of appearance is often set for each material by the user of the electronic device. . Conversely, in the generation of a moving image using still images or moving images that satisfy a predetermined condition as a material, the order in which the materials appear may be given randomness.

本発明の目的は、静止画や動画を素材とし、この素材の登場順序に任意性とランダム性とを併せ持つ動画を生成する電子機器及び、当該電子機器で実行される画像処理プログラムを提供することである。   An object of the present invention is to provide an electronic device that uses a still image or a moving image as a material, and generates a moving image that has both randomness and randomness in the appearance order of the material, and an image processing program executed by the electronic device. It is.

実施形態によれば、電子機器は、取り込まれた複数の画像を分析することによりそれぞれの画像に含まれるオブジェクトを抽出する抽出手段と、前記抽出されたオブジェクトを、選択順序を伴って選択可能に提示する提示手段と、前記提示手段に基づいて選択されたオブジェクトの前記選択順序に従って、選択されたオブジェクトを含む複数の画像が順次登場する映像を生成する生成手段と、を具備する。   According to the embodiment, the electronic device can extract an object included in each image by analyzing a plurality of captured images, and select the extracted object with a selection order. Presenting means for presenting, and generating means for generating a video in which a plurality of images including the selected object appear sequentially according to the selection order of the objects selected based on the presenting means.

本実施形態に係る電子機器であるコンピュータのシステム構成を示す図。1 is a diagram showing a system configuration of a computer that is an electronic apparatus according to an embodiment. コンピュータによって実行される動画像再生アプリケーションプログラムの機能構成を示すブロック図。The block diagram which shows the function structure of the moving image reproduction | regeneration application program run with a computer. 素材情報の一実施例を示す図。The figure which shows one Example of material information. 抽出キーの提示のために利用される抽出キーに関する情報の一実施例を示す図。The figure which shows one Example of the information regarding the extraction key utilized for presentation of an extraction key. 選択された抽出キーの順序を管理する際に利用される情報の一実施例を示す図。The figure which shows one Example of the information utilized when managing the order of the selected extraction key. 素材又はオブジェクトを選択可能に提示するグラフィック画面の一実施例を示す図。The figure which shows one Example of the graphic screen which presents a material or an object so that selection is possible. 動画像生成機能で生成された動画像における素材の登場順序を説明するための概念図。The conceptual diagram for demonstrating the appearance order of the material in the moving image produced | generated by the moving image production | generation function. 動画像生成機能で生成された動画像における素材の登場順序の第1変形例を説明するための概念図。The conceptual diagram for demonstrating the 1st modification of the appearance order of the material in the moving image produced | generated by the moving image production | generation function. 動画像生成機能で生成された動画像における素材の登場順序の第2変形例を説明するための概念図。The conceptual diagram for demonstrating the 2nd modification of the appearance order of the material in the moving image produced | generated by the moving image production | generation function.

以下、実施形態について図面を用いて説明する。
図1は、本実施形態に係る電子機器であるコンピュータ10のシステム構成を示す図である。
コンピュータ10は、CPU(central processing unit)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、GPU(Graphics Processing Unit)105、VRAM(ビデオRAM;random access memory)105A、サウンドコントローラ106、BIOS−ROM(basic input/output system - read only memory)107、LAN(local area network)コントローラ108、ハードディスクドライブ(HDD)109、光ディスクドライブ(ODD)110、USBコントローラ111A、カードコントローラ111B、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM(electrically erasable programmable ROM)114等を備える。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a system configuration of a computer 10 that is an electronic apparatus according to the present embodiment.
The computer 10 includes a central processing unit (CPU) 101, a north bridge 102, a main memory 103, a south bridge 104, a graphics processing unit (GPU) 105, a random access memory (VRAM) 105A, a sound controller 106, and a BIOS-ROM. (Basic input / output system-read only memory) 107, LAN (local area network) controller 108, hard disk drive (HDD) 109, optical disk drive (ODD) 110, USB controller 111A, card controller 111B, wireless LAN controller 112, embedded A controller / keyboard controller (EC / KBC) 113, an EEPROM (electrically erasable programmable ROM) 114, and the like are provided.

CPU101は、コンピュータ10内の各部の動作を制御するプロセッサである。このCPU101は、BIOS−ROM107に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。またCPU101は、HDD109から主メモリ103にロードされる、オペレーティングシステム(OS)151、及び、動画像再生アプリケーションプログラム152のようなアプリケーションプログラムを実行する。   The CPU 101 is a processor that controls the operation of each unit in the computer 10. The CPU 101 also executes the BIOS stored in the BIOS-ROM 107. The BIOS is a program for hardware control. The CPU 101 executes application programs such as an operating system (OS) 151 and a moving image reproduction application program 152 that are loaded from the HDD 109 to the main memory 103.

動画像再生アプリケーションプログラム152は、例えばHDD109に格納された動画像といったデジタルコンテンツを再生するソフトウェアである。この動画像再生アプリケーションプログラム152は、動画像生成機能を備えている。動画像生成機能は、例えばHDD109に格納された写真や動画といった画像(デジタルコンテンツ)を素材として用いた合成動画(動画像)を生成する機能である。また動画像生成機能は、合成動画の生成の前に、この合成動画に用いる素材を予め分析する機能を含む。合成動画は、素材としての複数の画像が順次登場する映像である。この動画像再生アプリケーションプログラム152は、素材を用いて生成された動画像を再生し、再生した動画像を画面(LCD17等)に表示させる。   The moving image reproduction application program 152 is software for reproducing digital content such as moving images stored in the HDD 109, for example. The moving image reproduction application program 152 has a moving image generation function. The moving image generation function is a function that generates a composite moving image (moving image) using, for example, an image (digital content) such as a photograph or moving image stored in the HDD 109 as a material. In addition, the moving image generation function includes a function of analyzing in advance a material used for the composite video before generating the composite video. A composite video is a video in which a plurality of images as materials appear sequentially. The moving image reproduction application program 152 reproduces a moving image generated using the material, and displays the reproduced moving image on a screen (LCD 17 or the like).

ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。またノースブリッジ102は、例えば、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。   The north bridge 102 is a bridge device that connects the local bus of the CPU 101 and the south bridge 104. The north bridge 102 also includes a memory controller that controls access to the main memory 103. The north bridge 102 also has a function of executing communication with the GPU 105 via, for example, a PCI EXPRESS serial bus.

GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。またGPU105は表示信号を生成し、生成した表示信号をLCD17に送出する。   The GPU 105 is a display controller that controls the LCD 17 used as a display monitor of the computer 10. In addition, the GPU 105 generates a display signal and sends the generated display signal to the LCD 17.

サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイス及び、LPC(Low Pin Count)バス上の各デバイスを制御する。サウスブリッジ104は、HDD109及びODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。またサウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。   The south bridge 104 controls each device on a peripheral component interconnect (PCI) bus and each device on a low pin count (LPC) bus. The south bridge 104 incorporates an IDE (Integrated Drive Electronics) controller for controlling the HDD 109 and the ODD 110. The south bridge 104 also has a function of executing communication with the sound controller 106.

サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18に出力する。LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、USBコネクタ19を介して接続される、例えばUSB 2.0規格に対応した外部機器との通信を実行する。例えばUSBコントローラ111Aは、デジタルカメラに格納されている画像データを受信するために使用される。カードコントローラ111Bは、コンピュータ10の本体に設けられたカードスロット20に挿入される、SDカードのようなメモリカードに対するデータの書き込み及び読み出しを実行する。   The sound controller 106 is a sound source device and outputs audio data to be reproduced to the speaker 18. The LAN controller 108 is a wired communication device that executes IEEE 802.3 standard wired communication, for example, while the wireless LAN controller 112 is a wireless communication device that executes IEEE 802.11g standard wireless communication, for example. The USB controller 111 </ b> A executes communication with an external device connected via the USB connector 19 and compatible with, for example, the USB 2.0 standard. For example, the USB controller 111A is used for receiving image data stored in a digital camera. The card controller 111B executes data writing and reading with respect to a memory card such as an SD card inserted into a card slot 20 provided in the main body of the computer 10.

EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13及びタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC113は、ユーザによるパワーボタン(不図示)への操作に応じて本コンピュータ10を電源オン/電源オフする機能を有している。   The EC / KBC 113 is a one-chip microcomputer in which an embedded controller for power management and a keyboard controller for controlling the keyboard 13 and the touch pad 16 are integrated. The EC / KBC 113 has a function of powering on / off the computer 10 in response to a user operation on a power button (not shown).

このような構成により、コンピュータ10は、動画像再生アプリケーションプログラム152を実行することで、サウスブリッジ104を介して取得する素材を利用した合成動画を生成することができる。生成された合成動画は、LCD17等に表示されるだけでなく、HDD109やODD110などを介して記憶媒体に格納されることも可能である。   With such a configuration, the computer 10 can generate a composite moving image using a material acquired via the south bridge 104 by executing the moving image reproduction application program 152. The generated synthesized video is not only displayed on the LCD 17 or the like, but can also be stored in a storage medium via the HDD 109, the ODD 110, or the like.

次に、図2を用いて、コンピュータ10上で動作する動画像再生アプリケーションプログラム152の一機能構成を説明する。図2は、コンピュータ10によって実行される動画像再生アプリケーションプログラム152の機能構成を示すブロック図である。   Next, a functional configuration of the moving image reproduction application program 152 that runs on the computer 10 will be described with reference to FIG. FIG. 2 is a block diagram showing a functional configuration of the moving image playback application program 152 executed by the computer 10.

ここでは、動画像再生アプリケーションプログラム152が有する機能のうち、本実施形態において特徴的な動画像生成機能を実行するための構成例について詳細に説明する。動画像生成機能は、HDD109に格納された素材を利用して実行される。この動画像生成機能は、HDD109に格納された素材だけでなく、LANコントローラ108、USBコントローラ111A等のインタフェース部250を介して外部の素材提供源(サーバ装置、デジタルカメラ、メモリカード等)から取得された素材を利用して実行されてもよい。この素材は、静止画、動画、及び音楽といった情報である。   Here, among the functions of the moving image playback application program 152, a configuration example for executing a characteristic moving image generation function in the present embodiment will be described in detail. The moving image generation function is executed using the material stored in the HDD 109. This moving image generation function is acquired not only from the material stored in the HDD 109 but also from an external material providing source (server device, digital camera, memory card, etc.) via the interface unit 250 such as the LAN controller 108 and the USB controller 111A. It may be executed using the prepared material. This material is information such as still images, moving images, and music.

動画像再生アプリケーションプログラム152は、素材入力部201、素材分析部202、操作受付部203、合成動画生成部204、合成動画出力部205を備えている。またHDD109は、素材格納部211、素材情報データベース212、合成動画格納部213を備えている。   The moving image playback application program 152 includes a material input unit 201, a material analysis unit 202, an operation reception unit 203, a composite video generation unit 204, and a composite video output unit 205. The HDD 109 also includes a material storage unit 211, a material information database 212, and a composite moving image storage unit 213.

素材入力部201は、インタフェース部250を介して素材が入力されると、入力された素材をHDD109に備えられた素材格納部211に格納する。また素材入力部201は、入力された素材に関する素材情報を素材情報データベース212に格納する。素材情報は、素材それぞれを一意的に識別する情報と素材それぞれの格納したファイル情報とを含む情報である。さらに素材入力部201は、入力された素材を素材格納部211へ格納したことを素材分析部202に通知する。素材入力部201は、素材格納部211ではなく素材分析部202に対して、入力された素材を、この素材が入力されたことの通知と併せて出力してもよい。   When a material is input via the interface unit 250, the material input unit 201 stores the input material in the material storage unit 211 provided in the HDD 109. The material input unit 201 stores material information related to the input material in the material information database 212. The material information is information including information for uniquely identifying each material and file information stored for each material. Furthermore, the material input unit 201 notifies the material analysis unit 202 that the input material has been stored in the material storage unit 211. The material input unit 201 may output the input material to the material analysis unit 202 instead of the material storage unit 211 together with a notification that the material has been input.

素材分析部202は、素材入力部201からの通知に応じて素材格納部211に格納された素材を分析し、分析結果を示す情報を素材情報データベース212に格納する。この素材分析部202は、素材を分析することで素材に含まれる例えば顔画像といったオブジェクトを検出し、検出したオブジェクトの特徴に基づいて、このオブジェクトを認識する。素材分析部202は、認識したオブジェクトに関する情報を、対応する素材それぞれの素材情報に追加して格納する。オブジェクトは、顔に限らず、人物(顔を含む全身や体の一部等)、風景(海、山、花等)、動物(犬、猫、魚等)、料理、建造物、又は景色等の画像(情報)であってもよい。すなわち、ひとつの素材から複数のオブジェクトが検出され得る。こうして素材情報は、素材に関する情報と、この情報に関連づけられたオブジェクトに関する情報とを含む情報となる。   The material analysis unit 202 analyzes the material stored in the material storage unit 211 in response to a notification from the material input unit 201 and stores information indicating the analysis result in the material information database 212. The material analysis unit 202 detects an object such as a face image included in the material by analyzing the material, and recognizes the object based on the feature of the detected object. The material analysis unit 202 stores information regarding the recognized object in addition to the material information of each corresponding material. An object is not limited to a face, but a person (a whole body including a face or a part of a body), a landscape (the sea, a mountain, a flower, etc.), an animal (a dog, a cat, a fish, etc.), a dish, a building, or a landscape The image (information) may be used. That is, a plurality of objects can be detected from one material. Thus, the material information becomes information including information on the material and information on the object associated with the information.

素材分析部202は、オブジェクトとして顔画像を検出した場合、顔画像に対応する人物を認識してもよく、また、検出した顔画像を人物毎に分類して素材情報データベース212に格納してもよい。顔画像の検出は、素材の画像の所定領域の特徴パターンが、顔に適合する特徴パターンであるか否かを判定することで実現できる。また顔画像の検出では、各顔画像の画面上の位置(座標)、サイズ、正面度等が検出されてもよい。なお素材分析部202は、素材入力部201から直接的に素材を入力されてもよく、この場合、入力された素材に対する分析結果としての素材情報を素材情報データベース212に格納すると共に、分析した素材を素材格納部211へ格納する。   When the face analysis unit 202 detects a face image as an object, the material analysis unit 202 may recognize a person corresponding to the face image, or may classify the detected face image for each person and store it in the material information database 212. Good. The detection of the face image can be realized by determining whether or not the feature pattern of a predetermined region of the material image is a feature pattern that matches the face. In the detection of face images, the position (coordinates), size, frontality, etc. of each face image on the screen may be detected. The material analysis unit 202 may directly input a material from the material input unit 201. In this case, the material analysis unit 202 stores material information as an analysis result for the input material in the material information database 212 and analyzes the analyzed material. Are stored in the material storage unit 211.

操作受付部203は、素材情報データベース212から素材情報を読み出す。操作受付部203は、読み出した素材情報に基づいて、後に詳述する合成動画の生成における抽出キーとしての素材及びオブジェクトを選択可能に提示するグラフィック画面の生成をGPU105に要求する。また操作受付部203は、提示された素材又はオブジェクトの何れかに対する選択指示を受付けると、受け付けた順に、抽出キーに関する情報を合成動画生成部204へ出力する。   The operation receiving unit 203 reads material information from the material information database 212. Based on the read material information, the operation reception unit 203 requests the GPU 105 to generate a graphic screen that presents selectable materials and objects as extraction keys in the generation of a composite video, which will be described in detail later. In addition, when the operation receiving unit 203 receives a selection instruction for any of the presented materials or objects, the operation receiving unit 203 outputs information on the extraction keys to the synthesized moving image generating unit 204 in the received order.

合成動画生成部204は、操作受付部203から入力された抽出キーに関する情報を、入力された順序と共に管理する。情報の管理には、HDD109や主メモリ103の領域などが記憶部として利用される。合成動画生成部204は、入力された抽出キーに基づいて素材情報データベース212から素材情報を読み出す。また合成動画生成部204は、読み出した素材情報に基づいて、管理した順序で、素材格納部211から対応する素材を読み出す。このとき、入力された抽出キーに基づいて複数の素材が読み出されることがあることは言うまでもない。さらに合成動画生成部204は、入力された抽出キーに関する情報に基づいて、読み出した素材を順次利用した合成動画を生成する。合成動画生成部204は、生成した合成動画を合成動画出力部205へ出力する。   The synthetic moving image generation unit 204 manages information on the extraction keys input from the operation reception unit 203 together with the input order. For information management, an area of the HDD 109 or the main memory 103 is used as a storage unit. The synthesized moving image generation unit 204 reads material information from the material information database 212 based on the input extraction key. In addition, the composite moving image generation unit 204 reads out corresponding materials from the material storage unit 211 in the managed order based on the read material information. At this time, it goes without saying that a plurality of materials may be read based on the input extraction key. Furthermore, the synthetic moving image generation unit 204 generates a synthetic moving image using the read material sequentially based on the input information regarding the extraction key. The composite video generation unit 204 outputs the generated composite video to the composite video output unit 205.

この合成動画は、素材が順次切り替わって表示されるフォトムービーであり、素材はエフェクト処理を施されて表示されることがある。抽出キーとしてオブジェクトが選択された場合、素材の中のオブジェクトを含む画像の領域に対して限定的にエフェクト処理が施される。換言すると、この合成動画では、選択されたオブジェクトが特定できるエフェクト処理が施される。また、抽出キーとしてオブジェクトが選択された場合、抽出される素材は、選択されたオブジェクトに対して同一性、類似性、近似性、又は関連性のある素材である。   This composite moving image is a photo movie in which materials are sequentially switched and displayed, and the materials may be displayed after effect processing. When an object is selected as the extraction key, an effect process is limitedly applied to an image area including the object in the material. In other words, in this synthesized moving image, an effect process that can identify the selected object is performed. When an object is selected as the extraction key, the extracted material is a material having identity, similarity, closeness, or relevance to the selected object.

合成動画出力部205は、入力された合成動画をHDD109に備えられた合成動画格納部213に格納する。また合成動画出力部205は、合成動画生成部204から入力された合成動画をLCD17に表示させる。すなわち合成動画出力部205は、合成動画生成部204が生成した合成動画を表示又は保存するために、入力された合成動画を対応するブロックへ出力する。   The composite video output unit 205 stores the input composite video in the composite video storage unit 213 provided in the HDD 109. The synthetic video output unit 205 displays the synthetic video input from the synthetic video generation unit 204 on the LCD 17. That is, the synthetic video output unit 205 outputs the input synthetic video to a corresponding block in order to display or save the synthetic video generated by the synthetic video generation unit 204.

HDD109に備えられた素材格納部211は、素材入力部201から入力された素材を格納する。素材格納部211は、フォルダを利用する改造構造で素材を格納してもよい。すなわち素材格納部211は、合成動画に用いられる素材を格納するデータベースである。   The material storage unit 211 provided in the HDD 109 stores the material input from the material input unit 201. The material storage unit 211 may store the material with a modified structure using a folder. That is, the material storage unit 211 is a database that stores materials used for the composite moving image.

素材情報データベース212は、素材情報を格納するデータベースである。前述したようにこの素材情報は、素材それぞれを一意的に識別する情報、素材それぞれの格納したファイル情報、及び、認識したオブジェクトに関する情報を含む情報である。素材情報データベース212と素材格納部211とは、一つのデータデータベースとしてHDD109に備えられてもよい。   The material information database 212 is a database that stores material information. As described above, this material information is information including information for uniquely identifying each material, file information stored for each material, and information regarding the recognized object. The material information database 212 and the material storage unit 211 may be provided in the HDD 109 as one data database.

合成動画格納部213は、合成動画生成部204が生成した合成動画を格納するためのデータベースである。合成動画格納部213は、HDD109ではなく、ODD110によって記録される光ディスク、USBコネクタ19を介して接続されるコンピュータ10の外部の記憶装置等に設けられてもよい。   The composite video storage unit 213 is a database for storing the composite video generated by the composite video generation unit 204. The composite moving image storage unit 213 may be provided not in the HDD 109 but in an optical disk recorded by the ODD 110, a storage device external to the computer 10 connected via the USB connector 19, or the like.

このようにして、動画像再生アプリケーションプログラム152は、合成動画に利用される素材やオブジェクトの選択された順序に基づいて、対応する素材が順次表示される合成動画を生成する。また動画像再生アプリケーションプログラム152は、選択されたオブジェクトが特定できるエフェクト処理を施した合成動画を生成する。従って本実施形態によれば、静止画や動画を素材とし、この素材の登場順序に任意性とランダム性とを併せ持つ動画を生成することが可能となる。   In this way, the moving image playback application program 152 generates a composite video in which the corresponding materials are sequentially displayed based on the selected order of the materials and objects used for the composite video. In addition, the moving image reproduction application program 152 generates a synthesized moving image that has been subjected to an effect process that can identify the selected object. Therefore, according to the present embodiment, it is possible to generate a moving image that uses both a still image and a moving image as a material, and has both arbitraryness and randomness in the appearance order of the material.

次に、図3〜図5を用いて、本実施形態に係る動画像生成機能が実行される際に利用される複数の情報を説明する。図3は素材情報の一実施例、図4は抽出キーの提示のために利用される抽出キーに関する情報の一実施例、図5は選択された抽出キーの順序を管理する際に利用される情報の一実施例である。   Next, a plurality of information used when the moving image generation function according to the present embodiment is executed will be described with reference to FIGS. FIG. 3 is an example of material information, FIG. 4 is an example of information relating to an extraction key used for presenting an extraction key, and FIG. 5 is used when managing the order of selected extraction keys. It is one Example of information.

図3に示す一実施例のように、素材情報には、素材それぞれを一意的に識別する情報としての“素材ID”と、素材それぞれの格納したファイル情報としての“素材URL”とが関連づけられている。また、認識したオブジェクトに関する情報として“検出されたオブジェクト”が、“素材ID”と“素材URL”とに関連づけられている。例えば素材1は、“C¥photo”のフォルダ内に“001.jpeg”というファイル名で格納されている。また素材1からは、オブジェクトとして顔1が検出されている。また素材6は、“C¥photo”のフォルダ内に“006.jpeg”というファイル名で格納されている。また素材6からは、オブジェクトとして顔1、顔2及び顔3が検出されている。このように、素材それぞれに対する素材情報が管理される。素材情報は、これ以外にも、画像内でのオブジェクトの位置情報といった情報を含んでもよい。   As in the embodiment shown in FIG. 3, the material information is associated with “material ID” as information for uniquely identifying each material and “material URL” as file information stored for each material. ing. In addition, “detected object” is associated with “material ID” and “material URL” as information about the recognized object. For example, the material 1 is stored in the folder “C ¥ photo” with the file name “001.jpeg”. Further, from the material 1, the face 1 is detected as an object. The material 6 is stored in a folder “C ¥ photo” with a file name “006.jpeg”. Further, from the material 6, face 1, face 2 and face 3 are detected as objects. In this way, material information for each material is managed. In addition to this, the material information may include information such as position information of the object in the image.

図4に示す一実施例のように、抽出キーの提示のために利用される抽出キーに関する情報では、抽出キーとして、素材格納部211に格納される素材及び、素材から検出されたオブジェクトがリストアップされる。リストアップされた素材及びオブジェクトには、それぞれを一意的に識別する素材キーIDが付与されている。   As shown in FIG. 4, in the information about the extraction key used for presenting the extraction key, the material stored in the material storage unit 211 and the object detected from the material are listed as the extraction key. Is up. A material key ID for uniquely identifying each material and object listed is assigned.

図5に示す一実施例のように、選択された抽出キーの順序を管理する際に利用される情報では、抽出キー及び抽出キーIDが、選択された順で管理される。この実施例では、選択された抽出キーはオブジェクトである顔1,顔2,顔3であるが、選択された抽出キーは素材であってもよいことは言うまでもない。   As in the embodiment shown in FIG. 5, in the information used when managing the order of the selected extraction keys, the extraction key and the extraction key ID are managed in the order of selection. In this embodiment, the selected extraction keys are face 1, face 2, and face 3, which are objects, but it goes without saying that the selected extraction key may be a material.

すなわち本実施形態に係る動画像再生アプリケーションプログラム152では、図3〜図5に示した情報が適宜利用されながら、動画像生成機能が実行されることになる。   That is, in the moving image reproduction application program 152 according to the present embodiment, the moving image generation function is executed while appropriately using the information shown in FIGS.

次に、図6を用いて、本実施形態に係る動画像生成機能で生成される合成動画で利用される素材又はオブジェクトを、ユーザに選択可能に提示するグラフィック画面を説明する。   Next, with reference to FIG. 6, a graphic screen that presents a user with selectable materials or objects used in a synthesized moving image generated by the moving image generation function according to the present embodiment will be described.

図6は、素材又はオブジェクトを選択可能に提示するグラフィック画面の一実施例を示す図である。
このグラフィック画面は、素材が既に選択され、選択された素材から認識されたオブジェクトが選択可能に提示されている状態である。具体的には、このグラフィック画面では、素材としての静止画である写真(ファイル名:006.jpeg)が既に選択され、選択された写真の中から認識されたオブジェクトである顔1,顔2,顔3の画像が選択可能に提示されている状態である。
FIG. 6 is a diagram showing an example of a graphic screen that presents a material or an object in a selectable manner.
In this graphic screen, a material has already been selected, and an object recognized from the selected material is presented in a selectable manner. Specifically, on this graphic screen, a still image as a material (file name: 006.jpeg) has already been selected and the objects recognized from the selected photograph are face 1, face 2, and so on. In this state, the face 3 image is presented to be selectable.

このグラフィック画面では、選択された写真から所定範囲で切り出された領域であって、認識された顔が存在する領域それぞれが個別に提示されている。このとき、顔の中心が各々の領域の略中央にあることが好ましい。さらに選択されたオブジェクトは強調表示され、識別可能に提示されている。このグラフィック画面では、例えば顔2の画像のように、提示された領域の縁が強調表示される態様であるが、この態様に限定されることはない。例えば、提示領域内又は近傍に選択されていることを示す選択欄が設けられ、この選択欄にレ点が付される態様や、選択欄を強調表示(内部色の強調や選択欄の枠の強調)される態様であってもよい。   In this graphic screen, each region that is cut out from a selected photograph within a predetermined range and has a recognized face is presented individually. At this time, it is preferable that the center of the face is substantially at the center of each region. Further, the selected object is highlighted and presented in an identifiable manner. In this graphic screen, for example, the edge of the presented area is highlighted as in the image of the face 2, but the present invention is not limited to this aspect. For example, there is a selection field indicating that a selection is made in or near the presentation area, and the selection field is marked with a check mark, or the selection field is highlighted (internal color emphasis or selection field frame emphasis) ) May be used.

またこのグラフィック画面には、選択された写真に関する情報(図中の画面左下に提示される“写真(006.jpeg)から認識された顔”という文字列)が提示される。さらに、領域の選択を確定するためのボタン(図中の“OK”ボタン)や選択を取り消すためのボタン(図中の“キャンセル”ボタン)が提示されていてもよい。   In addition, information on the selected photograph (a character string “a face recognized from a photograph (006.jpeg) presented at the lower left of the screen in the figure)” is presented on this graphic screen. In addition, a button for confirming selection of an area (an “OK” button in the figure) and a button for canceling the selection (a “cancel” button in the figure) may be presented.

なお、図6に示したグラフィック画面では、素材としての写真が選択されてから、選択された素材から認識されたオブジェクトである顔の画像が提示される態様であるが、この態様に限定されることはない。例えば、素材及びオブジェクトが選択可能に同一画面内に提示される態様であってもよい。例えば素材が選択された場合、選択された素材と関連する他の素材が合成動画に用いられる。またオブジェクトが選択された場合、選択されたオブジェクトを含む複数の素材が合成動画に用いられる。   The graphic screen shown in FIG. 6 is an aspect in which a face image, which is an object recognized from the selected material, is presented after a photograph as a material is selected. However, the present invention is limited to this aspect. There is nothing. For example, a mode in which a material and an object are presented in the same screen so as to be selectable may be used. For example, when a material is selected, another material related to the selected material is used for the synthesized moving image. When an object is selected, a plurality of materials including the selected object are used for the synthesized moving image.

このようにしてコンピュータ10の利用者は、このグラフィック画面によって、動画像生成機能で生成される合成動画で利用される素材又はオブジェクトを選択することが可能になる。   In this way, the user of the computer 10 can select a material or an object used in the synthesized moving image generated by the moving image generation function by using the graphic screen.

次に、図7を用いて、動画像生成機能で生成された動画像における素材の登場順序を説明する。
図7は、動画像生成機能で生成された動画像における素材の登場順序を説明するための概念図である。
本実施形態に係る動画像再生アプリケーションプログラム152によって実行される動画像生成機能では、素材及びオブジェクトの選択順序に基づいて、素材が順次登場する動画像が生成される。例えば図5に示した情報のように、抽出キーとして、1番目に顔1、2番目に顔2、3番目に顔3が選択された例を説明する。すなわち、この例は、オブジェジェクトである顔1の次に、オブジェクトである顔2、次いでオブジェクトである顔3が選択された例である。
Next, the appearance order of materials in a moving image generated by the moving image generation function will be described with reference to FIG.
FIG. 7 is a conceptual diagram for explaining the appearance order of materials in a moving image generated by the moving image generation function.
In the moving image generation function executed by the moving image reproduction application program 152 according to the present embodiment, a moving image in which materials appear sequentially is generated based on the selection order of materials and objects. For example, as in the information shown in FIG. 5, an example will be described in which the first face, the second face 2 and the third face 3 are selected as extraction keys. That is, in this example, the face 1 that is an object, the face 2 that is an object, and then the face 3 that is an object are selected.

この場合、図4に示した素材情報に基づくと、顔1が検出された素材は、素材1,3,6,8,11,14,16である。従って、1番目に選択された抽出キーである顔1に基づいて、顔1を含む素材1,3,6,8,11,14,16が順次登場する。同様に図4に示した素材情報に基づくと、顔2が検出された素材は、素材2,3,4,6,9,10,12,15である。従って、2番目に選択された抽出キーである顔2に基づいて、顔2を含む素材2,3,4,6,9,10,12,15が順次登場する。また顔3に基づいて、顔3を含む素材5,6,10,13,16が順次登場する。   In this case, based on the material information shown in FIG. 4, the materials from which the face 1 is detected are the materials 1, 3, 6, 8, 11, 14, and 16. Therefore, the materials 1, 3, 6, 8, 11, 14, and 16 including the face 1 appear sequentially based on the face 1 that is the first selected extraction key. Similarly, based on the material information shown in FIG. 4, the materials from which the face 2 is detected are materials 2, 3, 4, 6, 9, 10, 12, and 15. Accordingly, the materials 2, 3, 4, 6, 9, 10, 12, and 15 including the face 2 appear sequentially based on the face 2 that is the second selected extraction key. Further, based on the face 3, materials 5, 6, 10, 13, and 16 including the face 3 appear sequentially.

なお動画像生成機能で生成された動画像において、登場する画像における顔1、顔2、顔3の画像に対してはエフェクト処理が施される。
このようにして本実施形態に係る動画像生成機能では、素材及びオブジェクトの選択順序に基づいて素材の登場順序が決定される。例えば、抽出キーとしてオブジェクトが選択されると、選択されたオブジェクトを含む素材が所定の順序で登場する動画像が生成される。従って本実施形態によれば、静止画や動画を素材とし、この素材の登場順序に任意性とランダム性とを併せ持つ動画を生成することが可能となる。
In the moving image generated by the moving image generation function, effect processing is performed on the images of face 1, face 2, and face 3 in the appearing images.
In this way, in the moving image generation function according to the present embodiment, the appearance order of materials is determined based on the selection order of materials and objects. For example, when an object is selected as an extraction key, a moving image in which materials including the selected object appear in a predetermined order is generated. Therefore, according to the present embodiment, it is possible to generate a moving image that uses both a still image and a moving image as a material, and has both arbitraryness and randomness in the appearance order of the material.

(第1変形例)
次に、図8を用いて、動画像生成機能で生成された動画像における素材の登場順序の第1変形例を説明する。
図8は、動画像生成機能で生成された動画像における素材の登場順序の第1変形例を説明するための概念図である。
この第1変形例でも、素材及びオブジェクトの選択順序に基づいて素材が順次登場する動画像が生成される。この第1変形例では、図7に示した概念図と同様に、例えば図5に示した情報のように、1番目に顔1、2番目に顔2、3番目に顔3が、抽出キーとして選択された例を用いて説明する。すなわち、この例も、オブジェジェクトである顔1の次に、オブジェクトである顔2、次いでオブジェクトである顔3が選択された例である。第1変形例は、図7に示した概念図とは、選択される素材の条件において異なる。
(First modification)
Next, a first modification of the appearance order of materials in a moving image generated by the moving image generation function will be described with reference to FIG.
FIG. 8 is a conceptual diagram for explaining a first modification of the appearance order of materials in a moving image generated by the moving image generation function.
Also in the first modification, a moving image in which materials appear sequentially based on the selection order of materials and objects is generated. In the first modified example, as in the conceptual diagram shown in FIG. 7, for example, as shown in FIG. 5, the first face, the second face 2, the third face 3, and the extraction key An example selected as will be described. That is, this example is also an example in which the face 2 that is an object is selected after the face 1 that is an object, and then the face 3 that is an object. The first modification differs from the conceptual diagram shown in FIG. 7 in the conditions of the selected material.

具体的には、図4に示した素材情報に基づくと、顔1のみが検出された素材は、素材1,8,11,14である。従って、1番目に選択された抽出キーである顔1に基づいて、顔1のみを含む素材1,8,11,14が順次登場する。同様に顔2のみが検出された素材は、素材2,4,9,12,15である。従って、2番目に選択された抽出キーである顔2に基づいて、顔2のみを含む素材2,4,9,12,15が順次登場する。また顔3に基づいて、顔3のみを含む素材5,13が順次登場する。   Specifically, based on the material information shown in FIG. 4, the materials for which only the face 1 is detected are the materials 1, 8, 11, and 14. Therefore, based on face 1 which is the first selected extraction key, materials 1, 8, 11, and 14 including only face 1 appear sequentially. Similarly, the materials for which only the face 2 is detected are the materials 2, 4, 9, 12, and 15. Therefore, the materials 2, 4, 9, 12, and 15 including only the face 2 appear sequentially based on the face 2 that is the second selected extraction key. Further, based on the face 3, materials 5 and 13 including only the face 3 appear sequentially.

なお動画像生成機能で生成された動画像において、登場する画像における顔1、顔2、顔3の画像に対してはエフェクト処理が施される。
このようにして本実施形態に係る動画像生成機能では、素材及びオブジェクトの選択順序に基づいて素材の登場順序が決定される。例えば、抽出キーとしてオブジェクトが選択されると、選択されたオブジェクトのみを含む素材が所定の順序で登場する動画像が生成される。従って本実施形態によれば、静止画や動画を素材とし、この素材の登場順序に任意性とランダム性とを併せ持つ動画を生成することが可能となる。
In the moving image generated by the moving image generation function, effect processing is performed on the images of face 1, face 2, and face 3 in the appearing images.
In this way, in the moving image generation function according to the present embodiment, the appearance order of materials is determined based on the selection order of materials and objects. For example, when an object is selected as the extraction key, a moving image in which materials including only the selected object appear in a predetermined order is generated. Therefore, according to the present embodiment, it is possible to generate a moving image that uses both a still image and a moving image as a material, and has both arbitraryness and randomness in the appearance order of the material.

(第2変形例)
次に、図9を用いて、動画像生成機能で生成された動画像における素材の登場順序の第2変形例を説明する。
図9は、動画像生成機能で生成された動画像における素材の登場順序の第2変形例を説明するための概念図である。
この第2変形例でも、素材及びオブジェクトの選択順序に基づいて素材が順次登場する動画像が生成される。この第2変形例では、図7に示した概念図と同様に、例えば図5に示した情報のように、1番目に顔1、2番目に顔2、3番目に顔3が、抽出キーとして選択された例を用いて説明する。すなわち、この例も、オブジェジェクトである顔1の次に、オブジェクトである顔2、次いでオブジェクトである顔3が選択された例である。第2変形例は、図7及び図8に示した概念図とは、選択される素材の条件において異なる。
(Second modification)
Next, a second modification of the appearance order of materials in a moving image generated by the moving image generation function will be described with reference to FIG.
FIG. 9 is a conceptual diagram for explaining a second modification of the appearance order of materials in a moving image generated by the moving image generation function.
Also in the second modified example, a moving image in which materials appear sequentially based on the selection order of materials and objects is generated. In the second modified example, as in the conceptual diagram shown in FIG. 7, for example, as shown in FIG. 5, the first face, the second face 2, the third face 3, and the extraction key An example selected as will be described. That is, this example is also an example in which the face 2 that is an object is selected after the face 1 that is an object, and then the face 3 that is an object. The second modification differs from the conceptual diagrams shown in FIGS. 7 and 8 in the conditions of the selected material.

具体的には、図4に示した素材情報に基づくと、顔1のみが検出された素材は、素材1,8,11,14である。従って、1番目に選択された抽出キーである顔1に基づいて、顔1のみを含む素材1,8,11,14が順次登場する。次に本第2変形例では、これまでに登場した顔1及び、次に登場する顔2のみが含まれる素材が登場する。図4に示した素材情報に基づくと、顔1及び顔2のみが検出された素材は、素材3である。従って、1番目に選択された抽出キーである顔1と2番目に選択された抽出キーである顔2とに基づいて、顔1及び顔2のみが検出された素材3が登場する。この後は、顔2のみを含む素材2,4,9,12,15が順次登場する。   Specifically, based on the material information shown in FIG. 4, the materials for which only the face 1 is detected are the materials 1, 8, 11, and 14. Therefore, based on face 1 which is the first selected extraction key, materials 1, 8, 11, and 14 including only face 1 appear sequentially. Next, in the second modification, a material including only the face 1 that has appeared so far and the face 2 that appears next appears. Based on the material information shown in FIG. 4, the material from which only face 1 and face 2 are detected is material 3. Accordingly, the material 3 in which only the face 1 and the face 2 are detected appears on the basis of the face 1 that is the first selected extraction key and the face 2 that is the second selected extraction key. After this, materials 2, 4, 9, 12, and 15 including only face 2 appear in sequence.

さらに本第2変形例では、これまでに登場した顔2及び、次に登場する顔3が含まれる素材が登場する。図4に示した素材情報に基づくと、顔2及び顔3のみが検出された素材は、素材10である。従って、2番目に選択された抽出キーである顔2と3番目に選択された抽出キーである顔3とに基づいて、顔2及び顔3のみが検出された素材10が登場する。この後は、顔3のみを含む素材5,13が順次登場する。   Furthermore, in the second modified example, a material including the face 2 that has appeared so far and the face 3 that appears next appears. Based on the material information shown in FIG. 4, the material in which only the face 2 and the face 3 are detected is the material 10. Therefore, based on the face 2 that is the second selected extraction key and the face 3 that is the third selected extraction key, the material 10 in which only the face 2 and the face 3 are detected appears. Thereafter, the materials 5 and 13 including only the face 3 appear sequentially.

なお動画像生成機能で生成された動画像において、登場する画像における顔1、顔2、顔3の画像に対してはエフェクト処理が施される。
このようにして本実施形態に係る動画像生成機能では、素材及びオブジェクトの選択順序に基づいて素材の登場順序が決定される。例えば、抽出キーとしてオブジェクトが選択されると、選択されたオブジェクトを含む素材の後に、これまでに登場したオブジェクトと、次に選択されたオブジェクトを共に含む素材が登場する動画像が生成される。従って本実施形態によれば、静止画や動画を素材とし、この素材の登場順序に任意性とランダム性とを併せ持つ動画を生成することが可能となる。
In the moving image generated by the moving image generation function, effect processing is performed on the images of face 1, face 2, and face 3 in the appearing images.
In this way, in the moving image generation function according to the present embodiment, the appearance order of materials is determined based on the selection order of materials and objects. For example, when an object is selected as an extraction key, a moving image is generated in which a material including both the selected object and a material including the selected object appears after the material including the selected object. Therefore, according to the present embodiment, it is possible to generate a moving image that uses both a still image and a moving image as a material, and has both arbitraryness and randomness in the appearance order of the material.

以上説明したように本実施形態によれば、合成動画に利用される素材やオブジェクトの選択された順序に基づいて、対応する素材が順次表示される合成動画が生成される。また、生成された合成動画には、選択されたオブジェクトが特定できるエフェクト処理が施される。従って本実施形態によれば、静止画や動画を素材とし、この素材の登場順序に任意性とランダム性とを併せ持つ動画を生成することが可能となる。   As described above, according to the present embodiment, a synthesized moving image in which corresponding materials are sequentially displayed is generated based on the selected order of materials and objects used in the synthesized moving image. The generated synthesized moving image is subjected to an effect process that can identify the selected object. Therefore, according to the present embodiment, it is possible to generate a moving image that uses both a still image and a moving image as a material, and has both arbitraryness and randomness in the appearance order of the material.

なお、本実施形態の動画像生成機能の手順は全てソフトウェアによって実行することができる。このため、動画像生成機能の手順を実行するプログラムを格納した記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。   Note that all procedures of the moving image generation function of this embodiment can be executed by software. For this reason, the same effect as that of the present embodiment can be easily realized simply by installing and executing this program on a normal computer through a storage medium storing a program for executing the procedure of the moving image generating function.

なお本発明は、前述した実施形態に限定されるものではなく、その要旨を変えない範囲において、種々の変更、改変等が可能である。また、前述した実施形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよく、さらに、異なる実施形態に係る構成要素を適宜組み合わせても良い。   The present invention is not limited to the embodiment described above, and various changes and modifications can be made without departing from the scope of the present invention. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some constituent elements may be deleted from all the constituent elements shown in the embodiments, and the constituent elements according to the different embodiments may be appropriately combined.

10…コンピュータ、13…キーボード、16…タッチパッド、17…LCD、18…スピーカ、19…USBコネクタ、20…カードスロット、101…CPU、102…ノースブリッジ、103…主メモリ、104…サウスブリッジ、105…GPU、105A…VRAM、106…サウンドコントローラ、107…BIOS−ROM、108…LANコントローラ、109…ハードディスクドライブ(HDD)、110…光ディスクドライブ(ODD)、111A…USBコントローラ、111B…カードコントローラ、112…無線LANコントローラ、113…エンベデッドコントローラ/キーボードコントローラ(EC/KBC)、114…EEPROM、151…オペレーティングシステム(OS)、152…動画像再生アプリケーションプログラム、201…素材入力部、202…素材分析部、203…操作受付部、204…合成動画生成部、205…合成動画出力部、211…素材格納部、212…素材情報データベース、213…合成動画格納部。   DESCRIPTION OF SYMBOLS 10 ... Computer, 13 ... Keyboard, 16 ... Touchpad, 17 ... LCD, 18 ... Speaker, 19 ... USB connector, 20 ... Card slot, 101 ... CPU, 102 ... North bridge, 103 ... Main memory, 104 ... South bridge, 105 ... GPU, 105A ... VRAM, 106 ... Sound controller, 107 ... BIOS-ROM, 108 ... LAN controller, 109 ... Hard disk drive (HDD), 110 ... Optical disk drive (ODD), 111A ... USB controller, 111B ... Card controller, DESCRIPTION OF SYMBOLS 112 ... Wireless LAN controller, 113 ... Embedded controller / keyboard controller (EC / KBC), 114 ... EEPROM, 151 ... Operating system (OS), 152 ... Moving image reproduction application Application program, 201 ... material input unit, 202 ... material analysis unit, 203 ... operation reception unit, 204 ... composite video generation unit, 205 ... composite video output unit, 211 ... material storage unit, 212 ... material information database, 213 ... composition Movie storage unit.

Claims (7)

取り込まれた複数の画像を分析することによりそれぞれの画像に含まれるオブジェクトを抽出する抽出手段と、
前記抽出されたオブジェクトを、選択順序を伴って選択可能に提示する提示手段と、
前記提示手段に基づいて選択されたオブジェクトの前記選択順序に従って、選択されたオブジェクトを含む複数の画像が順次登場する映像を生成する生成手段と、
を具備する電子機器。
Extraction means for extracting an object included in each image by analyzing the plurality of captured images;
Presenting means for presenting the extracted objects in a selectable manner with a selection order;
Generating means for generating a video in which a plurality of images including the selected object appear sequentially according to the selection order of the objects selected based on the presenting means;
An electronic device comprising:
前記生成手段は、前記選択されたオブジェクトに関連する画像を検索すると共に、前記選択されたオブジェクトの選択順序に従って、前記検索された複数の画像が登場する動画を生成する請求項1記載の電子機器。   The electronic device according to claim 1, wherein the generation unit searches for an image related to the selected object and generates a moving image in which the plurality of searched images appear according to a selection order of the selected object. . 前記生成手段は、第1オブジェクトと第2オブジェクトとが選択された場合、前記選択された第1オブジェクトに関連する画像と第2オブジェクトに関連する画像との間で、前記第1オブジェクト及び前記第2オブジェクトの両方に関連する画像が登場する動画を生成する請求項1又は2に記載の電子機器。   When the first object and the second object are selected, the generation means is configured such that the first object and the second object are between the image related to the selected first object and the image related to the second object. The electronic device according to claim 1, wherein a moving image in which images related to both of the two objects appear is generated. 前記生成手段は、前記生成された動画で登場する前記画像における前記オブジェクトに対してエフェクト処理を施す請求項1乃至3の何れか1項に記載の電子機器。   The electronic device according to claim 1, wherein the generation unit performs an effect process on the object in the image that appears in the generated moving image. 前記画像は静止画、動画の何れかの情報であり、前記オブジェクトは、人物、人の顔、動物、料理、建造物、又は景色の何れかを含む情報である請求項1乃至4の何れか1項に記載の電子機器。   5. The image according to claim 1, wherein the image is information of a still image or a moving image, and the object is information including any one of a person, a human face, an animal, a dish, a building, and a landscape. Item 1. An electronic device according to item 1. 前記提示手段は、前記取り込まれた画像及び前記抽出されたオブジェクトから画像又はオブジェクトを選択することをユーザに許可する請求項1乃至5の何れか1項に記載の電子機器。   The electronic device according to claim 1, wherein the presenting unit permits a user to select an image or an object from the captured image and the extracted object. 映像を生成する画像処理プログラムであって、
取り込まれた複数の画像を分析することによりそれぞれの画像に含まれるオブジェクトを抽出する手段と、
前記抽出されたオブジェクトを、選択順序を伴って選択可能に提示する手段と、
前記提示する手段に基づいて選択されたオブジェクトの前記選択順序に従って、選択されたオブジェクトを含む複数の画像が順次登場する映像を生成する手段と、
をコンピュータに実行させる画像処理プログラム。
An image processing program for generating video,
Means for extracting an object included in each image by analyzing a plurality of captured images;
Means for presenting the extracted objects in a selectable manner with a selection order;
Means for generating a video in which a plurality of images including the selected object appear sequentially according to the selection order of the objects selected based on the means for presenting;
An image processing program for causing a computer to execute.
JP2010113487A 2010-05-17 2010-05-17 Electronic apparatus and image processing program Pending JP2011244155A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010113487A JP2011244155A (en) 2010-05-17 2010-05-17 Electronic apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010113487A JP2011244155A (en) 2010-05-17 2010-05-17 Electronic apparatus and image processing program

Publications (1)

Publication Number Publication Date
JP2011244155A true JP2011244155A (en) 2011-12-01

Family

ID=45410368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010113487A Pending JP2011244155A (en) 2010-05-17 2010-05-17 Electronic apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP2011244155A (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309269A (en) * 2000-04-25 2001-11-02 Fujitsu Ltd Apparatus and method for browsing of digital video image contents
JP2002152665A (en) * 2000-11-08 2002-05-24 Toshiba Corp Recording/reproducing device with play list generation guide function
JP2002223412A (en) * 2001-01-26 2002-08-09 Canon Inc Image processor, image processing system, image processing method, storage medium, and program software
JP2005033276A (en) * 2003-07-07 2005-02-03 Seiko Epson Corp System, program, and method for image reproducing
JP2006060279A (en) * 2004-08-17 2006-03-02 Matsushita Electric Ind Co Ltd Motion image reproducing apparatus
JP2006148344A (en) * 2004-11-17 2006-06-08 Fuji Photo Film Co Ltd Edit condition setting apparatus and edit condition setting program for photo movie
JP2006236218A (en) * 2005-02-28 2006-09-07 Fuji Photo Film Co Ltd Electronic album display system, electronic album display method, and electronic album display program
JP2006323621A (en) * 2005-05-19 2006-11-30 Noritsu Koki Co Ltd Electronic album system
JP2007174378A (en) * 2005-12-22 2007-07-05 Fujifilm Corp Image filing method, digital camera, image filing processing program, and moving picture recording and reproducing device
JP2008252296A (en) * 2007-03-29 2008-10-16 Kddi Corp Face index preparation apparatus for moving image and face image tracking method thereof
JP2010057003A (en) * 2008-08-29 2010-03-11 Mitsubishi Electric Corp Image recording device, and image recording method
JP2010062691A (en) * 2008-09-02 2010-03-18 Hitachi Ltd Information processor

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309269A (en) * 2000-04-25 2001-11-02 Fujitsu Ltd Apparatus and method for browsing of digital video image contents
JP2002152665A (en) * 2000-11-08 2002-05-24 Toshiba Corp Recording/reproducing device with play list generation guide function
JP2002223412A (en) * 2001-01-26 2002-08-09 Canon Inc Image processor, image processing system, image processing method, storage medium, and program software
JP2005033276A (en) * 2003-07-07 2005-02-03 Seiko Epson Corp System, program, and method for image reproducing
JP2006060279A (en) * 2004-08-17 2006-03-02 Matsushita Electric Ind Co Ltd Motion image reproducing apparatus
JP2006148344A (en) * 2004-11-17 2006-06-08 Fuji Photo Film Co Ltd Edit condition setting apparatus and edit condition setting program for photo movie
JP2006236218A (en) * 2005-02-28 2006-09-07 Fuji Photo Film Co Ltd Electronic album display system, electronic album display method, and electronic album display program
JP2006323621A (en) * 2005-05-19 2006-11-30 Noritsu Koki Co Ltd Electronic album system
JP2007174378A (en) * 2005-12-22 2007-07-05 Fujifilm Corp Image filing method, digital camera, image filing processing program, and moving picture recording and reproducing device
JP2008252296A (en) * 2007-03-29 2008-10-16 Kddi Corp Face index preparation apparatus for moving image and face image tracking method thereof
JP2010057003A (en) * 2008-08-29 2010-03-11 Mitsubishi Electric Corp Image recording device, and image recording method
JP2010062691A (en) * 2008-09-02 2010-03-18 Hitachi Ltd Information processor

Similar Documents

Publication Publication Date Title
US11249620B2 (en) Electronic device for playing-playing contents and method thereof
US9465802B2 (en) Content storage processing system, content storage processing method, and semiconductor integrated circuit
US20110305395A1 (en) Electronic Apparatus and Image Processing Method
TWI591575B (en) Method and system for enhancing captured data
JP2011103588A (en) Electronic apparatus, and image display method
US20140050422A1 (en) Electronic Apparatus and Image Processing Method
JP4768846B2 (en) Electronic apparatus and image display method
CN111935516B (en) Audio file playing method, device, terminal, server and storage medium
JP2014052915A (en) Electronic apparatus, display control method, and program
US8494347B2 (en) Electronic apparatus and movie playback method
US20110304779A1 (en) Electronic Apparatus and Image Processing Method
JP5550446B2 (en) Electronic apparatus and moving image generation method
JP5060636B1 (en) Electronic device, image processing method and program
JP5479198B2 (en) Electronic device and image processing program
JP2011244155A (en) Electronic apparatus and image processing program
JP5558187B2 (en) Electronic device and image processing program
US20230252733A1 (en) Displaying blockchain data associated with a three-dimensional digital object
JP5550447B2 (en) Electronic apparatus and method
US20110231763A1 (en) Electronic apparatus and image processing method
US20140324921A1 (en) Electronic device, method, and storage medium
JP5550688B2 (en) Electronic device, content transmission method and program
JP5414842B2 (en) Electronic device, image display method, and content reproduction program
JP2011199906A (en) Electronic apparatus, image display method and program
JP2012070176A (en) Photographing device and photo movie creation device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130215

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140812