JP2015073325A - Image generation device, image generation method, image generation program, and image generation system - Google Patents

Image generation device, image generation method, image generation program, and image generation system Download PDF

Info

Publication number
JP2015073325A
JP2015073325A JP2014265217A JP2014265217A JP2015073325A JP 2015073325 A JP2015073325 A JP 2015073325A JP 2014265217 A JP2014265217 A JP 2014265217A JP 2014265217 A JP2014265217 A JP 2014265217A JP 2015073325 A JP2015073325 A JP 2015073325A
Authority
JP
Japan
Prior art keywords
image
main subject
unit
frames
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014265217A
Other languages
Japanese (ja)
Other versions
JP5932963B2 (en
Inventor
良紀 松澤
Yoshiaki Matsuzawa
良紀 松澤
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2014265217A priority Critical patent/JP5932963B2/en
Publication of JP2015073325A publication Critical patent/JP2015073325A/en
Application granted granted Critical
Publication of JP5932963B2 publication Critical patent/JP5932963B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate a still image from a moving image to instantly obtain an image capable of being appreciated while reproducing motion of a subject.SOLUTION: An image generation device comprises: a main subject determination unit for determining a main subject from among persons included in a moving image composed of frames at a predetermined cycle; a duplication unit which selects, as selection frames, a plurality of images including the main subject in the frames at the predetermined cycle and generates a duplication image using the main subject's image part from each of the plurality of selection frames; and a combining unit for generating a combined image obtained by combining a plurality of generated duplication images. The duplication unit selects the selection frames after photographing of the moving image, in each predetermined period different from the predetermined cycle.

Description

本発明は、複数の画像を利用して合成画像を生成する画像生成装置、画像生成方法、画像生成プログラム及び画像生成システムに関する。   The present invention relates to an image generation apparatus, an image generation method, an image generation program, and an image generation system that generate a composite image using a plurality of images.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)は、静止画のみならず、動画撮影機能を有するものが多い。例えば、動画撮影中に静止画を撮影する撮影機器が広く知られている。   In recent years, many portable devices (photographing devices) with a photographing function such as a digital camera have not only a still image but also a moving image photographing function. For example, imaging devices that capture still images during moving image shooting are widely known.

しかし、静止画は一瞬で見ることが出来て手軽なのに対し、動画や連写(以下、動画とする)は撮影にも鑑賞にも比較的長時間を要し、普及し難い状況であった。   However, while still images can be viewed in an instant and are easy, moving images and continuous shooting (hereinafter referred to as moving images) require a relatively long time for both shooting and viewing, and are difficult to spread.

動画の良い点とは、動きを再現できることであり、静止画のよい点とは、瞬間を切り取った完成度の高い一瞬の映像を一目で鑑賞できることである。そこで、特許文献1においては、動画を利用して静止画を作成する技術が開示されている。特許文献1の発明においては、動画切出し手段によって切り出された部分動画を、サムネイル動画として動画データに対応付けて動画記憶手段に記憶させるものである。   The good point of the moving image is that it can reproduce the motion, and the good point of the still image is that the momentary image with a high degree of perfection that is cut off the moment can be viewed at a glance. Therefore, Patent Document 1 discloses a technique for creating a still image using a moving image. In the invention of Patent Document 1, the partial moving image cut out by the moving image cutting means is stored in the moving image storage means in association with moving image data as a thumbnail moving image.

特許第4189575号公報Japanese Patent No. 4189575

しかしながら、特許文献1の発明は、動画検索用のものであり、シーンチェンジを表示するものとしては有効であるが、主要被写体の様子は分からなかった。   However, although the invention of Patent Document 1 is for moving picture search and is effective for displaying a scene change, the state of the main subject has not been understood.

本発明は、動画から静止画を生成して、被写体の動きを再現しながら、瞬時に鑑賞可能な画像を得るなど、楽しい画像を簡単に作ることができる画像生成装置、画像生成方法、画像生成プログラム及び画像生成システムを提供することを目的とする。   The present invention provides an image generation apparatus, an image generation method, and an image generation method that can easily create a fun image such as generating a still image from a moving image and obtaining an image that can be viewed instantly while reproducing the movement of the subject. It is an object to provide a program and an image generation system.

本発明に係る画像生成装置は、所定の周期のコマからなる動画像に含まれる人物のなかから主被写体を判定する主被写体判定部と、前記所定の周期のコマのうち前記主被写体が含まれる複数の画像を選択コマとして選択し、前記複数の選択コマから夫々前記主被写体の画像部分を用いた複製画像を生成する複製部と、複数の前記複製画像を合成した合成画像を生成する合成部と、を具備し、前記複製部は、前記選択コマの選択を、前記動画像の撮影後に、前記所定の周期とは異なる、あらかじめ決められた時間ごと行う。   An image generation apparatus according to the present invention includes a main subject determination unit that determines a main subject from persons included in a moving image including frames with a predetermined cycle, and the main subject among the frames with the predetermined cycle. A duplicating unit that selects a plurality of images as a selected frame, generates a duplicate image using the image portion of the main subject from each of the plurality of selected frames, and a synthesizing unit that generates a synthesized image by synthesizing the plurality of duplicate images And the duplicating unit selects the selected frame at a predetermined time different from the predetermined cycle after the moving image is captured.

また、本発明に係る画像生成方法は、所定の周期のコマからなる動画像に含まれる人物のなかから主被写体を判定する主被写体判定ステップと、前記所定の周期のコマのうち前記主被写体が含まれる複数の画像を選択コマとして選択し、前記複数の選択コマから夫々前記主被写体の画像部分を用いた複製画像を生成する複製ステップと、複数の前記複製画像を合成した合成画像を生成する合成ステップと、を具備し、前記複製ステップは、前記選択コマの選択を、前記動画像の撮影後に、前記所定の周期とは異なる、あらかじめ決められた時間ごと行う。   The image generation method according to the present invention includes a main subject determination step of determining a main subject from persons included in a moving image having frames with a predetermined cycle, and the main subject out of the frames with the predetermined cycle. A plurality of images included are selected as selected frames, a duplication step of generating a duplicate image using the image portion of the main subject from each of the plurality of selected frames, and a composite image obtained by synthesizing the plurality of duplicate images is generated. A composition step, and the duplication step performs selection of the selected frame at a predetermined time different from the predetermined period after the moving image is captured.

また、本発明に係る画像生成プログラムは、コンピュータに、所定の周期のコマからなる動画像に含まれる人物のなかから主被写体を判定する主被写体判定ステップと、前記所定の周期のコマのうち前記主被写体が含まれる複数の画像を選択コマとして選択し、前記複数の選択コマから夫々前記主被写体の画像部分を用いた複製画像を生成する複製ステップと、複数の前記複製画像を合成した合成画像を生成する合成ステップと、を実行させ、前記複製ステップでは、前記選択コマの選択を、前記動画像の撮影後に、前記所定の周期とは異なる、あらかじめ決められた時間ごと行わせる。   In addition, an image generation program according to the present invention includes a main subject determination step of determining a main subject from persons included in a moving image having frames with a predetermined cycle, and the above-mentioned frames among the frames with the predetermined cycle. A duplication step of selecting a plurality of images including a main subject as a selected frame, and generating a duplicate image using an image portion of the main subject from each of the plurality of selected frames, and a composite image obtained by synthesizing the plurality of the duplicate images And a synthesizing step for generating the selected image. In the duplicating step, the selected frame is selected at a predetermined time different from the predetermined period after the moving image is captured.

また、本発明に係る画像生成システムは、所定の周期のコマからなる動画像の撮影を行う撮像部と、前記撮像部から前記動画像が与えられ、該動画像に含まれる人物のなかから主被写体を判定する主被写体判定部と、前記所定の周期のコマのうち前記主被写体が含まれる複数の画像を選択コマとして選択し、前記複数の選択コマから夫々前記主被写体の画像部分を用いた複製画像を生成する複製部と、複数の前記複製画像を合成した合成画像を生成する合成部と、を具備し、前記複製部は、前記選択コマの選択を、前記動画像の撮影後に、前記所定の周期とは異なる、あらかじめ決められた時間ごと行う。   In addition, an image generation system according to the present invention includes an imaging unit that captures a moving image including frames having a predetermined cycle, and the moving image that is given from the imaging unit, and the person included in the moving image A main subject determination unit for determining a subject, and a plurality of images including the main subject among the frames of the predetermined cycle are selected as selected frames, and an image portion of the main subject is used from each of the plurality of selected frames. A duplicating unit that creates a duplicated image; and a synthesizing unit that produces a synthesized image obtained by synthesizing a plurality of the duplicated images, and the duplicating unit selects the selected frame after the moving image is captured. It is performed every predetermined time different from the predetermined cycle.

本発明によれば、連続して撮影した結果から適当な部分を取り出して、新しい画像を生成して、被写体の動きを再現しながら、それを要約して簡単に鑑賞可能な画像を得ることができるという効果を有する。   According to the present invention, it is possible to extract an appropriate part from the results of continuous shooting, generate a new image, and summarize the result while reproducing the movement of the subject to obtain an easily viewable image. It has the effect of being able to.

本発明の第1の実施の形態に係る画像生成装置の回路構成を示すブロック図。1 is a block diagram showing a circuit configuration of an image generation apparatus according to a first embodiment of the present invention. 仮記録部4bに記録される情報を説明するための説明図。Explanatory drawing for demonstrating the information recorded on the temporary recording part 4b. 台紙決定部1c及び複製決定部1dの処理を説明するための説明図。Explanatory drawing for demonstrating the process of the mount determination part 1c and the duplication determination part 1d. 図4はカメラ制御を示すフローチャート。FIG. 4 is a flowchart showing camera control. 主被写体の判定フローを示すフローチャート。The flowchart which shows the determination flow of the main subject. 選択コマの決定フローを示すフローチャート。The flowchart which shows the decision flow of a selection top. 動画像から合成される合成画像の一例を示す説明図。Explanatory drawing which shows an example of the synthesized image synthesized from a moving image. 本発明の第2の実施の形態を示すフローチャート。The flowchart which shows the 2nd Embodiment of this invention. 合成画像作成処理を示すフローチャート。The flowchart which shows a composite image preparation process. 被写体合成処理を示すフローチャート。6 is a flowchart showing subject composition processing. 本発明の第3の実施の形態による画像合成を説明するための説明図。Explanatory drawing for demonstrating the image composition by the 3rd Embodiment of this invention. 被写体複製合成処理を示すフローチャート。5 is a flowchart showing subject duplication / combination processing. 複製画像を説明するための説明図。Explanatory drawing for demonstrating a duplicate image. 空きスペースの判定フローを示すフローチャート。The flowchart which shows the determination flow of an empty space. コマ選択処理及び合成処理を示すフローチャート。The flowchart which shows a frame selection process and a synthetic | combination process. コマ選択処理及び合成処理を示すフローチャート。The flowchart which shows a frame selection process and a synthetic | combination process. 合成画像を説明するための説明図。Explanatory drawing for demonstrating a synthesized image.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る画像生成装置の回路構成を示すブロック図である。本実施の形態は本発明を撮影装置に適用した例を示している。
(First embodiment)
FIG. 1 is a block diagram showing a circuit configuration of an image generation apparatus according to the first embodiment of the present invention. The present embodiment shows an example in which the present invention is applied to a photographing apparatus.

本実施の形態は動画中に存在する人物を検出し、検出した1人以上の人物から主被写体となる人物を特定し、特定した主被写体の画像部分を動画像から複数抽出して、1枚の静止画像上に合成して合成画像を生成するものである。これにより、動きのある被写体を瞬時に鑑賞可能な静止画によって見ることができる。なお、以下、動画像から合成画像を作成するものとして説明するが、連続的に撮影された画像であればよく、連写された一連の静止画像等から合成画像を生成してもよい。   In this embodiment, a person existing in a moving image is detected, a person as a main subject is specified from one or more detected persons, and a plurality of image portions of the specified main subject are extracted from a moving image. Are synthesized on a still image to generate a composite image. Thus, a moving subject can be viewed as a still image that can be viewed instantly. In the following description, it is assumed that a composite image is created from a moving image. However, the image may be a continuously captured image, and a composite image may be generated from a series of still images taken continuously.

図1において、画像生成装置10は、CCDやCMOSセンサ等の撮像素子によって構成された撮像部2を有している。撮像部2は、後述する信号処理及び制御部1によって、絞り、ピント、ズーム等が制御可能に構成されており、様々な構図、被写体に対応した撮像が可能である。   In FIG. 1, the image generation apparatus 10 includes an imaging unit 2 configured by an imaging element such as a CCD or a CMOS sensor. The imaging unit 2 is configured such that the aperture, focus, zoom, and the like can be controlled by the signal processing and control unit 1 described later, and can capture images corresponding to various compositions and subjects.

撮像部2は、信号処理及び制御部1によって駆動制御されて、被写体の動画像を撮像し、画像信号を出力する。信号処理及び制御部1は、撮像部2に撮像素子の駆動信号を出力すると共に、撮像部2からの画像信号を取り込む。   The imaging unit 2 is driven and controlled by the signal processing and control unit 1 to capture a moving image of a subject and output an image signal. The signal processing and control unit 1 outputs a driving signal for the imaging element to the imaging unit 2 and captures an image signal from the imaging unit 2.

信号処理及び制御部1は、入力された画像信号に対して、所定の信号処理、例えば、色信号生成処理、マトリックス変換処理、その他各種の信号処理を行う。信号処理及び制御部1は、画像信号の記録に際して、符号化処理を施して圧縮した画像情報を出力することもできるようになっている。信号処理及び制御部1は、信号処理した画像信号を記録部4に与えて記録させると共に、表示部7に与えて表示させることができるようになっている。   The signal processing and control unit 1 performs predetermined signal processing such as color signal generation processing, matrix conversion processing, and other various signal processing on the input image signal. The signal processing and control unit 1 can output image information that has been encoded and compressed when recording an image signal. The signal processing and control unit 1 can supply the image signal subjected to the signal processing to the recording unit 4 for recording, and can also provide the display unit 7 for display.

また、画像生成装置10には、時計部5、操作判定部6も設けられている。時計部5は信号処理及び制御部1が用いる時間情報を発生する。操作判定部6は、画像生成装置10に設けられた図示しないレリーズスイッチや撮影モード設定等の各種スイッチに対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部1に出力するようになっている。信号処理及び制御部1は、操作信号に基づいて、各部を制御する。   The image generation apparatus 10 is also provided with a clock unit 5 and an operation determination unit 6. The clock unit 5 generates time information used by the signal processing and control unit 1. The operation determination unit 6 generates an operation signal based on a user operation for various switches such as a release switch (not shown) provided in the image generation apparatus 10 and a shooting mode setting, and outputs the operation signal to the signal processing and control unit 1. ing. The signal processing and control unit 1 controls each unit based on the operation signal.

本実施の形態においては、撮像部2が撮像した動画像の画像信号は信号処理及び制御部1だけでなく、顔検出部3及び記録部4にも与えられる。記録部4は、入力された動画像の画像信号を記録することができる。   In the present embodiment, the image signal of the moving image captured by the imaging unit 2 is supplied not only to the signal processing and control unit 1 but also to the face detection unit 3 and the recording unit 4. The recording unit 4 can record an image signal of the input moving image.

顔検出部3は、撮像部2から動画像の画像信号が与えられ、画像内に人間の顔の特徴を有する陰影パターンが存在するか否かをコマ(フレーム)毎に検出する。顔検出部3は、検出した顔領域についての検出結果を信号処理及び制御部1に与える。なお、顔検出部3は、検出した顔領域について、顔の表情を示す特徴量を求めて、検出結果として信号処理及び制御部1に与えるようにしてもよい。   The face detection unit 3 receives the image signal of the moving image from the imaging unit 2, and detects whether or not there is a shadow pattern having human face characteristics in the image for each frame (frame). The face detection unit 3 gives the detection result of the detected face area to the signal processing and control unit 1. Note that the face detection unit 3 may obtain a feature amount indicating a facial expression for the detected face region, and give it to the signal processing and control unit 1 as a detection result.

信号処理及び制御部1は、顔検出部3の検出結果に基づいて、画像内に存在する顔の画像位置、サイズ等の情報を生成し、生成した情報を記録部4に記録された動画像の各コマに対応させて、記録部4内の仮記録部4bに記録させるようになっている。   The signal processing and control unit 1 generates information such as the image position and size of a face existing in the image based on the detection result of the face detection unit 3, and the generated image is recorded in the recording unit 4. The temporary recording unit 4b in the recording unit 4 records the corresponding frame.

図2は仮記録部4bに記録される情報を説明するための説明図である。図2は信号処理及び制御部1によって生成される人物情報を示している。   FIG. 2 is an explanatory diagram for explaining information recorded in the temporary recording unit 4b. FIG. 2 shows the person information generated by the signal processing and control unit 1.

図2の()内の数字は、画像を水平及び垂直方向に10分割した場合において画像左下を原点とした場合のX(横)、Y(縦)座標の値を示しており、()に続く数値は、画像横方向の長さを10とした場合の、顔領域の大きさを示している。なお、座標及びサイズを示すために用いた分割数は一例である。   The numbers in () in FIG. 2 indicate X (horizontal) and Y (vertical) coordinate values when the image is divided into 10 in the horizontal and vertical directions and the lower left corner of the image is the origin. The following numerical value indicates the size of the face area when the horizontal length of the image is 10. The number of divisions used to indicate the coordinates and size is an example.

図2に示す人物情報は、各タイミングT1,T2,…において検出された顔領域を人物に割り当てて示している。タイミングT1,T2,…は、撮像部2からの画像のコマに対応しており、信号処理及び制御部1は、毎コマ又は所定の周期のコマについて、顔領域の検出結果から人物を特定する。   The person information shown in FIG. 2 shows the face area detected at each timing T1, T2,. Timing T1, T2,... Corresponds to a frame of an image from the imaging unit 2, and the signal processing and control unit 1 identifies a person from the detection result of the face area for each frame or a frame of a predetermined period. .

即ち、信号処理及び制御部1は、顔検出部3から顔検出結果が与えられると、画像中に検出された顔領域について人物を割り当てる。図2の例では、タイミングT1において3つの顔領域が検出され、各顔領域の中心座標は夫々(1,5)、(5,5)、(8,2)であり、これらの検出結果に夫々人物A〜Cを割り当てたことを示している。また、各人物A〜Cの顔領域の水平サイズは、夫々1、1、2である。   That is, when the face detection result is given from the face detection unit 3, the signal processing and control unit 1 assigns a person to the face area detected in the image. In the example of FIG. 2, three face regions are detected at timing T1, and the center coordinates of each face region are (1, 5), (5, 5), and (8, 2), respectively. It shows that the persons A to C are assigned respectively. The horizontal sizes of the face areas of the persons A to C are 1, 1, and 2, respectively.

信号処理及び制御部1は、顔検出部3の検出結果に基づいて、顔領域の動きを認識することで、検出された各顔領域が、割り当てたいずれの人物に対応するものかを認識することができる。例えば、信号処理及び制御部1は、公知の追尾オートフォーカス技術を利用することで、同一人物に基づく顔領域の動きを検出することが可能である。   The signal processing and control unit 1 recognizes the motion of the face area based on the detection result of the face detection unit 3 to recognize which person the assigned face area corresponds to. be able to. For example, the signal processing and control unit 1 can detect the movement of the face area based on the same person by using a known tracking autofocus technique.

こうして、信号処理及び制御部1は、次のタイミングT2において、人物Aに割り当てた顔領域が検出されず、人物Bに割り当てた顔領域が座標(4,6)に移動し、人物Cに割り当てた顔領域が座標(8,2)の位置で固定されていることを検出し、図2に示す人物情報を生成する。   Thus, at the next timing T2, the signal processing and control unit 1 does not detect the face area assigned to the person A, the face area assigned to the person B moves to the coordinates (4, 6), and is assigned to the person C. 2 is detected at a position of coordinates (8, 2), and the person information shown in FIG. 2 is generated.

以後同様にして、信号処理及び制御部1は、各人物毎に、各タイミングにおける顔領域の中心座標及び顔領域のサイズを求めて、人物情報を生成する。   Thereafter, in the same manner, the signal processing and control unit 1 generates the person information by obtaining the center coordinates of the face area and the size of the face area at each timing for each person.

なお、図2では、顔領域の水平方向のサイズによって大小を決めたが、垂直方向のサイズを用いてもよく、面積を用いてもよいことは明らかである。   In FIG. 2, the size is determined according to the size of the face region in the horizontal direction. However, it is obvious that the size in the vertical direction may be used or the area may be used.

なお、顔領域の動きを検出することで、画像中の顔領域がいずれの人物に対応するものであるかを検出したが、顔領域の特徴量を求め、この特徴量の比較によって各顔領域がいずれの人物に対応するものであるかを検出するようにしてもよい。   In addition, by detecting the movement of the face area, it was detected to which person the face area in the image corresponds. However, the feature amount of the face area is obtained, and each face region is obtained by comparing the feature amount. It may be detected which person corresponds to.

本実施の形態においては、信号処理及び制御部1は、主被写体決定部1b、台紙決定部1d、複製決定部1d及び合成部1eを有している。主被写体決定部1bは、人物情報を用いて、動画像中に現れる顔領域を有する複数の人物のうち、主被写体となる人物を決定する。   In the present embodiment, the signal processing and control unit 1 includes a main subject determination unit 1b, a mount determination unit 1d, a duplication determination unit 1d, and a synthesis unit 1e. The main subject determining unit 1b uses the person information to determine a person who is a main subject among a plurality of persons having face areas that appear in the moving image.

主被写体決定部1bは、動画中において顔領域が検出される頻度、画像中の位置及びその変化、顔領域のサイズ及びその変化等に基づいて主被写体を決定する。例えば、図2の例では、人物Aの顔領域は、タイミングT2において、画像中から消失している。また、人物Cの顔領域は、画像の比較的周辺部に位置し、位置が変化せず、またサイズも比較的小さく変化がない。これに対し、人物Bの顔領域は、画面の略中央において、動きがあり、大きさの変化もあって、タイミングT5では比較的大きなサイズとなっている。そこで、例えば、図2の例では、主被写体決定部1bは、人物Bを主被写体として選択する。   The main subject determination unit 1b determines the main subject based on the frequency of detection of the face area in the moving image, the position in the image and its change, the size of the face area and its change, and the like. For example, in the example of FIG. 2, the face area of the person A disappears from the image at the timing T2. Further, the face area of the person C is located in a relatively peripheral portion of the image, the position does not change, and the size is relatively small and does not change. On the other hand, the face area of the person B has a relatively large size at the timing T5 due to movement in the approximate center of the screen and a change in size. Therefore, for example, in the example of FIG. 2, the main subject determining unit 1b selects the person B as the main subject.

台紙決定部1dは、人物情報を用いて、主被写体の合成画像の背景となる画像(以下、台紙という)を決定する。複製決定部1dは、動画中から検出された主被写体を含む複数の画像のうち合成画像に用いる主被写体の画像を含むコマを選択コマとして決定する。   The mount determination unit 1d uses the person information to determine an image (hereinafter referred to as a mount) that is the background of the composite image of the main subject. The duplication determination unit 1d determines, as a selected frame, a frame including the main subject image used for the composite image among a plurality of images including the main subject detected from the moving image.

図3は台紙決定部1c及び複製決定部1dの処理を説明するための説明図であり、台紙決定部1c及び複製決定部1dの処理に基づいて信号処理及び制御部1によって生成される選択用コマ情報を示している。   FIG. 3 is an explanatory diagram for explaining the processing of the mount determining unit 1c and the copy determining unit 1d, and for selection generated by the signal processing and control unit 1 based on the processing of the mount determining unit 1c and the copy determining unit 1d. Frame information is shown.

図3は主被写体として図2の人物Bを選択した場合において、合成画像に用いるコマの選択を説明するためのものである。本実施の形態においては、動画像から主被写体を抽出して背景上に重ね合わせて表示する。従って、背景となる台紙を得るためには、台紙の絵柄の動きが小さく、なるべく静止画であることが望ましい。   FIG. 3 is a diagram for explaining selection of a frame to be used for a composite image when the person B in FIG. 2 is selected as the main subject. In the present embodiment, the main subject is extracted from the moving image and displayed superimposed on the background. Therefore, in order to obtain a mount as a background, it is desirable that the motion of the pattern on the mount is small and that the image be a still image as much as possible.

また、多くの主被写体を合成することを考慮した場合には、台紙としては、他のコマから抽出した多くの主被写体又はサイズが大きい主被写体を合成可能とするために、空きスペースが大きいコマ、即ち、主被写体のサイズがなるべく小さいコマを選択した方がよいという考え方を一例として説明するが、主被写体の写っていないコマでもよく、スペースが十分あれば、顔がはっきり写っているコマでもよい。もちろん、主被写体の動きの起点となる最初のコマを台紙と決定してもよい。また、主被写体の動きの終点となる最後のコマを台紙と決定してもよい。台紙の決定方法は種々選択可能であり、例えば、台紙決定部1cは、ユーザの台紙の指定操作に基づく操作判定部6からの操作信号によって、台紙となる画像を決定してもよい。   Also, when considering combining many main subjects, the mount is a frame with a large free space so that many main subjects extracted from other frames or main subjects with large sizes can be combined. In other words, I will explain the idea that it is better to select a frame with the smallest size of the main subject as an example, but it may be a frame where the main subject is not shown, and if there is enough space, even a frame with a clear face Good. Of course, the first frame that is the starting point of the movement of the main subject may be determined as the mount. Further, the last frame that is the end point of the movement of the main subject may be determined as the mount. The mount determination method can be variously selected. For example, the mount determination unit 1c may determine an image to be the mount based on an operation signal from the operation determination unit 6 based on a user's mount specifying operation.

図3の例は、台紙決定部1cが各コマのうち主被写体のサイズが最も小さいコマを台紙として選択することを示している。選択された台紙においては、主被写体の顔領域の水平方向サイズは1である。後述するように、台紙上において、各被写体を水平方向に重ならないように配置するためには、主被写体の顔領域のサイズ1に対して、肩幅の水平サイズを顔領域の両側に1ずつとして空きスペースを判定する。図3の例では、空きスペースは台紙上の主被写体の左側に4スペースで、右側に3スペースである。   The example of FIG. 3 shows that the mount determining unit 1c selects the frame having the smallest main subject size among the frames as the mount. In the selected mount, the horizontal size of the face area of the main subject is 1. As will be described later, on the mount, in order to arrange each subject so as not to overlap in the horizontal direction, the horizontal size of the shoulder width is set to one on each side of the face region with respect to the size of the face region of the main subject. Determine free space. In the example of FIG. 3, the empty space is 4 spaces on the left side of the main subject on the mount and 3 spaces on the right side.

複製決定部1dは、主被写体の顔領域が存在する各コマのうち、いずれのコマの主被写体を合成に用いるかを決定する。複製決定部1dは、変化に富んだ主被写体、多彩な絵柄の主被写体を合成するようにコマの選択をする。複製決定部1dは、選択したコマ(選択コマ)の情報を仮記録部4bに与えて記録させる。   The duplication determination unit 1d determines which frame of the main subject is used for synthesis among the frames in which the face area of the main subject exists. The duplication determination unit 1d selects a frame so as to synthesize a main subject rich in change and a main subject with various patterns. The duplication determination unit 1d gives the information of the selected frame (selected frame) to the temporary recording unit 4b for recording.

図3の例では、複製決定部1dは、前後のコマで顔領域の大きさが大きく変化した場合に、その変化後のコマを選択コマとする。また、複製決定部1dは、前後のコマで顔領域の画像上の位置が大きく変化した場合に、その変化後のコマの選択コマとする。さらに、複製決定部1dは、顔領域の特徴量から顔の表情を判定し、笑顔であると判定したコマを選択するようにしてもよい。例えば、瞼や口の曲がり具合を特徴量として数値化し、数値が高いほど笑顔であると判定する。   In the example of FIG. 3, when the size of the face area changes greatly between the preceding and succeeding frames, the copy determining unit 1d sets the changed frame as the selected frame. In addition, when the position of the face area on the image greatly changes between the previous and next frames, the duplication determination unit 1d sets the selected frame as the selected frame. Further, the duplication determination unit 1d may determine a facial expression from the feature amount of the face area and select a frame that has been determined to be a smile. For example, the degree of bending of a heel or mouth is quantified as a feature amount, and the higher the value, the more the smile is determined.

合成部1eは、複製決定部1dが決定したコマから主被写体の画像部分を抽出して複製した複製画像を作成し、台紙決定部1cが決定した台紙上に合成する。信号処理及び制御部1は、合成部1eが生成した合成画像を表示部7に与えて表示させると共に、記録部4に与えて記録させることができるようになっている。   The synthesizing unit 1e extracts a main subject image portion from the frame determined by the duplication determination unit 1d, creates a duplicate image, and synthesizes it on the mount determined by the mount determination unit 1c. The signal processing and control unit 1 can give the composite image generated by the synthesizing unit 1e to the display unit 7 for display and can also give the recording unit 4 for recording.

次に、このように構成された実施の形態の動作について図4乃至図6のフローチャート及び図7の説明図を参照して説明する。図4はカメラ制御を示し、図5は主被写体の判定フローを示し、図6は選択コマの決定フローを示している。図7は動画像から合成される合成画像の一例を示している。   Next, the operation of the embodiment thus configured will be described with reference to the flowcharts of FIGS. 4 to 6 and the explanatory diagram of FIG. 4 shows camera control, FIG. 5 shows a main subject determination flow, and FIG. 6 shows a selected frame determination flow. FIG. 7 shows an example of a synthesized image synthesized from a moving image.

画像生成装置10の電源がオンの場合には、図4のステップS1から処理がステップS2に移行して、信号処理及び制御部1は撮影モードが指示されたか否かを判定する。撮影モードが指示されていない場合には、信号処理及び制御部1は、ステップS3において、再生モードが指示されたか否かを判定する。再生モードが指示されると、信号処理及び制御部1は、ステップS4において、サムネイルの一覧表示を行う。サムネイル一覧を参照したユーザによる画像の選択が行われると、ステップS5からステップS6に処理を移行して、信号処理及び制御部1は選択画像の再生を行う。   When the power of the image generation apparatus 10 is on, the process proceeds from step S1 in FIG. 4 to step S2, and the signal processing and control unit 1 determines whether or not the shooting mode is instructed. If the shooting mode is not instructed, the signal processing and control unit 1 determines whether or not the reproduction mode is instructed in step S3. When the reproduction mode is instructed, the signal processing and control unit 1 displays a list of thumbnails in step S4. When the user selects an image with reference to the thumbnail list, the process proceeds from step S5 to step S6, and the signal processing and control unit 1 reproduces the selected image.

一方、撮影モードが指示されると、信号処理及び制御部1は、ステップS7において、撮像部2からの画像信号に基づいて、表示部7に撮像画像(スルー画)を表示させる。   On the other hand, when the shooting mode is instructed, the signal processing and control unit 1 causes the display unit 7 to display a captured image (through image) based on the image signal from the imaging unit 2 in step S7.

ステップS8〜S18は、合成画像の作成のためのフローである。ユーザによって記録開始の操作が行われると、信号処理及び制御部1は操作判定部6からの操作信号に基づいて撮像部2を駆動し、動画像の撮影を開始させる。   Steps S8 to S18 are a flow for creating a composite image. When a recording start operation is performed by the user, the signal processing and control unit 1 drives the imaging unit 2 based on an operation signal from the operation determination unit 6 to start capturing a moving image.

図7は撮像部2によって撮影された動画像の3コマF1〜F3の一例を示している。コマF1〜F3は略同一画角を撮影したものであり、撮像範囲の上方右側には建物が左側には樹木が写され、撮像範囲の略中央には曲線上の道が写されてる。なお、コマF1中の「背景部」の文字は合成画像の説明のために記入したものである。   FIG. 7 shows an example of three frames F1 to F3 of a moving image taken by the imaging unit 2. Frames F1 to F3 are taken at substantially the same angle of view. A building is shown on the upper right side of the imaging range, a tree is shown on the left side, and a road on a curve is shown in the approximate center of the imaging range. Note that the characters “background part” in the frame F1 are entered for the purpose of explaining the composite image.

ステップS10においては、顔判定が行われる。顔検出部3は、動画像の各コマから顔領域を検出し、検出結果を信号処理及び制御部1に出力する。信号処理及び制御部1は、ステップS11において、顔検出結果に基づいて生成した人物情報を仮記録部4bに記録させる。なお、撮像部2からの動画像は記録部4に記録されており、信号処理及び制御部1は記録部4に記録される動画像の各コマに対応させて人物情報を記録する。   In step S10, face determination is performed. The face detection unit 3 detects a face area from each frame of the moving image and outputs the detection result to the signal processing and control unit 1. In step S11, the signal processing and control unit 1 causes the temporary recording unit 4b to record the person information generated based on the face detection result. The moving image from the imaging unit 2 is recorded in the recording unit 4, and the signal processing and control unit 1 records person information corresponding to each frame of the moving image recorded in the recording unit 4.

次のステップS12においては、背景変化が大きいか否かが判定される。信号処理及び制御部1は、撮影される動画像の撮影範囲が変化する場合のように、背景が著しく変化する場合には、合成画像の合成には不適当であるので、ステップS13において背景変化の警告を行う。例えば、信号処理及び制御部1は、表示部7に背景の変化が大きいことを示す警告表示を表示させる。こうした合成画像を想定して、動く被写体を撮影するユーザはこれを確認しながら撮影すればよい。   In the next step S12, it is determined whether the background change is large. Since the signal processing and control unit 1 is not suitable for the synthesis of the composite image when the background changes significantly, such as when the shooting range of the moving image to be shot changes, the background change in step S13. Warning. For example, the signal processing and control unit 1 causes the display unit 7 to display a warning display indicating that the background change is large. Assuming such a composite image, a user who shoots a moving subject may shoot while confirming this.

信号処理及び制御部1は、ステップS14において動画像の記録が終了したか否かを判定し、終了していない場合には、ステップS9〜S13の処理を繰り返す。   The signal processing and control unit 1 determines whether or not the moving image recording has ended in step S14, and if not, repeats the processing of steps S9 to S13.

動画像の記録が終了すると、ステップS15において、信号処理及び制御部1は被写体候補の有無を判定する。信号処理及び制御部1は、動画像中に顔検出されたコマが含まれていない場合には、ステップS19において警告を行う。例えば、信号処理及び制御部1は、動画中に合成する人物が撮影されていないことを示す警告表示を表示部7に表示させる。   When the recording of the moving image is completed, in step S15, the signal processing and control unit 1 determines whether or not there is a subject candidate. The signal processing and control unit 1 issues a warning in step S19 when a frame whose face is detected is not included in the moving image. For example, the signal processing and control unit 1 causes the display unit 7 to display a warning display indicating that the person to be synthesized in the moving image is not photographed.

ステップS16では、主被写体の決定が行われる。図5に示すように、主被写体決定部1bは、ステップS21〜S23の処理によって、主被写体を決定する。即ち、主被写体決定部1bは、動画中に最初から最後まで記録されている人物を優先、動きのある人物を優先、画面中央近くの人物を優先して主被写体を決定する。なお、ステップS21〜S23の処理順は適宜変更可能である。また、更に、主被写体決定部1bは、顔領域のサイズを加味して主被写体を決定してもよい。   In step S16, the main subject is determined. As shown in FIG. 5, the main subject determination unit 1b determines the main subject by the processes in steps S21 to S23. That is, the main subject determination unit 1b determines the main subject by giving priority to the person recorded from the beginning to the end in the moving image, giving priority to the person with movement, and giving priority to the person near the center of the screen. Note that the processing order of steps S21 to S23 can be changed as appropriate. Furthermore, the main subject determination unit 1b may determine the main subject in consideration of the size of the face area.

図7の例では、コマF1〜F3のいずれにも人物W1,W2が記録されている。しかし、人物W2の画像W2(F1)〜W2(F3)は、いずれも撮影範囲の右側の同一位置及び同一サイズで写されている。これに対し、人物W1の画像W1(F1)〜W1(F3)は、撮像範囲の略中央において、顔領域の位置及びサイズが変化して写されている。従って、図7の例では、人物W1が主被写体に決定される。   In the example of FIG. 7, persons W1 and W2 are recorded in any of the frames F1 to F3. However, the images W2 (F1) to W2 (F3) of the person W2 are all photographed at the same position and the same size on the right side of the shooting range. On the other hand, the images W1 (F1) to W1 (F3) of the person W1 are photographed with the position and size of the face area being changed substantially at the center of the imaging range. Accordingly, in the example of FIG. 7, the person W1 is determined as the main subject.

次のステップS17においては、選択コマの決定処理が行われる。即ち、ステップS17においては、台紙決定部1cによる台紙の決定及び複製決定部1dによる合成画像に用いる選択コマの決定が行われる。   In the next step S17, the selected frame is determined. That is, in step S17, the mount determination unit 1c determines the mount and the duplication determination unit 1d determines the selected frame to be used for the composite image.

図6はこのフローを示している。先ず、ステップS31において、台紙決定部1cは、台紙とするコマを決定する。例えば、台紙決定部1cは、主被写体のサイズが小さく主被写体を除くスペース(空きスペース)が大きいコマを台紙に選択する。図7の例では各コマF1〜F3の背景B1〜B3のうち、主被写体として選択した人物W1(F1)の顔のサイズが最も小さい人物の画像W1(F1)の背景である背景B1の空きスペースが最も大きい。台紙決定部1cは、例えば背景B1を有するコマF1を台紙に決定する。   FIG. 6 shows this flow. First, in step S31, the mount determining unit 1c determines a frame to be mounted. For example, the mount determining unit 1c selects a frame having a small main subject size and a large space (empty space) excluding the main subject as the mount. In the example of FIG. 7, among the backgrounds B1 to B3 of the frames F1 to F3, the background B1 that is the background of the image W1 (F1) of the person with the smallest face size of the person W1 (F1) selected as the main subject Space is the largest. The mount determining unit 1c determines, for example, the frame F1 having the background B1 as the mount.

なお、台紙決定部1cは、顔領域のサイズによって台紙を選択したが、顔領域を含む人物のサイズによって台紙を選択するようにしてもよい。   The mount determining unit 1c selects the mount according to the size of the face area, but may select the mount according to the size of the person including the face area.

次のステップS32〜S39は、台紙上に重ねて表示する人物の画像をいずれのコマから選択するかを決定するコマの選択処理である。先ず、複製決定部1dは、ステップS32において、最初のコマの画像の情報をIm0とする。次に、複製決定部1dは、ステップS33において次のコマの画像の情報をIm1とし、Im0とIm1とを比較する(ステップS34)。   The next steps S32 to S39 are frame selection processing for determining from which frame an image of a person to be displayed superimposed on the mount is selected. First, in step S32, the copy determination unit 1d sets the first frame image information to Im0. Next, in step S33, the copy determining unit 1d sets Im1 as the image information of the next frame, and compares Im0 and Im1 (step S34).

画像信号は記録部4に記録されており、複製決定部1dは記録部4から画像信号を読み出して、Im0,Im1相互の比較を行う。これにより、複製決定部1dは、主被写体の顔領域の位置及びサイズ、或いは表情に大きな変化があったか否かを判定する(ステップS35)。   The image signal is recorded in the recording unit 4, and the duplication determination unit 1d reads the image signal from the recording unit 4 and compares Im0 and Im1 with each other. Thereby, the duplication determination unit 1d determines whether or not there has been a significant change in the position and size of the face area of the main subject or the facial expression (step S35).

例えば、複製決定部1dは、顔領域の中心位置が所定の閾値以上大きく移動したか否か、顔領域のサイズが所定の閾値以上大きく変化したか否か、顔領域の特徴量が、所定の閾値以上変化したか否かに基づいて、主被写体が大きく変化したか否かを判定する。なお、顔領域だけでなく、人物全体の画像からこれらの判定を行ってもよい。   For example, the duplication determination unit 1d determines whether or not the center position of the face area has moved larger than a predetermined threshold, whether the size of the face area has changed more than a predetermined threshold, It is determined whether or not the main subject has largely changed based on whether or not the threshold has changed. Note that these determinations may be made not only from the face area but also from the image of the entire person.

複製決定部1dは、次のステップS36において、主被写体が大きく変化したと判定したコマについて、そのコマを特定する情報及び変化量を仮記録部4に記録する。複製決定部1dは、ステップS37において最後のコマまで判定したか否かを判定する。最後のコマまで判定していない場合には、ステップS38において、Im1の情報をIm0として、ステップS33〜S37を繰り返す。   In the next step S36, the duplication determination unit 1d records, in the temporary recording unit 4, information for identifying the frame and the amount of change for the frame for which it has been determined that the main subject has changed significantly. The duplication determination unit 1d determines whether or not the determination has been made up to the last frame in step S37. If it is not determined to the last frame, in step S38, the information of Im1 is set to Im0, and steps S33 to S37 are repeated.

最後のコマまでの判定が終了すると、複製決定部1dは、ステップS39において、仮記録部4bに変化量が閾値よりも大きいとして記録されたコマのうち、変化量が大きい順に所定枚数のコマを合成に用いる選択コマとして選択する。   When the determination up to the last frame is completed, in step S39, the copy determining unit 1d selects a predetermined number of frames in descending order of the amount of change among the frames recorded in the temporary recording unit 4b with the amount of change larger than the threshold. Select as a selected frame to be used for composition.

選択コマが決定すると、合成部1eは、図4のステップS18において、合成画像を作成する。即ち、合成部1eは、ステップS39において選択された選択コマ上の主被写体の画像部分を抽出して複製画像を生成し、生成した複製画像を台紙の画像上に重ねて合成画像を生成する。   When the selected frame is determined, the composition unit 1e creates a composite image in step S18 of FIG. That is, the synthesizing unit 1e generates a duplicate image by extracting the image portion of the main subject on the selected frame selected in step S39, and generates a synthesized image by superimposing the generated duplicate image on the mount image.

図7はコマF1が台紙として選択され、コマF2,F3は複製に用いる選択コマとして選択された例を示している。即ち、合成部1eは、コマF2から人物の画像W1(F2)を抜き出し、コマF3から人物の画像W1(F3)を抜き出す。そして、抜き出した画像W1(F2),W1(F3)に基づく複製画像を台紙の画像上に配置した合成画像(静止画像)P1を得る。合成画像P1上には、各コマから抽出された主被写体が並んで配置されている。この合成画像P1は、主被写体の様々な状態が1枚の画像に静止画像化されたものであり、主被写体の動きの様子を瞬時に想像させることができる。   FIG. 7 shows an example in which the frame F1 is selected as the mount and the frames F2 and F3 are selected as the selected frames used for duplication. That is, the synthesizing unit 1e extracts a person image W1 (F2) from the frame F2, and extracts a person image W1 (F3) from the frame F3. Then, a composite image (still image) P1 is obtained in which duplicate images based on the extracted images W1 (F2) and W1 (F3) are arranged on the mount image. On the composite image P1, main subjects extracted from each frame are arranged side by side. This composite image P1 is a still image in which various states of the main subject are converted into a single image, and the state of movement of the main subject can be instantly imagined.

合成部1eは、生成した合成画像を記録部4に与えて記録させる。また、合成部1eは生成した合成画像を表示部7に与えて表示させる。   The synthesizing unit 1e gives the generated synthesized image to the recording unit 4 for recording. The synthesizing unit 1e gives the generated synthesized image to the display unit 7 for display.

このように本実施の形態においては、動画中の各コマから主被写体を検出し、主被写体の合成に用いる選択コマ及び台紙として使用するコマを選択して、台紙上に複数の主被写体の複製画像を合成する。被写体の合成に用いる選択コマを選択する場合には、被写体の変化が大きいコマが選択される。これにより、合成画像は、被写体の動きを再現するものとなり、1枚の静止合成画像によって瞬時に生き生きとした被写体の様子を把握することが可能となる。   As described above, in this embodiment, a main subject is detected from each frame in a moving image, a selected frame used for composition of the main subject and a frame used as a mount are selected, and a plurality of main subjects are duplicated on the mount. Composite the images. When selecting a selected frame used for subject composition, a frame with a large change in the subject is selected. As a result, the synthesized image reproduces the movement of the subject, and it is possible to grasp the state of the subject that is alive instantly from one still synthesized image.

(第2の実施の形態)
図8は本発明の第2の実施の形態を示すフローチャートである。図8において図6と同一の手順には同一符号を付して説明を省略する。
(Second Embodiment)
FIG. 8 is a flowchart showing the second embodiment of the present invention. In FIG. 8, the same steps as those in FIG.

本実施の形態は選択コマ決定方法が第1の実施の形態と異なるのみであり、ハードウェア構成は図1と同様である。第1の実施の形態においては、図6のステップS33,S34に示すように、連続的に発生するコマを順次比較した。   This embodiment is different from the first embodiment only in the selected frame determining method, and the hardware configuration is the same as that in FIG. In the first embodiment, as shown in steps S33 and S34 in FIG.

これに対し、本実施の形態は、所定時間毎のコマを順次比較するようにしたものである。なお、図8では所定時間を1秒とした例を示している。また、本実施の形態においては、主被写体を複製するコマの選択の後に、台紙となるコマの選択を行っている。   On the other hand, in the present embodiment, frames at predetermined time intervals are sequentially compared. FIG. 8 shows an example in which the predetermined time is 1 second. Further, in the present embodiment, after selecting a frame for duplicating the main subject, a frame to be a mount is selected.

ステップS41において、複製決定部1dは、最初のコマから1秒後のコマの画像の情報をIm1とし、Im0とIm1とを比較する(ステップS34)。これにより、複製決定部1dは、主被写体の顔領域の位置、サイズ及び表情に大きな変化があったか否かを判定する(ステップS35)。   In step S41, the duplication determination unit 1d sets Im1 as the image information of the frame one second after the first frame, and compares Im0 and Im1 (step S34). Thereby, the duplication determination unit 1d determines whether or not there has been a significant change in the position, size, and expression of the face area of the main subject (step S35).

複製決定部1dは、次のステップS42において、主被写体が大きく変化したと判定したコマについて、そのコマを特定する情報及び変化量を仮記録部4に記録する。複製決定部1dは、ステップS43において1秒後のコマが存在するか否かを判定する。1秒後のコマが存在する場合には、ステップS38において、Im1の情報をIm0として、ステップS33〜S37を繰り返す。   In the next step S42, the duplication determination unit 1d records, in the temporary recording unit 4, information for specifying the frame and the amount of change for the frame for which it has been determined that the main subject has changed significantly. In step S43, the copy determination unit 1d determines whether there is a frame after 1 second. If there is a frame after 1 second, in step S38, the information of Im1 is set to Im0, and steps S33 to S37 are repeated.

1秒後のコマが存在しない場合には、複製決定部1dは、ステップS44において、仮記録部4bに変化量が閾値よりも大きいとして記録されたコマのうち、変化量が大きい順から2枚のコマを合成に用いるコマとして選択する。なお、図6のステップS39と同様に、3枚以上のコマを選択するようにしてもよい。   If there is no frame after one second, the duplication determination unit 1d determines in step S44 that the frames recorded in the temporary recording unit 4b as having a change amount larger than the threshold value are the two in descending order of change amount. Is selected as a frame to be used for composition. Note that three or more frames may be selected as in step S39 of FIG.

本実施の形態においては、次のステップS45において、台紙とするコマを選択する。即ち、複製決定部1dは、主被写体のサイズが小さいコマであって、当該コマ中の主被写体の顔の表情と、ステップS44において選択されたコマ中の主被写体の顔の表情との変化が大きいコマを、台紙のコマとして選択する。   In the present embodiment, in the next step S45, a frame to be mounted is selected. That is, the copy determining unit 1d is a frame whose main subject is small in size, and changes between the facial expression of the main subject in the frame and the facial expression of the main subject in the frame selected in step S44. Select the large frame as the mount frame.

図8のフローによれば、台紙上に、主被写体についての3つの画像が合成されて表示される。3つの主被写体の画像は、相互に顔の表情が比較的大きく異なっており、合成画像によって主被写体の変化に富んだ顔の表情を鑑賞することが可能である。   According to the flow in FIG. 8, three images of the main subject are combined and displayed on the mount. The images of the three main subjects are relatively different in facial expression from each other, and it is possible to appreciate facial expressions rich in changes in the main subject by the composite image.

本実施の形態における他の作用は第1の実施の形態と同様である。   Other operations in the present embodiment are the same as those in the first embodiment.

このように本実施の形態においては、合成画像に用いるコマを選択する場合に、所定時間毎のコマを用いることができる。これにより、主被写体が大きく変化するコマを検出するために必要な演算量を著しく低減させることができる。また、本実施の形態においては、台紙となるコマの選択に際して、台紙となるコマ中の主被写体のサイズだけでなく、台紙となるコマの主被写体の画像と合成する他の主被写体の画像との変化の大きさも考慮しており、第1の実施の形態よりも一層変化に富んだ合成画像を得ることができる。   As described above, in this embodiment, when selecting a frame to be used for a composite image, a frame at a predetermined time can be used. Thereby, it is possible to remarkably reduce the amount of calculation required to detect a frame in which the main subject changes greatly. In this embodiment, when selecting a frame to be the mount, not only the size of the main subject in the frame to be the mount but also the image of the other main subject to be combined with the image of the main subject of the frame to be the mount The size of the change is also taken into consideration, and a composite image richer in change than in the first embodiment can be obtained.

(第3の実施の形態)
図9乃至図11は本発明の第3の実施の形態に係り、図9は合成画像作成処理を示すフローチャート、図10は被写体合成処理を示すフローチャート、図11は第3の実施の形態による画像合成を説明するための説明図である。
(Third embodiment)
FIGS. 9 to 11 relate to a third embodiment of the present invention, FIG. 9 is a flowchart showing a composite image creation process, FIG. 10 is a flowchart showing a subject composition process, and FIG. 11 is an image according to the third embodiment. It is explanatory drawing for demonstrating a synthesis | combination.

本実施の形態は合成画像の作成方法が第1の実施の形態と異なるのみであり、ハードウェア構成は図1と同様である。第1の実施の形態においては、図7に示すように、人物の画像を切出して複製し、台紙の空きスペースに配置した。しかしながら、人物の画像の切出し処理及び空きスペースへの配置処理には比較的大きな演算量を要することが考えられる。そこで、本実施の形態においては、合成画像に用いる主被写体の画像の切出し及び配置処理を簡単に行うことを可能にしている。   This embodiment is different from the first embodiment only in the method of creating a composite image, and the hardware configuration is the same as that in FIG. In the first embodiment, as shown in FIG. 7, an image of a person is cut out and duplicated, and placed in an empty space on the mount. However, it is conceivable that a relatively large amount of calculation is required for the process of extracting a person's image and the process of arranging it in an empty space. Therefore, in the present embodiment, it is possible to easily perform extraction and arrangement processing of the image of the main subject used for the composite image.

図9のステップS51において、合成部1eは、台紙上の主被写体の左右の空きスペースのサイズL,Rを求める。図11(a)は台紙決定部1eによって選択された台紙21を示している。台紙21は中央に主被写体22が撮像されている。主被写体22の画像領域を除く領域が空きスペースであり、合成部1eは、空きスペースのうち主被写体22の左右の空きスペース23,24のサイズL,Rを求めるのである。   In step S51 of FIG. 9, the composition unit 1e obtains the left and right empty space sizes L and R of the main subject on the mount. FIG. 11A shows the mount 21 selected by the mount determining unit 1e. The main subject 22 is imaged at the center of the mount 21. The area excluding the image area of the main subject 22 is an empty space, and the combining unit 1e obtains the sizes L and R of the left and right empty spaces 23 and 24 of the main subject 22 among the empty spaces.

次のステップS52において、合成部1eは、左右の空きスペースの大小を求める。図11(a)の例ではR>Lである。   In the next step S52, the composition unit 1e calculates the size of the left and right empty spaces. In the example of FIG. 11A, R> L.

次に、ステップS53において、合成部1eは、選択コマの主被写体の大小を求める。図11(b),(c)は、複製する主被写体を含むコマ25,28を示している。コマ25上には、複製する主被写体26が中央に写されている。主被写体26は上半身のみが撮像されている。また、コマ28上には、複製する主被写体29が中央に写されている。主被写体26,29では主被写体26の方がサイズが大きい。   Next, in step S53, the composition unit 1e calculates the size of the main subject of the selected frame. FIGS. 11B and 11C show the frames 25 and 28 including the main subject to be duplicated. On the frame 25, the main subject 26 to be copied is shown in the center. Only the upper body of the main subject 26 is imaged. On the frame 28, a main subject 29 to be copied is shown in the center. In the main subjects 26 and 29, the main subject 26 is larger in size.

合成部1eは、次のステップS54において、台紙21上の大きい空きスペース24に大きい主被写体26を複製して合成する。また、合成部1eは、次のステップS55において、台紙21上の小さい空きスペース23に小さい主被写体29を複製して合成する。   In the next step S54, the combining unit 1e duplicates and combines the large main subject 26 in the large empty space 24 on the mount 21. In the next step S55, the combining unit 1e duplicates and combines the small main subject 29 in the small empty space 23 on the mount 21.

図10は図9のステップS54,S55の合成処理の具体例を示している。図10のステップS56において、選択されたコマ25,28から、合成に用いる主被写体26,29の複製画像を作成する。この場合には、処理を簡略化するために、主被写体26の輪郭に沿って複製画像を作成するのではなく、顔検出部3が検出した顔領域26a,29aを基準に複製範囲を決定する。即ち、顔領域26a,29aのサイズ(頭部幅)の3倍のサイズを主被写体の水平サイズであるとする。また、下半身が撮像されていない主被写体が、中に浮いた状態で合成されることを防止すると共に、複製の演算量を低減するために、顔領域26a,29aの上端から撮像範囲の下端までを主被写体の人物領域の画像であるものとして、これらの破線で囲った矩形の領域27,30を複製画像とする。   FIG. 10 shows a specific example of the composition processing in steps S54 and S55 of FIG. In step S56 of FIG. 10, duplicate images of the main subjects 26 and 29 used for composition are created from the selected frames 25 and 28. In this case, in order to simplify the process, a duplication image is not created along the contour of the main subject 26, but a duplication range is determined based on the face regions 26a and 29a detected by the face detection unit 3. . That is, it is assumed that the size of the face area 26a, 29a (head width) is three times the horizontal size of the main subject. In addition, in order to prevent the main subject from which the lower body has not been imaged from being combined in a floating state, and to reduce the amount of duplication calculation, from the upper end of the face areas 26a and 29a to the lower end of the imaging range Are the images of the person area of the main subject, and the rectangular areas 27 and 30 surrounded by these broken lines are taken as duplicate images.

次に、ステップS57において、合成部1eは、空きスペースの下端に複製画像の下端を合わせて、台紙上に複製画像を貼り付ける。図11(d)はこの状態を示している。領域27の複製画像は台紙21上の広い方の空きスペース24に、下端を撮像範囲の下端に一致させて合成される。また、領域30の複製画像は台紙21上の狭い方の空きスペース23に、下端を撮像範囲の下端に一致させて合成される。   Next, in step S57, the composition unit 1e aligns the lower end of the duplicate image with the lower end of the empty space and pastes the duplicate image on the mount. FIG. 11 (d) shows this state. The duplicate image in the area 27 is combined with the wider empty space 24 on the mount 21 with the lower end coincident with the lower end of the imaging range. The duplicate image in the region 30 is combined with the narrower empty space 23 on the mount 21 with the lower end coincident with the lower end of the imaging range.

このように本実施の形態においては、少ない演算量で、選択された主被写体の複製画像を作成して、合成することができる。   As described above, in the present embodiment, a duplicate image of the selected main subject can be created and synthesized with a small amount of calculation.

なお、空きスペース、配置する主被写体のサイズを水平方向のサイズによって求める例を示したが、垂直方向のサイズを用いてもよく、水平及び垂直方向のサイズを用いてよい。   Although an example has been shown in which the empty space and the size of the main subject to be arranged are obtained by the size in the horizontal direction, the size in the vertical direction may be used, or the size in the horizontal and vertical directions may be used.

また、本実施の形態においては、3つの主被写体のみを合成する例について示したが、合成する主被写体の数は適宜設定可能であることは明らかである。   In the present embodiment, an example in which only three main subjects are combined has been described, but it is obvious that the number of main subjects to be combined can be set as appropriate.

(第4の実施の形態)
図12及び図13は本発明の第4の実施の形態に係り、図12は被写体複製合成処理を示すフローチャート、図13は複製画像を説明するための説明図である。
(Fourth embodiment)
FIGS. 12 and 13 relate to the fourth embodiment of the present invention, FIG. 12 is a flowchart showing subject copy composition processing, and FIG. 13 is an explanatory diagram for explaining a duplicate image.

本実施の形態は被写体合成処理が第3の実施の形態と異なるのみであり、ハードウェア構成は図1と同様である。第3の実施の形態においては、矩形の複製画像を合成した。これに対し、本実施の形態においては、被写体の形状に合わせた複製画像を簡単に作成可能にするものである。   The present embodiment is different from the third embodiment only in subject composition processing, and the hardware configuration is the same as that in FIG. In the third embodiment, a rectangular duplicate image is synthesized. On the other hand, in the present embodiment, a duplicate image that matches the shape of the subject can be easily created.

ステップS61において、合成部1eは、選択されたコマ中の主被写体を含む複製画像を作成する。図13は選択されたコマ中の主被写体35を示している。合成部1eは、選択されたコマとその前のコマとを比較し、変化した部分が主被写体35の画像部分であるものとし、この画像部分を複製画像36とする。合成部1eは、作成した複製画像を台紙の空きスペースに貼り付ける。この場合には、作成した複製画像の顔領域の垂直位置を合わせて貼り付ける(ステップS62)。   In step S61, the composition unit 1e creates a duplicate image including the main subject in the selected frame. FIG. 13 shows the main subject 35 in the selected frame. The synthesizing unit 1e compares the selected frame with the previous frame, assumes that the changed portion is the image portion of the main subject 35, and sets this image portion as the duplicate image 36. The synthesizing unit 1e pastes the created duplicate image on the empty space on the mount. In this case, the vertical position of the face area of the created duplicate image is aligned and pasted (step S62).

このように本実施の形態においては、コマ同士を比較し、変化した部分を主被写体の画像部分であると推定することで、簡単に複製画像を生成することができる。   As described above, in the present embodiment, it is possible to easily generate a duplicate image by comparing frames and estimating the changed portion as the image portion of the main subject.

なお、この手法は台紙の空きスペースの判定にも用いることができる。   This method can also be used to determine the free space on the mount.

図14はこのような空きスペースの判定フローを示すフローチャートである。   FIG. 14 is a flowchart showing a determination flow of such an empty space.

台紙決定部1cは、台紙として選択したコマとその前後のコマとを比較する(ステップS65)。台紙決定部1cは、台紙のコマと前後のコマとで変化した部分を主被写体の画像部分であるものと判定して切り取り、切り取った部分以外を空きスペースとする(ステップS66)。こうして、比較的簡単に空きスペースを求めることができる。   The mount determining unit 1c compares the frame selected as the mount with the preceding and succeeding frames (step S65). The mount determining unit 1c determines that the portion changed between the mount frame and the preceding and following frames is the image portion of the main subject, and cuts out the remaining portion as an empty space (step S66). In this way, an empty space can be obtained relatively easily.

(第5の実施の形態)
図15乃至図17は本発明の第5の実施の形態に係り、図15及び図16はコマ選択処理及び合成処理を示すフローチャート、図17は合成画像を説明するための説明図である。
(Fifth embodiment)
FIGS. 15 to 17 relate to the fifth embodiment of the present invention, FIGS. 15 and 16 are flowcharts showing frame selection processing and composition processing, and FIG. 17 is an explanatory diagram for explaining a composite image.

本実施の形態は複製するコマの選択方法又は合成方法が第3又は第4の実施の形態と異なるのみであり、ハードウェア構成は図1と同様である。   This embodiment is different from the third or fourth embodiment only in the method for selecting or synthesizing the frames to be copied, and the hardware configuration is the same as that in FIG.

第3又は第4の実施の形態においては、空きスペースの大小に夫々対応させて大きい主被写体と小さい主被写体の複製画像を配置した。しかし、空きスペースのサイズと複製画像のサイズによっては主被写体同士が重なったり、撮像範囲からはみ出すことが考えられる。   In the third or fourth embodiment, duplicate images of a large main subject and a small main subject are arranged corresponding to the size of the empty space. However, depending on the size of the empty space and the size of the duplicate image, it is conceivable that the main subjects overlap each other or protrude from the imaging range.

図17(a)はこの場合の合成画像の一例を示している。1つの主被写体42を含む台紙41上に、2つの主被写体に基づく複製画像43,44が配置されている。2つの主被写体に基づく複製画像43,44の水平サイズの和が空きスペースの和のサイズよりも大きく、複製画像43,44が被写体42の画像上に重なって、主被写体42の画像の一部が欠落している。   FIG. 17A shows an example of a composite image in this case. Duplicated images 43 and 44 based on two main subjects are arranged on a mount 41 including one main subject 42. The sum of the horizontal sizes of the duplicate images 43 and 44 based on the two main subjects is larger than the sum of the empty spaces, and the duplicate images 43 and 44 overlap the image of the subject 42 so that a part of the image of the main subject 42 is obtained. Is missing.

そこで、図15のフローでは、空きスペースのサイズに応じて、撮像範囲に配置可能な主被写体の画像を含むコマを選択するようにしている。   Therefore, in the flow of FIG. 15, a frame including an image of the main subject that can be arranged in the imaging range is selected according to the size of the empty space.

図6のステップS39、図8のステップS44では、空きスペースのサイズと比較することなく、複製するコマを選択した。図15のフローチャートは、複製画像を生成する元となるコマを選択する前に、空きスペースのサイズを求め、空きスペースのサイズに合わせて、コマの選択を行うものである。   In step S39 of FIG. 6 and step S44 of FIG. 8, the frame to be copied is selected without comparing with the size of the empty space. In the flowchart of FIG. 15, before selecting a frame from which a duplicate image is to be generated, the size of an empty space is obtained and a frame is selected according to the size of the empty space.

図15のステップS71,S72の処理は図9のステップS51,S52と同一の処理であり、空きスペースのサイズを求めて大小判定を行う。複製決定部1dは、空きスペースのサイズに応じて複製画像の元となる主被写体を含むコマを選択する。合成部1eは、選択されたコマ中の主被写体の画像に基づいて複製画像を生成し、台紙上に生成した複製画像を重ねて合成画像を生成する。   The processing in steps S71 and S72 in FIG. 15 is the same as that in steps S51 and S52 in FIG. 9, and the size is determined by obtaining the size of the free space. The duplication determination unit 1d selects a frame including the main subject that is the source of the duplication image according to the size of the empty space. The synthesizing unit 1e generates a duplicate image based on the image of the main subject in the selected frame, and generates a synthesized image by superimposing the duplicate images generated on the mount.

このように図15のフローを採用することで、主被写体の画像が重なって画像の一部が欠落したり、主被写体の画像が撮像範囲からはみ出したりすることを防止することができる。   By adopting the flow of FIG. 15 as described above, it is possible to prevent the main subject images from overlapping and missing a part of the image or the main subject image from protruding from the imaging range.

なお、図15のフローに基づくコマの選択方法は、図6のステップS39又は図8のステップS44の処理と組み合わせて行ってもよい。即ち、これらのS39,S44のステップにおける選択の前に、空きスペースのサイズを求め、空きスペースに入る複製画像が得られるコマの中から、これらのステップS39,S44において変化量の大きいコマを選択するようにしてもよい。   The frame selection method based on the flow of FIG. 15 may be performed in combination with the process of step S39 of FIG. 6 or step S44 of FIG. That is, before selecting in the steps of S39 and S44, the size of the empty space is obtained, and the frame having a large change amount is selected in these steps S39 and S44 from among the frames from which the duplicate image entering the empty space is obtained. You may make it do.

逆に、ステップS39,S44の処理を先に行った後、台紙のコマと複製画像の元となる選択コマとを選択するようにしてもよい。即ち、この場合には、ステップS39,S44等において、複製決定部1dが、変化量が大きい主被写体が含まれるコマを選択コマの候補として選択する。次に、信号処理及び制御部1は全ての画像中の主被写体のサイズを画像間で比較する。そして、この比較に基づいて、台紙決定部1cにより台紙上に所望の数の主被写体の画像が配置されるように、台紙の画像を選択すると共に、複製決定部1dにより選択コマの候補中から複製に用いる選択コマを選択する。合成部1eは、選択コマ中の主被写体に基づく複製画像を生成し、選択した台紙上に合成することで、合成画像を生成する。   On the contrary, after performing the processing of steps S39 and S44, the mount frame and the selected frame that is the origin of the duplicate image may be selected. That is, in this case, in steps S39, S44, etc., the duplication determination unit 1d selects a frame including a main subject having a large change amount as a selected frame candidate. Next, the signal processing and control unit 1 compares the size of the main subject in all the images between the images. Based on this comparison, the mount determining unit 1c selects the image of the mount so that a desired number of main subject images are arranged on the mount, and the duplication determining unit 1d selects the selected frame candidates. Select the selected scene to be used for duplication. The synthesizing unit 1e generates a duplicate image based on the main subject in the selected frame, and synthesizes it on the selected mount, thereby generating a synthesized image.

このような手順によって合成画像を生成することで、全画像中の全ての主被写体のサイズに応じて有効に被写体の複製画像を配置することができるという利点がある。   By generating a composite image by such a procedure, there is an advantage that a duplicate image of a subject can be arranged effectively according to the size of all main subjects in all the images.

また、図16のフローは、空きスペースのサイズに応じて、複製画像を配置可能なサイズまで縮小するようにしたものである。   In the flow of FIG. 16, the copy image is reduced to a size at which a duplicate image can be arranged according to the size of the empty space.

図16において、ステップS71,S72において、空きスペースのサイズを求めて大小判定を行う。次に、合成部1eは、選択したコマの主被写体の大小判定を行う。   In FIG. 16, in steps S71 and S72, the size of the empty space is obtained to determine the size. Next, the synthesis unit 1e determines the size of the main subject of the selected frame.

そして、合成部1eは、ステップS77において、大きい方の空きスペースに、大きい方の主被写体に基づく複製画像が収まるように、複製画像の縮小処理を行った後に、張り合わせる。同様に、合成部1eは、ステップS78において、小さい方の空きスペースに、小さい方の主被写体に基づく複製画像が収まるように、複製画像の縮小処理を行った後に、張り合わせる。   In step S77, the synthesizing unit 1e performs the reduction process of the duplicate image so that the duplicate image based on the larger main subject fits in the larger empty space, and then performs the pasting. Similarly, in step S78, the synthesizing unit 1e performs a reduction process of the duplicate image so that the duplicate image based on the smaller main subject fits in the smaller empty space, and then combines them.

図7(b),(c)は、この縮小処理を示している。図7(b)においては、1つの主被写体52を含む台紙51上に、2つの主被写体に基づく複製画像53,54が配置されている。2つの主被写体に基づく複製画像53,54のサイズが比較的大きいことから、主被写体52及び複製画像53,54同士が重なり合って表示されている。   FIGS. 7B and 7C show this reduction processing. In FIG. 7B, duplicate images 53 and 54 based on two main subjects are arranged on a mount 51 including one main subject 52. Since the duplicate images 53 and 54 based on the two main subjects are relatively large in size, the main subject 52 and the duplicate images 53 and 54 are displayed so as to overlap each other.

これに対し、図7(c)は、複製画像53,54を縮小した縮小複製画像53’,54’を台紙51上に配置した例を示している。縮小複製画像53’,54’のサイズは、空きスペースに応じたサイズになっており、縮小複製画像53’,54’と被写体42とは重なり合うことなく、台紙51上に配置される。   On the other hand, FIG. 7C shows an example in which reduced duplicate images 53 ′ and 54 ′ obtained by reducing the duplicate images 53 and 54 are arranged on the mount 51. The size of the reduced duplicate images 53 ′ and 54 ′ is a size corresponding to the empty space, and the reduced duplicate images 53 ′ and 54 ′ and the subject 42 are arranged on the mount 51 without overlapping.

このように本実施の形態においては、主被写体を含むコマを空きスペースのサイズに対応させて求めるか、又は、主被写体に基づく複製画像を縮小したのち空きスペースに配置するようになっており、台紙上において各被写体の画像が重なり会うことなく、十分な大きさで配置することができる。   As described above, in the present embodiment, the frame including the main subject is obtained corresponding to the size of the empty space, or the duplicate image based on the main subject is reduced and then arranged in the empty space. The images of the subjects can be arranged in a sufficient size without overlapping each other on the mount.

なお、上記説明では、複製画像を縮小する例について説明したが、空きスペースのサイズと主被写体に基づく複製画像のサイズによっては、複製画像を拡大処理して合成するようにしてもよい。   In the above description, the example in which the duplicate image is reduced has been described. However, depending on the size of the empty space and the size of the duplicate image based on the main subject, the duplicate image may be enlarged and combined.

また、本実施の形態においては、2箇所の空きスペースに複製画像を配置する例について説明したが、3箇所以上の空きスペースを求めて3つ以上の複製画像を配置するようにしてもよいことは明らかである。   Further, in this embodiment, an example in which duplicate images are arranged in two empty spaces has been described. However, three or more duplicate images may be arranged by obtaining three or more empty spaces. Is clear.

上記各実施の形態においては、台紙上の主被写体の画像はそのまま用いたが、複製決定部において台紙上の主被写体に基づく複製画像を生成し、この複製画像を台紙上の任意の位置に配置するように構成してもよい。この場合には、台紙上に配置する各複製画像の配置の自由度が向上するという利点がある。   In each of the above embodiments, the image of the main subject on the mount is used as it is. However, the copy determining unit generates a copy image based on the main subject on the mount and places the copy image at an arbitrary position on the mount. You may comprise. In this case, there is an advantage that the degree of freedom of arrangement of each duplicate image arranged on the mount is improved.

また、本発明に係る画像生成装置は、撮影機能を備えている必要はなく、撮像部に代えて、動画像信号を取り込む画像入力部を設けていてもよい。即ち、本発明に係る画像生成装置は、動画ファイルを入力すると、静止画が表示されるフォトフレーム等に応用が可能である。   In addition, the image generation apparatus according to the present invention does not need to have a shooting function, and may include an image input unit that captures a moving image signal instead of the imaging unit. That is, the image generation apparatus according to the present invention can be applied to a photo frame or the like on which a still image is displayed when a moving image file is input.

また、最終的に作られる画像は、静止画に限る必要はなく、本発明の考え方で合成された画像を複数用意して順次表示すれば、特殊効果の効いた、賑やかな動画となることは言うまでもない。   In addition, the final image does not have to be limited to a still image, and if you prepare multiple images synthesized in accordance with the idea of the present invention and display them sequentially, it will not be a lively video with special effects. Needless to say.

1…画像生成装置、1b…主被写体決定部、1c…台紙決定部、1d…複製決定部、1e…合成部、2…撮像部、3…顔検出部、4…記録部、4b…仮記録部、6…操作判定部、7…表示部。     DESCRIPTION OF SYMBOLS 1 ... Image generation apparatus, 1b ... Main subject determination part, 1c ... Mount determination part, 1d ... Duplication determination part, 1e ... Composition part, 2 ... Imaging part, 3 ... Face detection part, 4 ... Recording part, 4b ... Temporary recording Part, 6 ... operation determination part, 7 ... display part.

Claims (9)

所定の周期のコマからなる動画像に含まれる人物のなかから主被写体を判定する主被写体判定部と、
前記所定の周期のコマのうち前記主被写体が含まれる複数の画像を選択コマとして選択し、前記複数の選択コマから夫々前記主被写体の画像部分を用いた複製画像を生成する複製部と、
複数の前記複製画像を合成した合成画像を生成する合成部と、
を具備し、
前記複製部は、前記選択コマの選択を、前記動画像の撮影後に、前記所定の周期とは異なる、あらかじめ決められた時間ごと行う
ことを特徴とする画像生成装置。
A main subject determination unit for determining a main subject from among persons included in a moving image having frames of a predetermined cycle;
A duplicating unit that selects a plurality of images including the main subject among the frames of the predetermined period as a selected frame, and generates a duplicate image using the image portion of the main subject from the plurality of selected frames,
A combining unit that generates a combined image by combining a plurality of the duplicate images;
Comprising
The duplication unit performs selection of the selected frame at a predetermined time different from the predetermined period after the moving image is captured.
仮記録部と、
前記所定の周期のコマのうち、前記選択コマの情報を、前記仮記録部に記録する複製決定部と
を更に具備することを特徴とする請求項1に記載の画像生成装置。
A temporary recording section;
The image generation apparatus according to claim 1, further comprising: a copy determination unit that records information on the selected frame among the frames of the predetermined period in the temporary recording unit.
前記主被写体は人物であって、前記仮記録部は、顔の位置情報を記録する
ことを特徴とする請求項2に記載の画像生成装置。
The image generating apparatus according to claim 2, wherein the main subject is a person, and the temporary recording unit records face position information.
前記合成部は、前記所定の周期のコマを台紙として選択し、前記台紙上に前記合成画像を生成する
ことを特徴とする請求項1乃至3のいずれか1つに記載の画像生成装置。
The image generating apparatus according to any one of claims 1 to 3, wherein the combining unit selects a frame having the predetermined cycle as a mount, and generates the combined image on the mount.
前記台紙は、前記主被写体の画像部分を含む
ことを特徴とする請求項4に記載の画像生成装置。
The image generation apparatus according to claim 4, wherein the mount includes an image portion of the main subject.
前記合成部は、前記台紙として前記主被写体の動きの起点となる最初のコマ又は終点となる最後のコマを選択する。
ことを特徴とする請求項4に記載の画像生成装置。
The composition unit selects the first frame as the starting point or the last frame as the end point of the movement of the main subject as the mount.
The image generation apparatus according to claim 4.
所定の周期のコマからなる動画像に含まれる人物のなかから主被写体を判定する主被写体判定ステップと、
前記所定の周期のコマのうち前記主被写体が含まれる複数の画像を選択コマとして選択し、前記複数の選択コマから夫々前記主被写体の画像部分を用いた複製画像を生成する複製ステップと、
複数の前記複製画像を合成した合成画像を生成する合成ステップと、
を具備し、
前記複製ステップは、前記選択コマの選択を、前記動画像の撮影後に、前記所定の周期とは異なる、あらかじめ決められた時間ごと行う
ことを特徴とする画像生成方法。
A main subject determination step for determining a main subject from among persons included in a moving image having frames of a predetermined cycle;
A duplication step of selecting a plurality of images including the main subject among the frames of the predetermined cycle as selection frames, and generating duplicate images using the image portions of the main subject from the plurality of selection frames,
Generating a composite image by combining a plurality of the duplicate images;
Comprising
The duplication step performs selection of the selected frame at a predetermined time different from the predetermined period after the moving image is captured.
コンピュータに、
所定の周期のコマからなる動画像に含まれる人物のなかから主被写体を判定する主被写体判定ステップと、
前記所定の周期のコマのうち前記主被写体が含まれる複数の画像を選択コマとして選択し、前記複数の選択コマから夫々前記主被写体の画像部分を用いた複製画像を生成する複製ステップと、
複数の前記複製画像を合成した合成画像を生成する合成ステップと、
を実行させ、
前記複製ステップでは、前記選択コマの選択を、前記動画像の撮影後に、前記所定の周期とは異なる、あらかじめ決められた時間ごと行わせる
ことを特徴とする画像生成プログラム。
On the computer,
A main subject determination step for determining a main subject from among persons included in a moving image having frames of a predetermined cycle;
A duplication step of selecting a plurality of images including the main subject among the frames of the predetermined cycle as selection frames, and generating duplicate images using the image portions of the main subject from the plurality of selection frames,
Generating a composite image by combining a plurality of the duplicate images;
And execute
In the duplication step, the selection of the selected frame is performed at a predetermined time different from the predetermined cycle after the moving image is captured.
所定の周期のコマからなる動画像の撮影を行う撮像部と、
前記撮像部から前記動画像が与えられ、該動画像に含まれる人物のなかから主被写体を判定する主被写体判定部と、
前記所定の周期のコマのうち前記主被写体が含まれる複数の画像を選択コマとして選択し、前記複数の選択コマから夫々前記主被写体の画像部分を用いた複製画像を生成する複製部と、
複数の前記複製画像を合成した合成画像を生成する合成部と、
を具備し、
前記複製部は、前記選択コマの選択を、前記動画像の撮影後に、前記所定の周期とは異なる、あらかじめ決められた時間ごと行う
ことを特徴とする画像生成システム。
An imaging unit that captures a moving image composed of frames with a predetermined period;
A main subject determination unit that receives the moving image from the imaging unit and determines a main subject from persons included in the moving image;
A duplicating unit that selects a plurality of images including the main subject among the frames of the predetermined period as a selected frame, and generates a duplicate image using the image portion of the main subject from the plurality of selected frames,
A combining unit that generates a combined image by combining a plurality of the duplicate images;
Comprising
The image generation system according to claim 1, wherein the copying unit performs selection of the selected frame at a predetermined time different from the predetermined period after the moving image is captured.
JP2014265217A 2014-12-26 2014-12-26 Image generation apparatus, image generation method, image generation program, and image generation system Expired - Fee Related JP5932963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014265217A JP5932963B2 (en) 2014-12-26 2014-12-26 Image generation apparatus, image generation method, image generation program, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014265217A JP5932963B2 (en) 2014-12-26 2014-12-26 Image generation apparatus, image generation method, image generation program, and image generation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014024571A Division JP5677598B2 (en) 2014-02-12 2014-02-12 Image generation apparatus, image generation method, image generation program, and image generation system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016090749A Division JP6259006B2 (en) 2016-04-28 2016-04-28 Image generation apparatus, image generation method, image generation program, and image generation system

Publications (2)

Publication Number Publication Date
JP2015073325A true JP2015073325A (en) 2015-04-16
JP5932963B2 JP5932963B2 (en) 2016-06-08

Family

ID=53015352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014265217A Expired - Fee Related JP5932963B2 (en) 2014-12-26 2014-12-26 Image generation apparatus, image generation method, image generation program, and image generation system

Country Status (1)

Country Link
JP (1) JP5932963B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004207936A (en) * 2002-12-25 2004-07-22 Fuji Photo Film Co Ltd Image processing apparatus
JP2006293986A (en) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd Album generating apparatus, album generation method and program
JP2010079570A (en) * 2008-09-25 2010-04-08 Canon Inc Image processing apparatus, control method, program, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004207936A (en) * 2002-12-25 2004-07-22 Fuji Photo Film Co Ltd Image processing apparatus
JP2006293986A (en) * 2005-03-15 2006-10-26 Fuji Photo Film Co Ltd Album generating apparatus, album generation method and program
JP2010079570A (en) * 2008-09-25 2010-04-08 Canon Inc Image processing apparatus, control method, program, and recording medium

Also Published As

Publication number Publication date
JP5932963B2 (en) 2016-06-08

Similar Documents

Publication Publication Date Title
JP5028225B2 (en) Image composition apparatus, image composition method, and program
JP5941736B2 (en) Photography equipment
US9860475B2 (en) Video processing apparatus, video processing method, and storage medium
JP5479149B2 (en) Image generation device
JP6460783B2 (en) Image processing apparatus and control method thereof
JP2011155477A (en) Video processing apparatus, video processing method, and program
JP2014168147A (en) Image processing program and digital camera
JP6625598B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP2010130093A (en) Imaging apparatus, and program for the same
JP2013117908A (en) Image processor, image processing method, and imaging apparatus
JP6259006B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP5932963B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP5677598B2 (en) Image generation apparatus, image generation method, image generation program, and image generation system
JP6332864B2 (en) Image processing apparatus, image processing method, and program
JP2022161107A (en) Electronic apparatus and control method
JP5563037B2 (en) Image processing device
JP6289591B2 (en) Image processing apparatus, image processing method, and program
JP6512208B2 (en) Image processing apparatus, image processing method and program
JP2015216686A (en) Photographing device
JP5782548B2 (en) Image processing apparatus and image processing method
JP5602818B2 (en) Camera, image reproduction apparatus, image composition method, and program
JP5665380B2 (en) Image processing apparatus, image processing apparatus control method, program, and recording medium
JP2002027395A (en) Multi-image forming method, reproducing method and medium recording their programs
JP6270784B2 (en) Image processing apparatus and image processing method
JP2015192336A (en) Image processing device and digital camera

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160428

R150 Certificate of patent or registration of utility model

Ref document number: 5932963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees