JP2006121661A - Synthesized image generation method and apparatus, and program - Google Patents

Synthesized image generation method and apparatus, and program Download PDF

Info

Publication number
JP2006121661A
JP2006121661A JP2005246240A JP2005246240A JP2006121661A JP 2006121661 A JP2006121661 A JP 2006121661A JP 2005246240 A JP2005246240 A JP 2005246240A JP 2005246240 A JP2005246240 A JP 2005246240A JP 2006121661 A JP2006121661 A JP 2006121661A
Authority
JP
Japan
Prior art keywords
face
image
template
image data
composite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005246240A
Other languages
Japanese (ja)
Inventor
Ichigaku Mino
一学 三野
Hajime Shirasaka
一 白坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2005246240A priority Critical patent/JP2006121661A/en
Publication of JP2006121661A publication Critical patent/JP2006121661A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for generating a synthesized image which can generate synthesized image data in which face images of persons which have constant relationship are arranged collectively. <P>SOLUTION: Adjacent synthesis positions are combined, grouping of the synthesis positions which are established on a template is performed, and order of the groups is determined according to the number of synthesis positions belonging to each of the groups. Face images of the persons contained in the image data such a group photography are detected, metric between adjacent person faces is measured, and face images of nearer persons are combined and distributed to each group by the determined order. The distributed face images are stuck on a synthesis position of each of the groups, and synthesized image data is generated. As a result, synthesized image data in which face images of persons which have constant relationship are arranged collectively can be generated easily. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、合成画像作成方法、合成画像作成装置、およびプログラムに係り、例えば集合写真から人物の顔画像を、切り取って、所定のテンプレートと合成して合成写真を生成する合成画像作成方法、合成画像作成装置、およびプログラムに関する。   The present invention relates to a composite image creation method, a composite image creation apparatus, and a program. For example, a face image of a person is cut out from a group photo and is synthesized with a predetermined template to generate a composite photo. The present invention relates to an image creating apparatus and a program.

面白みのある写真プリントの提供方法として、撮影した人物画像に装飾フレームを重ね合わせて合成し、プリントする方法が従来から知られている(たとえば、特許文献1、2参照)。   As a method for providing interesting photographic prints, a method of overlaying a decorative frame on a photographed person image and combining and printing is known (for example, see Patent Documents 1 and 2).

また、画像中から人の画像部分だけを切り取り、CGや風景画像などの別の背景に画像を合成する方法も従来から知られている(特許文献3)。   Further, a method of cutting out only a human image portion from an image and synthesizing the image with another background such as a CG or a landscape image has been conventionally known (Patent Document 3).

さらに、人物を撮影した画像が目を閉じている場合において、目を開けている画像から目の部分を抽出し、合成することにより、目を開けている画像を生成する方法も提案されている(特許文献4)。
特開2000−22929号公報 特開2004−178163号公報 特開平10−210340号公報 特開2004−54376号公報
Furthermore, when an image of a person is closed with eyes closed, a method of generating an image with open eyes by extracting the eye part from the image with open eyes and combining them is also proposed. (Patent Document 4).
JP 2000-22929 A JP 2004-178163 A JP-A-10-210340 JP 2004-54376 A

ところで、近年、観光地における新たなサービスとして、観光地で撮影された団体写真から人物の顔画像を切り出して、図5に示すような書割テンプレートと合成し、プリントするサービスが提案されている。このような書割テンプレートでは、テンプレート上にあらかじめ設定された合成位置に団体写真から切り出した顔画像を貼り付けることとなるが、合成位置は、ひとかたまりのグループとなってテンプレート上に点在している場合があり、このような場合に無秩序に顔画像を貼り付けてゆくと、家族や友人、カップルが、別々のグループに貼り付けられてしまうおそれがあった。   By the way, in recent years, as a new service in a sightseeing spot, a service has been proposed in which a face image of a person is cut out from a group photo taken in a sightseeing spot, and is combined with a book split template as shown in FIG. 5 and printed. . In such a book split template, a face image cut out from a group photo is pasted at a pre-set synthesis position on the template. However, the synthesis position is a group of groups scattered on the template. In such a case, if face images are randomly pasted, family members, friends, and couples may be pasted into different groups.

本発明は、このような事情に鑑みてなされたものであり、一定の関係を有する人物同士の顔画像がかたまって配置された合成画像データを作成することができる合成画像作成方法、合成画像作成装置、およびプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and a composite image creation method and composite image creation capable of creating composite image data in which face images of persons having a certain relationship are arranged together are arranged. An object is to provide a device and a program.

本発明のある態様は、画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像データ生成方法において、隣り合う合成位置同士を組み合わせて前記テンプレート上に設定された合成位置をグループ化し、所属する合成位置の数に応じてグループの順位を決定し、画像データに含まれる人物の顔画像を検出し、検出された個々の顔画像同士の関係を検出し、顔画像同士の関係に応じて顔画像を前記各グループに前記順位で配分し、配分された顔画像を各グループの合成位置において前記テンプレートと合成して合成画像データを生成することを特徴とする合成画像作成方法に関する。   According to an aspect of the present invention, a facial image of each person included in the image data is extracted, and the extracted facial image is synthesized with the template at a synthesis position set in advance on the template. In the composite image data generation method to be generated, the composite positions set on the template are grouped by combining adjacent composite positions, the rank of the group is determined according to the number of composite positions to which the composite positions belong, and included in the image data A person's face image is detected, the relationship between the detected individual face images is detected, and the face images are distributed to the respective groups in the order according to the relationship between the face images. The present invention relates to a composite image creation method characterized in that composite image data is generated by combining with the template at a composite position of each group.

この態様によれば、隣り合う合成位置同士を組み合わせてテンプレート上に設定された合成位置をグループ化し、各グループに属する合成位置の数に応じてグループの順位を決定する。画像データに含まれる人物の顔画像を検出し、検出された個々の顔同士の関係を検出し、距離が近い者同士の顔画像を組み合わせて各グループに上記決定した順位で配分する。そして、配分した顔画像を各グループの合成位置に合成して合成画像データを生成する。すなわち、本態様では、顔が近くに写っている人物同士は、一定の関係、たとえば家族や友人、恋人同士と推測し、一つのまとまりとなって合成されるように配置される。これにより、一定の関係を有する人物同士の顔画像がかたまって配置された合成画像データを簡単に生成することができる。   According to this aspect, the composite positions set on the template are grouped by combining adjacent composite positions, and the rank of the group is determined according to the number of composite positions belonging to each group. A face image of a person included in the image data is detected, a relationship between the detected individual faces is detected, and face images of persons with a short distance are combined and distributed to each group in the order determined above. Then, the distributed face image is combined with the combined position of each group to generate combined image data. That is, in this aspect, persons whose faces are close to each other are assumed to be in a certain relationship, for example, family, friends, and lovers, and are arranged so as to be combined as one unit. Accordingly, it is possible to easily generate composite image data in which face images of persons having a certain relationship are arranged and arranged.

なお、ここでいう「画像データ」は、画像を形成するもの全般を含み、例えば、ネガやプリント等を利用した写真、複数の画像を含むスライド、デジタル化されたネガの画像やDSC画像、等を含む。また、この「画像データ」は、写真等のように瞬間的に捉えられた画像だけではなく、動画等のように時間的に連続して捉えられた複数の画像も対象とする。なお、時間的に連続して捉えられた複数の画像の場合、撮影コマの撮影時間間隔は、特に問われない。また、「検出された個々の顔同士の関係を検出し」とは、例えば、隣り合う人物の顔の間の距離を計測する場合が挙げられる。   Note that the “image data” herein includes all of the images that form the image, such as photographs using negatives and prints, slides including a plurality of images, digitized negative images and DSC images, etc. including. The “image data” is intended not only for images captured instantaneously such as photographs, but also for a plurality of images captured continuously in time such as moving images. In the case of a plurality of images captured continuously in time, the shooting time interval of the shooting frames is not particularly limited. In addition, “detecting a relationship between detected individual faces” includes, for example, a case where a distance between faces of adjacent persons is measured.

本発明の他の態様は、画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像データ生成方法において、画像データに含まれる人物の顔画像を検出し、検出された個々の顔画像同士の関係を検出し、顔画像同士の関係に応じて顔画像をグループ分けし、同一グループに属する各人物の顔画像が近い合成位置に配置されるように、各人物の顔画像を前記テンプレート上に設定された合成位置において当該テンプレートと合成して合成画像データを生成することを特徴とする合成画像作成方法に関する。   According to another aspect of the present invention, the face image of each person included in the image data is extracted, and the extracted face image is combined with the template at a combination position set in advance on the template, thereby combining the image data. In the synthetic image data generation method for generating image data, a human face image included in the image data is detected, a relationship between the detected individual face images is detected, and the face images are grouped according to the relationship between the face images. Then, the face images of the persons belonging to the same group are combined with the template at the combination position set on the template so as to generate the combined image data so that the face images of the persons are arranged at close combination positions. The present invention relates to a composite image creation method characterized by this.

この態様によれば、画像データに含まれる人物の顔画像を検出し、個々の顔画像同士の関係を検出する。そして、顔画像を組み合わせてグループ分けし、同一グループに属する各人物の顔画像が近い合成位置に配置されるように各人物の顔画像をテンプレート上に設定された合成位置に合成されて合成画像データが生成される。すなわち、本態様においても、一定の関係を有する顔画像同士は、一つのまとまりとなって合成されるように配置される。これにより、一定の関係を有する人物同士の顔画像がかたまって配置された合成画像データを簡単に生成することができる。   According to this aspect, the face image of the person included in the image data is detected, and the relationship between the individual face images is detected. Then, the face images are combined and divided into groups, and the face images of the persons belonging to the same group are combined at the combined position set on the template so that the face images of the persons belonging to the same group are arranged at close combined positions. Data is generated. That is, also in this aspect, face images having a certain relationship are arranged so as to be combined as one unit. Accordingly, it is possible to easily generate composite image data in which face images of persons having a certain relationship are arranged and arranged.

計測する人物の顔の方向に応じて顔画像同士の関係に重み付けしてもよい。この場合、計測する人物の顔の方向に応じて重み付けがされる。たとえば、横方向の距離が短ければ、より両者の関係性が強いものと推測され、横方向の距離に最も大きい重みが付けられる。これにより、画像データに含まれる人物の関係により忠実な配置を行うことができる。   The relationship between face images may be weighted according to the face direction of the person to be measured. In this case, weighting is performed according to the face direction of the person to be measured. For example, if the distance in the horizontal direction is short, it is presumed that the relationship between the two is stronger, and the distance in the horizontal direction is given the greatest weight. Thereby, it is possible to perform a faithful arrangement according to the relationship between the persons included in the image data.

なお、顔の方向が向かい合っている人物同士の関連性が強いものと推測し、それらの人物の顔画像同士が近接して配置されるように、計測する人物の顔の方向に応じて重み付けしてもよい。   It is assumed that there is a strong relationship between the faces facing each other, and weighting is performed according to the face direction of the person to be measured so that the face images of those persons are placed close to each other. May be.

計測する人物の顔の大きさに応じて顔画像同士の関係に重み付けしてもよい。この場合、計測する人物の顔の大きさに応じて重み付けがされる。たとえば、顔が大きく写されている人物と顔が小さく写されている人物との関係では、親子と推測し、大きな重みがつけられる。これにより、画像データに含まれる人物の関係により忠実な配置を行うことができる。   You may weight the relationship between face images according to the size of the face of the person to be measured. In this case, weighting is performed according to the size of the face of the person to be measured. For example, in a relationship between a person with a large face and a person with a small face, the person is assumed to be a parent and child and is given a large weight. Thereby, it is possible to perform a faithful arrangement according to the relationship between the persons included in the image data.

なお、この場合、計測する人物の顔の大きさ(顔画像のサイズ)とテンプレート上の合成位置における合成可能サイズとの適合性に基づいて重み付けしてもよい。例えば、顔画像のサイズと合成位置の合成可能サイズとが略同様または近接している場合には、そのような顔画像を優先的にその合成位置においてテンプレートと合成してもよい。これにより、合成が自然な状態で行われた合成画像データを得ることが可能となる。   In this case, weighting may be performed based on the compatibility between the size of the face of the person to be measured (face image size) and the size that can be combined at the combining position on the template. For example, when the size of the face image and the synthesizable size of the synthesis position are substantially the same or close to each other, such a face image may be preferentially synthesized with the template at the synthesis position. This makes it possible to obtain composite image data that has been synthesized in a natural state.

計測する人物の顔の表情に応じて顔画像同士の関係に重み付けしてもよい。この場合、計測する人物の顔の表情に応じて重み付けがされる。例えば、笑っている表情の人物同士の関係性が強いと判断して大きな重みがつけられる。これにより、画像データに含まれる人物の関係により忠実な配置を行うことができる。   You may weight the relationship between face images according to the facial expression of the person to be measured. In this case, weighting is performed according to the facial expression of the person to be measured. For example, it is determined that there is a strong relationship between persons with laughing facial expressions, and a large weight is given. Thereby, it is possible to perform a faithful arrangement according to the relationship between the persons included in the image data.

本発明の他の態様は、画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像データ生成方法において、画像データを2回に分けて撮影し、撮影された二つの画像データから顔画像を検出し、検出した各顔画像の移動方向と移動量を計測し、計測した移動量が閾値以上の顔画像を検出し、検出した顔画像を計測した移動方向と移動前後の少なくとも一方の位置とに基づいてグループ分けし、同一グループに属する各人物の顔画像が近い合成位置に配置されるように、各人物の顔画像を前記テンプレート上に設定された合成位置において当該テンプレートと合成して合成画像データを生成することを特徴とする合成画像作成方法に関する。   According to another aspect of the present invention, the face image of each person included in the image data is extracted, and the extracted face image is combined with the template at a combination position set in advance on the template, thereby combining the image data. In the composite image data generation method for generating image data, the image data is captured in two steps, a face image is detected from the two captured image data, the moving direction and the moving amount of each detected face image are measured, Face images with a measured movement amount greater than or equal to a threshold value are detected, and the detected face images are grouped based on the measured movement direction and at least one position before and after the movement, and the face images of each person belonging to the same group are close The face image of each person is synthesized with the template at the synthesis position set on the template so as to be arranged at the synthesis position to generate synthesized image data. For the synthesis image generating method comprising and.

この態様によれば、画像データが2回に分けて撮影され、撮影された2枚の画像データから顔画像が検出される。そして、検出された各顔画像の移動方向と移動量を計測し、計測した移動量が閾値以上の顔画像が検出され、その移動方向と移動前後の少なくとも一方の位置とに基づいてグループ分けされる。そして、同一グループに属する各人物の顔画像が近い合成位置に配置されるように、各人物の顔画像をテンプレート上に設定された合成位置に貼り付けて合成画像データが生成される。すなわち、本態様では、画像データを2回撮影した場合、2回目の撮影は1回目の撮影よりもくだけたかたちになり、親密な関係を有するもの同士が近寄って撮影される(2回目の撮影は、仲の良い者同士がくっついて撮影される)との推測の下、1回目と2回目の撮影で各人物の顔画像の移動方向と移動量を計測し、一定の移動量を有する顔画像について、その移動方向の集中度からグループ化し、そのグループが、まとまってテンプレート上に配置されるように合成する。これにより、一定の関係を有する人物同士の顔画像がかたまって配置された合成画像データを簡単に生成することができる。   According to this aspect, the image data is captured in two steps, and a face image is detected from the two captured image data. Then, the movement direction and movement amount of each detected face image are measured, face images whose measured movement amount is equal to or greater than a threshold value are detected, and grouped based on the movement direction and at least one position before and after the movement. The Then, the face image of each person is pasted at the composition position set on the template so that the face images of the persons belonging to the same group are arranged at the close composition position, and the composite image data is generated. That is, in this aspect, when the image data is photographed twice, the second photographing is more in shape than the first photographing, and those having an intimate relationship are photographed close to each other (second photographing) Is taken with close friends), and the face image of each person is measured by measuring the moving direction and moving amount of each person's face image in the first and second shooting. Are grouped from the degree of concentration in the moving direction, and the groups are combined so that they are arranged together on the template. Accordingly, it is possible to easily generate composite image data in which face images of persons having a certain relationship are arranged and arranged.

更に、前記テンプレートに応じて、当該テンプレートに合成する顔画像の色合いを調整してもよい。この場合、テンプレートのテーマ等に応じて顔画像の色合いが調整されるので、より面白みのある合成画像データが得られる。   Furthermore, according to the template, the hue of the face image to be combined with the template may be adjusted. In this case, since the hue of the face image is adjusted according to the template theme or the like, more interesting composite image data can be obtained.

更に、前記合成画像データを含む複数の画像データを音楽と共に順次出力してもよい。この場合、前記音楽に応じて、前記合成画像データの出力のタイミングが決められてもよい。これにより、音楽とシンクロさせて合成画像データを出力させることができるので、面白みが増す。   Furthermore, a plurality of image data including the composite image data may be sequentially output together with music. In this case, the output timing of the composite image data may be determined according to the music. As a result, the synthesized image data can be output in synchronization with the music, which increases the fun.

本発明の他の態様は、画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像作成装置において、隣り合う合成位置同士を組み合わせて前記テンプレート上に設定された合成位置をグループ化する合成位置グルーピング手段と、前記グルーピング手段でグループ化された各グループの合成位置の数に応じてグループの順位を設定するグループ順位設定手段と、画像データに含まれる人物の顔画像を検出する顔画像検出手段と、前記顔画像検出手段で検出された個々の顔画像同士の関係を検出する関係検出手段と、前記関係検出手段で検出された顔画像同士の関係に応じて顔画像を組み合わせて、前記グルーピング手段でグループ化された合成位置のグループに前記グループ順位設定手段で設定された順位で組み合わされた顔画像を割り当てる合成位置調整手段と、前記合成位置調整手段で割り当てられた合成位置において各顔画像をテンプレートと合成して合成画像データを生成する画像合成手段と、を備えることを特徴とする合成画像作成装置に関する。   According to another aspect of the present invention, the face image of each person included in the image data is extracted, and the extracted face image is combined with the template at a combination position set in advance on the template, thereby combining the image data. Combined image grouping means for grouping synthesized positions set on the template by combining adjacent synthesized positions, and a synthesized position of each group grouped by the grouping means. A group order setting unit that sets the group order according to the number, a face image detection unit that detects a face image of a person included in the image data, and a relationship between individual face images detected by the face image detection unit A combination of face images according to the relationship between the face images detected by the relationship detection means and the relationship detection means A combined position adjusting unit that assigns face images combined in the order set by the group order setting unit to a group of combined positions grouped by the grouping unit, and a combined position assigned by the combined position adjusting unit. The present invention relates to a composite image creating apparatus comprising: an image compositing unit that composites each face image with a template to generate composite image data.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成画像データを簡単に生成することができる。   According to this aspect, it is possible to easily generate composite image data in which face images of persons having a certain relationship are arranged and arranged.

本発明の他の態様は、画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像作成装置において、画像データに含まれる人物の顔画像を検出する顔画像検出手段と、前記顔画像検出手段で検出された個々の顔画像同士の関係を検出する関係検出手段と、前記関係検出手段で検出された顔画像同士の関係に応じて顔画像を組み合わせてグループ化するグルーピング手段と、同一グループに属する各人物の顔画像が近い合成位置に配置されるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当てる合成位置調整手段と、前記合成位置調整手段で割り当てられた合成位置において各顔画像をテンプレートと合成して合成画像データを生成する画像合成手段と、を備えることを特徴とする合成画像作成装置に関する。   According to another aspect of the present invention, the face image of each person included in the image data is extracted, and the extracted face image is combined with the template at a combination position set in advance on the template, thereby combining the image data. A face image detecting means for detecting a face image of a person included in the image data, and a relationship detecting means for detecting a relationship between individual face images detected by the face image detecting means. The grouping means for combining and grouping the face images according to the relationship between the face images detected by the relationship detecting means, and each person so that the face images of the persons belonging to the same group are arranged at a close combined position. Position adjustment means for assigning the face image to the composition position set on the template, and the composition position assigned by the composition position adjustment means. An image synthesizing means for synthesizing the respective face images and templates have to generate combined image data, relating to the composite image generating apparatus, characterized in that it comprises a.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成画像データを簡単に生成することができる。   According to this aspect, it is possible to easily generate composite image data in which face images of persons having a certain relationship are arranged and arranged.

前記関係検出手段は、計測する顔画像の方向に応じて顔画像同士の関係に重み付けしてもよい。この場合、画像データに含まれる人物の関係により忠実な配置を行うことができる。   The relationship detecting means may weight the relationship between the face images according to the direction of the face image to be measured. In this case, it is possible to perform a faithful arrangement according to the relationship between persons included in the image data.

前記関係検出手段は、計測する顔画像の大きさに応じて顔画像同士の関係に重み付けしてもよい。
この場合、画像データに含まれる人物の関係により忠実な配置を行うことができる。
The relationship detection means may weight the relationship between the face images according to the size of the face image to be measured.
In this case, it is possible to perform a faithful arrangement according to the relationship between persons included in the image data.

前記関係検出手段は、計測する人物の顔の表情に応じて前記顔画像同士の関係に重み付けしてもよい。この場合、画像データに含まれる人物の関係により忠実な配置を行うことができる。   The relationship detection means may weight the relationship between the face images according to the facial expression of the person to be measured. In this case, it is possible to perform a faithful arrangement according to the relationship between persons included in the image data.

本発明の他の態様は、画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像作成装置において、2回に分けて撮影された二つの画像データからそれぞれ顔画像を検出する顔画像検出手段と、前記顔画像検出手段で検出した各顔画像の移動方向を計測する移動方向計測手段と、前記顔画像検出手段で検出した各顔画像の移動量を計測する移動量計測手段と、前記移動量計測手段で計測した移動量が閾値以上の顔画像を検出し、検出した顔画像を移動方向と移動前後の少なくとも一方の位置とに基づいてグループ化する顔画像グルーピング手段と、同一グループに属する各人物の顔画像が近い合成位置に配置されるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当てる合成位置調整手段と、前記合成位置調整手段で割り当てられた合成位置において各顔画像をテンプレートと合成して合成画像データを生成する画像合成手段と、を備えることを特徴とする合成画像作成装置に関する。   According to another aspect of the present invention, the face image of each person included in the image data is extracted, and the extracted face image is combined with the template at a combination position set in advance on the template, thereby combining the image data. A face image detecting means for detecting a face image from two pieces of image data taken in two steps, and measuring a moving direction of each face image detected by the face image detecting means. A moving direction measuring unit that detects a moving amount measuring unit that measures a moving amount of each face image detected by the face image detecting unit, and a face image in which the moving amount measured by the moving amount measuring unit is a threshold value or more, Face image grouping means for grouping detected face images based on the moving direction and at least one position before and after the movement, and the face images of each person belonging to the same group are close A synthesis position adjusting means for assigning each person's face image to a synthesis position set on the template so as to be arranged at the composition position; and each face image is synthesized with the template at the synthesis position assigned by the synthesis position adjustment means. And a composite image creating apparatus. The composite image creating apparatus includes: a composite image generating unit configured to generate composite image data.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成画像データを簡単に生成することができる。   According to this aspect, it is possible to easily generate composite image data in which face images of persons having a certain relationship are arranged and arranged.

前記画像合成手段は、更に、テンプレートに応じて、当該テンプレートに合成する顔画像の色合いを調整してもよい。   The image synthesizing unit may further adjust the hue of the face image synthesized with the template according to the template.

更に、前記合成画像データを含む複数の画像データを音楽と共に順次出力する画像出力手段を備えていてもよい。この場合、前記画像出力手段は、前記音楽に応じて、前記合成画像データの出力のタイミングを決めてもよい。   Furthermore, an image output means for sequentially outputting a plurality of image data including the composite image data together with music may be provided. In this case, the image output means may determine the output timing of the composite image data according to the music.

本発明の他の態様は、画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成して合成画像データを生成するためのコンピュータを、隣り合う合成位置同士を組み合わせて前記テンプレート上に設定された合成位置をグループ化する合成位置グルーピング手段、前記グルーピング手段でグループ化された各グループの合成位置の数に応じてグループの順位を設定するグループ順位設定手段、画像データに含まれる人物の顔画像を検出する顔画像検出手段、前記顔画像検出手段で検出された個々の顔画像同士の関係を検出する関係検出手段と、前記関係検出手段で検出された顔画像同士の関係に応じて顔画像を組み合わせて、前記グルーピング手段でグループ化された合成位置のグループに前記グループ順位設定手段で設定された順位で組み合わされた顔画像を割り当てる合成位置調整手段、前記画像データから各人物の顔画像を切り取る切り取り手段、および前記切り取り手段で切り取られた各人物の顔画像を前記合成位置調整手段で割り当てられた前記テンプレート上の合成位置において当該テンプレートと合成して合成画像データを生成する画像合成手段、として機能させることを特徴とする合成画像データ生成プログラムに関する。   According to another aspect of the present invention, a face image of each person included in image data is extracted, and the extracted face image is combined with the template at a combination position set in advance on the template to generate combined image data. According to the number of combined positions of each group grouped by the grouping means, the combined position grouping means for grouping the combined positions set on the template by combining adjacent combined positions Group order setting means for setting the order of groups, face image detection means for detecting a face image of a person included in image data, and relationship detection means for detecting the relationship between individual face images detected by the face image detection means And combining the face images according to the relationship between the face images detected by the relationship detecting means, A combined position adjusting unit that assigns the face images combined in the order set by the group order setting unit to the group of combined positions grouped in step, a cutout unit that cuts out the face image of each person from the image data, and the cutout A face image of each person clipped by the means is synthesized with the template at a synthesis position on the template assigned by the synthesis position adjustment means, and functions as image synthesis means for generating synthesized image data. The present invention relates to a composite image data generation program.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成画像データを簡単に生成することができる。   According to this aspect, it is possible to easily generate composite image data in which face images of persons having a certain relationship are arranged and arranged.

本発明の他の態様は、画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成して合成画像データを生成するためのコンピュータを、画像データに含まれる人物の顔画像を検出する顔画像検出手段、前記顔画像検出手段で検出された個々の顔画像同士の関係を検出する関係検出手段と、前記関係検出手段で検出された顔画像同士の関係に応じて顔画像を組み合わせてグループ化するグルーピング手段、同一グループに属する各人物の顔画像が近い合成位置に配置されるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当てる合成位置調整手段、前記画像データから各人物の顔画像を切り取る切り取り手段、および前記切り取り手段で切り取られた各人物の顔画像を前記合成位置調整手段で割り当てられた前記テンプレート上の合成位置において当該テンプレートと合成して合成画像データを生成する画像合成手段、として機能させることを特徴とする合成画像データ生成プログラムに関する。   According to another aspect of the present invention, a face image of each person included in image data is extracted, and the extracted face image is combined with the template at a combination position set in advance on the template to generate combined image data. A face image detecting means for detecting a face image of a person included in image data, a relationship detecting means for detecting a relationship between individual face images detected by the face image detecting means, and the relationship detection Grouping means for combining and grouping the face images according to the relationship between the face images detected by the means, and the face images of the persons are arranged at close synthetic positions so that the face images of the persons belonging to the same group are arranged close together. A combining position adjusting unit to be assigned to a combining position set on the template, a cutting unit for cutting each person's face image from the image data, and the cutting unit A face image of each person cut out by the take-out means is combined with the template at the composition position on the template assigned by the composition position adjustment means, and functions as image composition means for generating composite image data. This relates to a composite image data generation program.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成画像データを簡単に生成することができる。   According to this aspect, it is possible to easily generate composite image data in which face images of persons having a certain relationship are arranged and arranged.

本発明の他の態様は、画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成して合成画像データを生成するためのコンピュータを、2回に分けて撮影された二つの画像データからそれぞれ顔画像を検出する顔画像検出手段、前記顔画像検出手段で検出した各顔画像の移動方向を計測する移動方向計測手段、前記顔画像検出手段で検出した各顔画像の移動量を計測する移動量計測手段、前記移動量計測手段で計測した移動量が閾値以上の顔画像を検出し、検出した顔画像を移動方向と移動前後の少なくとも一方の位置とに基づいてグループ化する顔画像グルーピング手段、同一グループに属する各人物の顔画像が近い合成位置に配置されるように各人物の顔画像を前記テンプレート上に設定された合成位置に組み合わされた顔画像を割り当てる合成位置調整手段、一方又は双方の画像データから各人物の顔画像を切り取る切り取り手段、および前記切り取り手段で切り取られた各人物の顔画像を前記合成位置調整手段で割り当てられた前記テンプレート上の合成位置において当該テンプレートと合成して合成画像データを生成する画像合成手段、として機能させることを特徴とする合成画像データ生成プログラムに関する。   According to another aspect of the present invention, a face image of each person included in image data is extracted, and the extracted face image is combined with the template at a combination position set in advance on the template to generate combined image data. A face image detecting means for detecting a face image from two image data photographed in two steps, and a moving direction measurement for measuring the moving direction of each face image detected by the face image detecting means. Means, a movement amount measuring means for measuring a movement amount of each face image detected by the face image detection means, a face image whose movement amount measured by the movement amount measurement means is equal to or greater than a threshold value, and moving the detected face image Face image grouping means for grouping based on the direction and at least one position before and after the movement, so that the face images of the persons belonging to the same group are arranged at close synthetic positions A combination position adjusting unit that assigns a face image combined with a face image of each person to a combination position set on the template, a cutting unit that cuts out the face image of each person from one or both image data, and the cutting unit A composition that functions as an image composition unit that synthesizes the cut face image of each person with the template at a composition position on the template assigned by the composition position adjustment unit to generate composite image data. The present invention relates to an image data generation program.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成画像データを簡単に生成することができる。   According to this aspect, it is possible to easily generate composite image data in which face images of persons having a certain relationship are arranged and arranged.

本発明の他の態様は、集合写真に写されている各人物の顔画像を切り取り、あらかじめテンプレート上に設定された合成位置に貼り付けて、合成写真を生成する合成写真生成方法において、隣り合う合成位置同士を組み合わせて前記テンプレート上に設定された合成位置をグループ化し、所属する合成位置の数に応じてグループの順位を決定し、集合写真に写されている人物の顔画像を検出し、隣り合う人物の顔の間の距離を計測し、距離が近い者同士の顔画像を組み合わせて前記各グループに前記順位で配分し、配分した顔画像を各グループの合成位置に貼り付けて合成写真を生成することを特徴とする合成写真生成方法を提供する。   Another aspect of the present invention is a composite photo generation method for generating a composite photo by cutting out a face image of each person photographed in a group photo and pasting it on a composite position set in advance on a template. Combining the composite positions together to group the composite positions set on the template, determining the rank of the group according to the number of composite positions to which it belongs, detecting the face image of the person shown in the group photo, Measure the distance between the faces of adjacent people, combine face images of those who are close to each other, distribute them to each group in the order, and paste the distributed face images at the combined position of each group A method for generating a composite photograph is provided.

この態様によれば、隣り合う合成位置同士を組み合わせてテンプレート上に設定された合成位置をグループ化し、各グループに属する合成位置の数に応じてグループの順位を決定する。集合写真に写されている人物の顔画像を検出し、隣り合う人物の顔の間の距離を計測し、距離が近い者同士の顔画像を組み合わせて各グループに上記決定した順位で配分する。そして、配分した顔画像を各グループの合成位置に貼り付けて合成写真を生成する。すなわち、本発明は顔が近くに写っている人物同士は、一定の関係、たとえば家族や友人、恋人同士と推測し、一つのまとまりとなって合成されるように配置する。これにより、一定の関係を有する人物同士の顔画像がかたまって配置された合成写真を簡単に生成することができる。   According to this aspect, the composite positions set on the template are grouped by combining adjacent composite positions, and the rank of the group is determined according to the number of composite positions belonging to each group. A face image of a person photographed in a group photo is detected, a distance between faces of adjacent persons is measured, and face images of persons with a short distance are combined and distributed to each group in the order determined above. Then, the allocated face image is pasted at the combination position of each group to generate a composite photograph. That is, according to the present invention, persons whose faces are close to each other are assumed to have a certain relationship, for example, family, friends, and lovers, and are arranged so as to be combined into one unit. Thereby, it is possible to easily generate a composite photograph in which face images of persons having a certain relationship are arranged and arranged.

また、本発明の他の態様は、集合写真に写されている各人物の顔画像を切り取り、あらかじめテンプレート上に設定された合成位置に貼り付けて、合成写真を生成する合成写真生成方法において、集合写真に写されている人物の顔画像を検出し、隣り合う人物の顔の間の距離を計測し、距離が近い者同士の顔画像を組み合わせてグループ分けし、同一グループに属する各人物の顔画像が近い合成位置となるように各人物の顔画像を前記テンプレート上に設定された合成位置に貼り付けて合成写真を生成することを特徴とする合成写真生成方法を提供する。   Another aspect of the present invention is a composite photo generation method for generating a composite photo by cutting out a face image of each person photographed in a group photo and pasting it at a composite position set in advance on a template. Detect face images of people in the group photo, measure the distance between the faces of adjacent people, combine the face images of those who are close to each other, and group them together. Provided is a composite photo generation method characterized in that a composite photo is generated by pasting each person's face image at a composite position set on the template so that the face images are close to the composite position.

この態様によれば、集合写真に写されている人物の顔画像を検出し、隣り合う人物の顔の間の距離を計測する。そして、距離が近い者同士の顔画像を組み合わせてグループ分けし、同一グループに属する各人物の顔画像が近い合成位置に配置されるように各人物の顔画像をテンプレート上に設定された合成位置に貼り付けて合成写真を生成する。すなわち、本発明においても、顔が近くに写っている人物同士は、一定の関係を有する者同士と推測し、一つのまとまりとなって合成されるように配置する。これにより、一定の関係を有する人物同士の顔画像がかたまって配置された合成写真を簡単に生成することができる。   According to this aspect, the face image of the person shown in the group photo is detected, and the distance between the faces of adjacent persons is measured. Then, the face images of persons who are close to each other are combined and grouped, and the face images of the persons in the same group are arranged at close composite positions so that each person's face image is set on the template. To create a composite photo. That is, also in the present invention, persons whose faces are close to each other are presumed to be persons having a certain relationship and are arranged so as to be combined as one unit. Thereby, it is possible to easily generate a composite photograph in which face images of persons having a certain relationship are arranged and arranged.

また、本発明の他の態様は、計測する人物の顔の方向に応じて前記計測した距離に重み付けすることを特徴とした合成写真生成方法を提供する。   Another aspect of the present invention provides a composite photo generation method characterized in that the measured distance is weighted according to the face direction of a person to be measured.

この態様によれば、計測する人物の顔の方向に応じて計測した距離に重み付けがされる。たとえば、横方向の距離が短ければ、より両者の関係性が強いものと推測し、横方向の距離に最も大きい重みを付ける。これにより、集合写真に写されている人物の関係により忠実な配置を行うことができる。   According to this aspect, the measured distance is weighted according to the face direction of the person to be measured. For example, if the distance in the horizontal direction is short, it is assumed that the relationship between the two is stronger, and the largest weight is assigned to the distance in the horizontal direction. As a result, it is possible to perform a more faithful arrangement according to the relationship of the persons shown in the group photo.

また、本発明の他の態様は、計測する人物の顔の大きさに応じて前記計測した距離に重み付けすることを特徴とした合成写真生成方法を提供する。   According to another aspect of the present invention, there is provided a composite photo generation method characterized in that the measured distance is weighted according to the size of the face of the person to be measured.

この態様によれば、計測する人物の顔の大きさに応じて計測した距離に重み付けがされる。たとえば、顔が大きく写されている人物と顔が小さく写されている人物との関係では、親子と推測し、大きい重みをつける。これにより、集合写真に写されている人物の関係により忠実な配置を行うことができる。   According to this aspect, the measured distance is weighted according to the size of the face of the person to be measured. For example, in the relationship between a person with a large face and a person with a small face, the person is assumed to be a parent and child and is given a large weight. As a result, it is possible to perform a more faithful arrangement according to the relationship of the persons shown in the group photo.

また、本発明の他の態様は、集合写真に写されている各人物の顔画像を切り取り、あらかじめテンプレート上に設定された合成位置に貼り付けて、合成写真を生成する合成写真生成方法において、集合写真を2回に分けて撮影し、撮影された2枚の集合写真から顔画像を検出し、検出した各顔画像の移動方向と移動量を計測し、計測した移動量が閾値以上の顔画像を検出し、検出した顔画像を計測した移動方向と移動前後の少なくとも一方の位置とに基づいてグループ分けし、同一グループに属する各人物の顔画像が近い合成位置となるように、各人物の顔画像を前記テンプレート上に設定
された合成位置に貼り付けて合成写真を生成することを特徴とする合成写真生成方法を提供する。
Another aspect of the present invention is a composite photo generation method for generating a composite photo by cutting out a face image of each person photographed in a group photo and pasting it at a composite position set in advance on a template. A group photo is taken in two steps, a face image is detected from the two group photos taken, the movement direction and the amount of movement of each detected face image are measured, and a face whose measured movement amount is equal to or greater than a threshold value Each person is detected so that the detected face image is grouped based on the measured moving direction and at least one position before and after the movement, and the face images of the persons belonging to the same group are close to each other. A composite photo generation method is provided in which a composite photo is generated by pasting the face image of the face to a composite position set on the template.

この態様によれば、集合写真を2回に分けて撮影し、撮影された2枚の集合写真から顔画像を検出する。そして、検出した各顔画像の移動方向と移動量を計測し、計測した移動量が閾値以上の顔画像を検出して、その移動方向と移動前後の少なくとも一方の位置とに基づいてグループ分けする。そして、同一グループに属する各人物の顔画像が近い合成位置に配置されるように、各人物の顔画像をテンプレート上に設定された合成位置に貼り付けて合成写真を生成する。すなわち、本発明では、2回集合写真を撮影した場合、2回目の撮影は1回目の撮影よりもくだけたかたちになり、親密な関係を有するもの同士が近寄って撮影される(2回目の撮影は、仲の良い者同士がくっついて撮影される)との推測の下、1回目と2回目の撮影で各人物の顔画像の移動方向と移動量を計測し、一定の移動量を有する顔画像について、その移動方向の集中度からグループ化し、そのグループが、まとまってテンプレート上に配置されるように合成する。これにより、一定の関係を有する人物同士の顔画像がかたまって配置された合成写真を簡単に生成することができる。   According to this aspect, the group photo is taken in two steps, and the face image is detected from the two group photos taken. Then, the movement direction and movement amount of each detected face image are measured, a face image whose measured movement amount is equal to or greater than a threshold value is detected, and grouped based on the movement direction and at least one position before and after the movement. . Then, the face images of the persons belonging to the same group are pasted at the composition position set on the template so that the face images of the persons belonging to the same group are arranged at close composition positions. In other words, in the present invention, when a group photo is taken twice, the second time shooting is more like the first time shooting, and those having an intimate relationship are taken closer to each other (second shooting) Is taken with close friends), and the face image of each person is measured by measuring the moving direction and moving amount of each person's face image in the first and second shooting. Are grouped from the degree of concentration in the moving direction, and the groups are combined so that they are arranged together on the template. Thereby, it is possible to easily generate a composite photograph in which face images of persons having a certain relationship are arranged and arranged.

また、本発明の他の態様は、集合写真に写されている各人物の顔画像を切り取り、あらかじめテンプレート上に設定された合成位置に貼り付けて、合成写真を生成する合成写真生成装置において、隣り合う合成位置同士を組み合わせて前記テンプレート上に設定された合成位置をグループ化する合成位置グルーピング手段と、前記グルーピング手段でグループ化された各グループの合成位置の数に応じてグループの順位を設定するグループ順位設定手段と、集合写真に写されている人物の顔画像を検出する顔画像検出手段と、前記顔画像検出手段で検出された顔画像の隣り合う顔画像の間の距離を計測する計測手段と、前記計測手段で計測された距離が近い顔画像同士を組み合わせて、前記グルーピング手段でグループ化された合成位置のグループに前記グループ順位設定手段で設定された順位で割り当てる合成位置調整手段と、を備え、前記合成位置調整手段で割り当てられた合成位置に各顔画像を貼り付けて合成写真を生成することを特徴とする合成写真生成装置を提供する。   Another aspect of the present invention is a composite photo generation apparatus that generates a composite photo by cutting out a face image of each person photographed in a group photo and pasting it on a composite position set in advance on a template. A combination position grouping unit that combines adjacent combination positions to group the combination positions set on the template, and sets the group rank according to the number of combination positions of each group grouped by the grouping unit Measuring the distance between the adjacent face images of the face image detected by the face image detecting means and the face image detecting means for detecting the face image of the person photographed in the group photo A combination of the measurement unit and face images measured by the measurement unit are combined and grouped by the grouping unit. Combining position adjusting means for assigning to the group in the order set by the group order setting means, and generating a composite photograph by pasting each face image to the combining position assigned by the combining position adjusting means. Provided is a composite photo generating apparatus.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成写真を簡単に生成することができる。   According to this aspect, it is possible to easily generate a composite photograph in which face images of persons having a certain relationship are arranged and arranged.

また、本発明の他の態様は、集合写真に写されている各人物の顔画像を切り取り、あらかじめテンプレート上に設定された合成位置に貼り付けて、合成写真を生成する合成写真生成装置において、集合写真に写されている人物の顔画像を検出する顔画像検出手段と、前記顔画像検出手段で検出された顔画像の隣り合う顔画像の間の距離を計測する計測手段と、前記計測手段で計測された距離が近い顔画像同士を組み合わせてグループ化するグルーピング手段と、同一グループに属する各人物の顔画像が近い合成位置となるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当てる合成位置調整手段と、を備え、前記合成位置調整手段で割り当てられた合成位置に各顔画像を貼り付けて合成写真を生成することを特徴とする合成写真生成装置を提供する。   Another aspect of the present invention is a composite photo generation apparatus that generates a composite photo by cutting out a face image of each person photographed in a group photo and pasting it on a composite position set in advance on a template. Face image detecting means for detecting a face image of a person shown in a group photo, measuring means for measuring a distance between adjacent face images of the face image detected by the face image detecting means, and the measuring means Grouping means for grouping face images with close distances measured in the above and grouping them, and the face images of each person are set on the template so that the face images of the persons belonging to the same group are close to each other. Combining position adjusting means for assigning to the combining position, and generating a composite photograph by pasting each face image to the combining position assigned by the combining position adjusting means. To provide a composite photograph generation device.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成写真を簡単に生成することができる。   According to this aspect, it is possible to easily generate a composite photo in which face images of persons having a certain relationship are arranged and arranged.

また、本発明の他の態様は、前記計測手段は、計測する顔画像の方向に応じて計測した距離に重み付けすることを特徴とした合成写真生成装置を提供する。   According to another aspect of the present invention, there is provided a composite photograph generating apparatus characterized in that the measuring unit weights a distance measured according to a direction of a face image to be measured.

この態様によれば、集合写真に写されている人物の関係により忠実な配置を行うことができる。   According to this aspect, it is possible to perform a faithful arrangement according to the relationship of the persons shown in the group photo.

また、本発明の他の態様は、前記計測手段は、計測する顔画像の大きさに応じて計測した距離に重み付けすることを特徴とした合成写真生成装置を提供する。   According to another aspect of the present invention, there is provided a composite photograph generating apparatus characterized in that the measuring unit weights a distance measured according to a size of a face image to be measured.

この態様によれば、集合写真に写されている人物の関係により忠実な配置を行うことができる。   According to this aspect, it is possible to perform a faithful arrangement according to the relationship of the persons shown in the group photo.

また、本発明の他の態様は、集合写真に写されている各人物の顔画像を切り取り、あらかじめテンプレート上に設定された合成位置に貼り付けて、合成写真を生成する合成写真生成装置において、2回に分けて撮影された2枚の集合写真からそれぞれ顔画像を検出する顔画像検出手段と、前記顔画像検出手段で検出した各顔画像の移動方向を計測する移動方向計測手段と、前記顔画像検出手段で検出した各顔画像の移動量を計測する移動量計測手段と、前記移動量計測手段で計測した移動量が閾値以上の顔画像を検出し、検出した顔画像を移動方向と移動前後の少なくとも一方の位置とに基づいてグループ化する顔画像グルーピング手段と、同一グループに属する各人物の顔画像が近い合成位置となるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当てる合成位置調整手段と、を備え、前記合成位置調整手段で割り当てられた合成位置に各顔画像を貼り付けて合成写真を生成することを特徴とする合成写真生成装置を提供する。   Another aspect of the present invention is a composite photo generation apparatus that generates a composite photo by cutting out a face image of each person photographed in a group photo and pasting it on a composite position set in advance on a template. A face image detecting means for detecting a face image from two group photographs taken in two steps, a moving direction measuring means for measuring the moving direction of each face image detected by the face image detecting means, A movement amount measuring means for measuring a movement amount of each face image detected by the face image detecting means; a face image whose movement amount measured by the movement amount measuring means is equal to or greater than a threshold; and detecting the detected face image as a movement direction. The face image grouping means for grouping based on at least one position before and after the movement, and the face images of the persons so that the face images of the persons belonging to the same group are close to the combined position. And a composite position adjusting means for assigning to the composite position set above, and generating a composite photograph by pasting each face image to the composite position assigned by the composite position adjusting means Providing equipment.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成写真を簡単に生成することができる。   According to this aspect, it is possible to easily generate a composite photo in which face images of persons having a certain relationship are arranged and arranged.

また、本発明の他の態様は、集合写真に写されている各人物の顔画像を切り取り、あらかじめテンプレート上に設定された合成位置に貼り付けて、合成写真を生成するためにコンピュータを、隣り合う合成位置同士を組み合わせて前記テンプレート上に設定された合成位置をグループ化する合成位置グルーピング手段、前記グルーピング手段でグループ化された各グループの合成位置の数に応じてグループの順位を設定するグループ順位設定手段、集合写真に写されている人物の顔画像を検出する顔画像検出手段、前記顔画像検出手段で検出された顔画像の隣り合う顔画像の間の距離を計測する計測手段、前記計測手段で計測された距離が近い顔画像同士を組み合わせて、前記グルーピング手段でグループ化された合成位置のグループに前記グループ順位設定手段で設定された順位で割り当てる合成位置調整手段、前記集合写真から各人物の顔画像を切り取る切り取り手段、前記切り取り手段で切り取られた各人物の顔画像を前記合成位置調整手段で割り当てられた前記テンプレート上の合成位置に貼り付けて合成写真を生成する画像合成手段、として機能させることを特徴とする合成写真生成プログラムを提供する。   In another aspect of the present invention, a face image of each person photographed in a group photo is cut out and pasted at a synthesis position set in advance on a template, and a computer is used to generate a composite photo. A combination position grouping unit that groups the combination positions that are combined to group the combination positions set on the template, and a group that sets the rank of the group according to the number of combination positions of each group grouped by the grouping unit Rank setting means, face image detection means for detecting a face image of a person photographed in a group photo, measurement means for measuring a distance between adjacent face images of the face image detected by the face image detection means, Combining face images with close distances measured by the measurement means, the grouping means grouped by the grouping means into the combined position group Composite position adjusting means for assigning in the order set by the loop order setting means, cropping means for cutting out each person's face image from the group photo, and assigning the face image of each person cut out by the cutting means by the composite position adjusting means There is provided a composite photo generation program which functions as an image composition means for generating a composite photo by pasting at a composite position on the template.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成写真を簡単に生成することができる。   According to this aspect, it is possible to easily generate a composite photo in which face images of persons having a certain relationship are arranged and arranged.

また、本発明の他の態様は、集合写真に写されている各人物の顔画像を切り取り、あらかじめテンプレート上に設定された合成位置に貼り付けて、合成写真を生成するためにコンピュータを、集合写真に写されている人物の顔画像を検出する顔画像検出手段、前記顔画像検出手段で検出された顔画像の隣り合う顔画像の間の距離を計測する計測手段、前記計測手段で計測された距離が近い顔画像同士を組み合わせてグループ化するグルーピング手段、同一グループに属する各人物の顔画像が近い合成位置となるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当て
る合成位置調整手段、前記集合写真から各人物の顔画像を切り取る切り取り手段、前記切り取り手段で切り取られた各人物の顔画像を前記合成位置調整手段で割り当てられた前記テンプレート上の合成位置に貼り付けて合成写真を生成する画像合成手段、として機能させることを特徴とする合成写真生成プログラムを提供する。
Another aspect of the present invention provides a computer for generating a composite photo by cutting out a face image of each person photographed in a group photo and pasting it at a composite position set in advance on a template. Face image detection means for detecting a face image of a person shown in a photograph, measurement means for measuring a distance between adjacent face images of the face image detected by the face image detection means, and measurement by the measurement means Grouping means for combining and grouping face images that are close to each other, and assigning the face images of each person to the combination position set on the template so that the face images of the persons belonging to the same group are close to each other. Compositing position adjusting means, cutting means for cutting out the face image of each person from the group photo, and the face position image of each person cut out by the cutting means as the combining position adjusting hand Be in the image synthesizing means affixed to the synthesis position on the assigned the template to generate a composite photograph function as to provide a composite photograph creation program according to claim.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成写真を簡単に生成することができる。   According to this aspect, it is possible to easily generate a composite photo in which face images of persons having a certain relationship are arranged and arranged.

また、本発明の他の態様は、集合写真に写されている各人物の顔画像を切り取り、あらかじめテンプレート上に設定された合成位置に貼り付けて、合成写真を生成するためにコンピュータを、2回に分けて撮影された2枚の集合写真からそれぞれ顔画像を検出する顔画像検出手段、前記顔画像検出手段で検出した各顔画像の移動方向を計測する移動方向計測手段、前記顔画像検出手段で検出した各顔画像の移動量を計測する移動量計測手段、前記移動量計測手段で計測した移動量が閾値以上の顔画像を検出し、検出した顔画像を移動方向と移動前後の少なくとも一方の位置とに基づいてグループ化する顔画像グルーピング手段、同一グループに属する各人物の顔画像が近い合成位置となるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当てる合成位置調整手段、一方又は双方の集合写真から各人物の顔画像を切り取る切り取り手段、前記切り取り手段で切り取られた各人物の顔画像を前記合成位置調整手段で割り当てられた前記テンプレート上の合成位置に貼り付けて合成写真を生成する画像合成手段、として機能させることを特徴とする合成写真生成プログラムを提供する。   According to another aspect of the present invention, a computer is used to generate a composite photo by cutting out a face image of each person photographed in a group photo and pasting it on a composite position set in advance on a template. Face image detecting means for detecting face images from two group photographs taken in divided times, movement direction measuring means for measuring the moving direction of each face image detected by the face image detecting means, and face image detection A movement amount measuring means for measuring a movement amount of each face image detected by the means; detecting a face image whose movement amount measured by the movement amount measurement means is equal to or greater than a threshold; and detecting the detected face image at least before and after movement. Face image grouping means for grouping based on one position, and the face images of each person are set on the template so that the face images of the persons belonging to the same group are close to each other. The composite position adjusting means to be assigned to the composite position, the cutout means for cutting out the face image of each person from one or both group photographs, and the face image of each person cut out by the cutout means is assigned by the composite position adjusting means. Provided is a composite photo generation program that functions as an image composition unit that generates a composite photo by pasting at a composite position on a template.

この態様によれば、一定の関係を有する人物同士の顔画像がかたまって配置された合成写真を簡単に生成することができる。   According to this aspect, it is possible to easily generate a composite photo in which face images of persons having a certain relationship are arranged and arranged.

なお、テンプレートと顔画像とを合成する際には、より自然な画像データを得ることができるように、様々な処理が施されてもよい。例えば、顔画像のエッジ部分とテンプレートとの合成部分がより自然な色合いになるような既知の技術を応用したり、顔画像の傾き等をテンプレートの合成位置に応じて変えたりすることができる。   Note that when the template and the face image are combined, various processes may be performed so that more natural image data can be obtained. For example, it is possible to apply a known technique in which the combined portion of the edge portion of the face image and the template has a more natural color, or to change the inclination of the face image or the like according to the combining position of the template.

本発明によれば、一定の関係を有する人物同士の画像がかたまって配置された合成画像データを作成することができる。   According to the present invention, it is possible to create composite image data in which images of persons having a certain relationship are arranged and arranged.

まず、本発明に係る合成画像データの作成の全体的な流れについて説明する。図1は、合成画像データの作成の全体的な流れの一例を示す図である。まず、ネガ、通常のDSC(デジタルスチルカメラ)、携帯電話などに付属するDSC、DV(デジタルビデオ)等に基づく画像のデータが合成画像作成装置に入力される(図1のS1)。このとき入力される画像データとしては、例えば通常時の撮影写真や集合写真等が挙げられ、複数の顔が写されている画像データであればよい。また、画像データの数は、単数でも複数でもよい。   First, the overall flow of creating composite image data according to the present invention will be described. FIG. 1 is a diagram showing an example of the overall flow of creating composite image data. First, image data based on a negative, a normal DSC (digital still camera), a DSC attached to a mobile phone or the like, a DV (digital video), or the like is input to the composite image creating apparatus (S1 in FIG. 1). Examples of the image data input at this time include a normal photographed photograph and a group photograph, and may be image data in which a plurality of faces are photographed. The number of image data may be singular or plural.

合成画像作成装置では、入力された画像データから顔画像が検出され、各顔画像が抽出される(S2)。抽出された顔画像は、顔画像の関連性を示唆する所定の顔情報に基づいて、グループ分け(グルーピング)される(S3)。そして、顔画像と合成するテンプレートがユーザ等によって選ばれる(S4)。テンプレートは、単数であっても複数であってもよい。そして、顔画像に関するテンプレート上の合成位置が調整され、調整された合成位置においてテンプレートと抽出された顔画像とが合成され(S5)、合成画像データが完成する(S6)。   In the composite image creation device, a face image is detected from the input image data, and each face image is extracted (S2). The extracted face images are grouped (grouped) based on predetermined face information that suggests the relevance of the face images (S3). Then, a template to be combined with the face image is selected by the user or the like (S4). There may be a single template or a plurality of templates. Then, the composition position on the template relating to the face image is adjusted, and the template and the extracted face image are synthesized at the adjusted composition position (S5), and the composite image data is completed (S6).

この顔画像の合成位置の調整はグルーピング情報に基づいて行われ、顔画像とテンプレートとが適切な位置で合成される。また、顔画像とテンプレートとが自然な状態で合成されるように各種の処理が施され、例えば、顔画像の枠周辺部分に所謂アンチエリアス処理やボカシ処理のような画像処理が施される。なお、完成した合成画像データはどのような形態であってもよく、例えば、ポストカードや写真等の一つの画像、複数の画像がまとめて配置されるアルバム、複数の画像が経時的に一つずつ表示されるスライドショー、等の形態に整えることも可能である。   The adjustment of the face image combining position is performed based on the grouping information, and the face image and the template are combined at an appropriate position. Various processes are performed so that the face image and the template are synthesized in a natural state. For example, image processing such as so-called anti-aliasing processing and blur processing is performed on the peripheral portion of the frame of the face image. The completed composite image data may be in any form, for example, one image such as a postcard or a photo, an album in which a plurality of images are arranged together, and one image over time. It is also possible to arrange it in a form such as a slide show that is displayed one by one.

合成画像データが完成した後(S6)、必要に応じて、完成した合成画像データが出力される(S7)。なお、完成した合成画像データは、合成画像データの作成後に要求に応じて、パソコン(PC)、携帯機器類(例えば携帯電話)、ラボ、等の任意の場所に配信、出力が可能である。また、合成画像データの出力は任意の方式で行われ、例えば、紙等への印刷、画面上における表示、ハードディスクやフラッシュメモリ等のコンピュータ読み取り可能な媒体への記録、等によって合成画像データが出力される。   After the composite image data is completed (S6), the completed composite image data is output as required (S7). The completed composite image data can be distributed and output to any place such as a personal computer (PC), a mobile device (for example, a mobile phone), a laboratory, or the like as required after the composite image data is created. The composite image data is output by any method. For example, the composite image data is output by printing on paper, displaying on a screen, recording on a computer-readable medium such as a hard disk or flash memory, etc. Is done.

以下、本発明に係る合成画像作成方法、合成画像作成装置、およびプログラムの具体的な実施の形態を詳説する。   Hereinafter, specific embodiments of a composite image creation method, a composite image creation apparatus, and a program according to the present invention will be described in detail.

(第1の実施の形態)
図2は、本発明に係る合成写真生成装置の一実施の形態を示すブロック図である。同図に示すように、本実施の形態の合成写真生成装置10は、主として画像入力部12、顔検出部14、テンプレート格納部16、テンプレート情報格納部18、顔間距離検出部20、合成位置調整部22、画像合成部24、画像出力部26等で構成されている。
(First embodiment)
FIG. 2 is a block diagram showing an embodiment of a composite photo generation apparatus according to the present invention. As shown in the figure, the composite photo generation apparatus 10 of the present embodiment mainly includes an image input unit 12, a face detection unit 14, a template storage unit 16, a template information storage unit 18, an inter-face distance detection unit 20, and a composite position. The adjustment unit 22, the image composition unit 24, the image output unit 26, and the like are included.

画像入力部12は、集合写真として撮影された画像データの取り込みを行う。取り込み方法は、特に限定されるものではなく、デジタルカメラから直接取り込むようにしてもよいし、また、画像データが格納されたメモリカードからメモリカードリーダを介して取り込むようにしてもよい。また、ネットワークを介して送信された画像データを受信して取り込むようにしてもよい。   The image input unit 12 takes in image data taken as a group photo. The capturing method is not particularly limited, and may be directly captured from a digital camera or may be captured from a memory card storing image data via a memory card reader. Alternatively, image data transmitted via a network may be received and captured.

また、ここで使用する画像データは、デジタルカメラで撮影したものに限らず、写真プリントをスキャナで読み取ったものを使用するようにしてもよい。   Further, the image data used here is not limited to the one taken with a digital camera, but may be one obtained by reading a photographic print with a scanner.

顔検出部14は、画像入力部12から取り込んだ集合写真の画像データから人物の顔を検出する。なお、人物を撮影した画像から顔を検出する方法は公知技術なので、ここでは、その詳細な検出方法については省略する。一例として、たとえば、原画像から肌色に指
定した色と近い色を持つ画素を取り出し、取り出した領域を顔領域として検出する。この処理は、たとえば肌色を他の色と区別するための色空間上で、あらかじめサンプリングした肌色の情報から色空間上の肌色の範囲を定め、各画素の色が定めた範囲に入っているか否かを判定することにより行われる。
The face detection unit 14 detects a human face from the image data of the group photograph taken from the image input unit 12. Since a method for detecting a face from an image obtained by photographing a person is a known technique, the detailed detection method is omitted here. As an example, for example, a pixel having a color close to the color designated as the skin color is extracted from the original image, and the extracted region is detected as a face region. In this process, for example, in the color space for distinguishing the skin color from other colors, the range of the skin color in the color space is determined from the information of the skin color sampled in advance, and whether the color of each pixel is in the determined range or not. This is done by determining whether or not.

顔間距離検出部20は、顔検出部14で検出した各人物について、隣接する人物との間で、両者の顔間の距離を検出する。検出位置としては、たとえば、顔の重心を用いるものとする。なお、この他、顔パーツ(目、瞳、両目の中心、鼻、口、耳、頭、顎など)を用いるようにしてもよい。また、顔パーツは、隣接する人物の異なる左端・右端であってもよい。たとえば、一方の人物の右目と他方の人物の左目や、一方の人物の右耳と他方の人物の左耳等を用いてもよい。   The face-to-face distance detection unit 20 detects the distance between the faces of each person detected by the face detection unit 14 with the adjacent person. For example, the center of gravity of the face is used as the detection position. In addition, face parts (eyes, eyes, centers of both eyes, nose, mouth, ears, head, chin, etc.) may be used. Further, the face parts may be the left and right ends of adjacent persons that are different. For example, the right eye of one person and the left eye of the other person, the right ear of one person, the left ear of the other person, or the like may be used.

テンプレート格納部16には、画像合成に使用する複数のテンプレートデータが格納される。テンプレート情報格納部18には、このテンプレート格納部16に格納されている各テンプレートのテンプレート情報、すなわち、各テンプレートに設定されている合成位置の「位置情報(顔画像を貼り付ける位置の情報)」、「グループ情報(グループ化されている合成位置の情報)」、「合成位置間の距離情報(隣り合う合成位置間の距離の情報)」等が個別に格納されている。   The template storage unit 16 stores a plurality of template data used for image composition. In the template information storage unit 18, template information of each template stored in the template storage unit 16, that is, “position information (position information to which a face image is pasted)” of a composite position set in each template is stored. , “Group information (information of grouped composite positions)”, “Distance information between composite positions (distance information between adjacent composite positions)”, and the like are individually stored.

合成位置調整部22は、顔間距離検出部20で検出された各人物の顔間距離とテンプレート情報とに基づいてテンプレートに貼り付ける顔画像の配置を決定する。この点については、後に詳述する。   The composition position adjustment unit 22 determines the arrangement of the face image to be pasted on the template based on the inter-face distance of each person detected by the inter-face distance detection unit 20 and the template information. This will be described in detail later.

画像合成部24は、合成位置調整部22で決定された顔画像の配置情報に基づいて集合写真の画像データから切り出した人物の顔画像をテンプレート上に設定された合成位置に貼り付け、合成写真を生成する。   The image composition unit 24 pastes the face image of the person cut out from the image data of the group photo based on the face image arrangement information determined by the composition position adjustment unit 22 at the composition position set on the template, and then composes the composite photo. Is generated.

画像出力部26は、画像合成部24で生成された合成写真の画像データをモニタに出力する。また、必要に応じてプリンタに出力し、生成した合成写真画像を印画紙に印画させる。   The image output unit 26 outputs the composite photograph image data generated by the image composition unit 24 to the monitor. Further, it is output to a printer as necessary, and the generated composite photograph image is printed on a photographic paper.

図3は、本実施の形態の合成写真生成装置10における合成写真の生成手順を示すフローチャートである。   FIG. 3 is a flowchart showing a composite photo generation procedure in the composite photo generation apparatus 10 of the present embodiment.

まず、画像合成に使用する集合写真の画像データを画像入力部12に入力する(ステップS10)。画像入力部12から入力された画像データは、顔検出部14に加えられ、その画像に写されている顔が検出される(ステップS11)。そして、検出された顔位置の情報に基づいて隣接する顔同士の顔間距離が顔間距離検出部20で検出される(ステップS12)。検出された各顔間の距離情報は、合成位置調整部22に加えられる。   First, group photo image data used for image composition is input to the image input unit 12 (step S10). The image data input from the image input unit 12 is added to the face detection unit 14, and the face shown in the image is detected (step S11). Based on the detected face position information, the face-to-face distance between adjacent faces is detected by the face-to-face distance detection unit 20 (step S12). The detected distance information between the faces is added to the composite position adjustment unit 22.

合成位置調整部22は、顔間距離検出部20で検出された各顔間の距離情報と、使用するテンプレートのテンプレート情報とに基づいてテンプレートに貼り付ける各顔画像の配置を決定する(ステップS13)。   The composition position adjustment unit 22 determines the arrangement of each face image to be pasted on the template based on the distance information between the faces detected by the inter-face distance detection unit 20 and the template information of the template to be used (step S13). ).

図4は、顔画像の配置の決定手順を示すフローチャートである。同図に示すように、まず、合成位置調整部22は、テンプレート情報に含まれる合成位置のグループ情報に基づいて、合成位置のグループを各グループに属する合成位置の数に応じてソートする(ステップS20)。たとえば、合成位置のグループとして、合成位置が4つのグループと、3つのグループと、2つのグループと、単独のグループとがあった場合、合成位置が4つのグループが第1位となり、以下、3つのグループ、2つのグループ、単独のグループとい
うように、合成位置のグループがソートされる。なお、図5に示したテンプレートの場合、合成位置が4つのグループAと、3つのグループB及びCと、2つのグループDと、単独のグループE、F、G、H、Iとがあるので、ソートすると、グループA→(B、C)→D→(E、F、G、H、I)となる。なお、同数の場合は、グループ内で合成位置間の距離が近い方を優位にして並べ替える。
FIG. 4 is a flowchart showing a procedure for determining the arrangement of face images. As shown in the figure, first, the composite position adjustment unit 22 sorts the composite position groups according to the number of composite positions belonging to each group, based on the composite position group information included in the template information (step). S20). For example, when there are four groups, three groups, two groups, and a single group as the group of the combination positions, the four groups have the first combination position. The group of the synthesis position is sorted such as two groups, two groups, and a single group. In the case of the template shown in FIG. 5, there are four groups A, three groups B and C, two groups D, and single groups E, F, G, H, and I in the template shown in FIG. When sorted, group A → (B, C) → D → (E, F, G, H, I). In the case of the same number, rearrangement is performed with the advantage that the distance between the combined positions in the group is shorter.

次に、ソートした順に従って各グループに顔画像を割り当てる(ステップS21)。この際、顔画像は顔間距離が近い者同士を組み合わせて割り当てる。たとえば、図5に示すテンプレートに図6に示す集合写真の顔画像を合成する場合、上記のように合成位置のグループの順位は、グループA→(B、C)→D→(E、F、G、H、I)なので、まずグループAに割り当てる。グループAに属する合成位置は4つなので、顔間距離がもっとも近い4組の顔画像を割り当てる。図6では、顔画像b、c、d、eがもっとも顔間距離が近いので、グループAには、顔画像b、c、d、eを割り当てる。次に、グループBに割り当てる。グループBに属する合成位置は3つなので、先に選出した顔画像b、c、d、eを除く残りの顔画像の中から顔間距離がもっとも近い3組の顔画像を割り当てる。図6では、顔画像b、c、d、eの次に顔画像g、h、iがもっとも顔間距離が近いので、グループBには、顔画像g、h、iを割り当てる。   Next, face images are assigned to each group according to the sorted order (step S21). At this time, face images are assigned by combining persons having a short face-to-face distance. For example, when the face image of the group photo shown in FIG. 6 is combined with the template shown in FIG. 5, the order of the group at the combining position is as follows: group A → (B, C) → D → (E, F, G, H, I), so first assign to group A. Since there are four composite positions belonging to group A, four sets of face images having the closest face-to-face distance are assigned. In FIG. 6, since the face images b, c, d, and e have the shortest face-to-face distance, the face images b, c, d, and e are assigned to the group A. Next, it is assigned to group B. Since there are three composite positions belonging to group B, three sets of face images having the closest face-to-face distance are assigned from the remaining face images excluding the face images b, c, d, and e previously selected. In FIG. 6, the face images g, h, and i are next to the face images b, c, d, and e, and therefore the face images g, h, and i are assigned to the group B.

このように、ソートした順に各グループに顔画像を割り当てて顔画像の配置を決定し、決定した情報を画像合成部24に出力する(ステップS14へリターン)。   In this way, face images are assigned to each group in the sorted order, the face image layout is determined, and the determined information is output to the image composition unit 24 (return to step S14).

画像合成部24は、集合写真の画像データから各顔の画像を切り出し、切り出した顔画像を決定した配置情報に基づいてテンプレート上の合成位置に貼り付け、合成写真を生成する(ステップS14)。そして、生成した合成写真を画像出力部26に出力する(ステップS15)。   The image compositing unit 24 cuts out the image of each face from the image data of the group photo, and pastes the cut out face image on the combining position on the template based on the determined arrangement information to generate a composite photo (step S14). Then, the generated composite photograph is output to the image output unit 26 (step S15).

画像出力部26は、画像合成部24で生成された合成写真をモニタ又はプリンタに出力し、モニタに再生表示又は印画紙に印画させる。   The image output unit 26 outputs the composite photograph generated by the image composition unit 24 to a monitor or a printer and causes the monitor to reproduce and display or print on the photographic paper.

このように、本実施の形態の合成写真生成装置10では、集合写真に写されている各人物の顔間距離が近い者同士が、まとまったグループとして合成される。一般に家族や友人など仲の良い者同士は、撮影時に近寄って撮影するので、本実施の形態のように、顔間距離が近い者同士が同じグループに属するように配置することにより、仲の良い者同士を同じグループにまとめて合成することができる。   As described above, in the composite photo generation apparatus 10 according to the present embodiment, persons having a close face-to-face distance in each person photographed in the group photo are combined as a group. Generally, close friends, such as family members and friends, take close-up shots at the time of shooting. Therefore, as shown in this embodiment, arrange close-up faces so that close faces belong to the same group. Can be combined into the same group.

なお、本実施の形態では、単純に隣接する人物の顔間距離が近い者同士を組み合わせるようにしているが、検出する顔間距離の方向又は顔の大きさに応じて距離値に重み付けをするようにしてもよい。たとえば、方向に応じて重み付けする例として、横方向、斜め方向、縦方向の順に重み付けをするようにしてもよい。また、顔の大きさに応じて重み付けする例として、大きい顔(大人の顔)と小さい顔(子供の顔)との間の距離値に大きい重みをつけるようにする。なお、重み付けした距離値は、そのままの値を用いてもよいし、テーブルを利用してランク値に変換して用いてもよい。このように検出する顔間距離の方向又は顔の大きさに応じて距離値に重み付けをすることにより、集合写真に写されている人物間の親密度の関係により忠実な顔画像の配置とすることができる。   In the present embodiment, the persons whose adjacent face distances between adjacent persons are simply combined are combined, but the distance value is weighted according to the detected face distance direction or face size. You may do it. For example, as an example of weighting according to the direction, weighting may be performed in the order of the horizontal direction, the diagonal direction, and the vertical direction. As an example of weighting according to the size of the face, a large weight is given to the distance value between the large face (adult face) and the small face (child's face). Note that the weighted distance value may be used as it is, or may be converted into a rank value using a table. By weighting the distance value in accordance with the direction of face distance or the size of the face detected in this way, the face image arrangement is more faithful to the relationship of intimacy between persons photographed in the group photo. be able to.

また、本実施の形態では、合成位置のグループをソートするに際して、各グループに属する合成位置の数の順でソートしているが、テンプレートにおける合成位置の順でソートしてもよい。また、隣接距離の近い顔画像があった場合には、集合写真における位置とテンプレートにおける位置が近いものを優先させることを行ってもよい。   Further, in this embodiment, when sorting the groups at the synthesis position, the sort positions are sorted in the order of the number of the synthesis positions belonging to each group, but may be sorted in the order of the synthesis positions in the template. In addition, when there is a face image that is close to the adjacent distance, priority may be given to a face that is close to the position in the group photo and the position in the template.

また、グループに属する合成位置の順でソートする場合は、上記実施の形態とは逆に各グループに属する合成位置の数が少ない順でソートするようにしてもよい。また、同数の場合は、グループ内における合成位置の間の距離を考慮し、この間の距離が近いグループが優位になるように設定してもよい。   Further, when sorting in the order of the composite positions belonging to the group, it may be sorted in the order of decreasing the number of composite positions belonging to each group, contrary to the above embodiment. In the case of the same number, the distance between the combined positions in the group may be considered, and the group having a short distance may be set to be dominant.

また、本実施の形態では、合成位置をグループ化し、各グループに顔の間の距離が近い者同士を組み合わせて割り当てているが、まず、顔の間の距離が近い人物同士を組み合わせてグループ化し、同一グループに属する各人物の顔画像が、近い合成位置に配置されるように各人物の顔画像をテンプレート上に割り当てるようにしてもよい。この場合、グループに属する人物の顔の数に応じてグループをソートし、ソートした順にテンプレート上に設定されている合成位置のグループに割り当てることが好ましい。   Further, in the present embodiment, the combination positions are grouped and assigned to each group by combining persons having a short distance between faces. First, the persons having a close distance between faces are combined and grouped. Alternatively, the face images of each person may be allocated on the template so that the face images of the persons belonging to the same group are arranged at close synthetic positions. In this case, it is preferable that the groups are sorted according to the number of faces of persons belonging to the group, and assigned to the group at the combination position set on the template in the sorted order.

(第2の実施の形態)
次に、本発明に係る合成写真生成装置の第2の実施の形態について説明する。
(Second Embodiment)
Next, a second embodiment of the composite photo generation apparatus according to the present invention will be described.

第2の実施の形態の合成写真生成装置は、2回に分けて撮影した集合写真の各顔画像の移動方向と移動量を計測し、一定距離以上移動した顔画像の移動方向の集中度に基づいて顔画像をグループ化し、そのグループがまとまってテンプレート上に配置されるように合成する。   The composite photo generation apparatus according to the second embodiment measures the moving direction and moving amount of each face image of the group photo taken in two steps, and determines the degree of concentration of the moving direction of the face image moved over a certain distance. Based on this, the face images are grouped, and the groups are combined so as to be arranged together on the template.

図7は、第2の実施の形態の合成写真生成装置30の構成を示すブロック図である。同図に示すように、第2の実施の形態の合成写真生成装置30は、第1の実施の形態の合成写真生成装置10の顔間距離検出部20に代えて変化量検出部32が備えられている。これ以外の構成は上述した第1の実施の形態の合成写真生成装置10と同じである。したがて、第1の実施の形態の合成写真生成装置10と同じ構成要素については、同一符号を付して、その説明は省略する。   FIG. 7 is a block diagram illustrating a configuration of the composite photo generation apparatus 30 according to the second embodiment. As shown in the figure, the composite photo generation device 30 of the second embodiment includes a change amount detection unit 32 instead of the inter-face distance detection unit 20 of the composite photo generation device 10 of the first embodiment. It has been. Other configurations are the same as those of the composite photo generation apparatus 10 of the first embodiment described above. Therefore, the same components as those in the composite photo generation apparatus 10 of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

変化量検出部32は、顔検出部14で検出した2枚の集合写真の顔位置から各顔画像の移動量と移動方向を検出する。すなわち、1枚目の集合写真から検出された各人物の顔の位置情報と、2枚目の集合写真から検出された各人物の顔の位置情報とに基づいて、各人物の顔位置が、1回目の撮影に対して2回目の撮影で、どの方向にどれだけ移動したかを検出する。この変化量検出部32で検出された各人物の顔の移動量と移動方向の情報は、合成位置調整部22に加えられる。合成位置調整部22は、この変化量検出部32で検出された各人物の顔の移動量と移動方向の情報、及び、テンプレート情報に基づいてテンプレートに貼り付ける各顔画像の配置を決定する。   The change amount detection unit 32 detects the movement amount and the movement direction of each face image from the face positions of the two group photographs detected by the face detection unit 14. That is, based on the position information of each person's face detected from the first group photo and the position information of each person's face detected from the second group photo, the face position of each person is It is detected in which direction and how much it has moved in the second shooting with respect to the first shooting. Information on the movement amount and movement direction of each person's face detected by the change amount detection unit 32 is added to the composite position adjustment unit 22. The composition position adjustment unit 22 determines the arrangement of each face image to be pasted on the template based on the information on the movement amount and movement direction of each person's face detected by the change amount detection unit 32 and the template information.

図8は、本実施の形態の合成画像生成装置における合成写真の生成手順を示すフローチャートである。   FIG. 8 is a flowchart showing a composite photograph generation procedure in the composite image generation apparatus of the present embodiment.

まず、画像合成に使用する2枚の集合写真の画像データを画像入力部12を入力する(ステップS30)。   First, image data of two group photographs used for image composition is input to the image input unit 12 (step S30).

なお、このように本実施の形態の合成写真生成装置30は、2枚の集合写真を用いることから、画像合成の前提として、集合写真の撮影を2回行っておくものとする。この際、1回目の撮影では、形式的な並びで撮影を行い、2回目の撮影では、くだけた形で撮影することが好ましい。   As described above, since the composite photo generation apparatus 30 according to the present embodiment uses two group photographs, it is assumed that the group photographs are taken twice as a premise for image composition. At this time, it is preferable that the first shooting is performed in a formal arrangement, and the second shooting is performed in a complicated shape.

画像入力部12から入力された2枚の画像データは、顔検出部14に加えられ、各画像に写されている顔の位置が個別に検出される(ステップS31)。   The two pieces of image data input from the image input unit 12 are added to the face detection unit 14, and the position of the face shown in each image is individually detected (step S31).

顔検出部14で検出された各画像における各顔の位置情報は、変化量検出部32に加え
られ、変化量検出部32は、この顔検出部14で検出された各画像における各顔の顔位置の位置情報から各顔の移動量と移動方向を検出する(ステップS32)。すなわち、1回目の撮影に対して2回目の撮影で、各顔がどの方向にどれだけ移動したかを検出する。
Position information of each face in each image detected by the face detection unit 14 is added to the change amount detection unit 32, and the change amount detection unit 32 detects the face of each face in each image detected by the face detection unit 14. The amount and direction of movement of each face are detected from the position information of the position (step S32). That is, it is detected how much each face has moved in what direction in the second shooting with respect to the first shooting.

変化量検出部32で検出された各顔の移動量と移動方向の情報は、合成位置調整部22に加えられ、合成位置調整部22は、この変化量検出部32で検出された各顔の移動量と移動方向の情報に基づいて顔画像をグルーピングする(ステップS33)。   Information on the movement amount and movement direction of each face detected by the change amount detection unit 32 is added to the synthesis position adjustment unit 22, and the synthesis position adjustment unit 22 detects each face detected by the change amount detection unit 32. Face images are grouped based on the information of the movement amount and the movement direction (step S33).

図9は、顔画像のグルーピングの手順を示すフローチャートである。   FIG. 9 is a flowchart showing a procedure for grouping face images.

まず、検出された各顔の移動量の情報に基づいて移動量が少ない顔をチェックする(ステップS40)。すなわち、移動量が、あらかじめ設定した閾値未満の顔をチェックする。そして、そのチェックした顔をグループの中心に設定する(ステップS41)。たとえば、図10に示すように、13人の集合写真を2回に分けて撮影した時、人物a、c、f、g、h、i、j、lの移動量が少ないので、人物a、c、f、g、h、i、j、lをチェックし、その顔の位置をグループの中心にセットする。   First, a face with a small movement amount is checked based on the detected movement amount information of each face (step S40). That is, a face whose movement amount is less than a preset threshold value is checked. Then, the checked face is set at the center of the group (step S41). For example, as shown in FIG. 10, when a group photo of 13 people is taken in two steps, the movement amount of the persons a, c, f, g, h, i, j, l is small. Check c, f, g, h, i, j, l, and set the face position to the center of the group.

次に、未チェックの顔の有無を判定する(ステップS42)。すなわち、移動量が閾値以上の画像の有無を判定する。ここで、未チェックの顔アリと判断すると、その未チェックの顔の移動方向と移動前(あるいは移動後)の位置情報とに基づいて、その変化の方向先にある中心の顔とグループ化する(ステップS43)。たとえば、図10に示す例では、人物b、d、e、k、mの顔が、未チェックの顔なので、人物b、d、e、k、mの顔についてグループ化する。このとき、たとえば、人物bについては、その変化の方向先に人物cの顔が存在するので、中心に設定された人物cの顔とグループ化する。また、人物dについても、その変化の方向先に人物cの顔が存在するので、中心に設定された人物cの顔とグループ化する。また、人物eについては、その変化の方向先に人物fの顔が存在するので、中心に設定された人物fの顔とグループ化する。このように、未チェックの顔の移動方向と移動前の顔の位置情報とに基づいて、その変化の方向先にある中心の顔とグループ化する(ステップS43)。   Next, it is determined whether or not there is an unchecked face (step S42). That is, it is determined whether or not there is an image whose movement amount is equal to or greater than a threshold. Here, if it is determined as an unchecked face ant, based on the movement direction of the unchecked face and the position information before (or after) the movement, it is grouped with the central face ahead of the change direction. (Step S43). For example, in the example shown in FIG. 10, since the faces of the persons b, d, e, k, and m are unchecked faces, the faces of the persons b, d, e, k, and m are grouped. At this time, for example, since the face of the person c exists in the direction of the change, the person b is grouped with the face of the person c set at the center. Further, since the face of the person c exists in the direction of the change, the person d is also grouped with the face of the person c set at the center. Also, since the face of the person f exists in the direction of the change, the person e is grouped with the face of the person f set at the center. As described above, based on the movement direction of the unchecked face and the position information of the face before the movement, the face is grouped with the center face in the direction of the change (step S43).

この結果、図10に示す例では、人物(b、c、d)及び(k、l、m)の顔が3人組のグループに設定され、人物(e、f)の顔が2人組みのグループに設定される。そして、a、g、h、i、jが単独のグループに設定される。   As a result, in the example shown in FIG. 10, the faces of the persons (b, c, d) and (k, l, m) are set to a group of three persons, and the faces of the persons (e, f) are two persons. Set to group. Then, a, g, h, i, and j are set to a single group.

なお、移動量が閾値以上であっても、変化の方向先に人物の顔が存在しない場合は、単独のグループに設定される。   Even if the movement amount is equal to or greater than the threshold, if there is no person's face in the direction of change, the movement amount is set to a single group.

以上のように、グループ化を行い、未チェックの顔が無くなったところで、グループ化の処理を完了する(ステップS34へリターン)。そして、各グループに属する顔の数に応じてグループをソートする(ステップS34)。   As described above, grouping is performed, and when there is no unchecked face, the grouping process is completed (return to step S34). Then, the groups are sorted according to the number of faces belonging to each group (step S34).

図10に示す例では、グループb、c、dとグループk、l、mが3つ、グループe、fが2つ、グループa、g、h、i、jが1つなので、グループ(b、c、d)→グループ(k、l、m)→グループ(e、f)→グループ(a)→グループ(g)→グループ(h)→グループ(i)→グループ(j)の順でソートされる。   In the example shown in FIG. 10, since the groups b, c, d and the groups k, l, m are three, the groups e, f are two, and the groups a, g, h, i, j are one, the group (b , C, d) → group (k, l, m) → group (e, f) → group (a) → group (g) → group (h) → group (i) → group (j) Is done.

次に、テンプレート情報格納部18に格納されているテンプレート情報に基づいて使用するテンプレートに設定されている各合成位置に各顔のグループをソートした順に割り当てる(ステップS35)。すなわち、たとえば、顔の数が3つのグループは、合成位置が3つ固まったグループに割り当て、顔の数が2つのグループは、合成位置が2つ固まった
グループに割り当てる。このように、各顔のグループが、同じ合成位置のグループに配されるように、顔画像の配置を調整する。そして、決定した顔画像の配置情報を画像合成部24に出力する。
Next, each group of faces is assigned in the sorted order to each composition position set in the template to be used based on the template information stored in the template information storage unit 18 (step S35). That is, for example, a group with three faces is assigned to a group with three combined positions, and a group with two faces is assigned to a group with two combined positions. In this way, the arrangement of the face images is adjusted so that the groups of the faces are arranged in the group at the same synthesis position. Then, the determined face image arrangement information is output to the image composition unit 24.

画像合成部24は、2枚目の集合写真の画像データから各顔の画像を切り出し、切り出した各顔画像を決定した配置情報に基づいてテンプレート上の合成位置に貼り付け、合成写真を生成する(ステップS36)。そして、生成した合成写真を画像出力部26に出力する(ステップS37)。   The image compositing unit 24 cuts out each face image from the image data of the second group photo, and pastes each cut out face image at the combining position on the template based on the determined arrangement information to generate a composite photo. (Step S36). Then, the generated composite photograph is output to the image output unit 26 (step S37).

画像出力部26は、画像合成部24で生成された合成写真をモニタ又はプリンタに出力し、モニタに再生表示又は印画紙に印画させる。   The image output unit 26 outputs the composite photograph generated by the image composition unit 24 to a monitor or a printer and causes the monitor to reproduce and display or print on the photographic paper.

このように、本実施の形態の合成写真生成装置30では、2回に分けて撮影した集合写真の各顔画像の移動方向と移動量を計測し、一定距離以上移動した顔画像の移動方向の集中度に基づいて顔画像をグループ化し、そのグループがまとまってテンプレート上に配置されるように合成する。これにより、仲の良い者同士を同じグループにまとめて合成することができる。   As described above, the composite photo generating apparatus 30 according to the present embodiment measures the moving direction and moving amount of each face image of the group photo taken in two steps, and determines the moving direction of the face image moved by a certain distance or more. The face images are grouped based on the degree of concentration, and the group images are combined and arranged on the template. This makes it possible to combine good friends together in the same group.

なお、本実施の形態では、テンプレートに貼り付ける顔画像を2枚目の集合写真の画像から切り出しているが、1枚目の集合写真の画像から切り出して貼り付けるようにしてもよいし、また、双方の集合写真の画像から切り出して貼り付けるようにしてもよい。   In this embodiment, the face image to be pasted on the template is cut out from the image of the second group photo, but it may be cut out from the image of the first group photo and pasted. Alternatively, it may be cut out and pasted from both group photo images.

また、各集合写真の画像から顔の画像を切り出して、2枚の合成写真を生成するようにしてもよい。そして、2枚の合成写真を生成する場合は、異なるテンプレートを用いてもよく、同じテンプレートを用いる場合は、合成位置を変えるようにしてもよい。   In addition, a face image may be cut out from each group photo image to generate two composite photos. When generating two composite photographs, different templates may be used. When the same template is used, the combination position may be changed.

また、本実施の形態では、顔画像のグループをソートする際、グループに属する人物の顔の数が多い順にソートしているが、少ない順にソートするようにしてもよい。また、グループに属する人物の顔の数が多い順にソートする場合において、各グループに属する人物の顔の数が同数の場合は、各グループに属する人物の顔の間の距離を考慮し、この間の距離が近いグループが優位になるように設定するようにしてもよい。   Further, in this embodiment, when sorting face image groups, the face images are sorted in descending order of the number of faces of persons belonging to the group. However, they may be sorted in ascending order. In addition, when sorting in descending order of the number of faces of persons belonging to a group, if the number of faces of persons belonging to each group is the same, the distance between the faces of persons belonging to each group is taken into consideration. You may make it set so that the group with a short distance may become dominant.

また、合成に用いる2枚の集合写真は、必ずしも連続して撮影したものである必要はなく、複数回撮影した中の任意の2枚を選択して用いることができる。たとえば、5回撮影した場合において、1回目に撮影したものと3回目に撮影したものを用いてよいし、また、2回目に撮影したものと5回目に撮影したものを用いてもよい。   Further, the two group photographs used for composition do not necessarily have to be taken continuously, and any two of the pictures taken a plurality of times can be selected and used. For example, in the case of shooting five times, the first shot and the third shot may be used, or the second shot and the fifth shot may be used.

(第3の実施の形態)
本実施の形態では、動画の画像データとテンプレートとを合成する例について説明する。なお、本実施の形態の構成は、上述の第1の実施の形態の構成と略同一であり、第1の実施の形態と同一部分には同一符号を付して詳細な説明は省略する。
(Third embodiment)
In the present embodiment, an example of combining moving image data and a template will be described. The configuration of the present embodiment is substantially the same as the configuration of the first embodiment described above, and the same parts as those of the first embodiment are denoted by the same reference numerals and detailed description thereof is omitted.

図11は、動画の画像データに本発明を応用した例を示す図である。動画は、一般的に、所定の時間間隔で経時的に撮影された複数の画像データを、撮影順序の順番で連続的に表示させるものである。図11に示す動画は、時刻T〜Tに撮影したn+1枚の画像データを、時刻Tの画像データから時刻Tの画像データに向かって連続的に表示するものである。このような複数の画像データから成る動画であっても、上述の第1の実施の形態と同様に、各画像データから顔画像を抽出し、抽出した顔画像とテンプレートとを合成することで、合成画像データを作成することができる。なお、顔画像とテンプレートの合成手法等は、上述の第1の実施の形態と略同一の手法によって行われる。 FIG. 11 is a diagram illustrating an example in which the present invention is applied to moving image data. In general, a moving image is a display in which a plurality of pieces of image data taken over time at predetermined time intervals are continuously displayed in the order of shooting order. Video shown in FIG. 11, the time T 0 through T n n + 1 sheets image data taken in is intended to continuously display the image data at time T 0 toward the image data at time T n. Even in the case of such a moving image composed of a plurality of image data, as in the first embodiment described above, a face image is extracted from each image data, and the extracted face image and template are combined, Composite image data can be created. Note that the face image and template combining method and the like are performed by substantially the same method as in the first embodiment described above.

図11に示すような動画に基づいて合成画像データを作成する場合、動画を構成する複数の画像データの中から特定の一つの画像データを対象として、その対象画像データに写されている顔画像を一つのテンプレートと合成することで、単一の合成画像データを作成することができる。また、動画を構成する画像データのうち全部または一部の複数の画像データを対象とし、その対象画像データに写されている顔画像を一つ又は複数のテンプレートと合成することで、複数の合成画像データを作成することができる。特に複数のテンプレートを用いる場合には、画像データの撮影時刻T〜Tに応じて、顔画像と合成するテンプレートを変えることも可能である。 When composite image data is created based on a moving image as shown in FIG. 11, a face image that is copied to the target image data from a plurality of pieces of image data constituting the moving image as a target. By combining with a single template, a single composite image data can be created. In addition, a plurality of image data constituting a moving image is targeted for all or a part of a plurality of image data, and a plurality of synthesized images are synthesized with one or a plurality of templates. Image data can be created. In particular, when a plurality of templates are used, the template to be combined with the face image can be changed according to the image data shooting times T 0 to T n .

また、単一のテンプレートと動画を構成する複数の画像データとを合成の対象とした場合、作成された複数の合成画像データを経時的に組み合わせることで、テンプレート上で顔画像が経時的に変化する新たな動画を作成することも可能である。   In addition, when a single template and multiple image data that make up a movie are to be combined, the face image changes over time on the template by combining the multiple combined image data created over time. It is also possible to create a new video.

このように、複数の画像データを含む動画を合成画像データの対象とすることで、一つの合成画像データの作成、複数の合成画像データの作成、静止画の合成画像データの作成、および動画の合成画像データの作成が可能となり、合成画像データの作成の自由度が向上する。   In this way, a moving image including a plurality of image data is set as a target of the combined image data, thereby creating one combined image data, generating a plurality of combined image data, generating a combined image data of a still image, and Composite image data can be created, and the degree of freedom in creating composite image data is improved.

(第4の実施の形態)
本実施の形態では、合成画像データおよび非合成画像データが組み合わされてスライドショーが作成される例について説明する。ここでいう「スライドショー」とは、複数の画像データを所定の時間間隔で順次再生するものを指し、再生の際には所定の音楽を流してもよい。なお、再生時の所定の時間間隔は、一定であってもよいし、一定ではなくてもよい。本実施の形態の構成は、上述の第1の実施の形態の構成と略同一であり、第1の実施の形態と同一部分には同一符号を付して詳細な説明は省略する。
(Fourth embodiment)
In this embodiment, an example in which a slide show is created by combining composite image data and non-composite image data will be described. Here, the “slide show” refers to one in which a plurality of image data is sequentially reproduced at a predetermined time interval, and predetermined music may be played during reproduction. Note that the predetermined time interval at the time of reproduction may be constant or not constant. The configuration of the present embodiment is substantially the same as the configuration of the first embodiment described above, and the same parts as those of the first embodiment are denoted by the same reference numerals and detailed description thereof is omitted.

本実施の形態では、上述の第1の実施の形態の合成画像作成装置および合成画像作成方法が利用されて合成画像データが作成され、画像合成部24が、この合成画像データと非合成画像データとを再生順に並べて画像集を作成する。このようにして作成された画像集は、画像出力部26によって、ハードディスク、CD、DVD、フラッシュメモリ、或いはその他のコンピュータ読み取り可能な媒体に書き込まれる。そして、画像出力部26よって、或いは画像出力部26および他の機器類との協働によって、画像集の各画像データが再生順に従って順次再生される。   In the present embodiment, composite image data is created using the composite image creation apparatus and composite image creation method of the first embodiment described above, and the image composition unit 24 uses the composite image data and the non-composite image data. An image book is created by arranging and in the order of playback. The image collection created in this way is written by an image output unit 26 onto a hard disk, CD, DVD, flash memory, or other computer-readable medium. Then, each image data of the image collection is sequentially reproduced according to the reproduction order by the image output unit 26 or in cooperation with the image output unit 26 and other devices.

本実施の形態で作成される合成画像データは、単一または複数の画像データと単一または複数のテンプレートとが合成されることで作成される。特に複数の画像データに基づいて合成画像データを作成する場合には、例えば(1)全ての画像データの合成画像データを作成する、(2)スライドショーの再生順を基準にして、所定の順番毎の画像データの合成画像データを作成する、(3)指定された画像データの合成画像データを作成する、(4)スライドショーの際に流される音楽に基づいて特定される画像データの合成画像データを作成する、ことが可能である。   The composite image data created in the present embodiment is created by synthesizing single or plural image data and single or plural templates. In particular, when creating composite image data based on a plurality of image data, for example, (1) creating composite image data of all image data, (2) every predetermined order based on the playback order of the slide show (3) Create composite image data of designated image data. (4) Create composite image data of image data specified based on music played during a slide show. It is possible to create.

図12は、スライドショーの際に流される音楽に基づいて、スライドショーに用いられる合成画像データが作成される場合の一例を示す図である。図12の左側は、画像集の複数の画像データが再生される順番を示す図であり、図12の右側は、音楽の盛り上がり度(縦軸)と時間(横軸)との関係を示す図である。なお、「音楽の盛り上がり度」は、任意の要素に基づいて定められ、例えば、使用される音楽の音程、音量、テンポ、サビ、等の音楽的な要素や、特定の人の感覚、等に基づいて定められる。また、音楽が1番盛り上がるタイミングも任意の要素に基づいて定められる。例えば、音程、音量、あるいはテンポを周波数成分化し、その周波数成分化された要素のピークポイント及びそのピークポイントの周辺を「音楽が1番盛り上がるタイミング」とすることもできる。なお、図12に示されている例では、音楽が一番盛り上がるタイミングで(図12中の「A」参照)、テンプレートが使用された合成画像データ(図12の黒塗り部参照)が再生されるようになっており、スライドショーの面白みが更に増す。   FIG. 12 is a diagram illustrating an example of a case where composite image data used for a slide show is created based on music played during a slide show. The left side of FIG. 12 is a diagram showing the order in which a plurality of image data of the image collection is reproduced, and the right side of FIG. 12 is a diagram showing the relationship between the degree of music excitement (vertical axis) and time (horizontal axis). It is. The “music excitement level” is determined based on an arbitrary factor. For example, the degree of music excitement depends on musical factors such as the pitch, volume, tempo, rust, etc. Determined based on. In addition, the timing at which music is most excited is determined based on an arbitrary factor. For example, the pitch, volume, or tempo can be converted into frequency components, and the peak point of the frequency component element and the vicinity of the peak point can be set as “the most exciting music”. In the example shown in FIG. 12, at the timing when the music is most exciting (see “A” in FIG. 12), the composite image data using the template (see the black portion in FIG. 12) is reproduced. This makes the slide show more interesting.

なお、合成画像データの対象となる画像データが予め決まっている場合には、その画像データおよびテンプレートによって合成画像データが作成され、その後に、合成画像データおよび非合成画像データが再生順に組み合わされてもよい。また、合成画像データを作成する前に非合成画像データを再生順に並べて、並べられた非合成画像データの一部または全部とテンプレートとによって合成画像データを作成し、基になった非合成画像データの再生順序のところに作成された合成画像データを挿入してもよい。   If the image data to be the target of the composite image data is determined in advance, the composite image data is created from the image data and the template, and then the composite image data and the non-composite image data are combined in the order of reproduction. Also good. Prior to creating composite image data, non-synthesized image data is arranged in the order of reproduction, and composite image data is created based on a part or all of the arranged non-synthesized image data and a template. The synthesized image data created in the reproduction order may be inserted.

本実施の形態では、合成画像データおよび非合成画像データが組み合わされた複数の画像データによって画像集が構成される例について説明したが、合成画像データのみによって画像集が構成されてもよい。   In the present embodiment, an example in which an image collection is configured by a plurality of image data obtained by combining composite image data and non-composite image data has been described. However, an image collection may be configured by only composite image data.

また、合成画像データを含む画像集は、スライドショー以外の用途に使用されることも可能である。例えば、スライドショーのように単一の画像データを順次再生する場合だけではなく、アルバムのように一度に複数の画像データを表示していく場合にも、画像集の合成画像データを使用することができる。   In addition, the image collection including the composite image data can be used for purposes other than the slide show. For example, not only when sequentially reproducing single image data as in a slide show, but also when displaying a plurality of image data at a time as in an album, it is possible to use composite image data of an image collection. it can.

また、所望のテンプレートが適宜用いられる。例えばスライドショーの場合には、一画像毎に所望のテンプレートが用いられてもよい。またアルバムの場合には、一度に再生される複数の画像データが合成される1頁毎にテンプレートが用いられてもよい。   A desired template is used as appropriate. For example, in the case of a slide show, a desired template may be used for each image. In the case of an album, a template may be used for each page on which a plurality of image data reproduced at a time is combined.

また、スライドショーやアルバム等とともに再生される音楽は、任意の音楽が用いられ、例えば、テンプレートに対して予め対応づけられている音楽が用いられたり、ユーザの好みによって選択された所望の音楽が用いられたりする。なお、このような音楽のデータは、関連するテンプレートの各種データと共に格納部に格納されていてもよいし、別個の格納部に格納されていてもよい。   In addition, music that is played back together with a slide show, an album, or the like is arbitrary music. For example, music that is previously associated with a template is used, or desired music that is selected according to user preferences is used. Or Note that such music data may be stored in a storage unit together with various data of related templates, or may be stored in a separate storage unit.

本発明は、上述の実施の形態およびその変形例に限定されるものではなく、当業者の知識に基づいて各種の設計変更等の変形が加えられることも可能であり、そのような変形が加えられた実施の形態も本発明の範囲に含まれうる。   The present invention is not limited to the above-described embodiments and modifications thereof, and various modifications such as design changes can be added based on the knowledge of those skilled in the art. The described embodiments can also be included in the scope of the present invention.

例えば、上述した第1、第2の実施の形態の合成写真生成装置では、集合写真に写されている顔を検出できることから、その顔の数を算出し、生成した合成写真の注文データに利用するようにしてもよい。たとえば、集合写真の画像データから9人の顔が検出できた場合、合成写真のプリント数を9枚に設定して自動プリントするようにしてもよい。   For example, since the composite photo generation apparatus according to the first and second embodiments described above can detect the face shown in the group photo, the number of the faces is calculated and used for order data of the generated composite photo. You may make it do. For example, if nine faces can be detected from the image data of the group photo, the number of composite photos to be printed may be set to nine and automatically printed.

また、上述した第1、第2の実施の形態の合成写真生成装置でグループの数も検出できることから、グループ単位で写真プリントの注文データを設定できるようにしてもよい。たとえば、たとえば、集合写真の画像データから3つのグループが検出できた場合、合成写真のプリント数を3枚に設定して自動プリントするようにしてもよい。通常、家族であれば、一家に一枚のプリントがあれば十分なので、不要なプリントを防止することができる。   In addition, since the number of groups can be detected by the composite photo generation apparatus according to the first and second embodiments described above, order data for photo prints may be set in units of groups. For example, for example, when three groups can be detected from the image data of the group photograph, the number of composite photographs to be printed may be set to three and automatically printed. Usually, if it is a family, it is sufficient if there is one print in the family, so unnecessary prints can be prevented.

また、上記の各実施の形態では、専用の合成写真生成装置を用いた例で説明したが、合成写真生成装置は、一般的なコンピュータ(たとえば、パソコン)によって構成するようにしてもよい。すなわち、一般的なコンピュータに本発明に係る合成写真生成プログラムをインストールし、コンピュータに上記実施の形態の合成写真生成装置の機能を実現させるようにしてもよい。   In each of the above-described embodiments, an example using a dedicated composite photo generation apparatus has been described. However, the composite photo generation apparatus may be configured by a general computer (for example, a personal computer). That is, the composite photo generation program according to the present invention may be installed in a general computer so that the computer can realize the functions of the composite photo generation apparatus of the above-described embodiment.

また、上記の各実施の形態では、テンプレートデータとテンプレート情報とが別個の格納部に格納され別々に管理されている例について説明したが、これに限定されるものではない。例えば、テンプレート情報を「テンプレートデータの付帯情報」としてテンプレートデータと予め関連づけておき、テンプレートデータおよびテンプレート情報を単一の格納部に格納してもよい。この場合、テンプレートデータおよびテンプレート情報の管理が容易となり、関連するテンプレートデータおよびテンプレート情報を単純な処理で呼び出すことが可能となる。   In each of the above embodiments, the example in which the template data and the template information are stored in separate storage units and managed separately has been described, but the present invention is not limited to this. For example, the template information may be associated with the template data in advance as “accompanying information of the template data”, and the template data and the template information may be stored in a single storage unit. In this case, management of template data and template information is facilitated, and related template data and template information can be called by a simple process.

また、テンプレートの合成位置の大きさに応じて、合成対象の顔画像を調整してもよい。例えば、合成位置調整部22が、テンプレートと合成する顔画像の配置を決定する際に、配置される合成位置の大きさに応じて合成対象の顔画像の大きさを正規化することで、テンプレートと顔画像とを自然な状態で合成することが可能である。顔画像の調整方法は、例えば、(I)テンプレート毎に、調整するべき顔画像の大きさ(以下「顔画像基準サイズ」とも称する)を設定しておき、合成対象の顔画像をその顔画像基準サイズに合わせる方法、(II)合成位置毎に、顔画像基準サイズを設定しておき、合成対象の顔画像をその顔画像基準サイズに合わせる方法、等が考えられる。これにより、例えば複数の画像データに基づいて合成画像データを作成する場合のように、合成対象の複数の顔画像の大きさが不均一な場合であっても、自然な合成画像データを得ることができる。なお、合成位置毎に顔画像基準サイズが異なる場合には、合成位置の顔画像基準サイズと調整前の顔画像のサイズとを比較して両者の適合性を判断してもよい。この場合、両者の適合性に応じてテンプレート上における顔画像の配置を決定したり、テンプレート上における顔画像の配置を左右する重み付けの要素の一つとして両者の適合性を用いたりすることもできる。   Further, the face image to be synthesized may be adjusted according to the size of the template synthesis position. For example, when the composition position adjustment unit 22 determines the arrangement of the face image to be synthesized with the template, the size of the face image to be synthesized is normalized according to the size of the composition position to be arranged. And the face image can be synthesized in a natural state. For example, (I) the size of the face image to be adjusted (hereinafter also referred to as “face image reference size”) is set for each template, and the face image to be synthesized is set as the face image adjustment method. A method of matching with a reference size, (II) a method of setting a face image reference size for each combination position, and adjusting a face image to be combined with the face image reference size, etc. are conceivable. Thus, natural composite image data can be obtained even when the size of a plurality of face images to be combined is not uniform, for example, when composite image data is created based on a plurality of image data. Can do. When the face image reference size is different for each combination position, the compatibility between the face image reference size at the combination position and the size of the face image before adjustment may be determined. In this case, the arrangement of the face image on the template can be determined according to the compatibility between the two, or the compatibility between the two can be used as one of the weighting elements that influence the arrangement of the face image on the template. .

また、合成対象の顔画像の色合いを、所謂セットアップ処理などの画像処理を利用して、テンプレート毎あるいは合成位置毎に調整してもよい。例えば、画像合成部24が、顔画像とテンプレートとを合成する際に、テンプレート毎に定められたテーマや合成位置毎に定められたテーマに応じて顔画像の色合いを調整することが可能である。具体的には、例えば夏用のテンプレートが用いられる場合、すべての合成位置あるいは特定の合成位置に配置される顔画像の色合いが日焼けした顔色に調整されるように、テンプレート毎あるいは合成位置毎に目標とする色合いを予め設定しておき、合成位置に配置される顔画像の色合いを目標とする色合いに調整する。これにより、テンプレートのテーマあるいは合成位置のテーマに合った合成画像データを得ることが可能となり、より面白みのある合成画像データを作成することができる。なお、テーマは、季節、時間、場所等に応じて適宜選定可能であり、テンプレートの付帯情報としてテンプレートデータと共に格納部に格納しておくこともできる。また、顔画像の色合いの調整は、部分的に実施可能であり、例えば顔色あるいは頭髪の色等のみを変化させることもできる。   Further, the hue of the face image to be synthesized may be adjusted for each template or each synthesis position using image processing such as so-called setup processing. For example, when the image synthesis unit 24 synthesizes a face image and a template, it is possible to adjust the color of the face image according to a theme defined for each template or a theme defined for each synthesis position. . Specifically, for example, when a summer template is used, every template or each combination position is adjusted so that the hue of the face image arranged at all the combination positions or a specific combination position is adjusted to a tanned face color. A target hue is set in advance, and the hue of the face image arranged at the synthesis position is adjusted to the target hue. As a result, it is possible to obtain composite image data that matches the theme of the template or the theme of the composite position, and it is possible to create composite image data that is more interesting. The theme can be appropriately selected according to the season, time, place, etc., and can be stored in the storage unit together with the template data as supplementary information of the template. Further, the adjustment of the hue of the face image can be partially performed, and for example, only the face color or the hair color can be changed.

また、合成対象の顔画像の傾きを、テンプレート毎あるいは合成位置毎に調整してもよい。例えば、合成位置調整部22が、テンプレートに合成する顔画像の配置を決定する際に、合成位置に応じて合成対象の顔画像の傾きを調整することで、テンプレートと顔画像とを適切に合成することが可能である。具体的には、例えばテンプレート毎あるいは合成位置毎に合成対象の「顔画像の傾き」の目標値を定めておき、その目標値に応じて合成対象の顔画像の傾きを調整することが可能である。これにより、顔画像をテンプレート上に適切に配置することができる。   Further, the inclination of the face image to be combined may be adjusted for each template or for each combining position. For example, when the composition position adjustment unit 22 determines the arrangement of the face image to be combined with the template, the composition and the face image are appropriately combined by adjusting the inclination of the face image to be combined according to the combination position. Is possible. Specifically, for example, a target value of the “inclination of the face image” to be synthesized can be determined for each template or each synthesis position, and the inclination of the face image to be synthesized can be adjusted according to the target value. is there. Thereby, the face image can be appropriately arranged on the template.

また、上記の各実施の形態では、計測する人物の顔の方向や顔の大きさに応じて、計測した距離に重み付けする例が説明されているが、他の要素に基づいて顔画像同士の関係に重み付けしてもよい。例えば、通常、仲の良い者同士は、顔を向かい合わせることが多いと思われる。そこで、顔の方向が向かい合っている複数の人物の顔画像がグルーピングされるように、重み付けを行う可能である。具体的には、例えば合成位置調整部22が、顔が向き合っている者同士を仲が良いグループと判断し、対応する顔画像が近くに配置されるように、計測した距離に重み付けしたり、合成位置を決定したりすることができる。なお、「顔が向き合っている者同士」の判断は、例えば顔画像の方向に基づいて行われる。   In each of the above embodiments, an example in which the measured distance is weighted according to the face direction and the face size of the person to be measured has been described. Relationships may be weighted. For example, it seems that usually good friends often face each other. Therefore, weighting can be performed so that face images of a plurality of persons whose faces are facing each other are grouped. Specifically, for example, the composition position adjustment unit 22 determines that the persons facing each other are a good group and weights the measured distance so that the corresponding face images are arranged nearby, And the composite position can be determined. Note that the determination of “persons facing each other” is made based on the direction of the face image, for example.

また、計測する人物の顔の表情に基づいて、計測した距離に重み付けしたり、合成位置を決定してもよい。図13は、本変形例の合成写真生成装置の構成を示すブロック図である。本変形例では、図1に示されている顔間距離検出部20の代わりに、顔情報を検出する顔情報検出部34が設けられている。この顔情報検出部34は、計測する人物の顔画像の表情を既知の表情認識方法によって検出し、検出した表情毎に顔画像が近くに配置されるようにグルーピングしたり、計測した距離に重み付けしたりする。そして、合成位置調整部22は、顔情報検出部34の検出結果に基づいて、テンプレート上における顔画像の合成位置を決定する。これにより、笑っている複数の顔画像や驚いている複数の顔画像を、テンプレート上において近くに配置することが可能となる。また、表情に基づくグルーピングと他の要素に基づくグルーピングとを組み合わせることもできる。例えば、まず検出された顔画像の表情に基づいて複数の顔画像のグルーピングを行い、その後グルーピングされたグループ中の顔画像を距離による重み付け等することで、顔画像の合成位置を決定することも可能である。なお、表情認識の方法としては、任意の手法を用いることが可能であり、例えば特開2005−149302号公報や特開2005−044330号公報に開示されている既知の手法が用いられうる。例えば、特開2005−149302号公報は、顔画像認識装置及び顔画像認識プログラムを開示する。これらの技術は、予め登録される登録顔画像の特徴点配置情報と人物IDとを、前記登録顔画像に対応付けて顔テンプレートとして登録し、表情の異なる複数の顔画像の特徴点配置情報に基づいて顔変形情報を抽出する。そして、顔テンプレートと顔変形情報とに基づいて、画像中に含まれる顔画像中の人物を特定することができる。また、特開2005−044330号公報では、検出対象として検出された顔画像をガボア・フィルタによりフィルタリングして顔特徴を抽出し、この顔特徴に基づき、与えられた顔画像の表情を認識する表情認識方法が開示されている。また、認識対象となる特定表情を示す複数の顔画像と該特定表情とは異なる表情を示す複数の顔画像とからなる表情学習用データセットを使用して、与えられた顔画像の表情を認識する表情認識方法も開示されている。この表情認識方法では、表情学習用データセットからガボア・フィルタによって抽出した顔特徴に基づき、与えられた顔画像から特定表情を示す顔画像を識別する。また、この表情認識方法を実施する装置は、与えられた顔画像から認識対象となる特定表情を示す顔画像を識別する表情識別器を有する。この表情識別器は、予め学習されたサポート・ベクタを使用して上記顔特徴抽出手段により抽出された顔特徴が上記特定表情であるか否かを識別するサポート・ベクタ・マシーン(SVM)であってもよい。また、表情識別器は、複数の弱仮説からなる推定結果出力手段と、推定結果出力手段から出力される推定結果に基づき与えられた顔画像が特定表情であるか否かを判別する判別手段とを有していてもよい。推定結果出力手段は、予め学習された特徴量に基づき、与えられた顔画像が特定表情であるか否かを推定して複数の弱仮説毎に出力し、判別手段は、弱仮説の推定結果と当該弱仮説の推定性能に基づき学習された信頼度との積を、一の弱仮説が推定結果を出力する毎に加算し、該加算結果に基づき顔画像が特定表情であるか否かを判別してもよい。また、上記の表情認識方法を実施する装置は、複数の、特定表情を示す顔画像を識別する表情識別器と、該複数の表情識別器の識別結果に基づき、与えられた顔画像の表情を決定する表情決定手段とを有していてもよい。この表情決定手段は、各表情識別器の加算結果に基づき、与えられた顔画像の表情を決定してもよい。また、この表情識別器は、予め学習されたサポート・ベクタを使用して顔特徴抽出手段により抽出された顔特徴が特定表情であるか否かを識別するサポート・ベクタ・マシーン(SVM)であってもよい。サポート・ベクタは、認識対象となる特定表情を示す複数の顔画像と該特定表情とは異なる表情を示す複数の顔画像とからなる表情学習用データセットを使用して、複数のガボア・フィルタから選択した一のガボア・フィルタのフィルタリング結果に基づき、与えられた顔画像が特定表情であるか否かを推定する弱仮説を繰り返し生成した際に弱仮説として選択された全ガボア・フィルタにより、該表情学習用データセットから顔特徴を抽出し、該抽出された顔特徴に基づき予め学習されたものであってもよい。   Further, based on the facial expression of the person to be measured, the measured distance may be weighted or the synthesis position may be determined. FIG. 13 is a block diagram showing a configuration of a composite photo generation apparatus according to this modification. In this modification, a face information detection unit 34 for detecting face information is provided instead of the inter-face distance detection unit 20 shown in FIG. The face information detection unit 34 detects facial expressions of a person's facial image to be measured by a known facial expression recognition method, and groups the facial images so that the detected facial expressions are arranged nearby, or weights the measured distances. To do. The composition position adjustment unit 22 determines the composition position of the face image on the template based on the detection result of the face information detection unit 34. This makes it possible to place a plurality of smiling face images and a plurality of surprised face images close together on the template. It is also possible to combine groupings based on facial expressions and groupings based on other elements. For example, a plurality of face images may be grouped first based on the detected facial image expressions, and then the face image in the grouped group may be weighted by distance to determine the face image synthesis position. Is possible. As a facial expression recognition method, any method can be used. For example, known methods disclosed in Japanese Patent Application Laid-Open Nos. 2005-149302 and 2005-044330 can be used. For example, Japanese Patent Laying-Open No. 2005-149302 discloses a face image recognition device and a face image recognition program. These techniques register feature point arrangement information and person IDs of registered face images registered in advance as face templates in association with the registered face images, and use them as feature point arrangement information of a plurality of face images with different facial expressions. Based on this, face deformation information is extracted. Based on the face template and the face deformation information, a person in the face image included in the image can be specified. In Japanese Patent Application Laid-Open No. 2005-044330, a facial image detected as a detection target is filtered by a Gabor filter to extract a facial feature, and a facial expression that recognizes the facial expression of a given facial image based on the facial feature. A recognition method is disclosed. Recognize facial expressions of a given facial image using a facial expression learning data set consisting of a plurality of facial images showing a specific facial expression to be recognized and a plurality of facial images showing facial expressions different from the specific facial expression. A facial expression recognition method is also disclosed. In this facial expression recognition method, a facial image showing a specific facial expression is identified from a given facial image based on facial features extracted by a Gabor filter from the facial expression learning data set. In addition, an apparatus for performing this facial expression recognition method includes a facial expression identifier that identifies a facial image showing a specific facial expression to be recognized from a given facial image. This facial expression classifier is a support vector machine (SVM) that identifies whether the facial feature extracted by the facial feature extraction means is the specific facial expression using a previously learned support vector. May be. The facial expression classifier includes an estimation result output unit including a plurality of weak hypotheses, and a determination unit that determines whether or not a face image provided based on the estimation result output from the estimation result output unit is a specific facial expression. You may have. The estimation result output means estimates whether or not the given face image is a specific facial expression based on the previously learned feature amount and outputs it for each of a plurality of weak hypotheses, and the discrimination means outputs the weak hypothesis estimation result And the reliability learned based on the estimation performance of the weak hypothesis each time one weak hypothesis outputs an estimation result, and whether or not the face image is a specific facial expression based on the addition result It may be determined. In addition, an apparatus for performing the above facial expression recognition method includes a facial expression identifier for identifying a plurality of facial images showing a specific facial expression, and a facial expression of a given facial image based on the identification results of the plurality of facial expression identifiers. You may have the facial expression determination means to determine. This facial expression determination means may determine the facial expression of a given face image based on the addition result of each facial expression classifier. The facial expression classifier is a support vector machine (SVM) that identifies whether the facial feature extracted by the facial feature extraction means is a specific facial expression using a previously learned support vector. May be. The support vector uses a facial expression learning data set including a plurality of facial images indicating specific facial expressions to be recognized and a plurality of facial images indicating facial expressions different from the specific facial expressions. Based on the filtering result of one selected Gabor filter, all Gabor filters selected as the weak hypothesis when the weak hypothesis for estimating whether a given face image is a specific facial expression are repeatedly generated, The facial features may be extracted from the facial expression learning data set and learned in advance based on the extracted facial features.

なお、合成画像データの生成のための上述の各手法をコンピュータに機能させるプログラムも本発明の範囲に含まれうる。   Note that a program that causes a computer to function the above-described methods for generating composite image data can also be included in the scope of the present invention.

また、顔画像のグルーピング方法は、上述の手法に限定されるものではない。例えば、写真(画像データ)に写っている(含まれる)頻度に応じて単純にグルーピングを行うことも可能であり、頻度の多い人同士を同一のグループにグルーピングすることもできる。また、グルーピングによって高い順位のグループから漏れてしまったような顔画像であっても、写真(画像データ)に写っている(含まれる)頻度が高い顔画像については、予めテンプレート上に規定された特定の場所に合成してもよい。テンプレート上に規定されるそのような特定の場所は、テンプレートのテーマ等に応じて適宜決められ、例えば目立つ位置を特定の場所とすることができる。   The face image grouping method is not limited to the above-described method. For example, it is possible to simply perform grouping according to the frequency of (included) in a photograph (image data), and it is also possible to group people with high frequency into the same group. In addition, even for face images that have been leaked from a higher-ranking group due to grouping, face images that are frequently included (included) in photographs (image data) are defined in advance on the template. It may be synthesized at a specific location. Such a specific place defined on the template is appropriately determined according to the theme of the template and the like. For example, a conspicuous position can be set as the specific place.

また、顔画像のグルーピングの基準は、上述の手法に限定されるものではない。例えば、仲が良い人同士は撮影の際も一緒に居ることが多いので、一緒に写真(画像データ)に写っている(含まれる)頻度を顔画像のグルーピングの基準の一つにしてもよい。この場合には、頻度が高いほどその顔画像同士が近くに配置されるように、顔画像とテンプレートとを合成することができる。   Further, the criteria for grouping facial images are not limited to the above-described method. For example, people who are close friends often stay together when shooting, so the frequency of being included (included) in a photo (image data) together may be one of the criteria for grouping facial images. . In this case, the face image and the template can be synthesized so that the higher the frequency, the closer the face images are arranged.

合成画像データの作成の全体的な流れの一例を示す図である。It is a figure which shows an example of the whole flow of preparation of synthetic image data. 本発明に係る合成写真生成装置の第1の実施の形態を示すブロック図である。1 is a block diagram showing a first embodiment of a composite photo generation apparatus according to the present invention. 第1の実施の形態の合成写真生成装置における合成写真の生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of the composite photograph in the composite photograph production | generation apparatus of 1st Embodiment. 顔画像の配置の決定手順を示すフローチャートである。It is a flowchart which shows the determination procedure of arrangement | positioning of a face image. テンプレートの一例を示す図である。It is a figure which shows an example of a template. 集合写真の一例を示す図である。It is a figure which shows an example of a group photograph. 第2の実施の形態の合成写真生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the composite photograph production | generation apparatus of 2nd Embodiment. 第2の実施の形態の合成画像生成装置における合成写真の生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of the composite photograph in the composite image generation apparatus of 2nd Embodiment. 顔画像のグルーピングの手順を示すフローチャートである。It is a flowchart which shows the procedure of grouping of a face image. 集合写真の一例を示す図である。It is a figure which shows an example of a group photograph. 複数の画像データから成る動画に本発明を応用した例を示す図である。It is a figure which shows the example which applied this invention to the moving image which consists of several image data. スライドショーの際に流される音楽に基づいて、スライドショーに用いられる合成画像データが作成される場合の一例を示す図である。It is a figure which shows an example in case the synthetic image data used for a slide show are produced based on the music played in the case of a slide show. 合成写真生成装置の構成の一変形例を示すブロック図である。It is a block diagram which shows the modification of a structure of a composite photo production | generation apparatus.

符号の説明Explanation of symbols

10…合成写真生成装置、12…画像入力部、14…顔検出部、16…テンプレート格納部、18…テンプレート情報格納部、20…顔間距離検出部、22…合成位置調整部、24…画像合成部、26…画像出力部、30…合成写真生成装置、32…変化量検出部、34…顔情報検出部


DESCRIPTION OF SYMBOLS 10 ... Composite photograph production | generation apparatus, 12 ... Image input part, 14 ... Face detection part, 16 ... Template storage part, 18 ... Template information storage part, 20 ... Inter-face distance detection part, 22 ... Composite position adjustment part, 24 ... Image Composition unit, 26 ... Image output unit, 30 ... Composite photo generation device, 32 ... Change amount detection unit, 34 ... Face information detection unit


Claims (19)

画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像データ生成方法において、
隣り合う合成位置同士を組み合わせて前記テンプレート上に設定された合成位置をグループ化し、
所属する合成位置の数に応じてグループの順位を決定し、
画像データに含まれる人物の顔画像を検出し、
検出された個々の顔画像同士の関係を検出し、
顔画像同士の関係に応じて顔画像を前記各グループに前記順位で配分し、
配分された顔画像を各グループの合成位置において前記テンプレートと合成して合成画像データを生成することを特徴とする合成画像作成方法。
A composite image data generation method for generating composite image data by extracting a face image of each person included in the image data and combining the extracted face image with the template at a composite position set in advance on the template In
Combining adjacent synthesis positions together to group the synthesis positions set on the template,
Decide the rank of the group according to the number of composite positions to which it belongs,
Detect the face image of the person included in the image data,
Detect the relationship between the detected individual face images,
According to the relationship between the face images, the face images are allocated to the groups in the order,
A composite image creation method, wherein composite image data is generated by combining the allocated face image with the template at a combination position of each group.
画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像データ生成方法において、
画像データに含まれる人物の顔画像を検出し、
検出された個々の顔画像同士の関係を検出し、
顔画像同士の関係に応じて顔画像をグループ分けし、
同一グループに属する各人物の顔画像が近い合成位置に配置されるように、各人物の顔画像を前記テンプレート上に設定された合成位置において当該テンプレートと合成して合成画像データを生成することを特徴とする合成画像作成方法。
A composite image data generation method for generating composite image data by extracting a face image of each person included in the image data and combining the extracted face image with the template at a composite position set in advance on the template In
Detect the face image of the person included in the image data,
Detect the relationship between the detected individual face images,
Group face images according to the relationship between face images,
The face image of each person belonging to the same group is synthesized with the template at the composition position set on the template so that the face image of each person is arranged at a close composition position. A method for creating a composite image.
計測する人物の顔の方向に応じて顔画像同士の関係に重み付けすることを特徴とする請求項1又は2に記載の合成画像作成方法。   The synthetic image creation method according to claim 1, wherein the relationship between the face images is weighted according to the direction of the face of the person to be measured. 計測する人物の顔の大きさに応じて顔画像同士の関係に重み付けすることを特徴とする請求項1又は2に記載の合成画像作成方法。   The synthetic image creation method according to claim 1, wherein the relationship between the face images is weighted according to the size of the face of the person to be measured. 計測する人物の顔の表情に応じて顔画像同士の関係に重み付けすることを特徴とする請求項1又は2に記載の合成画像作成方法。   The synthetic image creation method according to claim 1, wherein the relationship between face images is weighted according to the facial expression of a person to be measured. 画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像データ生成方法において、
画像データを2回に分けて撮影し、
撮影された二つの画像データから顔画像を検出し、
検出した各顔画像の移動方向と移動量を計測し、
計測した移動量が閾値以上の顔画像を検出し、
検出した顔画像を計測した移動方向と移動前後の少なくとも一方の位置とに基づいてグループ分けし、
同一グループに属する各人物の顔画像が近い合成位置に配置されるように、各人物の顔画像を前記テンプレート上に設定された合成位置において当該テンプレートと合成して合成画像データを生成することを特徴とする合成画像作成方法。
A composite image data generation method for generating composite image data by extracting a face image of each person included in the image data and combining the extracted face image with the template at a composite position set in advance on the template In
Shoot the image data in two steps,
A face image is detected from the two captured image data,
Measure the moving direction and moving amount of each detected face image,
Detect a face image whose measured movement amount is greater than or equal to a threshold,
Group detected face images based on the measured movement direction and at least one position before and after movement,
The face image of each person belonging to the same group is synthesized with the template at the composition position set on the template so that the face image of each person is arranged at a close composition position. A method for creating a composite image.
更に、前記テンプレートに応じて、当該テンプレートに合成する顔画像の色合いを調整することを特徴とする請求項1乃至6のいずれかに記載の合成画像作成方法。   Furthermore, according to the said template, the hue of the face image synthesize | combined with the said template is adjusted, The synthesized image production method in any one of Claim 1 thru | or 6 characterized by the above-mentioned. 更に、前記合成画像データを含む複数の画像データを音楽と共に順次出力する請求項1乃至7のいずれかに記載の合成画像作成方法であって、
前記音楽に応じて、前記合成画像データの出力のタイミングが決められることを特徴とする請求項1乃至7のいずれかに記載の合成画像作成方法。
The composite image creation method according to any one of claims 1 to 7, further comprising: sequentially outputting a plurality of image data including the composite image data together with music.
8. The composite image creation method according to claim 1, wherein the output timing of the composite image data is determined according to the music.
画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像作成装置において、
隣り合う合成位置同士を組み合わせて前記テンプレート上に設定された合成位置をグループ化する合成位置グルーピング手段と、
前記グルーピング手段でグループ化された各グループの合成位置の数に応じてグループの順位を設定するグループ順位設定手段と、
画像データに含まれる人物の顔画像を検出する顔画像検出手段と、
前記顔画像検出手段で検出された個々の顔画像同士の関係を検出する関係検出手段と、
前記関係検出手段で検出された顔画像同士の関係に応じて顔画像を組み合わせて、前記グルーピング手段でグループ化された合成位置のグループに前記グループ順位設定手段で設定された順位で組み合わせられた顔画像を割り当てる合成位置調整手段と、
前記合成位置調整手段で割り当てられた合成位置において各顔画像をテンプレートと合成して合成画像データを生成する画像合成手段と、を備えることを特徴とする合成画像作成装置。
In a composite image creation device that generates a composite image data by extracting a face image of each person included in image data and combining the extracted face image with the template at a composite position set in advance on the template ,
A combination position grouping unit that combines adjacent combination positions and groups the combination positions set on the template;
Group rank setting means for setting the rank of the group according to the number of combined positions of each group grouped by the grouping means;
Face image detection means for detecting a face image of a person included in the image data;
Relationship detecting means for detecting a relationship between individual face images detected by the face image detecting means;
Faces that are combined in the order set by the group order setting means to the combination position grouped by the grouping means by combining face images according to the relationship between the face images detected by the relation detecting means. A composite position adjusting means for assigning an image;
A composite image creating apparatus comprising: an image composition unit that composes each face image with a template at a composition position assigned by the composition position adjustment unit to generate composite image data.
画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像作成装置において、
画像データに含まれる人物の顔画像を検出する顔画像検出手段と、
前記顔画像検出手段で検出された個々の顔画像同士の関係を検出する関係検出手段と、
前記関係検出手段で検出された顔画像同士の関係に応じて顔画像を組み合わせてグループ化するグルーピング手段と、
同一グループに属する各人物の顔画像が近い合成位置に配置されるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当てる合成位置調整手段と、
前記合成位置調整手段で割り当てられた合成位置において各顔画像をテンプレートと合成して合成画像データを生成する画像合成手段と、を備えることを特徴とする合成画像作成装置。
In a composite image creation device that generates a composite image data by extracting a face image of each person included in image data and combining the extracted face image with the template at a composite position set in advance on the template ,
Face image detection means for detecting a face image of a person included in the image data;
Relationship detecting means for detecting a relationship between individual face images detected by the face image detecting means;
Grouping means for combining and grouping face images according to the relationship between the face images detected by the relationship detecting means;
A combination position adjusting means for assigning each person's face image to a combination position set on the template so that the face images of the persons belonging to the same group are arranged at a close combination position;
A composite image creating apparatus comprising: an image composition unit that composes each face image with a template at a composition position assigned by the composition position adjustment unit to generate composite image data.
前記関係検出手段は、計測する顔画像の方向に応じて顔画像同士の関係に重み付けすることを特徴とする請求項9又は10に記載の合成画像作成装置。   The composite image creating apparatus according to claim 9, wherein the relationship detection unit weights a relationship between face images according to a direction of the face image to be measured. 前記関係検出手段は、計測する顔画像の大きさに応じて顔画像同士の関係に重み付けすることを特徴とする請求項9又は10に記載の合成画像作成装置。   The composite image creating apparatus according to claim 9, wherein the relationship detecting unit weights the relationship between the face images according to the size of the face image to be measured. 前記関係検出手段は、計測する人物の顔の表情に応じて顔画像同士の関係に重み付けすることを特徴とする請求項9又は10に記載の合成画像作成装置。   The composite image creation apparatus according to claim 9 or 10, wherein the relationship detection unit weights a relationship between face images according to facial expressions of a person to be measured. 画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成することにより、合成画像データを生成する合成画像作成装置において、
2回に分けて撮影された二つの画像データからそれぞれ顔画像を検出する顔画像検出手段と、
前記顔画像検出手段で検出した各顔画像の移動方向を計測する移動方向計測手段と、
前記顔画像検出手段で検出した各顔画像の移動量を計測する移動量計測手段と、
前記移動量計測手段で計測した移動量が閾値以上の顔画像を検出し、検出した顔画像を移動方向と移動前後の少なくとも一方の位置とに基づいてグループ化する顔画像グルーピング手段と、
同一グループに属する各人物の顔画像が近い合成位置に配置されるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当てる合成位置調整手段と、
前記合成位置調整手段で割り当てられた合成位置において各顔画像をテンプレートと合成して合成画像データを生成する画像合成手段と、を備えることを特徴とする合成画像作成装置。
In a composite image creation device that generates a composite image data by extracting a face image of each person included in image data and combining the extracted face image with the template at a composite position set in advance on the template ,
A face image detecting means for detecting a face image from two image data shot in two steps,
A moving direction measuring means for measuring the moving direction of each face image detected by the face image detecting means;
A moving amount measuring means for measuring a moving amount of each face image detected by the face image detecting means;
A face image grouping unit that detects a face image whose movement amount measured by the movement amount measurement unit is equal to or greater than a threshold, and groups the detected face images based on a movement direction and at least one position before and after the movement;
A combination position adjusting means for assigning each person's face image to a combination position set on the template so that the face images of the persons belonging to the same group are arranged at a close combination position;
A composite image creating apparatus comprising: an image composition unit that composes each face image with a template at a composition position assigned by the composition position adjustment unit to generate composite image data.
前記画像合成手段は、更に、前記テンプレートに応じて当該テンプレートに合成する顔画像の色合いを調整することを特徴とする請求項9乃至14のいずれかに記載の合成画像作成装置。   The composite image creating apparatus according to claim 9, wherein the image composition unit further adjusts a hue of a face image to be composited with the template according to the template. 更に、前記合成画像データを含む複数の画像データを音楽と共に順次出力する画像出力手段を備える請求項9乃至15のいずれかに記載の合成画像作成装置であって、
前記画像出力手段は、前記音楽に応じて、前記合成画像データの出力のタイミングを決めることを特徴とする請求項9乃至15のいずれかに記載の合成画像作成装置。
The composite image creation device according to any one of claims 9 to 15, further comprising image output means for sequentially outputting a plurality of image data including the composite image data together with music.
The composite image creating apparatus according to claim 9, wherein the image output unit determines the output timing of the composite image data according to the music.
画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成して合成画像データを生成するためのコンピュータを、
隣り合う合成位置同士を組み合わせて前記テンプレート上に設定された合成位置をグループ化する合成位置グルーピング手段、
前記グルーピング手段でグループ化された各グループの合成位置の数に応じてグループの順位を設定するグループ順位設定手段、
画像データに含まれる人物の顔画像を検出する顔画像検出手段、
前記顔画像検出手段で検出された個々の顔画像同士の関係を検出する関係検出手段と、
前記関係検出手段で検出された顔画像同士の関係に応じて顔画像を組み合わせて、前記グルーピング手段でグループ化された合成位置のグループに前記グループ順位設定手段で設定された順位で組み合わされた顔画像を割り当てる合成位置調整手段、
前記画像データから各人物の顔画像を切り取る切り取り手段、および
前記切り取り手段で切り取られた各人物の顔画像を前記合成位置調整手段で割り当てられた前記テンプレート上の合成位置において当該テンプレートと合成して合成画像データを生成する画像合成手段、
として機能させることを特徴とする合成画像データ生成プログラム。
A computer for extracting a face image of each person included in the image data and combining the extracted face image with the template at a pre-set synthesis position on the template to generate composite image data,
A composite position grouping means for grouping composite positions set on the template by combining adjacent composite positions;
Group rank setting means for setting the rank of the groups according to the number of combined positions of the groups grouped by the grouping means;
Face image detecting means for detecting a face image of a person included in the image data;
Relationship detecting means for detecting a relationship between individual face images detected by the face image detecting means;
Faces that are combined according to the order set by the group order setting unit by combining the face images according to the relationship between the face images detected by the relationship detection unit and grouped by the grouping unit. Composite position adjustment means for assigning images,
A cutout unit that cuts out the face image of each person from the image data, and a face image of each person cut out by the cutout unit is combined with the template at a combination position on the template assigned by the combination position adjustment unit. Image synthesis means for generating synthesized image data;
A composite image data generation program characterized by being made to function as:
画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成して合成画像データを生成するためのコンピュータを、
画像データに含まれる人物の顔画像を検出する顔画像検出手段、
前記顔画像検出手段で検出された個々の顔画像同士の関係を検出する関係検出手段と、
前記関係検出手段で検出された顔画像同士の関係に応じて顔画像を組み合わせてグループ化するグルーピング手段、
同一グループに属する各人物の顔画像が近い合成位置に配置されるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当てる合成位置調整手段、
前記画像データから各人物の顔画像を切り取る切り取り手段、および
前記切り取り手段で切り取られた各人物の顔画像を前記合成位置調整手段で割り当てられた前記テンプレート上の合成位置において当該テンプレートと合成して合成画像データを生成する画像合成手段、
として機能させることを特徴とする合成画像データ生成プログラム。
A computer for extracting a face image of each person included in the image data and combining the extracted face image with the template at a pre-set synthesis position on the template to generate composite image data,
Face image detecting means for detecting a face image of a person included in the image data;
Relationship detecting means for detecting a relationship between individual face images detected by the face image detecting means;
Grouping means for combining and grouping face images according to the relationship between the face images detected by the relationship detecting means;
A combination position adjusting means for assigning each person's face image to a combination position set on the template so that the face images of each person belonging to the same group are arranged at a close combination position;
A cutout unit that cuts out the face image of each person from the image data, and a face image of each person cut out by the cutout unit is combined with the template at a combination position on the template assigned by the combination position adjustment unit. Image synthesis means for generating synthesized image data;
A composite image data generation program characterized by being made to function as:
画像データに含まれる各人物の顔画像を抽出して、抽出された顔画像をテンプレート上にあらかじめ設定された合成位置において当該テンプレートと合成して合成画像データを生成するためのコンピュータを、
2回に分けて撮影された二つの画像データからそれぞれ顔画像を検出する顔画像検出手段、
前記顔画像検出手段で検出した各顔画像の移動方向を計測する移動方向計測手段、
前記顔画像検出手段で検出した各顔画像の移動量を計測する移動量計測手段、
前記移動量計測手段で計測した移動量が閾値以上の顔画像を検出し、検出した顔画像を移動方向と移動前後の少なくとも一方の位置とに基づいてグループ化する顔画像グルーピング手段、
同一グループに属する各人物の顔画像が近い合成位置に配置されるように各人物の顔画像を前記テンプレート上に設定された合成位置に割り当てる合成位置調整手段、
一方又は双方の画像データから各人物の顔画像を切り取る切り取り手段、および
前記切り取り手段で切り取られた各人物の顔画像を前記合成位置調整手段で割り当てられた前記テンプレート上の合成位置において当該テンプレートと合成して合成画像データを生成する画像合成手段、
として機能させることを特徴とする合成画像データ生成プログラム。

A computer for extracting a face image of each person included in the image data and combining the extracted face image with the template at a pre-set synthesis position on the template to generate composite image data,
A face image detecting means for detecting a face image from two image data shot in two steps,
A moving direction measuring means for measuring a moving direction of each face image detected by the face image detecting means;
A moving amount measuring means for measuring a moving amount of each face image detected by the face image detecting means;
Face image grouping means for detecting a face image having a movement amount measured by the movement amount measurement means equal to or greater than a threshold value, and grouping the detected face images based on a movement direction and at least one position before and after the movement;
A combination position adjusting means for assigning each person's face image to a combination position set on the template so that the face images of each person belonging to the same group are arranged at a close combination position;
A cutting unit that cuts out the face image of each person from one or both of the image data, and the face image of each person cut out by the cutting unit at the combined position on the template assigned by the combining position adjusting unit Image synthesizing means for synthesizing and generating synthesized image data;
A composite image data generation program characterized by being made to function as:

JP2005246240A 2004-09-22 2005-08-26 Synthesized image generation method and apparatus, and program Pending JP2006121661A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005246240A JP2006121661A (en) 2004-09-22 2005-08-26 Synthesized image generation method and apparatus, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004275860 2004-09-22
JP2005246240A JP2006121661A (en) 2004-09-22 2005-08-26 Synthesized image generation method and apparatus, and program

Publications (1)

Publication Number Publication Date
JP2006121661A true JP2006121661A (en) 2006-05-11

Family

ID=36539078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005246240A Pending JP2006121661A (en) 2004-09-22 2005-08-26 Synthesized image generation method and apparatus, and program

Country Status (1)

Country Link
JP (1) JP2006121661A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008167063A (en) * 2006-12-27 2008-07-17 Fujifilm Corp Imaging apparatus and method
JP2008271310A (en) * 2007-04-23 2008-11-06 Canon Inc Imaging device and control method thereof, program, and storage medium
JP2009147644A (en) * 2007-12-13 2009-07-02 Canon Inc Image processing device, control method thereof, and program
JP2011004409A (en) * 2010-07-30 2011-01-06 Casio Computer Co Ltd Imaging apparatus, control program and method of controlling display
JP2018142788A (en) * 2017-02-27 2018-09-13 京セラドキュメントソリューションズ株式会社 Image processing apparatus and image forming apparatus
CN113012042A (en) * 2019-12-20 2021-06-22 海信集团有限公司 Display device, virtual photo generation method, and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008167063A (en) * 2006-12-27 2008-07-17 Fujifilm Corp Imaging apparatus and method
JP4656331B2 (en) * 2006-12-27 2011-03-23 富士フイルム株式会社 Imaging apparatus and imaging method
JP2008271310A (en) * 2007-04-23 2008-11-06 Canon Inc Imaging device and control method thereof, program, and storage medium
JP2009147644A (en) * 2007-12-13 2009-07-02 Canon Inc Image processing device, control method thereof, and program
JP2011004409A (en) * 2010-07-30 2011-01-06 Casio Computer Co Ltd Imaging apparatus, control program and method of controlling display
JP2018142788A (en) * 2017-02-27 2018-09-13 京セラドキュメントソリューションズ株式会社 Image processing apparatus and image forming apparatus
CN113012042A (en) * 2019-12-20 2021-06-22 海信集团有限公司 Display device, virtual photo generation method, and storage medium

Similar Documents

Publication Publication Date Title
US7634106B2 (en) Synthesized image generation method, synthesized image generation apparatus, and synthesized image generation program
JP4762827B2 (en) Electronic album generation apparatus, electronic album generation method, and program thereof
US9311961B2 (en) Image extracting device, image extracting method, and recording medium
JP4344925B2 (en) Image processing apparatus, image processing method, and printing system
JP5389724B2 (en) Image processing apparatus, image processing method, and program
US20130050747A1 (en) Automated photo-product specification method
JP2005086516A (en) Imaging device, printer, image processor and program
WO2004070657A1 (en) Image processing device
JP2006121661A (en) Synthesized image generation method and apparatus, and program
JP4757832B2 (en) Shooting system for creating album, shooting support apparatus, method, and program, and album creating system, method, and program
JP2007249434A (en) Album preparation system, album preparation method, and program
JP2003111009A (en) Electronic album editing device
US20040239983A1 (en) Apparatus, method, and program for recording images
US20130050744A1 (en) Automated photo-product specification method
US20130050745A1 (en) Automated photo-product specification method
JP2006279925A (en) Imaging apparatus, imaging method, and imaging program
JP6413270B2 (en) Management device and management device control method, photo sticker creation device, terminal device, control program, and recording medium
JP2006277731A (en) Image extracting device, image extracting method, and image extracting program
JP2016189507A (en) Image processing device, image processing method, program and recording medium
JP5009864B2 (en) Candidate image display method, apparatus, and program
JP2010146201A (en) Image processor, image forming apparatus, image processing method, and image processing program
JP5389594B2 (en) Image file generation method, program thereof, recording medium thereof, and image file generation device
JP3910189B2 (en) Image printing system from image file with additional information
JP5526620B2 (en) Digital camera
EP3812928A1 (en) Systems and methods for producing a flipbook

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070118