JP5657942B2 - Imaging apparatus, program, information storage medium, and imaging method - Google Patents

Imaging apparatus, program, information storage medium, and imaging method Download PDF

Info

Publication number
JP5657942B2
JP5657942B2 JP2010172850A JP2010172850A JP5657942B2 JP 5657942 B2 JP5657942 B2 JP 5657942B2 JP 2010172850 A JP2010172850 A JP 2010172850A JP 2010172850 A JP2010172850 A JP 2010172850A JP 5657942 B2 JP5657942 B2 JP 5657942B2
Authority
JP
Japan
Prior art keywords
image
faces
face
cut
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010172850A
Other languages
Japanese (ja)
Other versions
JP2012034243A (en
Inventor
直樹 松野
直樹 松野
敏 北川
敏 北川
まどか 結城
まどか 結城
眞由子 山口
眞由子 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2010172850A priority Critical patent/JP5657942B2/en
Publication of JP2012034243A publication Critical patent/JP2012034243A/en
Application granted granted Critical
Publication of JP5657942B2 publication Critical patent/JP5657942B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Description

本発明は撮影装置、プログラム、情報記憶媒体及び撮影方法に関する。   The present invention relates to a photographing apparatus, a program, an information storage medium, and a photographing method.

従来より、CCDカメラ等の撮影部で撮影された被写体の画像を編集してプリントする写真シール製造機(写真印刷装置の一例)等の撮影装置が知られている。   2. Description of the Related Art Conventionally, a photographing apparatus such as a photo sticker manufacturing machine (an example of a photographic printing apparatus) that edits and prints an image of a subject photographed by a photographing unit such as a CCD camera is known.

写真シール製造機等の撮影装置では、複数の友人同士で撮影した撮影画像に編集処理を行い、通常の写真とは異なる自由度の高い写真シールを生成して楽しむことができる。   A photographing device such as a photo sticker manufacturing machine can edit a photographed image photographed by a plurality of friends to generate and enjoy a photograph sticker having a high degree of freedom different from a normal photograph.

最近では、写真シールとしての印刷を行わずに、ネットワークを介して編集画像を交換したり、Web上に公開したりするコミュニケーションツールとしても人気が高い。   Recently, it is also popular as a communication tool for exchanging edited images over a network and publishing them on the Web without printing as photo stickers.

特開2005−277476号公報JP 2005-277476 A

写真シール機等の撮影装置で取得する画像は、できるだけ顔がアップになっているものが欲しいというニーズがある。この様なニーズに応える画像を撮影するためには、複数のユーザができるだけ接近して撮影することが必要になる。   There is a need for an image acquired by a photographing device such as a photo sticker to have a face as close as possible. In order to shoot images that meet such needs, it is necessary for a plurality of users to shoot as close as possible.

しかし短い撮影時間で複数のユーザに近接したポーズをとらせることは困難で、顔部分が近接してアップになるような撮影を行うのは難しかった。   However, it is difficult to pose a plurality of users close to each other in a short shooting time, and it is difficult to perform shooting with the face portion close up.

本発明は、以上のような課題を解決するためになされたものである。本発明の第1の態様によれば、複数のユーザの顔部分が近接するように誘導可能な撮影装置を提供することができる。また本発明の第2の態様によれば、複数のユーザの顔部分のアップ度の高い画像を提供可能な撮影装置を提供することができる。   The present invention has been made to solve the above-described problems. According to the first aspect of the present invention, it is possible to provide an imaging device that can be guided so that the face portions of a plurality of users are close to each other. Moreover, according to the 2nd aspect of this invention, the imaging device which can provide the image with a high up degree of the face part of a some user can be provided.

(1)本発明は、
ユーザを被写体として撮影する撮影部を含む撮影装置であって、
前記撮像部によって撮影された撮影画像、又は当該撮影画像から背景を抜き取った背景抜き取り画像と所与の背景画像を合成した合成画像における被写体の顔の位置を示す顔位置データを取得し、前記顔位置データに基づき、撮影画像又は合成画像において、被写体の顔部分を含み縦横が所定の設定比率の長方形の領域を切り取り領域として設定する切り取り領域設定部と、
撮影画像又は合成画像の切り取り領域の画像に基づき提供画像を生成する提供画像生成部とを含むことを特徴とする撮影装置に関する。
(1) The present invention
An imaging device including an imaging unit that images a user as a subject,
Acquiring face position data indicating the position of the face of a subject in a photographed image photographed by the imaging unit or a composite image obtained by combining a background extracted image obtained by extracting a background from the photographed image and a given background image; Based on the position data, in the captured image or composite image, a cutout area setting unit that sets a rectangular area that includes the face portion of the subject and that has a predetermined vertical and horizontal ratio as a cutout area;
The present invention relates to a photographing apparatus including a provision image generating unit that generates a provision image based on a cut-out image of a photographed image or a composite image.

また本発明は、上記各部としてコンピュータを機能させるプログラムに関する。また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるプログラムを記憶(記録)した情報記憶媒体に関する。また本発明は、上記各部を実行するステップを含む撮影装置の制御方法に関する。   The present invention also relates to a program that causes a computer to function as each of the above-described units. The present invention also relates to a computer-readable information storage medium that stores (records) a program that causes a computer to function as each unit. The present invention also relates to a method for controlling an imaging apparatus including steps for executing the above-described units.

ここにおいて撮影装置は、写真撮影装置や写真シール印刷装置でもよいし、撮影機能を搭載した情報機器(携帯電話等の携帯用通信機器や、携帯用ゲーム機や、携帯情報端末や、パーソナルコンピュータ等)でもよいし、例えば電子カメラ等の撮影装置でもよい。   Here, the photographing device may be a photographic device or a photo sticker printing device, or an information device equipped with a photographing function (a portable communication device such as a mobile phone, a portable game machine, a portable information terminal, a personal computer, etc. For example, an imaging device such as an electronic camera may be used.

本撮影装置は、顔位置データ取得機能を有していることが必要であるが、何らかの形式で顔位置を示す情報が得られる機能であればよく、顔位置データ取得機能の構成は特に限定されない。   This photographing apparatus needs to have a face position data acquisition function, but any function that can obtain information indicating the face position in any form is acceptable, and the configuration of the face position data acquisition function is not particularly limited. .

顔位置データを検出する方法として、例えば、肌色情報や目、口、鼻などの特徴点などに基づいて矩形(長方形)の顔領域を抽出し、顔に対応して設定された矩形(長方形)の頂点データを顔位置データとする方法を用いることができる。   As a method for detecting face position data, for example, a rectangular face region is extracted based on skin color information, feature points such as eyes, mouth, nose, etc., and a rectangle (rectangle) set corresponding to the face is extracted. It is possible to use a method in which the vertex data is the face position data.

また本撮影装置は、取り込み画像に対して編集処理を行う編集機能を有していてもよい。また取り込み画像や、取り込み画像に編集処理を施した編集画像の印刷機能や通信機能を有していてもよい。   In addition, the photographing apparatus may have an editing function for performing an editing process on the captured image. Further, it may have a print function or a communication function of a captured image or an edited image obtained by performing editing processing on the captured image.

顔位置が所定の位置関係にあるか否かは、顔位置の中心座標で判断してもよいし、顔位置データによって得られる図形(顔の輪郭に沿って形成された円や長方形等の矩形や多角形)を構成する辺の位置関係で判断してもよい。   Whether or not the face position has a predetermined positional relationship may be determined by the center coordinates of the face position, or a figure (a rectangle such as a circle or rectangle formed along the face outline) obtained from the face position data. Or a polygon).

撮影画像又は合成画像に含まれる被写体の顔の数は1つでもよいし、複数でもよい。本発明によれば、撮影画像又は合成画像から被写体の顔部分を含み縦横が所定の設定比率の長方形の部分画像に基づき提供画像を生成することができる。   The number of the faces of the subject included in the captured image or the composite image may be one or plural. According to the present invention, it is possible to generate a provided image from a captured image or a composite image based on a partial image of a rectangle including a face portion of a subject and having a predetermined vertical and horizontal setting ratio.

本発明によれば、撮影画像又は合成画像と同じ内容で撮影画像又は合成画像よりも被写体の顔のアップ度合いの高い提供画像を生成することができる。   According to the present invention, it is possible to generate a provided image having the same content as the captured image or the composite image and having a higher degree of face up of the subject than the captured image or the composite image.

(2)この撮影装置、プログラム、情報記憶媒体及び撮影方法においては、
前記切り取り領域設定部は、
前記撮影画像又は前記合成画像が複数の顔を含む場合には、複数の顔に対応する顔位置データに基づき、複数の顔に対して個別に切り取り領域を設定し、
前記提供画像生成部は、
複数の顔に対して個別に切り取り領域が設定された場合には、複数の切り取り領域の画像を合成して提供画像を生成してもよい。
(2) In this photographing apparatus, program, information storage medium and photographing method,
The cut area setting unit
When the captured image or the composite image includes a plurality of faces, based on the face position data corresponding to the plurality of faces, set a cutting area individually for the plurality of faces,
The provided image generation unit
When cut areas are individually set for a plurality of faces, a provided image may be generated by combining images of the plurality of cut areas.

(3)この撮影装置、プログラム、情報記憶媒体及び撮影方法においては、
前記切り取り領域設定部は、
前記撮影画像又は前記合成画像が複数の顔を含む場合に、複数の顔に対応する顔位置データに基づき、複数の顔を含む切り取り領域を設定し、
前記提供画像生成部は、
複数の顔を含む切り取り領域が設定された場合には、複数の顔を含む切り取り領域の画像に基づき提供画像を生成してもよい。
(3) In this photographing apparatus, program, information storage medium and photographing method,
The cut area setting unit
When the captured image or the composite image includes a plurality of faces, based on the face position data corresponding to the plurality of faces, a clipping region including a plurality of faces is set,
The provided image generation unit
When a cutout area including a plurality of faces is set, a provided image may be generated based on an image of the cutout area including a plurality of faces.

なお前記撮影画像又は前記合成画像に対して複数の顔を含む切り取り領域を1つ設定してもよいし、複数設定してもよい。例えばl(l=n+m)個の顔を含む場合には、n個の顔を含む切り取り領域とm個の顔を含む切り取り領域を設定してもよい。またn−1個の顔を含む切り取り領域と1個の顔を含む切り取り領域を設定してもよい。   One clipping region including a plurality of faces may be set for the photographed image or the composite image, or a plurality of clipping regions may be set. For example, when l (l = n + m) faces are included, a cutout area including n faces and a cutout area including m faces may be set. Further, a cutout area including n−1 faces and a cutout area including one face may be set.

(4)この撮影装置、プログラム、情報記憶媒体及び撮影方法においては、
前記切り取り領域設定部は、
前記撮影画像又は前記合成画像が複数の顔を含む場合には、複数の顔に対応する顔位置データに基づき複数の顔が所定の位置関係にあるか否か判断し、所定の位置関係にないときは、複数の顔に対して個別に切り取り領域を設定し、複数の顔が所定の位置関係にあるときは複数の顔を含む1つの切り取り領域を設定し、
前記提供画像生成部は、
複数の顔に対して個別に切り取り領域が設定された場合には、複数の切り取り領域の画像を合成して提供画像を生成し、複数の顔に対して1つの切り取り領域が設定された場合には、1つの切り取り領域の画像に基づき提供画像を生成してもよい。
(4) In this photographing apparatus, program, information storage medium and photographing method,
The cut area setting unit
When the captured image or the composite image includes a plurality of faces, it is determined whether or not the plurality of faces are in a predetermined positional relationship based on face position data corresponding to the plurality of faces, and the predetermined positional relationship is not satisfied. When a plurality of faces are set individually for a plurality of faces, and when the plurality of faces are in a predetermined positional relationship, one cutting area including a plurality of faces is set,
The provided image generation unit
When cut areas are individually set for a plurality of faces, a provided image is generated by combining the images of the plurality of cut areas, and one cut area is set for the plurality of faces. May generate the provided image based on the image of one cutout region.

この様にすると被写体の顔の近接具合に応じて最適なアップ画像を提供画像として生成することができる。   In this way, an optimal up image can be generated as a provided image according to the proximity of the subject's face.

(5)この撮影装置、プログラム、情報記憶媒体及び撮影方法においては、
前記切り取り領域設定部は、
n個の顔に対して個別に切り取り領域を設定する場合には、各切り取り領域となる長方形の横の比率を、複数の顔を含む1つの切り取り領域を設定する場合の1/nの値に設定し、
前記提供画像生成部は、
n個の切り取り領域の画像を横方向に配置して、提供画像を生成してもよい。
(5) In this photographing apparatus, program, information storage medium and photographing method,
The cut area setting unit
When cutting areas are set individually for n faces, the horizontal ratio of the rectangle that becomes each cutting area is set to a value of 1 / n when one cutting area including a plurality of faces is set. Set,
The provided image generation unit
The provided image may be generated by arranging the images of the n cutout regions in the horizontal direction.

(6)この撮影装置、プログラム、情報記憶媒体及び撮影方法においては、
前記提供画像生成部は、
前記提供画像として、少なくとも1つの切り取り領域の画像に基づき被写体の顔が大写しになっているアップ画像を生成してもよい。
(6) In this photographing apparatus, program, information storage medium and photographing method,
The provided image generation unit
As the provided image, an up image in which the face of the subject is a close-up image may be generated based on the image of at least one cut-out area.

(7)この撮影装置、プログラム、情報記憶媒体及び撮影方法においては、
前記切り取り領域設定部は、
前記顔位置データに基づき各顔に対応する判定用矩形を設定し、当該判定用矩形に基づき、切り取り領域を設定してもよい。
(7) In this photographing apparatus, program, information storage medium and photographing method,
The cut area setting unit
A determination rectangle corresponding to each face may be set based on the face position data, and a cutout region may be set based on the determination rectangle.

(8)この撮影装置、プログラム、情報記憶媒体及び撮影方法においては、
前記切り取り領域設定部は、
前記顔位置データに基づき各顔に対応する判定用矩形を設定し、当該判定用矩形に基づき、複数の顔が所定の位置関係にあるか否か判断してもよい。
(8) In this photographing apparatus, program, information storage medium and photographing method,
The cut area setting unit
A determination rectangle corresponding to each face may be set based on the face position data, and based on the determination rectangle, it may be determined whether or not a plurality of faces have a predetermined positional relationship.

顔位置データが、例えば顔に対応して設定された矩形(長方形)の頂点データとして与えられる場合には、当該矩形を判定用矩形としてもよい。   When the face position data is given as, for example, vertex data of a rectangle (rectangle) set corresponding to the face, the rectangle may be used as a determination rectangle.

(9)この撮影装置、プログラム、情報記憶媒体及び撮影方法においては、
前記切り取り領域設定部は、
前記顔位置データに対応して設定された顔矩形に外接し、縦横の辺が確認画像の縦横の辺に平行な矩形又は当該矩形に所定のオフセット領域を付加した矩形を判定用矩形として設定してもよい。
(9) In this photographing apparatus, program, information storage medium and photographing method,
The cut area setting unit
A rectangle that circumscribes the face rectangle set corresponding to the face position data and whose vertical and horizontal sides are parallel to the vertical and horizontal sides of the confirmation image or a rectangle obtained by adding a predetermined offset area to the rectangle is set as a determination rectangle. May be.

例えば、複数の顔に対応する判定用矩形が他の判定用矩形と所定以上重なる場合に複数の顔が所定の位置関係にあると判断してもよい。   For example, it may be determined that a plurality of faces have a predetermined positional relationship when a determination rectangle corresponding to the plurality of faces overlaps with another determination rectangle by a predetermined amount or more.

(10)この撮影装置、プログラム、情報記憶媒体及び撮影方法においては、
前記撮影画像又は合成画像と、これらのいずれかに対応して生成された提供画像を編集用の画像として提供し、所与の編集処理を行う編集処理部を含んでもよい。
(10) In this photographing apparatus, program, information storage medium and photographing method,
The photographed image or the synthesized image and the provided image generated corresponding to either of them may be provided as an image for editing, and an editing processing unit that performs a given editing process may be included.

本実施形態の写真印刷装置の外観の一例を示す斜視図。1 is a perspective view illustrating an example of an appearance of a photographic printing apparatus according to an embodiment. 本実施形態の写真印刷装置の外観の一例を示す斜視図。1 is a perspective view illustrating an example of an appearance of a photographic printing apparatus according to an embodiment. 本実施形態の写真印刷装置の外観の一例を示す斜視図。1 is a perspective view illustrating an example of an appearance of a photographic printing apparatus according to an embodiment. 本実施形態の写真印刷装置のブロック図の一例。1 is an example of a block diagram of a photo printing apparatus according to an embodiment. 確認画像におけるカーソル表示制御について説明するための図。The figure for demonstrating the cursor display control in a confirmation image. 図6(A)(B)(C)は、本実施の形態のカーソル画像について説明するための図。6A, 6B, and 6C are diagrams for explaining the cursor image of the present embodiment. 複数の顔の位置関係を調べる手法について説明するための図。The figure for demonstrating the method of investigating the positional relationship of a some face. 複数の顔の位置関係を調べる手法について説明するための図。The figure for demonstrating the method of investigating the positional relationship of a some face. 複数の顔の位置関係を調べる手法について説明するための図。The figure for demonstrating the method of investigating the positional relationship of a some face. 複数の顔が奥行き方向に離れている状態を判定する手法について説明するための図。The figure for demonstrating the method of determining the state in which the some face is separated in the depth direction. 図11(A)(B)(C)は、図5の確認画像における判定用顔矩形の位置関係について説明するための図。FIGS. 11A, 11 </ b> B, and 11 </ b> C are diagrams for explaining the positional relationship of the determination face rectangle in the confirmation image of FIG. 5. 本実施の形態の処理の流れを示すフローチャート。The flowchart which shows the flow of the process of this Embodiment. ガイダンス処理で表示部に表示されるガイダンス画像の一例。An example of the guidance image displayed on a display part by guidance processing. 図14(A)〜(E)は、複数のカーソル基準画像を用いてカーソル画像を生成する処理について説明するための図。FIGS. 14A to 14E are views for explaining processing for generating a cursor image using a plurality of cursor reference images. カーソル表示制御処理の流れを示すフローチャート。The flowchart which shows the flow of a cursor display control process. 本実施の形態の自動アップ機能について説明するための図。The figure for demonstrating the automatic up function of this Embodiment. 本実施の形態の切り取り合成機能について説明するための図。The figure for demonstrating the cutting synthetic | combination function of this Embodiment. 図18(A)(B)は切り取り領域の縦横比率について説明するための図。18A and 18B are diagrams for explaining the aspect ratio of the cut-out area. 図19(A)〜(F)は、切り取り領域の設定手法の一例について説明するための図。FIGS. 19A to 19F are diagrams for explaining an example of a cutting area setting method. 図20(A)(B)は、切り取り領域が複数になる場合について説明するための図。20A and 20B are diagrams for explaining a case where there are a plurality of cut regions. 図21(A)(B)は、切り取り領域が1つの横長の提供画像を生成する場合について説明するための図。FIGS. 21A and 21B are diagrams for describing a case where a horizontally long provided image with one cutout region is generated. 図22(A)(B)は、切り取り領域が複数になる場合について説明するための図。22A and 22B are diagrams for explaining a case where there are a plurality of cut regions. 本実施の形態で提供される提供画像について説明するための図。The figure for demonstrating the provision image provided in this Embodiment. 自動アップ又は切り取り合成を行い提供画像を生成する処理の流れを示すフローチャート。The flowchart which shows the flow of the process which performs automatic up or cut-out composition, and produces | generates a provision image. 複数の顔を含む切り取り領域を設定する場合について説明するための図。The figure for demonstrating the case where the cutting area containing a some face is set.

以下、本発明の好適な実施の形態について図面を用いて説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

1.撮影装置の構成
図1は、本実施形態の撮影装置PM(画像印刷装置の一例)の外観の一例を示す斜視図である。図1に示すように、本実施形態の撮影装置PMは、代価受付部RMと、撮像部CMと、編集操作受付部EMと、写真シール提供部PBとを有する。
1. Configuration of the imaging device
FIG. 1 is a perspective view illustrating an example of an appearance of the photographing apparatus PM (an example of an image printing apparatus) according to the present embodiment. As shown in FIG. 1, the photographing apparatus PM of the present embodiment includes a price receiving unit RM, an imaging unit CM, an editing operation receiving unit EM, and a photo sticker providing unit PB.

図1に示す代価受付部RMは、ユーザが本実施形態の撮影装置PMを利用する際に最初に接するものであり、撮影装置PMを利用するための代価を投入するためのものである。   The price accepting unit RM shown in FIG. 1 is the first contact with the user when using the imaging apparatus PM of the present embodiment, and is for inputting a price for using the imaging apparatus PM.

図1に示す撮像部CMは、上述した代価受付部RMに対して代価の投入を行ったユーザの画像を撮像するためのものであり、上述した代価受付部RMとは異なる位置に設けられている。本実施形態では撮像部CMは、画像の背景に周囲の景色が写りこまないように、また、撮像されているユーザが周囲から見えないように、シートSTで周囲が覆われている。   The imaging unit CM illustrated in FIG. 1 is for capturing an image of a user who has input a price to the above-described price receiving unit RM, and is provided at a position different from the above-described price receiving unit RM. Yes. In the present embodiment, the imaging unit CM is covered with the sheet ST so that surrounding scenery does not appear in the background of the image, and so that the user being imaged cannot be seen from the surroundings.

図2は、本実施形態の撮影装置PMのシートSTを取り除いた状態の外観を、撮像部CMの前面が右正面となるように示した斜視図である。図2に示すように撮像部CMの前面上部には、撮像領域CAに位置するユーザの画像を撮像するカメラCRが設けられている。カメラCRは、例えばCCDカメラ、C−MOSカメラ、又はビデオカメラなどにより実現できる。カメラCRは、被写体を正面方向から撮影するもので、撮像部として機能する。   FIG. 2 is a perspective view showing the appearance of the imaging apparatus PM according to the present embodiment with the sheet ST removed, such that the front surface of the imaging unit CM is right front. As shown in FIG. 2, a camera CR that captures an image of a user located in the imaging area CA is provided at the upper front of the imaging unit CM. The camera CR can be realized by, for example, a CCD camera, a C-MOS camera, or a video camera. The camera CR captures a subject from the front direction and functions as an imaging unit.

また撮像部CMの前面上部から中部には、撮像領域CAに位置するユーザを照明する撮像用照明部CLが設けられている。この撮像用照明部CLは、カメラCRがユーザの画像の撮像を開始した場合に点灯するように制御される。そして、カメラCRがユーザの画像を撮像している間、ユーザを照明し続けるように制御される。   In addition, an imaging illumination unit CL that illuminates a user located in the imaging area CA is provided from the upper front to the middle of the imaging unit CM. The imaging illumination unit CL is controlled so as to be lit when the camera CR starts capturing an image of the user. Then, the camera CR is controlled to continue to illuminate the user while the user's image is captured.

また撮像部CMの前面中部には、撮像領域CAに位置するユーザに対して、カメラCRが撮像している画像を表示する撮像用モニタCMN(表示部の一例)が設けられている。本実施形態ではカメラCRが画像の撮像を開始すると、撮像用モニタCMNは、撮像領域CAに位置するユーザの画像をリアルタイムの動画として表示する。これによりユーザは、カメラCRが撮像しているユーザの画像を撮像用モニタCMNにより確認することができる。撮像用モニタCMNは、ユーザの視点から見下ろす高さに、ユーザに対してその表示画面がほぼ正対するように、筺体に取り付けられている。カメラCRで撮影された映像は、撮像用モニタCMNに表示され、ユーザはこの撮像用モニタCMNに表示された映像を見て自身のポーズが適当か否かを確認することができる。   In addition, an imaging monitor CMN (an example of a display unit) that displays an image captured by the camera CR to a user located in the imaging area CA is provided in the front middle part of the imaging unit CM. In the present embodiment, when the camera CR starts capturing an image, the imaging monitor CMN displays the user's image located in the imaging area CA as a real-time moving image. As a result, the user can confirm the user's image captured by the camera CR on the imaging monitor CMN. The imaging monitor CMN is attached to the housing so that the display screen faces the user at a height looking down from the user's viewpoint. The video imaged by the camera CR is displayed on the imaging monitor CMN, and the user can check whether or not his / her pose is appropriate by viewing the video image displayed on the imaging monitor CMN.

また撮像用モニタCMNは、接触位置を検出できるタッチセンサパネルが積層されたタッチパネル式モニタにより構成されており、ユーザが撮像用モニタCMNを触ることにより操作入力を行うことができる。   The imaging monitor CMN is configured by a touch panel monitor in which touch sensor panels capable of detecting a contact position are stacked, and a user can input an operation by touching the imaging monitor CMN.

そして、ユーザの画像の撮像が開始されてから所定時間が経過するとユーザの画像の撮像を終了する。そして、撮像領域CAに位置するユーザに対して、編集操作受付部EMの前側の領域である編集領域EA(第3の領域の一例)に移動する案内を行う。   Then, when a predetermined time has elapsed since the start of image capturing of the user, the image capturing of the user is terminated. Then, the user who is located in the imaging area CA is guided to move to the editing area EA (an example of a third area) that is the area on the front side of the editing operation reception unit EM.

図1に示す編集操作受付部EMは、上述した撮像部CMにおいて画像を撮像したユーザが、撮像した画像を編集するための操作を行うためのものであり、上述した撮像部CMとは異なる位置に設けられている。本実施形態では編集操作受付部EMは、編集操作を行っているユーザが周囲から見えないように、シートSTで周囲が覆われている。特に本実施形態では編集操作受付部EMとして、第1の編集操作受付部EM1と第2の編集操作受付部EM2とが設けられている。図3は、本実施形態の撮影装置PMのシートSTを取り除いた状態の外観を、第1の編集操作受付部EM1の前面が右正面となるように示した斜視図である。   The editing operation accepting unit EM illustrated in FIG. 1 is for a user who has captured an image in the above-described imaging unit CM to perform an operation for editing the captured image, and is located at a position different from that of the above-described imaging unit CM. Is provided. In the present embodiment, the editing operation reception unit EM is covered with the sheet ST so that the user who is performing the editing operation cannot see from the surroundings. In particular, in the present embodiment, a first editing operation receiving unit EM1 and a second editing operation receiving unit EM2 are provided as the editing operation receiving unit EM. FIG. 3 is a perspective view showing the appearance of the photographing apparatus PM of the present embodiment in a state where the sheet ST is removed so that the front surface of the first editing operation accepting unit EM1 is right front.

図3に示すように第1の編集操作受付部EM1の前面中央部には、第1の編集操作受付部EM1の前側の領域である編集領域EA1(第3の領域の一例)に位置するユーザに対して、シールに印刷する静止画として決定した画像を表示しつつ、表示した画像を編集するための操作を受け付けるタッチパネル式の編集用モニタEMNが設けられている。   As shown in FIG. 3, a user located in an editing area EA1 (an example of a third area) that is an area on the front side of the first editing operation accepting unit EM1 is located at the front center part of the first editing operation accepting part EM1. On the other hand, there is provided a touch panel type editing monitor EMN that displays an image determined as a still image to be printed on a sticker and receives an operation for editing the displayed image.

本実施形態では、編集用モニタEMNの左右にそれぞれタッチペンTPが用意されており、ユーザはタッチペンTPの先端を編集用モニタEMNの任意の位置に接触させることにより、決定した画像に合成する線図を描いたり、模様や図柄のテンプレート(スタンプ画像)を選択してこれを画像に配置して、シールに印刷する静止画を編集する。   In the present embodiment, touch pens TP are prepared on the left and right of the editing monitor EMN, respectively, and the user combines the determined image with the determined image by bringing the tip of the touch pen TP into contact with an arbitrary position of the editing monitor EMN. Or select a pattern or design template (stamp image) and place it on the image to edit the still image to be printed on the sticker.

なお本実施形態では、図3に示す第1の編集操作受付部EM1の背面側に、第1の編集操作受付部EM1と同様の構成を有する第2の編集操作受付部EM2が設けられ、第2の編集操作受付部EM2の前側の領域である編集領域EA2(第4の領域の一例)に位置するユーザに対して、シールに印刷する静止画として決定した画像を表示しつつ、表示した画像を編集するための操作を受け付ける。   In the present embodiment, a second editing operation receiving unit EM2 having the same configuration as the first editing operation receiving unit EM1 is provided on the back side of the first editing operation receiving unit EM1 shown in FIG. The image displayed while displaying the image determined as the still image to be printed on the sticker for the user located in the editing area EA2 (an example of the fourth area) that is the area on the front side of the editing operation accepting unit EM2 of No. 2 Accepts operations for editing.

そして、画像の編集操作の受け付けが開始されてから所定時間が経過するか、ユーザの操作により編集操作の終了が選択されると、画像の編集操作の受け付けを終了する。そして、編集領域EA1又は編集領域EA2に位置するユーザに対して、写真シール提供部PB(印刷物提供部の一例)の前側の領域である取出領域PA(第5の領域の一例)に移動するように案内する。   Then, when a predetermined time elapses after the acceptance of the image editing operation is started or the end of the editing operation is selected by the user's operation, the acceptance of the image editing operation is finished. Then, the user located in the editing area EA1 or the editing area EA2 moves to a take-out area PA (an example of a fifth area) that is a front side area of the photo sticker providing unit PB (an example of a printed matter providing unit). To guide.

そして図3に示すように、第1の編集操作受付部EM1の左側面には、編集された画像をシールに印刷した写真シール(印刷物の一例)をユーザに提供する写真シール提供部PBが設けられている。本実施形態では、取出領域PAに位置するユーザに対して写真シールを提供するように、写真シール提供部PBの前面に写真シール取出口POが設けられている。   As shown in FIG. 3, the left side surface of the first editing operation accepting unit EM1 is provided with a photo sticker providing unit PB that provides a user with a photo sticker (an example of a printed material) in which an edited image is printed on a sticker. It has been. In the present embodiment, a photo sticker outlet PO is provided in front of the photo sticker providing part PB so as to provide a photo sticker to a user located in the take-out area PA.

図4は、本実施形態の撮影装置PMのブロック図の一例である。なお、撮影装置PMは、図4の構成要素(各部)を全て含む必要はなく、その一部を省略した構成としてもよい。 撮像部198は、被写体を撮影するためのもので、図2のCRに相当し、例えばCCDカメラ、CMOSカメラ、又はビデオカメラなどにより実現できる。   FIG. 4 is an example of a block diagram of the photographing apparatus PM of the present embodiment. Note that the imaging apparatus PM does not have to include all the components (parts) shown in FIG. 4 and may have a configuration in which some of them are omitted. The imaging unit 198 is for photographing a subject and corresponds to the CR in FIG. 2 and can be realized by, for example, a CCD camera, a CMOS camera, or a video camera.

操作部160(ポインティングデバイス、レバー、ボタン等)は、ユーザが編集用コンテンツ選択メニューの選択操作や編集操作を行うためのものである。   An operation unit 160 (a pointing device, a lever, a button, or the like) is used by the user to perform a selection operation or an editing operation of the editing content selection menu.

記憶部170(RAM)は、処理部100や通信部196などのワーク領域となるものである。   The storage unit 170 (RAM) is a work area such as the processing unit 100 or the communication unit 196.

情報記憶媒体180(CD、DVD、HDD、ROMなどのコンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものである。この情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   An information storage medium 180 (a computer-readable medium such as a CD, DVD, HDD, or ROM) stores programs and data. The information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

ディスプレイ190は画像を表示するものであり、例えば図2の撮像用モニタCMNや編集用ディスプレイ等である。   The display 190 displays an image, and is, for example, the imaging monitor CMN or the editing display shown in FIG.

撮像用モニタCMNは、例えばタッチパネル等が用いられ、ディスプレイに表示された入力用のボタンに、ユーザが指を接触させることにより、各種指示入力(例えばコラージュ背景の選択や撮影モードの選択等)を行うことができるように構成されている。   The imaging monitor CMN uses, for example, a touch panel or the like, and inputs various instructions (for example, selection of a collage background, selection of a shooting mode, etc.) when a user touches an input button displayed on a display with a finger. It is configured to be able to do.

編集用ディスプレイとしては、例えば液晶タブレットやタッチパネル等が用いられ、タッチペン(ポインティングデバイスの一例)等の先端をディスプレイ表面に接触させ、文字や図形を描くことにより手書き画像を入力できるようになっている。また予め用意された星マークやハートマーク等のスタンプ画像を選択して、タッチペンの先端をディスプレイ表面に接触させることによりスタンプ画像を入力できるようになっている。   As the editing display, for example, a liquid crystal tablet, a touch panel, or the like is used, and a handwritten image can be input by drawing a character or a figure by bringing the tip of a touch pen (an example of a pointing device) into contact with the display surface. . In addition, a stamp image such as a star mark or a heart mark prepared in advance is selected, and the stamp image can be input by bringing the tip of the touch pen into contact with the display surface.

音出力部192は音声、ゲーム音などの音を出力するものである。   The sound output unit 192 outputs sounds such as sounds and game sounds.

携帯型情報記憶装置194は、ユーザの個人データや編集用のセーブデータなどが記憶されるものである。   The portable information storage device 194 stores user personal data, save data for editing, and the like.

印刷部195は、撮影された画像を印刷媒体(シール紙、印画紙、プラスチック板又は記録層)に画像を印刷する処理を行う。この場合の印刷方式としては昇華型、熱転写型、インクジェット方式、レーザプリント方式などの種々の方式がある。また印刷用のプリンタとしては、インクジェット式プリンタ、レーザープリンタ、昇華型プリンタ、熱転写型プリンタ、溶融型プリンタ、サーマルプリンタ、印画紙プリンタ、インスタントフィルムプリンタ等を用いるようにしてもよい。   The printing unit 195 performs processing for printing the captured image on a print medium (seal paper, photographic paper, plastic plate, or recording layer). In this case, there are various printing methods such as a sublimation type, a thermal transfer type, an ink jet method, and a laser printing method. As a printer for printing, an ink jet printer, a laser printer, a sublimation printer, a thermal transfer printer, a melt printer, a thermal printer, a photographic paper printer, an instant film printer, or the like may be used.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの各種の処理を行う。この場合、処理部100は、記憶部170内の主記憶部172をワーク領域として使用して、各種の処理を行う。この処理部100の機能は、各種プロセッサ(CPU、DSP等)又はASIC(ゲートアレイ等)などのハードウェアや、プログラム(ゲームプログラム)により実現できる。   The processing unit 100 (processor) performs various processes such as a game process, an image generation process, and a sound generation process based on operation data from the operation unit 160, a program, and the like. In this case, the processing unit 100 performs various processes using the main storage unit 172 in the storage unit 170 as a work area. The function of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.) or ASIC (gate array, etc.) and a program (game program).

処理部100は、背景抜き取り画像生成部110、確認画像表示制御部112、カーソル画像表示制御部114,画像取り込み制御部116、ガイダンス処理部118、切り取り領域設定部122、提供画像生成部124、編集処理部120、画像生成部130、音生成部140を含む。   The processing unit 100 includes a background extracted image generation unit 110, a confirmation image display control unit 112, a cursor image display control unit 114, an image capture control unit 116, a guidance processing unit 118, a cut area setting unit 122, a provided image generation unit 124, an editing A processing unit 120, an image generation unit 130, and a sound generation unit 140 are included.

背景抜き取り画像生成部110は、所定の色(背景色)を背景として撮影された撮影画像から所定の色(背景色)を抜き取る処理を行う。所定の色(背景色)の抜き取り処理は、例えばクロマキー処理で実現してもよいし、マスク処理で実現してもよい。   The background extracted image generation unit 110 performs a process of extracting a predetermined color (background color) from a captured image captured using a predetermined color (background color) as a background. The extraction process of a predetermined color (background color) may be realized by, for example, chroma key processing or mask processing.

クロマキーとは画像の中からある特定色(例えば背景色)をもつ領域を抜き出し、そこに他の画像を埋め込む手法である。なお他の画像を埋め込む手法としては、特定色をもつ領域のα値(透明度を表す値とする)を1にして、他の画像と半透明合成(例えばαブレンディング処理)を行うことにより実現することができる。   The chroma key is a technique for extracting an area having a specific color (for example, background color) from an image and embedding another image therein. The method of embedding another image is realized by setting the α value (a value indicating transparency) of an area having a specific color to 1, and performing translucent synthesis (for example, α blending processing) with another image. be able to.

マスク処理とは画像の特定の領域(本発明の場合には背景色の領域)の画素値をすべて1にして、他の部分をすべて0にしたマスク画像を作成し、このマスク画像の0の部分には画像Aを、マスク画像の1の部分には画像Bを埋め込むことにより両画像を合成する手法である。   Mask processing is a process of creating a mask image in which all pixel values of a specific area of the image (background color area in the present invention) are set to 1, and all other parts are set to 0. In this method, the image A is embedded in the portion and the image B is embedded in the portion 1 of the mask image to synthesize both images.

確認画像表示制御部112は、撮像部によって撮影された撮影画像に対応した確認画像をリアルタイムに表示部に動画像表示させる処理を行い、カーソル画像表示制御部114は、前記確認画像における被写体の顔の位置を示す顔位置データを取得し、前記撮影画像と前記顔位置データに基づき、確認画像の被写体の顔を示すカーソル画像を表示させ、画像取り込み制御部116は、撮影中に発生する取り込みタイミングにおける確認画像に対応した画像を取り込み画像として記憶部に記憶させる制御を行う。   The confirmation image display control unit 112 performs processing for displaying a confirmation image corresponding to the photographed image captured by the imaging unit on the display unit in real time, and the cursor image display control unit 114 performs processing for displaying the face of the subject in the confirmation image. Face position data indicating the position of the subject, and a cursor image indicating the face of the subject of the confirmation image is displayed based on the photographed image and the face position data, and the image capture control unit 116 captures timing that occurs during photographing. Control is performed to store an image corresponding to the confirmation image in the storage unit as a captured image.

カーソル画像表示制御部114は、前記確認画像が複数の顔を含む場合には、前記顔位置データに基づき複数の顔が所定の位置関係にあるか否か判断し、所定の位置関係にないと判断した場合には、前記確認画像に複数の顔を個別に示す第1のカーソル画像を表示し、所定の位置関係にあると判断した場合には、前記確認画像に複数の顔を一体として示す第2のカーソル画像を表示するカーソル一体化表示処理を行う。   When the confirmation image includes a plurality of faces, the cursor image display control unit 114 determines whether or not the plurality of faces have a predetermined positional relationship based on the face position data. If it is determined, a first cursor image showing a plurality of faces individually is displayed on the confirmation image, and if it is determined that there is a predetermined positional relationship, a plurality of faces are shown integrally on the confirmation image. A cursor integrated display process for displaying the second cursor image is performed.

また確認画像表示制御部112は、前記確認画像として、前記撮像部によって撮影された被写体の撮影画像から背景を抜き取った背景抜き取り画像と所与の背景画像を合成した合成画像をリアルタイムに生成し、画像取り込み制御部116は、撮影中に発生する取り込みタイミングにおける確認画像に対応した合成画像を取り込み画像として記憶させてもよい。   Further, the confirmation image display control unit 112 generates, in real time, a composite image obtained by combining a background extracted image obtained by extracting a background from a photographed image of the subject photographed by the imaging unit and a given background image as the confirmation image, The image capture control unit 116 may store a composite image corresponding to the confirmation image at the capture timing generated during shooting as a captured image.

またカーソル画像表示制御部114は、前記カーソル画像として、顔を囲む枠状のカーソル画像が表示された確認画像を生成してもよい。   The cursor image display control unit 114 may generate a confirmation image on which a frame-like cursor image surrounding the face is displayed as the cursor image.

またカーソル画像表示制御部114は、前記顔位置データに基づき各顔に対応する判定用矩形を設定し、当該判定用矩形に基づき、複数の顔が所定の位置関係にあるか否か判断してもよい。   In addition, the cursor image display control unit 114 sets a determination rectangle corresponding to each face based on the face position data, and determines whether or not a plurality of faces have a predetermined positional relationship based on the determination rectangle. Also good.

またカーソル画像表示制御部114は、前記顔位置データに対応して設定された判定用矩形に外接し、縦横の辺が確認画像の縦横の辺に平行な矩形又は当該矩形に所定のオフセット領域を付加した矩形を判定用矩形として設定してもよい。   The cursor image display control unit 114 circumscribes the determination rectangle set corresponding to the face position data, and a rectangle whose vertical and horizontal sides are parallel to the vertical and horizontal sides of the confirmation image or a predetermined offset area in the rectangle. The added rectangle may be set as the determination rectangle.

またカーソル画像表示制御部114は、複数の顔が所定の位置関係にある場合には、顔の大写しの度合いが所定の基準を満たしているか否かを判断し、満たしていると判断した場合には、所定の位置関係にある複数の顔を一体として示す特別仕様の第3のカーソル画像を表示してもよい。   The cursor image display control unit 114 determines whether or not the degree of close-up of the face satisfies a predetermined standard when a plurality of faces are in a predetermined positional relationship, May display a third cursor image of a special specification that shows a plurality of faces in a predetermined positional relationship as one body.

またカーソル画像表示制御部114は、前記確認画像が第1の顔と第2の顔を含む複数の顔を含む場合には、前記第1の顔に対応して設定された判定用矩形と前記第2の顔に対応して設定された判定用矩形の大きさが所定の基準以上に異なるか否か判断し、異なると判断した場合には、カーソル一体化表示処理を行わないようにしてもよい。   In addition, when the confirmation image includes a plurality of faces including a first face and a second face, the cursor image display control unit 114 determines the determination rectangle set corresponding to the first face and the It is determined whether or not the size of the determination rectangle set corresponding to the second face is greater than a predetermined reference. If it is determined that the size is different, the integrated cursor display process is not performed. Good.

ガイダンス処理部118は、カーソル一体化表示処理に関する説明を含むガイダンス画像を表示部に表示させる。ガイダンス処理部118は、撮影時に取得した顔位置データに基づき撮影人数を判断し、撮影人数が複数である場合にカーソル一体化表示処理に関する説明を行うようにしてもよい。   The guidance processing unit 118 causes the display unit to display a guidance image including a description regarding the cursor integrated display processing. The guidance processing unit 118 may determine the number of photographers based on face position data acquired at the time of photographing, and may explain the cursor integrated display processing when there are a plurality of photographers.

またガイダンス処理部118は、ゲーム開始後の撮影における確認画像を表示する際にカーソル一体化表示処理を行った場合にはカーソル一体化表示処理に関する説明を省略するようにしてもよい。   Further, the guidance processing unit 118 may omit the description regarding the cursor integrated display processing when the cursor integrated display processing is performed when displaying the confirmation image in the shooting after the start of the game.

前記カーソル画像表示制御部114は、相似形状で大きさが段階的に異なる複数のカーソル基準画像を用意し、撮影画像の大写しの度合いに応じて、いずれかのカーソル基準画像を選択し、選択したカーソル基準画像に対し拡大、縮小、スケール変更の少なくとも1つの処理を施してカーソル画像を生成してもよい。   The cursor image display control unit 114 prepares a plurality of cursor reference images having similar shapes and different sizes in steps, and selects and selects one of the cursor reference images according to the degree of close-up of the captured image. The cursor image may be generated by performing at least one of enlargement, reduction, and scale change on the cursor reference image.

また画像取り込み制御部116は、撮影中に前記取り込みタイミングまでの残り時間をカウントする処理を行い、確認画像表示制御部112は、前記残り時間が所定値以下になると前記カーソル画像の表示を終了してもよい。   Further, the image capture control unit 116 performs processing for counting the remaining time until the capture timing during shooting, and the confirmation image display control unit 112 ends the display of the cursor image when the remaining time becomes a predetermined value or less. May be.

切り取り領域設定部122は、前記撮像部によって撮影された撮影画像、又は当該撮影画像から背景を抜き取った背景抜き取り画像と所与の背景画像を合成した合成画像における被写体の顔の位置を示す顔位置データを取得し、前記顔位置データに基づき、撮影画像又は合成画像において、被写体の顔部分を含み縦横が所定の設定比率の長方形の領域を切り取り領域として設定し、提供画像生成部124は、撮影画像又は合成画像の切り取り領域の画像に基づき提供画像を生成する。   The cut region setting unit 122 is a face position indicating the position of the face of the subject in the captured image captured by the image capturing unit, or a composite image obtained by combining a background extracted image obtained by extracting a background from the captured image and a given background image. Data is acquired, and based on the face position data, in the photographed image or the composite image, a rectangular area including a face portion of the subject and having a predetermined horizontal and vertical ratio is set as a cut-out area, and the provided image generation unit 124 The provided image is generated based on the image of the cut area of the image or the composite image.

また切り取り領域設定部122は、前記撮影画像又は前記合成画像が複数の顔を含む場合には、複数の顔に対応する顔位置データに基づき、複数の顔に対して個別に切り取り領域を設定し、前記提供画像生成部124は、複数の顔に対して個別に切り取り領域が設定された場合には、複数の切り取り領域の画像を合成して提供画像を生成してもよい。   In addition, when the captured image or the composite image includes a plurality of faces, the cut region setting unit 122 sets the cut regions individually for the plurality of faces based on the face position data corresponding to the plurality of faces. The provided image generation unit 124 may generate the provided image by combining the images of the plurality of cut regions when the cut regions are individually set for the plurality of faces.

また切り取り領域設定部112は、前記撮影画像又は前記合成画像が複数の顔を含む場合に、複数の顔に対応する顔位置データに基づき、複数の顔を含む切り取り領域を設定し、 提供画像生成部124は、複数の顔を含む切り取り領域が設定された場合には、複数の顔を含む切り取り領域の画像に基づき提供画像を生成してもよい。   In addition, when the captured image or the composite image includes a plurality of faces, the cut region setting unit 112 sets a cut region including a plurality of faces based on face position data corresponding to the plurality of faces, and provides a generated image The unit 124 may generate the provided image based on the image of the cut area including the plurality of faces when the cut area including the plurality of faces is set.

また切り取り領域設定部122は、前記撮影画像又は前記合成画像が複数の顔を含む場合には、複数の顔に対応する顔位置データに基づき複数の顔が所定の位置関係にあるか否か判断し、所定の位置関係にないときは、複数の顔に対して個別に切り取り領域を設定し、複数の顔が所定の位置関係にあるときは複数の顔を含む1つの切り取り領域を設定し、提供画像生成部124は、複数の顔に対して個別に切り取り領域が設定された場合には、複数の切り取り領域の画像を合成して提供画像を生成し、複数の顔に対して1つの切り取り領域が設定された場合には、1つの切り取り領域の画像に基づき提供画像を生成してもよい。   In addition, when the captured image or the composite image includes a plurality of faces, the cutout region setting unit 122 determines whether the plurality of faces have a predetermined positional relationship based on face position data corresponding to the plurality of faces. And when it is not in a predetermined positional relationship, set a cutting area individually for a plurality of faces, and when a plurality of faces are in a predetermined positional relationship, set one cutting area including a plurality of faces, The provided image generation unit 124 generates a provided image by combining the images of the plurality of cut regions when the cut regions are individually set for the plurality of faces, and generates one cut image for the plurality of faces. When the region is set, the provided image may be generated based on the image of one cutout region.

また切り取り領域設定部122は、n個の顔に対して個別に切り取り領域を設定する場合には、各切り取り領域となる長方形の横の比率を、複数の顔を含む1つの切り取り領域を設定する場合の1/nの値に設定し、提供画像生成部124は、n個の切り取り領域の画像を横方向に配置して、提供画像を生成してもよい。   In addition, when the cut area setting unit 122 sets cut areas individually for n faces, the cut area setting unit 122 sets one cut area including a plurality of faces with the horizontal ratio of each cut area. In this case, the provision image generation unit 124 may generate the provision image by arranging the images of the n clipped regions in the horizontal direction.

また提供画像生成部124は、前記提供画像として、少なくとも1つの切り取り領域の画像に基づき被写体の顔が大写しになっているアップ画像を生成してもよい。   Further, the provided image generation unit 124 may generate an up image in which the face of the subject is a close-up based on the image of at least one cut-out area as the provided image.

また切り取り領域設定部122は、前記顔位置データに基づき各顔に対応する判定用矩形を設定し、当該判定用矩形に基づき、切り取り領域を設定してもよい。   The cut area setting unit 122 may set a determination rectangle corresponding to each face based on the face position data, and set a cut area based on the determination rectangle.

また切り取り領域設定部122は、前記顔位置データに基づき各顔に対応する判定用矩形を設定し、当該判定用矩形に基づき、複数の顔が所定の位置関係にあるか否か判断してもよい。   The cutout area setting unit 122 also sets a determination rectangle corresponding to each face based on the face position data, and determines whether or not a plurality of faces have a predetermined positional relationship based on the determination rectangle. Good.

また切り取り領域設定部122は、前記顔位置データに対応して設定された顔矩形に外接し、縦横の辺が確認画像の縦横の辺に平行な矩形又は当該矩形に所定のオフセット領域を付加した矩形を判定用矩形として設定してもよい。   Further, the cutout area setting unit 122 circumscribes the face rectangle set corresponding to the face position data, and adds a predetermined offset area to the rectangle whose vertical and horizontal sides are parallel to the vertical and horizontal sides of the confirmation image. A rectangle may be set as the determination rectangle.

編集処理部120は、操作部160からの編集用の入力情報等に基づき、取り込まれた画像に対して編集処理を行う。編集処理部120は、前記撮影画像又は合成画像と、これらのいずれかに対応して生成された提供画像を編集用の画像として提供し、所与の編集処理を行うようにしてもよい。   The editing processing unit 120 performs editing processing on the captured image based on input information for editing from the operation unit 160. The editing processing unit 120 may provide the captured image or the composite image and the provided image generated corresponding to either of them as an image for editing, and perform a given editing process.

画像生成部130は、撮影や編集の結果に基づいて画像を生成し、ディスプレイ190に出力する。   The image generation unit 130 generates an image based on the result of shooting or editing, and outputs the image to the display 190.

音生成部140は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。
通信部196は、インターネットなどのネットワークを介してデータを送信又は受信する処理を行う。より具体的には、通信部196は、カメラの撮影画像により生成されたデータを、ネットワークを介して外部のサーバなどに送信する。このようにすればユーザ(被写体)は、自身が被写体となっている画像のデータを、自分の家のパーソナルコンピュータにサーバからダウンロードすることが可能になる。そしてダウンロードした画像データに基づいて、自分の家のプリンタを用いて、紙やシールに画像を印刷して出力することが可能になる。またユーザが撮影した画像をサーバに保存しておき、撮影装置にダウンロードして印刷して出力することも可能である。
The sound generation unit 140 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.
The communication unit 196 performs processing for transmitting or receiving data via a network such as the Internet. More specifically, the communication unit 196 transmits data generated from the captured image of the camera to an external server or the like via the network. In this way, the user (subject) can download image data of the subject himself / herself from the server to the personal computer of his / her home. Based on the downloaded image data, it is possible to print and output an image on paper or a sticker using a printer at home. It is also possible to store an image captured by the user in a server, download it to the image capturing apparatus, print it, and output it.

この通信部196の機能は、例えば通信用のデバイス(IC)などのハードウェアや、通信用のプログラムなどにより実現できる。なお印刷部195、通信部196のいずれか一方を設けない構成としてもよい。   The function of the communication unit 196 can be realized by hardware such as a communication device (IC), a communication program, or the like. Note that either the printing unit 195 or the communication unit 196 may be omitted.

また通信部196は、撮影中のユーザに関するユーザ情報を取得するユーザ情報取得部として機能し、カーソル画像表示制御部114は、複数のパターンのカーソル画像を用意しておき、取得したユーザ情報に基づき、複数のパターンのカーソル画像から1のカーソル画像を選択して、選択したカーソル画像を用いてカーソル表示を行うようにしてもよい。   The communication unit 196 functions as a user information acquisition unit that acquires user information regarding the user who is shooting, and the cursor image display control unit 114 prepares a plurality of patterns of cursor images, and based on the acquired user information. Alternatively, one cursor image may be selected from a plurality of patterns of cursor images, and cursor display may be performed using the selected cursor images.

なお本実施形態の撮影装置は、固定された筐体である装置でもよいし、携帯用の装置でもよい。 また本実施形態の撮影装置を、ユーザの撮影画像をゲームに使用するようなタイプのゲーム装置に利用することも可能である。即ち本実施形態の撮影装置を、ゲーム装置の画像取り込み装置として機能させることも可能である。   Note that the photographing apparatus of the present embodiment may be a fixed housing or a portable device. Further, the photographing apparatus of the present embodiment can be used for a game apparatus of a type that uses a user's photographed image for a game. That is, it is possible to cause the photographing apparatus of this embodiment to function as an image capturing device of a game device.

2.カーソル画像の表示制御
図5は、確認画像におけるカーソル表示制御について説明するための図である。
2. Display control of cursor image
FIG. 5 is a diagram for explaining cursor display control in a confirmation image.

本実施の形態では、撮影中、撮像部によって撮影された撮影画像(又は合成画像)に対応した確認画像(例えばライブビュー画像)をリアルタイムにディスプレイ(図3のCNN)に動画像表示(ライブビュー表示)する。   In the present embodiment, during shooting, a confirmation image (for example, a live view image) corresponding to a captured image (or a composite image) captured by the imaging unit is displayed in real time on a display (CNN in FIG. 3) as a moving image (live view). indicate.

200−t1、200−t2、200−t3は確認画像である。確認画像200−t1、200−t2、200−t3は、現在撮影中の撮影画像そのものでもよいし、撮影画像から背景を抜き取った背景抜き取り画像と所与の背景画像を合成した合成画像でもよい。   Reference numerals 200-t1, 200-t2, and 200-t3 are confirmation images. The confirmation images 200-t1, 200-t2, and 200-t3 may be captured images themselves that are currently being captured, or may be composite images obtained by combining a background extracted image obtained by extracting a background from a captured image and a given background image.

背景抜き取り画像は、例えば撮影画像を左右反転させて生成するようにしてもよい。このようにすると背景抜き取り画像が正面に鏡がある場合と同じような画像となるので(ユーザの正面にカメラ及び表示部がある場合)、ユーザの位置や方向感覚と合っていて、位置合わせが行いやすい。   The background extracted image may be generated by, for example, reversing the photographed image left and right. In this way, the background-extracted image becomes the same image as when there is a mirror in the front (when there is a camera and a display unit in front of the user). Easy to do.

背景抜き取り画像は、所定の色(背景色)を背景として撮像部で撮影中の被写体の画像を現在画像として取り込んで、現在画像から所定の色(背景色)を抜き取ることで背景部分を抜き取った画像をリアルタイムに生成してもよい。   The background extracted image is obtained by capturing the image of the subject being captured by the imaging unit as a current image with a predetermined color (background color) as the background, and extracting the background portion by extracting the predetermined color (background color) from the current image. Images may be generated in real time.

確認画像は、撮影中に表示部にリアルタイムの動画像として表示されるので、ユーザは確認画像を見ながら位置合わせをしたり、ポーズをとったりして、取り込み画像(撮影画像又は合成画像)のイメージを確認することができる。   Since the confirmation image is displayed as a real-time moving image on the display unit during shooting, the user aligns or poses while viewing the confirmation image, and the captured image (captured image or composite image) Can be confirmed.

本実施の形態では確認画像(撮影画像でもよい)における被写体の顔の位置を示す顔位置データを受け取る。そして、ライブビュー表示時には、取得した顔位置データに基づき、確認画像200−t1の被写体210−1、210−2の顔部分212−1,212−2に、顔であることを示すカーソル画像220−1、220−2を表示する。被写体210−1、210−2の顔部分212−1、212−2がある程度離れている状態(複数の顔が所定の位置関係にないとき)では、確認画像200−t1に示すように被写体の顔212−1、212−2を個別に示す第1のカーソル画像220−1、220−2が表示されている。なお、第1のカーソル画像を表示する際は、第1のカーソルの近傍に複数の被写体の距離を狭めることを促す画像やテキストなどを表示してもよい。   In the present embodiment, face position data indicating the position of the face of the subject in the confirmation image (which may be a captured image) is received. Then, at the time of live view display, based on the acquired face position data, the cursor image 220 indicating that the face is on the face portions 212-1 and 212-2 of the subjects 210-1 and 210-2 of the confirmation image 200-t1. -1, 220-2 are displayed. In a state where the face portions 212-1 and 212-2 of the subjects 210-1 and 210-2 are separated to some extent (when a plurality of faces are not in a predetermined positional relationship), as shown in the confirmation image 200-t1, First cursor images 220-1 and 220-2 showing the faces 212-1 and 212-2 are displayed. Note that when displaying the first cursor image, an image, text, or the like that prompts the distance between a plurality of subjects to be reduced may be displayed in the vicinity of the first cursor.

そして確認画像200−t2に示すように、被写体の顔部分212−1、212−2が一定以上近づくと(複数の顔が所定の位置関係になると)、被写体210−1、210−2の顔部分212−1、212−2を一体として示す第2のカーソル230を表示する。なお、第2のカーソルを表示する際は、第2のカーソルの近傍に被写体がもっとカメラに近づくことを促す画像やテキストを表示してもよい。   Then, as shown in the confirmation image 200-t2, when the face portions 212-1 and 212-2 of the subject approach more than a certain amount (when a plurality of faces are in a predetermined positional relationship), the faces of the subjects 210-1 and 210-2 A second cursor 230 showing the portions 212-1 and 212-2 as a unit is displayed. When displaying the second cursor, an image or text that prompts the subject to approach the camera more may be displayed in the vicinity of the second cursor.

また確認画像200−t3に示すように、さらに被写体の顔部分212−1、212−2のアップ度合いが増すと(被写体がカメラに近づくと)、第2のカーソル画像230に替えて第3のカーソル画像240を表示する。第3のカーソル画像240は、第2のカーソル画像230にデコレーションを施した画像(例えば240に示すようにカーソルを示すハートの枠(これは第2のカーソル画像と同じ形状)の周りに星画像242をちりばめた画像でもよいし、第2のカーソル画像とは全くこと異なる形状や模様のカーソル画像でもよい。   Further, as shown in the confirmation image 200-t3, when the degree of increase in the face portions 212-1 and 212-2 of the subject further increases (when the subject approaches the camera), the third cursor image 230 is replaced with the third cursor image 230. A cursor image 240 is displayed. The third cursor image 240 is a star image around an image obtained by decorating the second cursor image 230 (for example, a frame of a heart indicating the cursor (this has the same shape as the second cursor image) as indicated by 240). The image may be an image in which 242 is interspersed, or may be a cursor image having a shape or pattern completely different from that of the second cursor image.

なお、第2、第3のカーソルをハートマークや逆三角形のように下方が狭まった形状とすることで、2人の被写体が顎を近づけることを促し、2人の被写体は違和感なく顔を近づけることができる。   Note that the second and third cursors are shaped like a heart symbol or an inverted triangle so that the bottom of the cursor is narrowed, so that the two subjects can approach the chin and the two subjects can bring their faces close to each other without a sense of incongruity. be able to.

このように、複数の被写体の顔部分の距離が一定以上に近づき、さらに被写体がカメラに一定以上に近づくこと被写体の顔部分の周囲に表示するカーソル画像を変化させることで、複数の被写体が近く、さらに被写体の顔が大きく写された画像を撮影することが可能となる。   In this way, the distance between the face parts of a plurality of subjects approaches a certain distance, and the subject approaches the camera more than a certain distance. In addition, it is possible to take an image in which the face of the subject is shown larger.

また、撮影のタイミングが自動的に設定されている撮影装置においては、ユーザ(被写体)が位置合わせをする時間が制限されていることが多いが、確認画像に表示されるカーソル画像を見ながら、複数の被写体の間の距離やカメラと被写体の距離を調整することができ、容易に位置合わせを行うことが可能となる。   In addition, in a photographing apparatus in which photographing timing is automatically set, a time for a user (subject) to perform alignment is often limited, but while looking at a cursor image displayed on a confirmation image, It is possible to adjust the distance between a plurality of subjects and the distance between the camera and the subject, thereby enabling easy alignment.

図6(A)(B)(C)は、本実施の形態のカーソル画像について説明するための図である。図6(A)の260−1、260−2は第1のカーソル画像の他の一例であり、図6(B)の270は第2のカーソル画像の他の一例であり、図6(C)の290は第3のカーソル画像の他の一例である。カーソル画像(第1のカーソル画像、第2のカーソル画像、第3のカーソル画像)は、図5、図6(A)(B)(C)に示すように、被写体の顔部分212−1、212−2を囲む枠(図6(A)の260−1、260−2のように閉じた枠でもよいし、図5の220−1、220−2のように開いた枠でもよい)状の画像でもよい。   6A, 6B, and 6C are diagrams for explaining the cursor image of the present embodiment. 260A and 260-2 in FIG. 6A are other examples of the first cursor image, 270 in FIG. 6B is another example of the second cursor image, and FIG. ) 290 is another example of the third cursor image. The cursor images (first cursor image, second cursor image, and third cursor image) are shown in FIGS. 5, 6A, 6B, and 6C, as shown in FIGS. A frame surrounding 212-2 (a closed frame such as 260-1 and 260-2 in FIG. 6A or an open frame such as 220-1 and 220-2 in FIG. 5) The image of

この様にすると、顔の周りを囲む枠状のカーソル画像が表示されるため、カーソル画像により顔が見えにくくなるのを防止することができる。従ってユーザの画像確認の妨げにならない確認画像を生成することができる。   In this way, since a frame-like cursor image surrounding the face is displayed, it is possible to prevent the face from becoming difficult to see due to the cursor image. Therefore, it is possible to generate a confirmation image that does not hinder the user's image confirmation.

図7〜図9は、複数の顔の位置関係を調べる手法について説明するための図である。   7 to 9 are diagrams for explaining a method of examining the positional relationship between a plurality of faces.

本実施の形態では、確認画像(撮影画像でもよい)における被写体の顔の位置を示す顔位置データを受け取る。   In the present embodiment, face position data indicating the position of the face of the subject in the confirmation image (which may be a captured image) is received.

顔位置データは、例えば図7に示すように各顔212−1、212−2に対応して設定された顔矩形300−1、300−2の頂点データ(302−1、304−1、306−1、308−1の座標値)、(302−2、304−2、306−2、308−2の座標値)で与えられてもよい。   For example, as shown in FIG. 7, the face position data is the vertex data (302-1, 304-1, 306) of the face rectangles 300-1, 300-2 set corresponding to the faces 212-1, 212-2. −1, 308-1 coordinate values), (302-2, 304-2, 306-2, 308-2 coordinate values).

そしてこの顔位置データに基づき図8(A)(B)に示すように、各顔に対応する判定用矩形340−1340−2を設定し、当該判定用矩形に基づき、複数の顔212−1、212−2が所定の位置関係にあるか否か判断してもよい。判定用矩形としては、図7の顔矩形300−1、300−2を用いてもよいし、図9で説明するような顔矩形300−1、300−2に基づき設定される矩形を用いてもよい。   Based on this face position data, as shown in FIGS. 8A and 8B, determination rectangles 340-1340-2 corresponding to each face are set, and a plurality of faces 212-1 are set based on the determination rectangles. , 212-2 may be determined to be in a predetermined positional relationship. As the determination rectangle, the face rectangles 300-1 and 300-2 in FIG. 7 may be used, or a rectangle set based on the face rectangles 300-1 and 300-2 as described in FIG. 9 is used. Also good.

図8(A)に示すように判定用矩形340−1、340−2に重複部分がない(重なっていない)場合には複数の顔が所定の位置関係を満たしていないと判定し、図8(B)に示すように判定用矩形340−1、340−2が重複部分を有する(重なっている)場合には、複数の顔が所定の位置関係を満たしていると判定してもよい。なお単に重なっているだけでなく重複部分の割合が所定割合以上であることを所定の位置関係を満たす条件に追加してもよい。例えば、重複部分を構成する判定用矩形340−1の辺342の長さ(b)に対する重複部分の長さ(a)の割合a/bが所定割合以上である場合に複数の顔が所定の位置関係を満たしていると判断してもよい。   As shown in FIG. 8A, when the determination rectangles 340-1 and 340-2 do not have overlapping portions (not overlapped), it is determined that a plurality of faces do not satisfy the predetermined positional relationship, and FIG. As shown in (B), when the determination rectangles 340-1 and 340-2 have overlapping portions (overlap), it may be determined that a plurality of faces satisfy a predetermined positional relationship. In addition, it may be added to the condition satisfying the predetermined positional relationship that not only the overlap but the ratio of the overlapping portion is a predetermined ratio or more. For example, when the ratio a / b of the length (a) of the overlapping portion to the length (b) of the side 342 of the determination rectangle 340-1 constituting the overlapping portion is equal to or greater than a predetermined ratio, a plurality of faces are predetermined. It may be determined that the positional relationship is satisfied.

図9(A)に示すように顔が傾いている場合には得られる顔矩形300−、300−2の向かい合う辺も平行とならない。従って図9(B)に示すように、各顔矩形300−1、300−2に外接し、縦横の辺が確認画像200(撮影画像又は合成画像でもよい)の縦横の辺に平行な矩形(第2の顔矩形)320−1、320−2を判定用矩形340−1、340−2として設定してもよい。また当該第2の顔矩形320−1、320−2に所定のオフセット領域(縦の辺を上下にl1だけ延長し、横の辺を左右にl2だけ延長)を付加した矩形(第3の顔矩形)330−1、330−2を判定用矩形340−1、340−2として設定してもよい。   As shown in FIG. 9A, when the face is inclined, the facing sides of the obtained face rectangles 300- and 300-2 are not parallel. Therefore, as shown in FIG. 9B, a rectangle (circumscribing each of the face rectangles 300-1 and 300-2 and having a vertical and horizontal side parallel to the vertical and horizontal sides of the confirmation image 200 (which may be a captured image or a composite image). The second face rectangles 320-1 and 320-2 may be set as the determination rectangles 340-1 and 340-2. In addition, a rectangle (third face) added with a predetermined offset area (the vertical side is extended by l1 vertically and the horizontal side is extended by l2 left and right) to the second face rectangles 320-1 and 320-2. (Rectangular) 330-1 and 330-2 may be set as the determination rectangles 340-1 and 340-2.

図10は、複数の顔が奥行き方向に離れている状態を判定する手法について説明するための図である。   FIG. 10 is a diagram for explaining a method for determining a state in which a plurality of faces are separated in the depth direction.

図10に示すように、確認画像200である2次元平面上では複数の被写体の顔212−1、212−2が近くにあっても、被写体同士210−1、210−2が奥行き方向に離れているケースがある。この様なケースでは複数の顔を一体化したカーソルで示さないようにしてもよい。   As shown in FIG. 10, the subjects 210-1 and 210-2 are separated in the depth direction even if the faces 212-1 and 212-2 of a plurality of subjects are close to each other on the two-dimensional plane that is the confirmation image 200. There are cases. In such a case, a plurality of faces may not be indicated by an integrated cursor.

すなわち確認画像200が第1の顔212−1と第2の顔212−2を含む複数の顔を含む場合には、前記第1の顔に対応して設定された半径用矩形340−1と前記第2の顔に対応して設定された判定用矩形340−2の大きさ(辺の長さ又は面積)が所定の基準以上に異なるか否か判断し、異なると判断した場合には、カーソル一体化表示処理を行わないようにしてもよい。   That is, when the confirmation image 200 includes a plurality of faces including the first face 212-1 and the second face 212-2, the radius rectangle 340-1 set corresponding to the first face If it is determined whether or not the size (side length or area) of the determination rectangle 340-2 set corresponding to the second face differs by more than a predetermined reference, The cursor integrated display process may not be performed.

判定用矩形340−1、340−2の大きさが所定の基準以上に異なるか否かは、判定用矩形の面積によって判断してもよいし、判定用矩形の辺の長さによって判断してもよい。   Whether the sizes of the determination rectangles 340-1 and 340-2 are different from a predetermined standard or more may be determined based on the area of the determination rectangle, or may be determined based on the length of the sides of the determination rectangle. Also good.

図11(A)(B)(C)は、図5の確認画像における判定用矩形の位置関係について説明するための図である。   11A, 11B, and 11C are diagrams for explaining the positional relationship of the determination rectangles in the confirmation image of FIG.

図11(A)の340−1、340−2は、図5の確認画像200−t1において各顔に対して設定された判定用矩形を示している。ここでは判定用矩形340−1、340−2が所定の位置関係(例えば図7(B)で説明したような重複部分を有する関係)を満たしていないので、図5の200−t1に示すように各顔に対して個別に第1のカーソルが表示される。なお判定用矩形は取得した顔位置データに基づいてリアルタイムに設定される。従って被写体のポーズや位置が変化すると設定される判定用矩形も変化する。従って各判定用矩形が所定の位置関係にあるかはリアルタイムに判断する。   Reference numerals 340-1 and 340-2 in FIG. 11A indicate determination rectangles set for each face in the confirmation image 200-t1 in FIG. Here, since the determination rectangles 340-1 and 340-2 do not satisfy a predetermined positional relationship (for example, a relationship having an overlapping portion as described with reference to FIG. 7B), as indicated by 200-t 1 in FIG. 5. The first cursor is individually displayed for each face. The determination rectangle is set in real time based on the acquired face position data. Therefore, the determination rectangle that is set when the pose or position of the subject changes also changes. Accordingly, it is determined in real time whether each determination rectangle has a predetermined positional relationship.

図11(B)の340−1、340−2は、図5の確認画像200−t2において各顔に対して設定された判定用矩形を示している。ここでは判定用矩形340−1、340−2が所定の位置関係を満たしているため、一体化矩形350が設定され、図5の200−t1に示すように一体化矩形に対して第2のカーソル画像230が設定されている。   Reference numerals 340-1 and 340-2 in FIG. 11B indicate determination rectangles set for each face in the confirmation image 200-t2 in FIG. Here, since the determination rectangles 340-1 and 340-2 satisfy the predetermined positional relationship, the integrated rectangle 350 is set, and the second rectangle is set with respect to the integrated rectangle as indicated by 200-t <b> 1 in FIG. 5. A cursor image 230 is set.

図11(C)の340−1、340−2は、図5の確認画像200−t3において各顔に対して設定された判定用矩形を示している。ここでは判定用矩形340−1、340−2が所定の位置関係を満たしているため、一体化矩形350が設定されている。また被写体の顔が近づいたままカメラに近づいて状態であり、図11(B)に比べて被写体の顔が大写し(アップ)になっている。従って図11(B)より、確認画像に占める判定用矩形340−1、340−2や一体化矩形350の割合が大きくなっている。この割合が所定値以上である場合に顔の大写しの度合いが所定の基準を満たしていると判断してもよい。また判定用矩形340−1、340−2や一体化矩形350の辺の長さが確認画像の縦横の長さの所定割合以上である場合に顔の大写しの度合いが所定の基準を満たしていると判断してもよい。   Reference numerals 340-1 and 340-2 in FIG. 11C indicate determination rectangles set for each face in the confirmation image 200-t3 in FIG. Here, since the determination rectangles 340-1 and 340-2 satisfy a predetermined positional relationship, the integrated rectangle 350 is set. In addition, the subject is approaching the camera while the face of the subject is approaching, and the subject's face is close-up (up) compared to FIG. Therefore, as shown in FIG. 11B, the ratios of the determination rectangles 340-1 and 340-2 and the integrated rectangle 350 in the confirmation image are large. If this ratio is greater than or equal to a predetermined value, it may be determined that the degree of close-up of the face satisfies a predetermined criterion. Further, when the lengths of the sides of the determination rectangles 340-1 and 340-2 and the integrated rectangle 350 are equal to or larger than a predetermined ratio of the vertical and horizontal lengths of the confirmation image, the degree of the close-up of the face satisfies a predetermined criterion. You may judge.

大写し(アップ)の度合いは、一体化矩形350の横の長さ(確認画像の横の長さに対する比率でもよい)で判断してもよいし、一体化矩形350の対角線の長さ(確認画像の対角線に対する比率でもよい)で判断してもよい。また一体化矩形350の面積の確認画像全体に閉める割合で判断してもよい。   The degree of close-up (up) may be determined by the horizontal length of the integrated rectangle 350 (which may be a ratio to the horizontal length of the confirmation image), or the diagonal length of the integrated rectangle 350 (the confirmation image). The ratio may be a ratio to the diagonal line. Alternatively, it may be determined by the ratio of closing the entire confirmation image of the area of the integrated rectangle 350.

3.ガイダンス処理
次にカーソル一体化表示処理に関する説明を含むガイダンス画像の表示部に表示させるガイダンス処理について説明する。図12は、本実施の形態の処理の流れを示すフローチャートである。図13はガイダンス処理で表示部に表示されるガイダンス画像の一例である。
3. Guidance processing
Next, the guidance process to be displayed on the guidance image display unit including the explanation related to the cursor integrated display process will be described. FIG. 12 is a flowchart showing a processing flow of the present embodiment. FIG. 13 is an example of a guidance image displayed on the display unit in the guidance process.

ゲームスタート前はアトラクト画像が表示されており(ステップS10)、コイン等のクレジットが投入されるとゲームがスタートする。ゲームがスタートすると(ステップS20)、各種設定画面が表示され、撮影モードの設定処理等が行われる(ステップS30)。背景画像等の選択もここで行うようにしてもよい。各種設定処理が終了すると、撮影処理(ステップS40)が開始される。撮影処理は1回のゲームで所定期間内にn回可能である。従って規定枚数になるまで、繰り返し撮影処理(ステップS50)が行われる。撮影処理が開始されると、カメラCRが撮像を開始し、撮像用モニタCMNは、撮像領域CAに位置するユーザの画像(ライブビュー画像、本願の確認画像に相当)をリアルタイムの動画として表示(ライブビュー表示)する。このときのライブビュー画像に対して、図5や図6に示すようなカーソル画像の表示が行われる。撮像が開始されてから所定時間が経過すると画像の取り込みタイミングとなり、このときの撮影画像(又は背景画像との合成画像)が取り込み画像として記憶部に記憶され、後の編集処理の対象となる。   Before the game starts, an attract image is displayed (step S10), and the game starts when credits such as coins are inserted. When the game starts (step S20), various setting screens are displayed, and shooting mode setting processing and the like are performed (step S30). Selection of a background image or the like may also be performed here. When the various setting processes are completed, the photographing process (step S40) is started. The photographing process can be performed n times within a predetermined period in one game. Accordingly, the photographing process (step S50) is repeated until the specified number is reached. When the photographing process is started, the camera CR starts imaging, and the imaging monitor CMN displays a user image (live view image, corresponding to the confirmation image of the present application) located in the imaging area CA as a real-time moving image ( Live view display). A cursor image as shown in FIGS. 5 and 6 is displayed on the live view image at this time. When a predetermined time elapses from the start of imaging, the image capture timing is reached, and the captured image (or a composite image with the background image) at this time is stored as a captured image in the storage unit and is subjected to later editing processing.

今回の撮影処理が終了すると、撮影終了でなければ(撮影回数が規定回数に達していなくて残り時間がある場合)(ステップS50でNの場合)、1回目の撮影終了後であれば(ステップS70でYの場合)ガイダンス処理(ステップS80)が行われた後、再び撮影処理(ステップS40)にいく。また1回目の撮影終了後でなければ(ステップS70でNの場合)ガイダンス処理は行われず、再び撮影処理(ステップS40)にいく。ガイダンス処理(ステップS80)では、例えば図13に示すようなガイダンス画像を表示してカーソル一体化処理についてのユーザの認知を促す。ここで今回のゲームが開始されてから行われた過去の撮影(前回の撮影でもよい)において取得した顔位置データに基づき今回のゲームの撮影人数を判断し、撮影人数が複数でないと判断した場合にはカーソル一体化表示処理に関するガイダンス画像の表示処理を省略してもよい。   When the current photographing process is finished, if the photographing is not finished (if the number of photographing has not reached the specified number and there is a remaining time) (N in step S50), if the first photographing is finished (step S50) In the case of Y in S70) After the guidance process (step S80) is performed, the process goes again to the photographing process (step S40). If the first shooting is not completed (N in step S70), the guidance process is not performed, and the process again goes to the shooting process (step S40). In the guidance process (step S80), for example, a guidance image as shown in FIG. 13 is displayed to prompt the user to recognize the cursor integration process. When the number of photographers of the current game is determined based on the face position data acquired in the past shooting (which may be the previous shooting) performed since the start of the current game, and it is determined that there are not a plurality of photographers The guidance image display process related to the cursor integrated display process may be omitted.

この様にすると、今回の撮影には関係しないガイダンス画像の出力処理を省略することができるので、全体処理時間を短縮させ、稼働率を向上させることができるとともに、ユーザにとっても無駄な待ち時間をなくし、飽きずにゲームを楽しませることができる。   In this way, since it is possible to omit the guidance image output process that is not related to the current shooting, the overall processing time can be shortened, the operating rate can be improved, and a wasteful waiting time for the user. You can enjoy the game without getting tired.

またゲーム開始後の撮影(1回目の撮影でもよい)においてカーソル一体化表示処理既に行った場合にはカーソル一体化表示処理に関する説明を省略してもよい。例えば1回のゲームでn回の撮影が可能である場合には、ゲーム開始後の1回目の撮影時にカーソル一体化表示処理を行った場合には、カーソル一体化表示処理に関する説明を省略してもよい。   If the cursor integrated display process has already been performed in the shooting after the game is started (may be the first shooting), the description regarding the cursor integrated display process may be omitted. For example, if n shots are possible in one game, and the cursor integrated display process is performed during the first shooting after the game starts, the description of the cursor integrated display process is omitted. Also good.

4.カーソル画像の作成手法
図14(A)〜(E)は、複数のカーソル基準画像を用いてカーソル画像を生成する処理について説明するための図である。図14(A)(B)(C)(D)は、被写体の顔のアップ度合いの異なる複数の確認画像を示しており、図14(E)はカーソル画像とそのスケールを示している。図14(A)(B)(C)(D)では、取得した顔矩形300−1の所定の1辺の比がh1:h2:h3:h4(h1<h2<h3<h4)となっているものとする。図14(E)のカーソル画像370−1、370−2、370−3、370−4は、図14(A)〜(D)に対応する大きさのカーソル画像をそのスケール順に並べたものである。
4). Cursor image creation method
FIGS. 14A to 14E are views for explaining processing for generating a cursor image using a plurality of cursor reference images. FIGS. 14A, 14B, 14C, and 14D show a plurality of confirmation images with different degrees of face up of the subject, and FIG. 14E shows a cursor image and its scale. 14A, 14B, 14C, and 14D, the ratio of one predetermined side of the acquired face rectangle 300-1 is h1: h2: h3: h4 (h1 <h2 <h3 <h4). It shall be. Cursor images 370-1, 370-2, 370-3, and 370-4 in FIG. 14E are obtained by arranging cursor images having sizes corresponding to those in FIGS. is there.

本実施の形態では、確認画像の顔部分にカーソル画像を重ねて配置することでカーソル表示を実現している。ここでカーソル画像の大きさは確認画像における顔画像(顔矩形)の大きさに応じて変化する。すなわち確認画像の顔矩形の大きさ(又は辺の長さ)に比例してカーソル画像の大きさ(又はスケール)も変化する。   In the present embodiment, the cursor display is realized by placing the cursor image on the face portion of the confirmation image. Here, the size of the cursor image changes according to the size of the face image (face rectangle) in the confirmation image. That is, the size (or scale) of the cursor image also changes in proportion to the size (or side length) of the face rectangle of the confirmation image.

本実施の形態では相似形状で大きさが段階的に異なる複数のカーソル基準画像360−1、360−2を用意し、確認画像の大写し(アップ)の度合いに応じて、使用するカーソル基準画像360−1、360−2を変更する。そしてカーソル基準画像を拡大又は縮小して様々な大きさのカーソル画像をリアルタイムに生成して表示するようにしてもよい。   In this embodiment, a plurality of cursor reference images 360-1 and 360-2 having similar shapes and different sizes are prepared, and the cursor reference image 360 to be used is used according to the degree of close-up (up) of the confirmation image. -1, 360-2 are changed. The cursor reference image may be enlarged or reduced to generate and display cursor images of various sizes in real time.

例えば図14(A)の場合にはカーソル基準画像360−1に縮小処理を施してカーソル画像370−1を生成してもよい。また図14(B)の場合にはカーソル基準画像360−1をそのままカーソル画像370−2として用いてもよい。また図14(C)の場合には、カーソル基準画像360−2に縮小処理を施してカーソル画像370−3を生成してもよいし、カーソル基準画像360−1に拡大処理を施してカーソル画像370−3を生成してもよい。また図14(D)の場合にはカーソル基準画像360−2をそのままカーソル画像370−4として用いてもよい。   For example, in the case of FIG. 14A, the cursor reference image 360-1 may be reduced to generate the cursor image 370-1. In the case of FIG. 14B, the cursor reference image 360-1 may be used as it is as the cursor image 370-2. In the case of FIG. 14C, the cursor reference image 360-2 may be reduced to generate a cursor image 370-3, or the cursor reference image 360-1 may be enlarged to generate a cursor image. 370-3 may be generated. In the case of FIG. 14D, the cursor reference image 360-2 may be used as it is as the cursor image 370-4.

この様にすると1つのカーソル基準画像に対して拡大、縮小を施して、すべてのアップ度合いに対応するカーソル画像を生成する場合に比べ、カーソル画像の画質の低下を防止することができる。   In this way, it is possible to prevent deterioration of the image quality of the cursor image as compared with the case where the cursor image corresponding to all the up degrees is generated by enlarging or reducing one cursor reference image.

5.カーソル画像表示制御の変形例
撮影が開始されてから、所定時間後に撮影中に取り込みタイミングが来る構成の撮影装置であれば、撮影が開始されてから取り込みタイミングまでの残り時間をカウントする処理を行い、残り時間が所定値になると前記カーソル画像の表示を終了するようにしてもよい。この様にすると取り込みタイミング直前にはカーソル表示が終了するので、ユーザは自分の表情等を確認しやすくなる。
5. Modification of cursor image display control
If the capturing device is configured so that the capturing timing comes during the capturing after the start of capturing, the remaining time from the capturing to the capturing timing is counted, and the remaining time is set to a predetermined value. Then, the display of the cursor image may be terminated. In this way, the cursor display ends immediately before the capture timing, so that the user can easily confirm his / her facial expression.

また撮影装置が、ユーザに関するユーザ情報を取得する部を含む場合(例えばサーバに蓄積されているユーザ情報をネットワークを介して取得する場合や、ユーザの携帯情報機器に蓄積されているユーザ情報をネットワークを介して取得する場合)には、ユーザ情報に基づき使用するカーソル画像を変化させるようにしてもよい。例えば複数のパターンのカーソル画像を用意しておき、取得したユーザ情報に基づき、複数のパターンのカーソル画像から1のカーソル画像を選択して、選択したカーソル画像を用いてカーソル表示を行うようにしてもよい。   In addition, when the photographing apparatus includes a unit that acquires user information about the user (for example, when acquiring user information stored in a server via a network, or when user information stored in a user's portable information device is networked) In the case of obtaining via (), the cursor image to be used may be changed based on the user information. For example, a plurality of patterns of cursor images are prepared, one cursor image is selected from a plurality of patterns of cursor images based on the acquired user information, and cursor display is performed using the selected cursor images. Also good.

例えば第1のカーソル画像は、すべてユーザで同じカーソル画像を用い、第2のカーソル画像は、複数のユーザのユーザ情報に基づき選択するようにしてもよい。例えば第2のカーソル画像として、男の友達同士の場合に用いるカーソル画像、女の友達同士の場合に用いるカーソル画像、男女のカップルの場合に用いるカーソル画像の3種類のカーソル画像を用意しておき、一体化する対象のユーザのユーザ情報に基づき、いずれかのカーソル画像を選択して表示してもよい。   For example, the same cursor image may be used by all users for the first cursor image, and the second cursor image may be selected based on user information of a plurality of users. For example, as the second cursor image, three types of cursor images are prepared: a cursor image used for male friends, a cursor image used for female friends, and a cursor image used for male and female couples. Any cursor image may be selected and displayed based on the user information of the user to be integrated.

また例えば第1のカーソル画像もユーザ情報に基づき選択するようにしてもよい。例えば男性用のカーソル画像、女性用のカーソル画像等を用意しておき、ユーザ情報に基づき、いずれかのカーソル画像を選択して表示してもよい。   Further, for example, the first cursor image may be selected based on the user information. For example, a cursor image for men, a cursor image for women, and the like may be prepared, and one of the cursor images may be selected and displayed based on user information.

6.カーソル画像表示制御処理の流れ
図15はカーソル表示制御処理の流れを示すフローチャートである。
6). Flow of cursor image display control processing
FIG. 15 is a flowchart showing the flow of the cursor display control process.

撮影が開始されると所定間隔(例えば生成する画像のフレーム毎に)で以下の処理を行う(ステップS110)。   When shooting is started, the following processing is performed at a predetermined interval (for example, every frame of an image to be generated) (step S110).

撮影された被写体の撮影画像から背景を抜き取った背景抜き取り画像と所与の背景画像を合成した合成画像を生成して確認画像としてライブビュー出力する(ステップS120)。次に顔位置データを取得する(ステップS130)。   A synthesized image obtained by synthesizing the background extracted image obtained by extracting the background from the photographed image of the photographed subject and the given background image is generated and output as a confirmation image in a live view (step S120). Next, face position data is acquired (step S130).

確認画像が複数の顔を含む場合には(ステップS140でYの場合)、顔位置データに基づき顔に対応する判定用矩形を求める(ステップS150)。   When the confirmation image includes a plurality of faces (Y in step S140), a determination rectangle corresponding to the face is obtained based on the face position data (step S150).

顔に対応する判定用矩形が所定の位置関係にある場合には(ステップS160でYの場合)、顔の大写し(アップ)の度合いが所定の基準を満たしているかいなか判定し、満たしている場合には(ステップS170でYの場合)、所定の位置関係にある複数の顔を一体として示す特別仕様の第3のカーソル画像を確認画像に表示する(ステップS180)。   If the determination rectangle corresponding to the face is in a predetermined positional relationship (in the case of Y in step S160), it is determined whether the degree of close-up (up) of the face satisfies a predetermined standard and satisfies (In the case of Y in step S170), a specially designed third cursor image showing a plurality of faces in a predetermined positional relationship as a single unit is displayed on the confirmation image (step S180).

また顔の大写し(アップ)の度合いが所定の基準を満たしていない場合には(ステップS170でNの場合)、所定の位置関係にある複数の顔を一体として示す第2のカーソル画像を確認画像に表示する(ステップS190)。   If the degree of close-up (up) of the face does not satisfy a predetermined standard (N in step S170), a second cursor image showing a plurality of faces in a predetermined positional relationship as a single unit is confirmed. (Step S190).

また顔に対応する判定用矩形が所定の位置関係にある場合には(ステップS160でNの場合)、複数の顔を個別に示す第1のカーソル画像を確認画像に表示する(ステップS200)。   If the determination rectangle corresponding to the face has a predetermined positional relationship (N in step S160), a first cursor image individually indicating a plurality of faces is displayed on the confirmation image (step S200).

この様にするとことで、顔位置の変化にリアルタイムに対応したカーソル画像を表示することができる。そして、顔が所定の位置関係になると、カーソルが一体化するので、ユーザは、確認画像を見ながら位置合わせすることでユーザの顔が近づくように自然に誘導することができる。またユーザの顔のアップ度合いが増すと、特別仕様の第3のカーソルが表示されるので、ユーザの顔のアップ度が増す方向に自然に誘導することができる。   By doing so, a cursor image corresponding to the change of the face position in real time can be displayed. When the faces are in a predetermined positional relationship, the cursor is integrated, so that the user can naturally guide the user's face closer by aligning while viewing the confirmation image. Further, when the degree of improvement of the user's face increases, a specially specified third cursor is displayed, so that the user can be guided naturally in the direction of increasing the degree of improvement of the user's face.

7.自動アップ機能と切り取り合成機能
図16は、本実施の形態の自動アップ機能について説明するための図である。
7). Auto-up function and cut-out composition function
FIG. 16 is a diagram for explaining the automatic up function of the present embodiment.

本実施の形態の自動アップ機能は、編集用の画像を提供する際に提供される機能であり、撮影中に発生する取り込みタイミングにおいて取り込まれた取り込み画像400に対して自動アップ処理が行われる。ここで取り込み画像400は、撮像部によって撮影された撮影画像でもよいし、当該撮影画像から背景を抜き取った背景抜き取り画像と所与の背景画像を合成した合成画像でもよい。取り込み画像は、取り込みタイミングに表示されている確認画像に対応している。   The automatic up function of the present embodiment is a function provided when an image for editing is provided, and an automatic up process is performed on the captured image 400 captured at the capture timing that occurs during shooting. Here, the captured image 400 may be a captured image captured by the imaging unit, or may be a composite image obtained by combining a background extracted image obtained by extracting a background from the captured image and a given background image. The captured image corresponds to the confirmation image displayed at the capture timing.

取り込み画像400(撮影画像でもよいし合成画像でもよい)における被写体の顔の位置を示す顔位置データ(302−1、304−1、306−1、308−1の座標値)、(302−2、304−2、306−2、308−2の座標値)を取得し、顔位置データに基づき、取り込み画像400において、被写体の顔を含み縦横が所定の設定比率の長方形の領域を切り取り領域410として決定し、切り取り領域410の画像に基づき提供画像420を生成する。   Face position data (coordinate values of 302-1, 304-1, 306-1, 308-1) indicating the position of the face of the subject in the captured image 400 (which may be a captured image or a composite image), (302-2) , 304-2, 306-2, and 308-2), and based on the face position data, in the captured image 400, a rectangular region that includes the face of the subject and that has a predetermined vertical and horizontal setting ratio is cut out. The provided image 420 is generated based on the image of the cutout area 410.

顔位置データは、例えば図16に示すように各顔212−1、212−2に対応して設定された顔矩形300−1、300−2の頂点データ(302−1、304−1、306−1、308−1の座標値)、(302−2、304−2、306−2、308−2の座標値)で与えられてもよい。そしてこの顔位置データに基づき各顔に対応する判定用矩形(図示せず)を設定し、当該判定用矩形に基づき、縦横が所定の比率の切り取り領域410を設定してもよい。   For example, as shown in FIG. 16, the face position data is the vertex data (302-1, 304-1, 306) of the face rectangles 300-1, 300-2 set corresponding to the respective faces 212-1, 212-2. −1, 308-1 coordinate values), (302-2, 304-2, 306-2, 308-2 coordinate values). Then, a determination rectangle (not shown) corresponding to each face may be set based on the face position data, and a cut region 410 having a predetermined vertical / horizontal ratio may be set based on the determination rectangle.

図16のように複数の被写体が近接して撮影されている場合には、複数の被写体を一体として1つの切り取り領域を設定する。この様にして設定された切り取り領域に基づき編集用の画像を生成することで複数の被写体のアップになった提供画像を提供することができる。   When a plurality of subjects are photographed close to each other as shown in FIG. 16, a plurality of subjects are integrated to set one cut area. By generating an image for editing based on the cut region set in this way, it is possible to provide a provided image in which a plurality of subjects are up.

図25は、複数の顔を含む切り取り領域を設定する場合について説明するための図である。同図は図16のように複数の被写体の顔212−1、212−2は近接していないが、このような場合でも複数の被写体の顔212−1、212−2を含む1つの切り取り領域を設定してもよい。   FIG. 25 is a diagram for describing a case where a cutout region including a plurality of faces is set. In FIG. 16, the faces 212-1 and 212-2 of a plurality of subjects are not close to each other as shown in FIG. 16, but even in such a case, one cutout region including the faces 212-1 and 212-2 of the subjects May be set.

取り込み画像400(撮影画像でもよいし合成画像でもよい)における被写体の顔212−1、212−2の位置を示す顔位置データ(302−1、304−1、306−1、308−1の座標値)、(302−2、304−2、306−2、308−2の座標値)、又は前記顔位置データによって特定される複数の顔矩形300−1、300−2に基づき、複数の顔又は顔矩形を含み、縦横が所定の設定比率の長方形の領域を切り取り領域410として決定し、切り取り領域410の画像に基づき提供画像420を生成してもよい。   Face position data (302-1, 304-1, 306-1, 308-1 coordinates) indicating the positions of the subject's faces 212-1 and 212-2 in the captured image 400 (which may be a captured image or a composite image) Value), (coordinate values of 302-2, 304-2, 306-2, 308-2), or a plurality of faces based on a plurality of face rectangles 300-1, 300-2 specified by the face position data. Alternatively, a rectangular area including a face rectangle and having a predetermined setting ratio in the vertical and horizontal directions may be determined as the cut area 410, and the provided image 420 may be generated based on the image of the cut area 410.

なお図25では、前記撮影画像又は前記合成画像に対して複数の顔を含む切り取り領域を1つ設定する場合を例にとり説明したが、これに限られず、複数の顔を含む切り取り領域を複数設定してもよい。例えば前記撮影画像又は前記合成画像がl(l=n+m)個の顔を含む場合には、n個の顔を含む切り取り領域とm個の顔を含む切り取り領域を設定してもよい。また複数の顔を含む切り取り領域(例えばn−1個の顔を含む切り取り領域)と1個の顔を含む切り取り領域を設定してもよい。   In FIG. 25, the case where one cutout area including a plurality of faces is set as an example for the captured image or the composite image has been described as an example. However, the present invention is not limited to this, and a plurality of cutout areas including a plurality of faces are set. May be. For example, when the photographed image or the composite image includes l (l = n + m) faces, a cutout area including n faces and a cutout area including m faces may be set. In addition, a cutout area including a plurality of faces (for example, a cutout area including n−1 faces) and a cutout area including one face may be set.

図17は、本実施の形態の切り取り合成機能について説明するための図である。   FIG. 17 is a diagram for explaining the cut-out composition function of the present embodiment.

図17の取り込み画像400は、図16のように複数の被写体が近接していないので、複数の被写体を一体として1つの切り取り領域を設定すると、切り取り領域に占める被写体の顔部分の面積が小さくなり、複数の被写体の顔がアップになった提供画像を生成することができない。   In the captured image 400 of FIG. 17, since a plurality of subjects are not close to each other as shown in FIG. 16, when one cut region is set by integrating a plurality of subjects, the area of the face portion of the subject occupying the cut region is reduced. The provided image in which the faces of a plurality of subjects are up cannot be generated.

そこでこの様な場合には、複数の顔に対応する顔位置データ(302−1、304−1、306−1、308−1の座標値)、(302−2、304−2、306−2、308−2の座標値)に基づき、複数の顔に対して個別に切り取り領域410−1、410−2を決定する。   Therefore, in such a case, face position data (coordinate values of 302-1, 304-1, 306-1, 308-1) corresponding to a plurality of faces, (302-2, 304-2, 306-2). , 308-2), the cut areas 410-1 and 410-2 are determined individually for a plurality of faces.

顔位置データは、例えば図17に示すように各顔212−1、212−2に対応して設定された顔矩形300−1、300−2の頂点データ(302−1、304−1、306−1、308−1の座標値)、(302−2、304−2、306−2、308−2の座標値)で与えられてもよい。そしてこの顔位置データに基づき各顔に対応する判定用矩形(図示せず)を設定し、当該判定用矩形に基づき、顔212−1、212−2毎に縦横が所定の比率の切り取り領域410−1、410−2を決定してもよい。   For example, as shown in FIG. 17, the face position data is the vertex data (302-1, 304-1, 306) of the face rectangles 300-1, 300-2 set corresponding to the faces 212-1, 212-2. −1, 308-1 coordinate values), (302-2, 304-2, 306-2, 308-2 coordinate values). Then, a determination rectangle (not shown) corresponding to each face is set based on the face position data, and based on the determination rectangle, a cutout area 410 having a predetermined ratio between the vertical and horizontal directions for each of the faces 212-1 and 212-2. −1, 410-2 may be determined.

そして複数の切り取り領域410−1、410−2の画像を合成して提供画像420を生成する。この様にすることで複数の被写体が近接していない場合でも各被写体がアップで近接している提供画像を生成することができる。   Then, the provided image 420 is generated by combining the images of the plurality of cut areas 410-1 and 410-2. In this way, even when a plurality of subjects are not close to each other, it is possible to generate a provided image in which each subject is close up.

この様に本実施の形態では、取り込み画像(撮影画像又は前記合成画像)が複数の顔を含む場合には、複数の顔に対応する顔位置データに基づき複数の顔が所定の位置関係にあるか否か判断し、所定の位置関係にないときは、図17に示すように複数の顔に対して個別に切り取り領域を設定し、複数の切り取り領域の画像を合成して提供画像を生成する。また複数の顔が所定の位置関係にあるときは図16に示すように複数の顔を含む1つの切り取り領域を設定し、1つの切り取り領域の画像に基づき提供画像を生成するようにしてもよい。   As described above, in the present embodiment, when the captured image (the captured image or the composite image) includes a plurality of faces, the plurality of faces have a predetermined positional relationship based on the face position data corresponding to the plurality of faces. If the predetermined positional relationship is not satisfied, as shown in FIG. 17, cut areas are individually set for a plurality of faces, and a provided image is generated by combining the images of the plurality of cut areas. . Further, when a plurality of faces are in a predetermined positional relationship, one cut area including a plurality of faces may be set as shown in FIG. 16, and a provided image may be generated based on an image of one cut area. .

ここで複数の顔が所定の位置関係にあるか否かについては、図7〜図9で説明した手法と同様の手法により行うことができる。すなわち顔位置データに基づき各顔に対応する判定用矩形(長方形)を設定し、当該判定用矩形に基づき、複数の顔が所定の位置関係にあるか否か決定することができる。図9(A)に示すように顔位置データが各顔に対応して設定された矩形の頂点データで与えられる場合、図9(B)に示すように当該矩形に外接し、縦横の辺が撮影画像又は合成画像の縦横の辺に平行な矩形を判定用矩形として設定してもよいし、図9(C)に示すように当該矩形に所定のオフセット領域を付加した矩形を判定用矩形として設定してもよい。   Here, whether or not a plurality of faces are in a predetermined positional relationship can be performed by a method similar to the method described with reference to FIGS. That is, a determination rectangle (rectangle) corresponding to each face is set based on the face position data, and it can be determined whether or not a plurality of faces are in a predetermined positional relationship based on the determination rectangle. When face position data is given by rectangular vertex data set corresponding to each face as shown in FIG. 9 (A), it circumscribes the rectangle as shown in FIG. A rectangle parallel to the vertical and horizontal sides of the captured image or the composite image may be set as a determination rectangle, or a rectangle obtained by adding a predetermined offset area to the rectangle as shown in FIG. It may be set.

図18(A)(B)は切り取り領域の縦横比率について説明するための図である。   18A and 18B are diagrams for explaining the aspect ratio of the cut-out area.

本実施の形態では、切り取り領域は、被写体の顔を含み縦横が所定の設定比率の長方形となる。縦横の所定の比率は予め設定されている場合でもよいし、外部からの設定入力や所定のパラメータの変化に伴い変更可能に設定されている場合でもよい。   In the present embodiment, the cut-out area is a rectangle having a predetermined setting ratio in the vertical and horizontal directions including the face of the subject. The predetermined vertical / horizontal ratio may be set in advance, or may be set to be changeable in accordance with an external setting input or a change in predetermined parameters.

ここで縦横の所定の比率がa:bで設定されている場合、図18(A)に示すように1つの切り取り領域420を設定する場合には、当該1つの切り取り領域420の縦横比率はa:bとなる。   Here, when the predetermined vertical / horizontal ratio is set as a: b, when one cut area 420 is set as shown in FIG. 18A, the vertical / horizontal ratio of the one cut area 420 is a. : B.

また図18(B)に示すように2つの切り取り領域420−1、420−2を設定する場合には、当該2つの切り取り領域420−1、420−2の縦横比率はa:b/2となる。   Further, when two cut areas 420-1 and 420-2 are set as shown in FIG. 18B, the aspect ratio of the two cut areas 420-1 and 420-2 is a: b / 2. Become.

この様にn個の顔に対して個別に切り取り領域を設定する場合には、各切り取り領域となる長方形の横の比率を、複数の顔を含む1つの切り取り領域を設定する場合の1/nの値に設定して、n個の切り取り領域の画像を横方向に配置して、提供画像を生成してもよい。   In this way, when the cut areas are individually set for the n faces, the horizontal ratio of the rectangle to be the cut areas is set to 1 / n when one cut area including a plurality of faces is set. The provided image may be generated by arranging the images of the n cut regions in the horizontal direction.

8.切り取り領域の設定
図19(A)〜(F)は、切り取り領域の設定手法の一例について説明するための図である。
8). Set cropping area
FIGS. 19A to 19F are diagrams for explaining an example of the setting method of the cut region.

図19(A)は、各顔212−1、212−2に対応して与えられた顔位置データ(頂点302−1、304−1、306−1、308−1の座標値、頂点302−2、304−2、306−2、308−2の座標値)に基づき顔矩形300−1、300−2を設定した様子を示している。   FIG. 19A shows the face position data (corresponding values of the vertices 302-1, 304-1, 306-1, and 308-1, the vertices 302− given to the faces 212-1 and 212-2. 2, 304-2, 306-2, and 308-2), the face rectangles 300-1 and 300-2 are set.

図19(B)は、各顔矩形300−1、300−2に対し、各顔矩形300−1、300−2に外接し、縦横の辺が取り込み画像400(撮影画像又は合成画像でもよい)の縦横の辺に平行な矩形(第2の顔矩形)320−1、320−2を設定した様子を示している。これを判定用矩形として設定してもよい。   In FIG. 19B, for each of the face rectangles 300-1 and 300-2, the face rectangles 300-1 and 300-2 are circumscribed, and the vertical and horizontal sides are captured images 400 (may be captured images or composite images). The rectangles (second face rectangles) 320-1 and 320-2 parallel to the vertical and horizontal sides are set. This may be set as a determination rectangle.

図19(C)は、第2の顔矩形320−1、320−2に所定のオフセット領域を付加した矩形(第3の顔矩形)330−1、330−2を設定した様子を示している。これを判定用矩形として設定してもよい。   FIG. 19C shows a state in which rectangles (third face rectangles) 330-1 and 330-2 obtained by adding a predetermined offset area to the second face rectangles 320-1 and 320-2 are set. . This may be set as a determination rectangle.

図19(D)では、各顔の判定用矩形(ここでは第3の顔矩形330−1、330−2)に基づき、複数の顔が所定の位置関係(判定用矩形が重なっている)にあると判断し、二つの顔一体として切り取るための1つの切り取り領域を設定するため矩形(第4の矩形)350を設定する様子を示している。   In FIG. 19D, a plurality of faces are in a predetermined positional relationship (the determination rectangles overlap) based on the determination rectangles (here, the third face rectangles 330-1 and 330-2) of each face. It is determined that there is a rectangle, and a rectangle (fourth rectangle) 350 is set in order to set one cutout region for cutting out as two integrated faces.

図19(E)は、第4の矩形350に対して縦横比がa:bになるように拡張した矩形(第5の矩形)360を設定する様子を示している。ここで上に所定ピクセル分の余白を設けるようにしてもよい。   FIG. 19E shows a state in which a rectangle (fifth rectangle) 360 expanded to have an aspect ratio of a: b with respect to the fourth rectangle 350 is set. Here, a margin for a predetermined pixel may be provided on the top.

図19(F)は、第5の矩形360に基づき生成した提供画像を示している。取り込み画像から第5の矩形360を切り取り領域として設定し、切り取り領域の画像を切り取り、所定のサイズに拡大処理を施して提供画像420を生成してもよい。   FIG. 19F shows a provided image generated based on the fifth rectangle 360. The provided rectangle 420 may be generated by setting the fifth rectangle 360 as a cutout area from the captured image, cutting out the image of the cutout area, and enlarging the image to a predetermined size.

図20(A)(B)は、切り取り領域が複数になる場合について説明するための図である。図20(A)に示すように、各顔の判定用矩形330−1、330−2が重なっていない場合には、複数の顔が所定の位置関係にないと判断し、二つの顔を個別に切り取るための2つの切り取り領域410−1、410−2を設定する。   20A and 20B are diagrams for explaining a case where there are a plurality of cut-out areas. As shown in FIG. 20A, when the determination rectangles 330-1 and 330-2 for each face do not overlap, it is determined that the plurality of faces are not in a predetermined positional relationship, and the two faces are individually detected. Two cut areas 410-1 and 410-2 for cutting into two are set.

そして図20(B)に示すように2つの切り取り領域410−1、410−2の画像を切り取り、合成して(つなぎ合わせて)、拡大して提供画像を生成する。   Then, as shown in FIG. 20B, the images of the two cut areas 410-1 and 410-2 are cut, combined (joined), and enlarged to generate a provided image.

図21(A)(B)は、切り取り領域が1つの横長の提供画像を生成する場合について説明するための図である。図21(A)に示すように、各顔の判定用矩形330−1、330−2が重なっているので、複数の顔が所定の位置関係にあると判断し、二つの顔を一体として切り取るための1つの横長の切り取り領域410’を設定する。ここでは切り取り領域の縦横比a:b(a<b)が横長に設定されている。   FIGS. 21A and 21B are diagrams for explaining a case where a horizontally long provided image with one cutout region is generated. As shown in FIG. 21A, since the determination rectangles 330-1 and 330-2 for each face are overlapped, it is determined that a plurality of faces are in a predetermined positional relationship, and the two faces are cut out as a unit. One horizontally long cut area 410 ′ is set for this purpose. Here, the aspect ratio a: b (a <b) of the cut-out area is set to be horizontally long.

そして図21(B)に示すように1つの切り取り領域410’の画像を切り取り拡大して提供画像を生成する。   Then, as shown in FIG. 21B, an image of one cutout area 410 'is cut out and enlarged to generate a provided image.

図22(A)(B)は、切り取り領域が複数になる場合について説明するための図である。図22(A)に示すように、各顔の判定用矩形330−1、330−2が重なっていない場合には、複数の顔が所定の位置関係にないと判断し、二つの顔を個別に切り取るための2つの切り取り領域(図20(A)の場合より、縦横比が横長になっている)410’−1、410’−2を設定する。   22A and 22B are diagrams for explaining the case where there are a plurality of cut-out areas. As shown in FIG. 22A, when the determination rectangles 330-1 and 330-2 of each face do not overlap, it is determined that the plurality of faces are not in a predetermined positional relationship, and the two faces are individually set. Two cutout areas 410′-1 and 410′-2 are set (in which the aspect ratio is longer than in the case of FIG. 20A).

そして図22(B)に示すように2つの切り取り領域410’−1、410’−2の画像を切り取り、合成して(つなぎ合わせて)、拡大して提供画像を生成する。ここでは切り取り領域の縦横比a:b(a<b)が横長に設定されている。   Then, as shown in FIG. 22B, the images of the two cut areas 410'-1 and 410'-2 are cut out, combined (joined), and enlarged to generate a provided image. Here, the aspect ratio a: b (a <b) of the cut-out area is set to be horizontally long.

図23は、本実施の形態の提供画像について説明するための図である。   FIG. 23 is a diagram for describing a provided image according to the present embodiment.

撮影処理が終了すると、撮影画像又は合成画像が取り込み画像として記憶され、ユーザは取り込み画像から所望の画像を選択して、「落書き」やデコレーション等の編集を行うことができる。   When the photographing process is completed, the photographed image or the composite image is stored as a captured image, and the user can select a desired image from the captured image and perform editing such as “doodle” or decoration.

本実施の形態では、取り込み画像(撮影画像又は合成画像)510、520とこれらのそれぞれに対応して生成された提供画像512、522を表示部に一覧表示して、ユーザが所望の画像を選択できるようにする。このようにすることで、ユーザは取り込み画像自体510、520を選択することもできるし、取り込み画像に対して自動アップ処理が施された画像522や切り取り合成処理が施された画像512を選択することもでき、ユーザの嗜好に合わせた多様な選択が可能となる。   In the present embodiment, captured images (captured images or synthesized images) 510 and 520 and provided images 512 and 522 generated corresponding to these images are displayed in a list on the display unit, and the user selects a desired image. It can be so. In this way, the user can select the captured images themselves 510 and 520, or select the image 522 that has been subjected to the automatic up process and the image 512 that has been subjected to the cut-out synthesis process. It is also possible to make various selections according to the user's preference.

図24は、自動アップ又は切り取り合成を行い提供画像を生成する処理の流れを示すフローチャートである。   FIG. 24 is a flowchart showing a flow of processing for generating a provided image by performing automatic up or cut-out synthesis.

この処理は取り込み画像(撮影画像、又は当該撮影画像から背景を抜き取った背景抜き取り画像)に対して行われる。   This process is performed on a captured image (a captured image or a background extracted image obtained by extracting a background from the captured image).

まず取り込み画像の顔位置データを取得する(ステップS210)。そして顔位置データに基づき、顔に対応する判定用矩形を求める(ステップS220)。顔位置データに基づき取り込み画像が複数の顔を含むか否か判断し、含まない場合(ステップS230でNの場合)にはステップS250の処理にいく。含む場合(ステップS230でYの場合)には、判定用矩形が所定の位置関係にあるか否か判断し、所定の位置関係にある場合(ステップS240でYの場合)には、複数の顔を一体として切りとるための第1の縦横比(a:b)の1つ切り取り領域を設定し(ステップS250)、設定された1つ切り取り領域の画像に基づき提供画像を生成する(ステップS260)。所定の位置関係にない場合(ステップS240でNの場合)又は、取り込み画像が複数の顔を含まない場合(ステップS230でNの場合)には、複数(n個)の顔を個別に切り取るための第2の縦横比(a:b/n)のn個の切り取り領域を設定し(ステップS270)、設定されたn個の切り取り領域の画像を合成して編集用画像を生成する(ステップS280)。   First, face position data of a captured image is acquired (step S210). Based on the face position data, a determination rectangle corresponding to the face is obtained (step S220). Based on the face position data, it is determined whether or not the captured image includes a plurality of faces. If not (NO in step S230), the process proceeds to step S250. If it is included (Y in step S230), it is determined whether or not the determination rectangle has a predetermined positional relationship. If it is in the predetermined positional relationship (Y in step S240), a plurality of faces are determined. One cut-out area of the first aspect ratio (a: b) for cutting out the image as a unit is set (step S250), and a provided image is generated based on the image of the set one cut-out area (step S260). When not in a predetermined positional relationship (in the case of N in step S240) or when the captured image does not include a plurality of faces (in the case of N in step S230), to cut out a plurality (n) of faces individually N cut areas having the second aspect ratio (a: b / n) are set (step S270), and images for the set n cut areas are synthesized to generate an editing image (step S280). ).

上記実施の形態では、撮影装置が、業務用の写真印刷装置を例にとり説明したがこれに限られない。例えば、写真撮影装置や写真シール印刷装置でもよいし、撮影機能を搭載した情報機器(携帯電話等の携帯用通信機器や、携帯用ゲーム機や、携帯情報端末や、パーソナルコンピュータ等)でもよいし、例えば電子カメラ等の撮影装置でもよい。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、携帯型ゲームシステム、ゲーム画像を生成するシステムボード等の種々のゲームシステムに適用できる。   In the above-described embodiment, the photographing apparatus has been described by taking a business photo printing apparatus as an example, but the present invention is not limited thereto. For example, a photographic device or a photo sticker printing device may be used, or an information device (such as a portable communication device such as a mobile phone, a portable game machine, a portable information terminal, or a personal computer) equipped with a photographing function may be used. For example, an imaging device such as an electronic camera may be used. The present invention can also be applied to various game systems such as a business game system, a home game system, a portable game system, and a system board for generating a game image.

PM 撮影装置、RM 代価受付部、CM 撮像部、EM 編集操作受付部、PB 写真シール提供部、SP スピーカ、RA 受付領域、RMN 受付用モニタ、CI コイン投入口、RL 受付用照明部、MR 鏡MR、BT 撮像移行ボタン、CA 撮像領域、ST シート、CR カメラ、CL 撮像用照明部、CMN 撮像用モニタ、EA 編集領域、EMN 編集用モニタ、TP タッチペン、PA 取出領域、PO 写真シール取出口、100 処理部、110 背景抜き取り画像生成部、112 確認画像表示制御部、114 カーソル画像表示制御部、116 画像取り込み制御部、118 ガイダンス処理部、120 編集処理部、122 切り取り領域設定部、124 提供画像生成部、130 画像生成部、140 音生成部、160 操作部、170 記憶部、174 描画バッファ、180 情報記憶媒体、190 ディスプレイ、192 音出力部、194 携帯型情報記憶装置、195 印刷部、196 通信部、198 撮像部 PM imaging device, RM price receiving unit, CM imaging unit, EM editing operation receiving unit, PB photo sticker providing unit, SP speaker, RA receiving area, RMN receiving monitor, CI coin slot, RL receiving lighting unit, MR mirror MR, BT imaging transition button, CA imaging area, ST sheet, CR camera, CL imaging illumination unit, CMN imaging monitor, EA editing area, EMN editing monitor, TP touch pen, PA extraction area, PO photo sticker exit, 100 Processing Unit, 110 Background Extracted Image Generation Unit, 112 Confirmation Image Display Control Unit, 114 Cursor Image Display Control Unit, 116 Image Capture Control Unit, 118 Guidance Processing Unit, 120 Editing Processing Unit, 122 Clipping Area Setting Unit, 124 Provided Image Generator, 130 image generator, 140 sound generator, 160 operation Department, 170 storage unit, 174 drawing buffer, 180 information storage medium, 190 a display, 192 a sound output unit, 194 portable information storage device 195 printing unit, 196 communication unit, 198 imaging unit

Claims (9)

ユーザを被写体として撮影する撮影部を含む撮影装置であって、
前記撮部によって撮影された撮影画像、又は当該撮影画像から背景を抜き取った背景抜き取り画像と所与の背景画像を合成した合成画像における被写体の顔の位置を示す顔位置データを取得し、前記顔位置データに基づき、撮影画像又は合成画像において、被写体の顔部分を含み縦横が所定の設定比率の長方形の領域を切り取り領域として設定する切り取り領域設定部と、
撮影画像又は合成画像の切り取り領域の画像に基づき提供画像を生成する提供画像生成部と、を含み、
前記切り取り領域設定部は、
前記撮影画像又は前記合成画像が複数の顔を含む場合には、複数の顔に対応する顔位置データに基づき複数の顔が所定の位置関係にあるか否か判断し、所定の位置関係にない場合には、複数の顔に対して個別に切り取り領域を設定し、複数の顔が所定の位置関係にある場合には複数の顔を含む1つの切り取り領域を設定し、
前記提供画像生成部は、
複数の顔に対して個別に切り取り領域が設定された場合には、複数の切り取り領域の画像を合成して提供画像を生成し、複数の顔に対して1つの切り取り領域が設定された場合には、1つの切り取り領域の画像に基づき提供画像を生成することを特徴とする撮影装置。
An imaging device including an imaging unit that images a user as a subject,
Photographed image taken by the shooting unit, or acquires the face position data indicating the position of the face of the subject in the composite image obtained by combining the background extraction image and given background image was drawn background from the captured image, wherein Based on the face position data, a cut-out area setting unit that sets a rectangular area including a face portion of the subject and having a predetermined vertical and horizontal ratio as a cut-out area in the captured image or the composite image;
A provision image generation unit that generates a provision image based on an image of a cutout area of a captured image or a composite image, and
The cut area setting unit
When the captured image or the composite image includes a plurality of faces, it is determined whether or not the plurality of faces are in a predetermined positional relationship based on face position data corresponding to the plurality of faces, and the predetermined positional relationship is not satisfied. In such a case, a cutting area is set for each of a plurality of faces, and when the plurality of faces are in a predetermined positional relationship, one cutting area including the plurality of faces is set.
The provided image generation unit
When cut areas are individually set for a plurality of faces, a provided image is generated by combining the images of the plurality of cut areas, and one cut area is set for the plurality of faces. Is a photographing apparatus that generates a provided image based on an image of one cut-out area.
請求項1において、
前記切り取り領域設定部は、
n個の顔に対して個別に切り取り領域を設定する場合には、各切り取り領域となる長方形の横の比率を、複数の顔を含む1つの切り取り領域を設定する場合の1/nの値に設定し、
前記提供画像生成部は、
n個の切り取り領域の画像を横方向に配置して、提供画像を生成することを特徴とする撮影装置。
In claim 1,
The cut area setting unit
When cutting areas are set individually for n faces, the horizontal ratio of the rectangle that becomes each cutting area is set to a value of 1 / n when one cutting area including a plurality of faces is set. Set,
The provided image generation unit
An imaging apparatus comprising: n cut-out area images arranged in a horizontal direction to generate a provided image.
請求項1又は2において、
前記提供画像生成部は、
前記提供画像として、少なくとも1つの切り取り領域の画像に基づき被写体の顔が大写しになっているアップ画像を生成することを特徴とする撮影装置。
In claim 1 or 2,
The provided image generation unit
An imaging device, wherein the provided image is generated based on an image of at least one cut-out area and a close-up of the face of the subject.
請求項1乃至3のいずれかにおいて、
前記切り取り領域設定部は、
前記顔位置データに基づき各顔に対応する判定用矩形を設定し、当該判定用矩形に基づき、切り取り領域を設定することを特徴とする撮影装置。
In any one of Claims 1 thru | or 3,
The cut area setting unit
An imaging apparatus, wherein a determination rectangle corresponding to each face is set based on the face position data, and a cutout region is set based on the determination rectangle.
請求項1乃至4のいずれかにおいて、
前記切り取り領域設定部は、
前記顔位置データに基づき各顔に対応する判定用矩形を設定し、当該判定用矩形に基づき、複数の顔が所定の位置関係にあるか否か判断することを特徴とする撮影装置。
In any one of Claims 1 thru | or 4,
The cut area setting unit
An imaging apparatus, wherein a determination rectangle corresponding to each face is set based on the face position data, and it is determined whether a plurality of faces are in a predetermined positional relationship based on the determination rectangle.
請求項4又は5において、
前記切り取り領域設定部は、
前記顔位置データに対応して設定された顔矩形に外接し、縦横の辺が確認画像の縦横の辺に平行な矩形又は当該矩形に所定のオフセット領域を付加した矩形を判定用矩形として設定することを特徴とする撮影装置。
In claim 4 or 5 ,
The cut area setting unit
A rectangle that circumscribes the face rectangle set corresponding to the face position data and whose vertical and horizontal sides are parallel to the vertical and horizontal sides of the confirmation image or a rectangle obtained by adding a predetermined offset area to the rectangle is set as a determination rectangle. An imaging apparatus characterized by that.
請求項1乃至6のいずれかにおいて、
前記撮影画像又は合成画像と、これらのいずれかに対応して生成された提供画像を編集用の画像として提供し、所与の編集処理を行う編集処理部を含むことを特徴とする撮影装置。
In any one of Claims 1 thru | or 6.
An imaging apparatus, comprising: an edited processing unit that provides the captured image or the synthesized image and a provided image generated corresponding to any one of them as an image for editing and performs a given editing process.
ユーザを被写体として撮影する撮影部を含む撮影装置制御するためのプログラムであって、
前記撮部によって撮影された撮影画像、又は当該撮影画像から背景を抜き取った背景抜き取り画像と所与の背景画像を合成した合成画像における被写体の顔の位置を示す顔位置データを取得し、前記顔位置データに基づき、撮影画像又は合成画像において、被写体の顔部分を含み縦横が所定の設定比率の長方形の領域を切り取り領域として設定する切り取り領域設定部と、
撮影画像又は合成画像の切り取り領域の画像に基づき提供画像を生成する提供画像生成部と、してコンピュータを機能させ、
前記切り取り領域設定部は、
前記撮影画像又は前記合成画像が複数の顔を含む場合には、複数の顔に対応する顔位置データに基づき複数の顔が所定の位置関係にあるか否か判断し、所定の位置関係にない場合には、複数の顔に対して個別に切り取り領域を設定し、複数の顔が所定の位置関係にある場合には複数の顔を含む1つの切り取り領域を設定し、
前記提供画像生成部は、
複数の顔に対して個別に切り取り領域が設定された場合には、複数の切り取り領域の画像を合成して提供画像を生成し、複数の顔に対して1つの切り取り領域が設定された場合には、1つの切り取り領域の画像に基づき提供画像を生成することを特徴とするプログラム。
A program for controlling a photographing device including a photographing unit that photographs a user as a subject,
Photographed image taken by the shooting unit, or acquires the face position data indicating the position of the face of the subject in the composite image obtained by combining the background extraction image and given background image was drawn background from the captured image, wherein Based on the face position data, a cut-out area setting unit that sets a rectangular area including a face portion of the subject and having a predetermined vertical and horizontal ratio as a cut-out area in the captured image or the composite image;
A provision image generation unit that generates a provision image based on an image of a cutout area of a captured image or a composite image, and causing the computer to function
The cut area setting unit
When the captured image or the composite image includes a plurality of faces, it is determined whether or not the plurality of faces are in a predetermined positional relationship based on face position data corresponding to the plurality of faces, and the predetermined positional relationship is not satisfied. In such a case, a cutting area is set for each of a plurality of faces, and when the plurality of faces are in a predetermined positional relationship, one cutting area including the plurality of faces is set.
The provided image generation unit
When cut areas are individually set for a plurality of faces, a provided image is generated by combining the images of the plurality of cut areas, and one cut area is set for the plurality of faces. Is a program for generating a provided image based on an image of one cutout region .
ユーザを被写体として撮影する撮影部を含む撮影装置の制御方法であって、
前記撮部によって撮影された撮影画像、又は当該撮影画像から背景を抜き取った背景抜き取り画像と所与の背景画像を合成した合成画像における被写体の顔の位置を示す顔位置データを取得し、前記顔位置データに基づき、撮影画像又は合成画像において、被写体
の顔部分を含み縦横が所定の設定比率の長方形の領域を切り取り領域として設定する切り取り領域設定ステップと、
撮影画像又は合成画像の切り取り領域の画像に基づき提供画像を生成する提供画像生成ステップと、を含み、
前記切り取り領域設定ステップにおいて、
前記撮影画像又は前記合成画像が複数の顔を含む場合には、複数の顔に対応する顔位置データに基づき複数の顔が所定の位置関係にあるか否か判断し、所定の位置関係にない場合には、複数の顔に対して個別に切り取り領域を設定し、複数の顔が所定の位置関係にある場合には複数の顔を含む1つの切り取り領域を設定し、
前記提供画像生成ステップにおいて、
複数の顔に対して個別に切り取り領域が設定された場合には、複数の切り取り領域の画像を合成して提供画像を生成し、複数の顔に対して1つの切り取り領域が設定された場合には、1つの切り取り領域の画像に基づき提供画像を生成することを特徴とする撮影装置の制御方法。
A method of controlling an imaging apparatus including an imaging unit that images a user as a subject,
Photographed image taken by the shooting unit, or acquires the face position data indicating the position of the face of the subject in the composite image obtained by combining the background extraction image and given background image was drawn background from the captured image, wherein A cutout area setting step for setting a rectangular area including a face portion of the subject and having a predetermined vertical and horizontal ratio as a cutout area based on the face position data,
A provision image generation step for generating a provision image based on the image of the cut-out area of the captured image or the composite image ,
In the cutting area setting step,
When the captured image or the composite image includes a plurality of faces, it is determined whether or not the plurality of faces are in a predetermined positional relationship based on face position data corresponding to the plurality of faces, and the predetermined positional relationship is not satisfied. In such a case, a cutting area is set for each of a plurality of faces, and when the plurality of faces are in a predetermined positional relationship, one cutting area including the plurality of faces is set.
In the provided image generation step,
When cut areas are individually set for a plurality of faces, a provided image is generated by combining the images of the plurality of cut areas, and one cut area is set for the plurality of faces. Is a method for controlling a photographing apparatus, wherein a provided image is generated based on an image of one cutout region .
JP2010172850A 2010-07-30 2010-07-30 Imaging apparatus, program, information storage medium, and imaging method Expired - Fee Related JP5657942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010172850A JP5657942B2 (en) 2010-07-30 2010-07-30 Imaging apparatus, program, information storage medium, and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010172850A JP5657942B2 (en) 2010-07-30 2010-07-30 Imaging apparatus, program, information storage medium, and imaging method

Publications (2)

Publication Number Publication Date
JP2012034243A JP2012034243A (en) 2012-02-16
JP5657942B2 true JP5657942B2 (en) 2015-01-21

Family

ID=45847101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010172850A Expired - Fee Related JP5657942B2 (en) 2010-07-30 2010-07-30 Imaging apparatus, program, information storage medium, and imaging method

Country Status (1)

Country Link
JP (1) JP5657942B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013222034A (en) * 2012-04-16 2013-10-28 Ims:Kk Photo seal discharging device and control method thereof
JP6880394B2 (en) * 2016-07-22 2021-06-02 フリュー株式会社 Photographing game console and shooting method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4123346B2 (en) * 2002-06-11 2008-07-23 フリュー株式会社 Image printing apparatus and information processing method
JP2007240887A (en) * 2006-03-08 2007-09-20 Make Softwear:Kk Automatic photographing device and method thereof
JP5230277B2 (en) * 2008-06-06 2013-07-10 株式会社タイトー Image providing device

Also Published As

Publication number Publication date
JP2012034243A (en) 2012-02-16

Similar Documents

Publication Publication Date Title
JP4863476B2 (en) Imaging apparatus, program, information storage medium, photo printing apparatus, and photo printing method
JP5684507B2 (en) Imaging apparatus, program, information storage medium, and imaging method
JP5349168B2 (en) Imaging apparatus, program, information storage medium, and imaging method
JP2007240887A (en) Automatic photographing device and method thereof
JP5782873B2 (en) Game shooting device, game shooting method and program
US9549084B2 (en) Photo decoration device
JP5657942B2 (en) Imaging apparatus, program, information storage medium, and imaging method
JP2016177015A (en) Photo seal creation device and image processing method
JP3859693B1 (en) Automatic photography apparatus and method
JP5483136B1 (en) Imaging apparatus and display control method
JP5757279B2 (en) Game shooting device, game shooting method and computer program
JP5285758B2 (en) Photo printing apparatus, program, information storage medium, photo printing method, and printed matter
JP6124087B2 (en) Image editing apparatus and image editing method
JP6245529B2 (en) Game shooting device, game shooting method and program
JP2018029343A (en) Image processing apparatus, image processing method, and program
JP2016213780A (en) Photograph sticker creation device and image display method
JP5491466B2 (en) Editing apparatus control method, program, and photographing apparatus
JP4454026B2 (en) Program, information storage medium, photo printing apparatus and photo printing method
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP2013218349A (en) Imaging apparatus for game, imaging method for game, and computer program
JP2018106678A (en) Sticker making game machine and image processing method
JP2014203084A (en) Photographic image edition system, program, and control method for the photographic image edition system
JP5887752B2 (en) Photography game device, photography game method, and photography game program
JP5787041B1 (en) Game shooting device, game shooting method and computer program
JP5988002B2 (en) Game shooting device, game shooting method and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141127

R150 Certificate of patent or registration of utility model

Ref document number: 5657942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees