JP5115528B2 - Photo sticker creation apparatus, photo sticker creation method, and program - Google Patents

Photo sticker creation apparatus, photo sticker creation method, and program Download PDF

Info

Publication number
JP5115528B2
JP5115528B2 JP2009213898A JP2009213898A JP5115528B2 JP 5115528 B2 JP5115528 B2 JP 5115528B2 JP 2009213898 A JP2009213898 A JP 2009213898A JP 2009213898 A JP2009213898 A JP 2009213898A JP 5115528 B2 JP5115528 B2 JP 5115528B2
Authority
JP
Japan
Prior art keywords
image
user
moving image
target range
photo sticker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009213898A
Other languages
Japanese (ja)
Other versions
JP2011066565A (en
Inventor
亜季子 辻
賢太朗 白井
幸代 金澤
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2009213898A priority Critical patent/JP5115528B2/en
Publication of JP2011066565A publication Critical patent/JP2011066565A/en
Application granted granted Critical
Publication of JP5115528B2 publication Critical patent/JP5115528B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、写真シール作成装置、写真シール作成方法、およびプログラムに関し、特に、撮影して得られる撮影画像において顔部分の画像処理が行われる範囲を利用者に提示することができるようにした写真シール作成装置、写真シール作成方法、およびプログラムに関する。   The present invention relates to a photo sticker creation apparatus, a photo sticker creation method, and a program, and in particular, a photograph that can present to a user a range where image processing of a face portion is performed in a photographed image obtained by photographing. The present invention relates to a sticker creating apparatus, a photo sticker creating method, and a program.

従来、利用者(被写体)を撮影し、得られた撮影画像に予め用意されている画像を合成したり、文字や線画を重畳させたりする落書き編集処理を行い、シール紙に印刷し、写真シールとして利用者に提供する写真シール機が存在する。   Conventionally, a user (subject) is photographed, and a graffiti editing process is performed in which a prepared image is combined with the obtained photographed image or a character or a line drawing is superimposed, printed on sticker paper, and a photo sticker There is a photographic seal machine provided to users.

この写真シール機は、例えば、ゲームセンタ等の娯楽(遊戯)施設に設置され、主に女子高校生や女子中学生等を中心とする利用者に有料でサービスを提供する。利用者は、写真シールの作成作業をゲームとして楽しむだけでなく、出力される様々なサイズの編集済み画像が印刷されている写真シールを仲間同士で切り分け合って、それぞれの所持品に貼り付けたり、多数のシール紙を収集して手帳などに貼り付けてアルバム感覚で所持したりしている。当該手帳は、女子中高校生等の利用者間でプリ帳と称されている。   This photo sticker is installed, for example, in an entertainment (game) facility such as a game center, and provides services mainly to high school girls and female junior high school students for a fee. Users can not only enjoy creating photo stickers as a game, but also cut out photo stickers with edited images printed in various sizes and paste them on their belongings. I collect a lot of sticker papers and paste them on a notebook etc. to carry them like an album. The notebook is referred to as a pre-book among users such as high school girls.

写真シール作成のゲームは、被写体(利用者自身)の撮影、その撮影画像に対する落書き編集、そして、編集済み画像を写真シールに印刷して出力、という一連の工程で行われる。利用者は、この一連の工程を制限時間内にプレイし、その成果物として作成された写真シールを受け取る。従って、利用者の満足度を向上させるためには、写真シール作成作業のゲームとしての面白さを向上させるとともに、写真シールの出来栄えを向上させることも重要になる。   The game for creating a photo sticker is performed in a series of steps of photographing a subject (user himself), editing a graffiti on the photographed image, and printing and outputting the edited image on a photo sticker. The user plays this series of processes within the time limit, and receives a photo sticker created as a product. Therefore, in order to improve user satisfaction, it is important to improve the fun of the photo sticker creation work as well as to improve the quality of the photo sticker.

そこで、利用者がより満足できる写真シールを提供することができるように、近年の写真シール機においては、撮影時に被写体である利用者が確認する動画像(ライブビュー画像)に対する補正の有無や範囲を利用者に指示させたり、利用者に立ち位置を案内するなどのような、撮影時における機能の多様化が進んでいる。   Therefore, in order to provide a photo sticker that is more satisfying for the user, in recent photo stickers, whether or not the correction is made or the range of the moving image (live view image) that is confirmed by the user who is the subject at the time of shooting. Diversification of functions at the time of shooting, such as instructing the user and guiding the user to the standing position.

具体的には、例えば、撮影時にライブビュー画像に対して補正したい部分を利用者自身が選択し、補正する機能が提案されている(特許文献1参照)。また、例えば、複数の利用者が複数の撮影画像において均等に撮影できるように、利用者毎に撮影のための立ち位置を案内する機能が提案されている(特許文献2参照)。さらに、例えば、ライブビュー画像表示時、トリミング枠を表示し、その枠でトリミングした画像を合成用画像に合成した撮影画像を得ることができる機能が提案されている(特許文献3参照)。   Specifically, for example, a function has been proposed in which a user himself selects and corrects a portion to be corrected for a live view image at the time of shooting (see Patent Document 1). In addition, for example, a function for guiding a standing position for photographing for each user has been proposed so that a plurality of users can evenly photograph a plurality of photographed images (see Patent Document 2). Furthermore, for example, a function has been proposed in which a trimming frame is displayed when a live view image is displayed, and a captured image obtained by combining an image trimmed with the frame with a compositing image is obtained (see Patent Document 3).

なお、カメラやビデオカメラの分野においては、例えば、被写体となる顔部分を認識さきるように顔枠を表示するビデオカメラや、取り込み画像に対して顔認識した部分を切り出す際、切り出し領域を枠表示する画像処理装置が提案されている。さらにまた、顔認識した部分の笑顔度数により、所定値以上になるとシャッタがおりるようになっているカメラが提案されている。   In the field of cameras and video cameras, for example, a video camera that displays a face frame so that the face part that is the subject can be recognized, or when a face recognition part is cut out from a captured image, An image processing apparatus for displaying has been proposed. Furthermore, a camera has been proposed in which a shutter is provided when the smile level of a face-recognized portion exceeds a predetermined value.

特開2005−277772号公報JP 2005-277772 A 特許3801147号公報Japanese Patent No. 3801147 特開2008−79273号公報JP 2008-79273 A

しかしながら、特許文献1に記載の写真シール機の場合、補正したい部分を利用者が指定しなければならず、操作が面倒であった。また、特許文献2に記載の写真シール機の場合、立ち位置と撮影モニタを交互に確認しながら撮影を行わなければならず、撮影人数が増えると狭い撮影空間内で位置確認をすることになり、複数の人が右往左往してしまう。   However, in the case of the photographic sticker described in Patent Document 1, the user has to specify the part to be corrected, and the operation is troublesome. In addition, in the case of the photo sticker described in Patent Document 2, it is necessary to perform shooting while alternately checking the standing position and the shooting monitor, and if the number of shots increases, the position is checked in a narrow shooting space. Multiple people go back and forth.

さらに、特許文献3に記載の写真シール機の場合、トリミングした画像を合成用画像にはめ込み合成できるが、ライブビュー画像表示するときには、トリミング部分が拡大表示されるだけであった。また、合成する際には、被写体1人ずつはめ込み合成する必要があり、1枚の撮影画像を生成するために時間がかかっていた。   Furthermore, in the case of the photographic sticker described in Patent Document 3, the trimmed image can be combined with the image for composition, but when the live view image is displayed, only the trimmed portion is displayed in an enlarged manner. Further, when combining, it is necessary to insert and combine the subjects one by one, and it takes time to generate one photographed image.

本発明はこのような状況に鑑みてなされたものであり、撮影して得られる撮影画像において顔部分の画像処理が行われる範囲を利用者に提示することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to present to a user a range in which image processing of a face portion is performed in a photographed image obtained by photographing.

本発明の一側面である写真シール作成装置は、利用者を撮影する撮影手段と、撮影手段により撮影された被写体の撮影動画像において画像処理の対象範囲を示す枠線および領域の少なくとも一方を、撮影動画像または画像処理済み動画像に重畳してリアルタイムで表示部に表示させるように制御する表示制御手段と、所定のタイミングで、撮影手段により撮影された被写体の撮影静止画像を保存する保存手段と、対象範囲の撮影動画像を画像処理し、画像処理済み動画像を生成し、対象範囲の撮影静止画像を画像処理し、画像処理済み静止画像を生成する画像処理手段と、画像処理済み静止画像に所定の編集処理を施して編集済み画像を生成する編集手段と、編集済み画像を出力する出力手段と、撮影動画像において、利用者の顔を認識する顔認識手段と、画像処理済み動画像と合成するための合成用画像に、被写体の代わりのモデルが配置されたサンプル合成用画像を選択する選択手段と、選択手段により選択されたサンプル合成用画像に対応する合成用画像と、対象範囲の画像処理済み動画像とを合成し、合成動画像を生成する合成処理手段とを備え、表示制御手段は、撮影動画像において利用者の顔が認識された範囲を、画像処理の対象範囲として、対象範囲を示す枠線および領域の少なくとも一方の大きさを変更して、合成動画像に重畳してリアルタイムで表示部に表示させるように制御するとともに、サンプル合成用画像におけるモデルの位置を示す枠線および領域の少なくとも一方を、合成動画像に重畳してリアルタイムで表示部に表示させるように制御し、合成処理手段は、合成用画像と、対象範囲の画像処理済み静止画像とを合成し、合成静止画像を生成し、編集手段は、合成静止画像に所定の編集処理を施して編集済み画像を生成する。 The photo sticker creating apparatus according to one aspect of the present invention includes a photographing unit that photographs a user, and at least one of a frame line and a region that indicate a target range of image processing in a photographing moving image of a subject photographed by the photographing unit. Display control means for controlling to superimpose a captured moving image or image-processed moving image on a display unit in real time, and storage means for storing a captured still image of a subject photographed by the photographing means at a predetermined timing Image processing means for performing image processing on the captured moving image in the target range, generating an image processed moving image, image processing on the captured still image in the target range, and generating an image processed still image; recognizing and editing means for generating an edited image by performing predetermined editing processing on the image, and output means for outputting the edited image, in capturing a moving image, the face of the user A recognizing unit; a selecting unit that selects a sample combining image in which a model instead of a subject is arranged in a combining image to be combined with the image processed moving image; and a sample combining image selected by the selecting unit. The image processing apparatus includes a synthesis processing unit that synthesizes the corresponding synthesis image and the image-processed moving image in the target range to generate a synthesized moving image, and the display control unit recognizes the user's face in the captured moving image. The range is set as a target range for image processing, and the size of at least one of a frame line and a region indicating the target range is changed, and the range is superposed on the synthesized moving image and displayed on the display unit in real time. Control is performed so that at least one of the frame line and the region indicating the model position in the synthesis image is superimposed on the synthesized moving image and displayed on the display unit in real time. Stage, a synthesis image, an image processed still image within the target range was synthesized to generate a synthesized still image editing means generates the edited image is subjected to predetermined editing process to synthesize the still image.

この写真シール作成装置の撮影手段は、例えば、カメラにより構成され、表示制御手段
は、例えば、表示制御部により構成され、画像処理手段は、例えば、画像処理部により構
成され、編集手段は、例えば、編集処理部により構成され、出力手段は、例えば、印刷処
理部により構成される。この写真シール作成装置の顔認識手段は、例えば、顔画像認識部により構成される。この写真シール作成装置の選択手段は、例えば、操作入力処理部により構成され、合成処理手段は、例えば、合成処理部により構成される。
The photographing means of this photo sticker creating apparatus is constituted by, for example, a camera, the display control means is constituted by, for example, a display control section, the image processing means is constituted by, for example, an image processing section, and the editing means is, for example, The editing unit is configured, and the output unit is configured by a print processing unit, for example. The face recognition means of this photo sticker creating apparatus is constituted by, for example, a face image recognition unit. The selection means of this photo sticker creating apparatus is constituted by, for example, an operation input processing section, and the composition processing means is constituted by, for example, a composition processing section.

本発明の一側面である写真シール作成装置においては、利用者が撮影され、撮影された被写体の撮影動画像において画像処理の対象範囲を示す枠線および領域の少なくとも一方が、撮影動画像または画像処理済み動画像に重畳してリアルタイムで表示部に表示させるように制御される。また、所定のタイミングで、撮影された被写体の撮影静止画像が保存され、対象範囲の撮影動画像が画像処理されて、画像処理済み動画像が生成され、対象範囲の撮影静止画像が画像処理されて、画像処理済み静止画像が生成され、画像処理済み静止画像に所定の編集処理を施して編集済み画像が生成され、編集済み画像が出力される。さらに、撮影動画像において、利用者の顔が認識され、画像処理済み動画像と合成するための合成用画像に、被写体の代わりのモデルが配置されたサンプル合成用画像が選択され、選択されたサンプル合成用画像に対応する合成用画像と、対象範囲の画像処理済み動画像とが合成されて、合成動画像が生成される。そして、撮影動画像において利用者の顔が認識された範囲を、画像処理の対象範囲として、対象範囲を示す枠線および領域の少なくとも一方の大きさを変更して、合成動画像に重畳してリアルタイムで表示部に表示させるように制御されるとともに、サンプル合成用画像におけるモデルの位置を示す枠線および領域の少なくとも一方を、合成動画像に重畳してリアルタイムで表示部に表示させるように制御され、合成用画像と、対象範囲の画像処理済み静止画像とが合成されて、合成静止画像が生成され、合成静止画像に所定の編集処理を施して編集済み画像が生成される。 In photo sticker creation device which is an aspect of the present invention, a user is photographed, at least one of the borders and the area indicating the scope of image processing in the photographing moving image photographed object is photographed moving image or image Control is performed to superimpose the processed moving image on the display unit in real time . Also, at a predetermined timing, a captured still image of the photographed subject is stored, the captured moving image in the target range is subjected to image processing, an image processed moving image is generated, and the captured still image in the target range is subjected to image processing. Thus, an image-processed still image is generated , a predetermined editing process is performed on the image-processed still image to generate an edited image, and the edited image is output. Further, in the captured moving image, the user's face is recognized, and the sample combining image in which the model instead of the subject is arranged is selected and selected as the combining image to be combined with the image processed moving image. The composition image corresponding to the sample composition image and the image-processed moving image in the target range are combined to generate a combined moving image. Then, the range in which the user's face is recognized in the captured moving image is set as a target range for image processing, and the size of at least one of the frame line and the region indicating the target range is changed and superimposed on the synthesized moving image. It is controlled to display on the display unit in real time, and at least one of the frame and the region indicating the model position in the sample synthesis image is superimposed on the synthesized moving image and displayed on the display unit in real time. Then, the composition image and the image-processed still image in the target range are combined to generate a combined still image, and the edited still image is generated by performing a predetermined editing process on the combined still image.

これにより、利用者は、撮影画像のうち、どの部分が画像処理されるのかを瞬時に理解することができる。あるいは、その枠線内へ利用者を誘導させることができる。これにより、利用者は、手間をかけることなく、画像処理された画像やその画像が印刷されたシールを得ることができるので、利用者の満足感の向上が期待できる。   Thereby, the user can instantly understand which part of the captured image is subjected to image processing. Alternatively, the user can be guided into the frame line. Accordingly, the user can obtain an image that has been subjected to image processing and a sticker on which the image is printed without taking time, and thus improvement in user satisfaction can be expected.

これにより、利用者に、表示部の画像がいかに実物と同じであるかのように実感させることができる。   As a result, the user can feel as if the image on the display unit is the same as the real image.

これにより、利用者は、撮影画像のうち、どの部分が顔として認識されて、画像処理されるのかを瞬時に理解することができる。これにより、利用者は、手間をかけることなく、顔部分が画像処理された画像が印刷されたシールを得ることができるので、利用者の満足感の向上が期待できる。   Thereby, the user can instantly understand which part of the captured image is recognized as a face and is subjected to image processing. As a result, the user can obtain a sticker on which an image in which the face portion has been subjected to image processing is printed without time and effort, so that improvement in user satisfaction can be expected.

これにより、利用者に対して、サンプル合成用画像におけるモデルの位置への移動を促すことができる。   This can prompt the user to move the model to the position of the model in the sample composition image.

表示制御手段は、複数の対象範囲がある場合、対象範囲を示す枠線および領域の少なくとも一方を、対象範囲毎に異なる表示方法で表示部に表示させるように制御することができる。   When there are a plurality of target ranges, the display control means can perform control so that at least one of a frame line and a region indicating the target range is displayed on the display unit by a different display method for each target range.

これにより、利用者が複数であったとしても、撮影空間で右往左往することなく、所定の位置に利用者を誘導することができる。   Thereby, even if there are a plurality of users, the user can be guided to a predetermined position without going back and forth in the imaging space.

表示制御手段は、対象範囲を示す枠線および領域の少なくとも一方を、撮影のカウント数に応じて異なる表示方法で表示部に表示させるように制御することができる。   The display control means can control to display at least one of a frame line and a region indicating the target range on the display unit using different display methods according to the number of photographing counts.

これにより、利用者に、撮影がすぐであることを意識させることができる。   This makes it possible for the user to be aware that shooting is immediate.

本発明の一側面である写真シール作成方法は、写真シールを作成する写真シール作成装置の写真シール作成方法において、写真シール作成装置による、利用者を撮影する撮影ステップと、撮影された被写体の撮影動画像において画像処理の対象範囲を示す枠線および領域の少なくとも一方を、撮影動画像または画像処理済み動画像に重畳してリアルタイムで表示部に表示させるように制御する表示制御ステップと、所定のタイミングで、撮影手段により撮影された被写体の撮影静止画像を保存する保存ステップと、対象範囲の撮影動画像を画像処理し、画像処理済み動画像を生成し、対象範囲の撮影静止画像を画像処理し、画像処理済み静止画像を生成する画像処理ステップと、画像処理済み静止画像に所定の編集処理を施して編集済み画像を生成する編集ステップと、編集済み画像を出力する出力ステップと、撮影動画像において、利用者の顔を認識する顔認識ステップと、画像処理済み動画像と合成するための合成用画像に、被写体の代わりのモデルが配置されたサンプル合成用画像を選択する選択ステップと、選択ステップの処理により選択されたサンプル合成用画像に対応する合成用画像と、対象範囲の画像処理済み動画像とを合成し、合成動画像を生成する合成処理ステップとを含み、表示制御ステップでは、撮影動画像において利用者の顔が認識された範囲を、画像処理の対象範囲として、対象範囲を示す枠線および領域の少なくとも一方の大きさを変更して、合成動画像に重畳してリアルタイムで表示部に表示させるように制御するとともに、サンプル合成用画像におけるモデルの位置を示す枠線および領域の少なくとも一方を、合成動画像に重畳してリアルタイムで表示部に表示させるように制御し、合成処理ステップでは、合成用画像と、対象範囲の画像処理済み静止画像とを合成し、合成静止画像を生成し、編集ステップでは、合成静止画像に所定の編集処理を施して編集済み画像を生成するA photo sticker creating method according to one aspect of the present invention is a photo sticker creating method of a photo sticker creating apparatus for creating a photo sticker. In the photo sticker creating method, a photographing step of photographing a user and photographing of a photographed subject are performed. A display control step for controlling at least one of a frame line and a region indicating an image processing target range in the moving image to be superimposed on the captured moving image or the image-processed moving image and displayed on the display unit in real time; At the timing, a storage step for storing a captured still image of the subject captured by the imaging means , image processing of the captured moving image in the target range, generation of an image processed moving image, and image processing of the captured still image of the target range An image processing step for generating an image-processed still image, and an image that has been edited by subjecting the image-processed still image to a predetermined editing process. An editing step to be generated, and outputting the edited image, in capturing a moving image, and recognizing a face recognition step the face of the user, in the synthesized image to be synthesized with the image processed moving image of a subject A selection step for selecting a sample synthesis image in which an alternative model is arranged, a synthesis image corresponding to the sample synthesis image selected by the processing of the selection step, and an image-processed moving image in the target range are synthesized. And a compositing processing step for generating a composite moving image. In the display control step, a range in which the user's face is recognized in the captured moving image is set as a target range for image processing, and a frame line and a region indicating the target range Change the size of at least one and control it to be superimposed on the synthesized video and displayed on the display in real time. Control to superimpose at least one of the frame and area indicating the position of the model to be superimposed on the synthesized moving image and display it on the display unit in real time. The synthesized still image is generated by synthesizing with the still image. In the editing step, the edited still image is generated by performing a predetermined editing process on the synthesized still image .

本発明の一側面であるプログラムは、写真シールを作成する写真シール作成装置の制御用のプログラムにおいて、利用者を撮影する撮影ステップと、撮影された被写体の撮影動画像において画像処理の対象範囲を示す枠線および領域の少なくとも一方を、撮影動画像または画像処理済み動画像に重畳してリアルタイムで表示部に表示させるように制御する表示制御ステップと、所定のタイミングで、撮影手段により撮影された被写体の撮影静止画像を保存する保存ステップと、対象範囲の撮影動画像を画像処理し、画像処理済み動画像を生成し、対象範囲の撮影静止画像を画像処理し、画像処理済み静止画像を生成する画像処理ステップと、画像処理済み静止画像に所定の編集処理を施して編集済み画像を生成する編集ステップと、編集済み画像を出力する出力ステップと、撮影動画像において、利用者の顔を認識する顔認識ステップと、画像処理済み動画像と合成するための合成用画像に、被写体の代わりのモデルが配置されたサンプル合成用画像を選択する選択ステップと、選択ステップの処理により選択されたサンプル合成用画像に対応する合成用画像と、対象範囲の画像処理済み動画像とを合成し、合成動画像を生成する合成処理ステップとを含み、表示制御ステップでは、撮影動画像において利用者の顔が認識された範囲を、画像処理の対象範囲として、対象範囲を示す枠線および領域の少なくとも一方の大きさを変更して、合成動画像に重畳してリアルタイムで表示部に表示させるように制御するとともに、サンプル合成用画像におけるモデルの位置を示す枠線および領域の少なくとも一方を、合成動画像に重畳してリアルタイムで表示部に表示させるように制御し、合成処理ステップでは、合成用画像と、対象範囲の画像処理済み静止画像とを合成し、合成静止画像を生成し、編集ステップでは、合成静止画像に所定の編集処理を施して編集済み画像を生成する処理を写真シール作成装置に実行させる。 A program according to an aspect of the present invention is a program for controlling a photo sticker creating apparatus that creates a photo sticker, and includes a shooting step for shooting a user, and a target range of image processing in a shooting moving image of a shot subject. A display control step for controlling to display at least one of the frame line and the area to be displayed on the display unit in real time by superimposing on the captured moving image or the image-processed moving image; A storage step for storing a captured still image of a subject, image processing of a captured moving image in the target range, generation of an image processed moving image, image processing of a captured still image of the target range , and generation of an image processed still image An image processing step, an image processing still image that has undergone predetermined editing processing to generate an edited image, and an edited image And outputting the image, the shooting moving images, and recognizing the face recognition step the face of the user, the samples in the synthesized image to be synthesized with the image processed moving image, instead of a model of the object is placed A selection step for selecting an image for synthesis, a synthesis image corresponding to the sample synthesis image selected by the processing of the selection step, and an image-processed moving image in the target range to generate a synthesized moving image In the display control step, the range in which the user's face is recognized in the captured moving image is set as the target range of the image processing, and the size of at least one of the frame line and the region indicating the target range is changed. And a frame that indicates the position of the model in the image for sample synthesis and is controlled to be superimposed on the synthesized moving image and displayed on the display unit in real time. Control is performed so that at least one of the areas is superimposed on the synthesized moving image and displayed on the display unit in real time, and in the synthesis processing step, the synthesis image and the image-processed still image in the target range are synthesized, An image is generated, and in the editing step, the photo sticker creating apparatus is caused to execute a process of performing a predetermined editing process on the synthesized still image to generate an edited image .

このプログラムは、所定の記録媒体に記録されて、例えば、ドライブにより読み出され、写真シール作成装置にインストールされる。記録媒体は、フロッピ(登録商標)ディスクなどよりなる磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc)などよりなる光ディスク、MD(Mini Disc)(登録商標)などよりなる光磁気ディスク、または半導体メモリなどのリムーバブルメディアにより構成される。   This program is recorded on a predetermined recording medium, read by a drive, for example, and installed in the photo sticker creating apparatus. Recording media include magnetic disks made of floppy (registered trademark) disks, optical disks made of CD-ROM (Compact Disc Read Only Memory), DVD-ROM (Digital Versatile Disc), MD (Mini Disc) (registered trademark), etc. And a removable medium such as a semiconductor memory.

本発明の一側面によれば、撮影動画像において画像処理の対象範囲を、撮影動画像に重畳してリアルタイムで表示部に表示することができる。   According to one aspect of the present invention, it is possible to display the target range of image processing in a captured moving image on the display unit in real time by superimposing the captured image on the captured moving image.

本発明を適用した写真シール作成装置の構成例を示す斜視図である。It is a perspective view which shows the structural example of the photograph sticker production apparatus to which this invention is applied. 図1の写真シール作成装置を他の角度からみた斜視図である。It is the perspective view which looked at the photo sticker production apparatus of FIG. 1 from another angle. 図1の写真シール作成装置の設置例を示す斜視図である。It is a perspective view which shows the example of installation of the photograph sticker production apparatus of FIG. 写真シール作成装置における利用者の空間移動を説明する図である。It is a figure explaining the user's space movement in a photograph sticker creation apparatus. 撮影ユニットの前方ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of the front unit of an imaging | photography unit. 撮影ユニットの後方ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of the back unit of an imaging | photography unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the structural example of the side surface of an edit unit. 編集ユニットの他の側面の構成例を示す図である。It is a figure which shows the structural example of the other side of an edit unit. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 図9の制御部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of the control part of FIG. 図10の撮影処理部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of the imaging | photography process part of FIG. 写真シール作成ゲーム処理を説明するフローチャートである。It is a flowchart explaining a photograph sticker creation game process. ライブビュー撮影処理を説明するフローチャートである。It is a flowchart explaining a live view imaging process. ライブビュー画面の表示例を示す図である。It is a figure which shows the example of a display of a live view screen. ライブビュー撮影処理における操作画面の表示例を示す図である。It is a figure which shows the example of a display of the operation screen in a live view imaging | photography process. ライブビュー画面の表示処理を説明するフローチャートである。It is a flowchart explaining the display process of a live view screen. サンプル合成用画像およびライブビュー画面の表示例を示す図である。It is a figure which shows the example of a display of the image for sample synthesis | combination, and a live view screen. サンプル合成用画像およびライブビュー画面の表示例を示す図である。It is a figure which shows the example of a display of the image for sample synthesis | combination, and a live view screen. ライブビュー画面の表示例を示す図である。It is a figure which shows the example of a display of a live view screen. ライブビュー画面の表示処理を説明するフローチャートである。It is a flowchart explaining the display process of a live view screen. ライブビュー画面の表示処理における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display process of a live view screen. ライブビュー画面の表示例を示す図である。It is a figure which shows the example of a display of a live view screen. ライブビュー画面の表示処理における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the display process of a live view screen. ライブビュー画面の表示例を示す図である。It is a figure which shows the example of a display of a live view screen.

以下、本発明の一実施の形態である写真シール作成装置1について、図面を参照しながら詳細に説明する。   Hereinafter, a photo sticker creating apparatus 1 according to an embodiment of the present invention will be described in detail with reference to the drawings.

写真シール作成装置1は、撮影や編集等の作業の娯楽性を高め、それらの作業を利用者にゲーム(遊戯サービス)として実行させ、その撮影・編集した画像を、写真シール、写真シール手帳の頁、またはデータとして利用者に提供し、その対価を利用者から受け取るゲーム装置(遊戯サービス提供装置)である。   The photo sticker creating apparatus 1 enhances the entertainment of shooting and editing operations, and allows the user to execute those operations as a game (play service), and the shot / edited images are stored in a photo sticker and a photo sticker notebook. It is a game device (play service providing device) that is provided to the user as a page or data and receives the consideration from the user.

ここで、本明細書における利用者などの用語を定義する。   Here, terms such as a user in this specification are defined.

利用者とは、写真シール作成装置1にてゲームを行う人物を指す。利用者グループとは、写真シール作成装置1にてゲームの各工程(後述する撮影、編集など)を同伴して行う1人以上の利用者の集まりを指す。したがって、利用者グループの用語が単独の利用者を指す場合もあるし、2人以上の利用者達を指す場合もある。ただし、撮影を行うスペースや編集を行うスペースなどの制約により、通常、利用者グループは2乃至4人程度であると想定される。   A user refers to a person who plays a game on the photo sticker creating apparatus 1. The user group refers to a group of one or more users who are accompanied by each process of the game (photographing, editing, etc. described later) in the photo sticker creating apparatus 1. Therefore, the term “user group” may refer to a single user, or may refer to two or more users. However, it is usually assumed that there are about 2 to 4 user groups due to restrictions such as shooting space and editing space.

写真シール作成装置1が実行する写真シール作成ゲームにおいて、利用者グループ(上述したように、1人であってもよいし、2人以上であってもよい)は、ゲームの対価(代金)を投入し、自身等らが被写体となって撮影を行い、その結果得られる1枚以上の撮影画像の中から編集対象とするもの(編集対象画像)を1枚以上選択し、これらを順次、編集対象画像として背景や前景となるフレーム画像、手書きの線画やスタンプ画像を合成する編集機能(落書き編集機能)を用いて編集を行うことにより、撮影画像を彩り豊かなもの(編集済み画像)にする。そしてゲーム終了後、利用者グループは、編集済み画像が印刷された写真シール等を成果物として受け取る。   In the photo sticker creation game executed by the photo sticker creation device 1, the user group (which may be one person or two or more persons as described above) determines the price of the game. Shoot the subject as a subject, select one or more images to be edited (images to be edited) from one or more of the resulting images, and edit them sequentially Makes the captured image rich (edited image) by editing it using the editing function (graffiti editing function) that combines the frame image that is the background and foreground as the target image, the handwritten line drawing, and the stamp image. . After the game ends, the user group receives a photo sticker or the like on which the edited image is printed as a product.

写真シール作成装置1は、通常、ゲームセンタや観光地の店舗等に設置される。写真シール作成装置1を設置した経営者は、写真シール作成装置1を管理・運営し、女子中高校生に代表される利用者に写真シール作成ゲームを有料でプレイさせ、その代金により収益を上げる。よって、店舗等の経営者にとって、写真シール作成装置1の収益率の高さが重要となる。   The photo sticker creating apparatus 1 is usually installed in a game center or a store in a sightseeing spot. The manager who installed the photo sticker creating apparatus 1 manages and operates the photo sticker creating apparatus 1 to allow a user represented by a female junior high school student to play a photo sticker creating game for a fee, and to make a profit by the fee. Therefore, the high profit rate of the photo sticker creating apparatus 1 is important for managers of stores and the like.

つまり、写真シール作成装置1は、単位時間当たりの収益率が高い方が望ましい。また、通常の店舗の場合、床面積や構造等の制限により、写真シール作成装置1の設置場所が限定される。従って、写真シール作成装置1は、単位床面積当たりの収益率が高い方が望ましい。さらに、各店舗の広さや形状は通常同じでなく、かつ、写真シール作成装置1とともに設置される他のゲーム機等も異なるため、その設置場所の自由度が高ければ高いほどよい。またさらに、利用者が複数回繰り返して利用するようになることが望ましい。   That is, it is desirable that the photo sticker creating apparatus 1 has a high rate of return per unit time. Moreover, in the case of a normal store, the installation place of the photograph sticker production apparatus 1 is limited by restrictions, such as a floor area and a structure. Therefore, it is desirable that the photo sticker creating apparatus 1 has a high profit rate per unit floor area. Furthermore, since the size and shape of each store are not usually the same, and other game machines and the like installed together with the photo sticker creating apparatus 1 are also different, the higher the degree of freedom of the installation location, the better. Furthermore, it is desirable for the user to use it repeatedly several times.

収益率を向上させる方法として、例えば、写真シール作成ゲームの回転率を向上させる必要がある。つまり、所定の時間内にプレイされるゲーム数を増加させることにより単位時間当たりの収益率を増加させる。ただし、写真シール作成ゲームをプレイする利用者がいなければ収益率は向上しない。つまり、写真シール作成装置1の写真シール作成ゲームに対する、利用者の期待度や満足度を向上させることも重要となる。   As a method of improving the profit rate, for example, it is necessary to improve the rotation rate of the photo sticker creation game. That is, the rate of return per unit time is increased by increasing the number of games played within a predetermined time. However, if there is no user who plays the photo sticker creation game, the profitability will not improve. That is, it is also important to improve the user's expectation and satisfaction with respect to the photo sticker creation game of the photo sticker creation device 1.

例えば、写真シール作成装置1は、写真シール作成ゲームをプレイしたことのない人が「プレイしてみたい」と思うような期待度の高い機能を設けることにより利用者数を増加させることができる。また、プレイした利用者が「楽しかった、もう一度プレイしたい」と思うような満足度の高い機能を設けることにより、写真シール作成装置1は、常連の利用者、いわゆる、リピータを増加させ、利用者数をさらに増加させることができる。すなわち、写真シール作成装置1の収益が向上する。   For example, the photo sticker creating apparatus 1 can increase the number of users by providing a function with high expectation that a person who has never played a photo sticker creating game will want to play. Further, by providing a function with a high degree of satisfaction that the user who played has thought that “it was fun, I would like to play again”, the photo sticker creating apparatus 1 increases the number of regular users, so-called repeaters, The number can be further increased. That is, the profit of the photo sticker creating apparatus 1 is improved.

利用者グループにとって、写真シール作成装置1による写真シール作成ゲームでは、自身を被写体として撮影を行うこと、撮影された画像に落書き編集を行うこと、成果物として写真シールなどを取得することなどの娯楽性がある。   For the user group, in the photo sticker creation game by the photo sticker creation device 1, the photographer creates a subject, performs graffiti editing on the photographed image, and obtains a photo sticker or the like as a product. There is sex.

写真シール作成ゲームの娯楽性を向上させる方法としては、例えば、撮影機能の高画質化、落書き等の編集機能の多機能化、操作性の向上、プレイ時間や待ち時間の調整が挙げられる。   Examples of methods for improving the amusement of the photo sticker creation game include an improvement in image quality of the photographing function, a multifunctional editing function such as graffiti, an improvement in operability, and adjustment of play time and waiting time.

写真シールに対する利用者の満足度を向上させる方法としては、例えば、シール紙の品質向上、高画質印刷、および特殊色印刷等のようなハードウェアの向上や、写真シールにおける編集済み画像のサイズや配置などを工夫することなどが挙げられる。   Examples of methods for improving user satisfaction with photo stickers include improved hardware such as improved quality of sticker paper, high-quality printing, special color printing, and the size of edited images on photo stickers. It is possible to devise the arrangement.

主な利用者層として想定される女子中高校生は、得られた写真シールを所有物に貼り付けるだけでなく、その写真シールを交換したり、その写真シールを話題にして会話したりする。従って、例えば、写真シールの画像内容が、派手だったり、面白かったり、希少性が高かったり、目新しさがあったりする場合、その画像を利用者自身が気に入るだけでなく、その写真シールを話題として会話が盛り上がることも期待できる。   Girls junior high and high school students who are assumed to be the main users not only stick the obtained photo sticker to their property, but also exchange the photo sticker or talk about the photo sticker as a topic. Therefore, for example, when the image content of a photo sticker is flashy, interesting, scarce, or novel, the user not only likes the image himself, but also uses the photo sticker as a topic. We can expect conversation to be exciting.

また、このような写真シールの利用により、写真シール自体が写真シール作成装置1の広告としての役割も果たすことが期待できる。従って、写真シールの娯楽性を向上させることは、単にその利用者の満足度を向上させるだけでなく、他者の期待度を向上させ、評判の広がりによる集客、すなわち、いわゆる口コミによる新規利用者の増加も期待できる。   In addition, by using such a photo sticker, it can be expected that the photo sticker itself also serves as an advertisement for the photo sticker creating apparatus 1. Therefore, improving the amusement of photo stickers not only improves the satisfaction of the user, but also increases the expectations of others, attracting customers due to the spread of reputation, that is, new users by so-called word-of-mouth Can be expected to increase.

つまり、写真シール作成ゲームにおいて、利用者らが気に入るような画像を作成できる機能を提供することにより、利用者の写真シール作成ゲームに対する満足度だけでなく、写真シールに対する満足度も向上させることができ、さらに、写真シールの話題性や広告効果等も同時に向上させることができる。   In other words, in the photo sticker creation game, by providing a function that can create an image that users will like, not only the satisfaction of the user with the photo sticker creation game but also the satisfaction with the photo sticker can be improved. Furthermore, the topicality of the photo sticker and the advertising effect can be improved at the same time.

写真シール作成装置1について具体的に説明する。図1は、写真シール作成装置1の外観を示す斜視図である。   The photo sticker creating apparatus 1 will be specifically described. FIG. 1 is a perspective view showing an external appearance of a photographic sticker creating apparatus 1.

この写真シール作成装置1は、図1に示されるように、その筐体10が、撮影ユニット12、編集ユニット13、天井照明ユニット14、および背景カーテンユニット15に大別される。   As shown in FIG. 1, the photo sticker creating apparatus 1 is roughly divided into a photographing unit 12, an editing unit 13, a ceiling lighting unit 14, and a background curtain unit 15.

撮影ユニット12は、写真シール作成ゲームの撮影コースを選択させたり、代金を投入させたり、写真シール作成ゲームの流れや遊び方等を映像や音声で案内(説明)したりする。このような受付けを済ませた後、さらに、撮影ユニット12には、被写体(利用者)を撮影する機能を有しており、後述する内部の空間(撮影空間32(図4))において被写体の撮影が行われる。   The shooting unit 12 selects a shooting course for the photo sticker creation game, inputs a fee, and guides (explains) the flow and play of the photo sticker creation game with video and audio. After such acceptance, the photographing unit 12 further has a function of photographing a subject (user), and the subject is photographed in an internal space (photographing space 32 (FIG. 4)) described later. Is done.

この撮影ユニット12は、前方ユニット12Aと後方ユニット12Bから構成される。   The photographing unit 12 includes a front unit 12A and a rear unit 12B.

前方ユニット12Aは、撮影空間32における利用者(被写体)と向き合う側に配置されるユニットであり、受付けや撮影を行うための構成(カメラ51、タッチパネルモニタ52、フラッシュライト53など(図5))が設けられている。   The front unit 12A is a unit arranged on the side facing the user (subject) in the shooting space 32, and is configured to receive and take a picture (camera 51, touch panel monitor 52, flashlight 53, etc. (FIG. 5)). Is provided.

前方ユニット12Aに前面は、乳白アクリル板54が略半円筒形の曲面に形成されており、乳白アクリル板54の背面に設置されている照明装置(蛍光灯など(不図示))からの照射光が被写体に照射される。前方ユニット12Aの構成例については、図5を参照して後述する。   The front unit 12 </ b> A has a milky white acrylic plate 54 formed in a substantially semi-cylindrical curved surface on the front surface, and irradiation light from a lighting device (such as a fluorescent lamp (not shown)) installed on the back of the milky white acrylic plate 54. Is irradiated to the subject. A configuration example of the front unit 12A will be described later with reference to FIG.

後方ユニット12Bは、撮影空間32における利用者(被写体)の背後側に配置されるユニットであり、前方ユニット12Aによる利用者の撮影の際に、背景の役割を果たすユニットである。この後方ユニット12Bの上部には、例えば、背景に利用する可動式のカーテン(背景カーテン)から成る背景カーテンユニット15が配置される。後方ユニット12Bの構成例については、図6を参照して後述する。   The rear unit 12B is a unit that is arranged behind the user (subject) in the shooting space 32, and is a unit that plays the role of the user when the front unit 12A takes a picture. On the upper part of the rear unit 12B, for example, a background curtain unit 15 composed of a movable curtain (background curtain) used for the background is disposed. A configuration example of the rear unit 12B will be described later with reference to FIG.

編集ユニット13は、利用者グループが編集画像に対する落書き編集等を行うための構成(例えば、タブレット内蔵モニタ62、タッチペン63等(図7))が設けられている。図7を参照して後述するように、編集ユニット13は、2組の利用者グループが同時に編集作業を行うことができるように、対向する2つの面のそれぞれに、落書き編集等を行うための構成が設けられている。   The editing unit 13 is provided with a configuration (for example, a tablet built-in monitor 62, a touch pen 63, etc. (FIG. 7)) for a user group to perform graffiti editing or the like on an edited image. As will be described later with reference to FIG. 7, the editing unit 13 is for performing graffiti editing or the like on each of two opposing faces so that two groups of users can simultaneously perform editing work. A configuration is provided.

これにより、写真シール作成装置1は、複数の写真シール作成ゲームを並列的に実行することができる。換言すれば、複数の利用者グループが、同時に写真シール作成装置1において写真シール作成ゲームをプレイすることができる。なお、より一層、写真シール作成ゲームのプレイの回転率を向上させるため、編集ユニット13に、2組以上の利用者グループが同時に落書き編集を行うことができるよう3つ以上の落書き編集等を行うための構成を設けるようにしてもよい。   Thereby, the photo sticker creating apparatus 1 can execute a plurality of photo sticker making games in parallel. In other words, a plurality of user groups can play the photo sticker creation game in the photo sticker creation device 1 at the same time. In order to further improve the rotation rate of the photo sticker creation game, the editing unit 13 is subjected to three or more graffiti edits so that two or more user groups can simultaneously perform the graffiti edit. A configuration for this may be provided.

天井照明ユニット14は、撮影空間32の上方に設けられており、撮影タイミングに合わせて撮影空間32に向けて閃光を照射するフラッシュライトを内蔵する。この天井照明ユニット14は、さらに内部に蛍光灯などの照明装置が配置されており、撮影空間32を常時照らすように構成されている。なお、撮影空間32は、簡易的に閉鎖的な空間として構成されており、外部からの光が進入し難く、暗くなりがちであり、利用者の操作性が低下し得る。そこで、天井照明ユニット14が、内蔵する照明装置により撮影空間32を明るく照らすことにより、利用者の操作性の低下を抑止することができる。なお、このような照明は前方ユニット12Aや後方ユニット12Bにも設けられている。   The ceiling lighting unit 14 is provided above the shooting space 32 and incorporates a flashlight that irradiates flash light toward the shooting space 32 in accordance with the shooting timing. The ceiling lighting unit 14 further includes a lighting device such as a fluorescent lamp, and is configured to constantly illuminate the imaging space 32. Note that the imaging space 32 is simply configured as a closed space, is difficult for light from the outside to enter, tends to be dark, and the operability for the user can be reduced. Therefore, the ceiling illuminating unit 14 can illuminate the shooting space 32 with the built-in lighting device, thereby suppressing a decrease in user operability. Such illumination is also provided in the front unit 12A and the rear unit 12B.

図2は、図1の写真シール作成装置1を、編集ユニット13側から見た斜視図である。   FIG. 2 is a perspective view of the photo sticker creating apparatus 1 of FIG. 1 as viewed from the editing unit 13 side.

編集ユニット13は、撮影空間32に位置している利用者から見て、前方ユニット12Aの背後側に撮影ユニット12に隣接して設置される。編集ユニット13の、前方ユニット12Aに直交する2つの側面には、利用者グループが撮影画像に対する落書き編集等を行うための第1編集インタフェース13Aと第2編集インタフェース13Bがそれぞれ設けられている。   The editing unit 13 is installed adjacent to the photographing unit 12 behind the front unit 12A when viewed from the user located in the photographing space 32. A first editing interface 13A and a second editing interface 13B are provided on two sides of the editing unit 13 that are orthogonal to the front unit 12A.

つまり、編集ユニット13には、写真シール作成ゲームを行う2組の利用者グループが、前方ユニット12Aと後方ユニット12Bを結ぶ方向と直交する向きに、編集ユニット13を挟んで対向する状態で編集作業を行うことができるように、2つの編集インタフェース13Aおよび13Bが設けられている。これらの編集インタフェースの構成の詳細についても、図7を参照して後述する。   In other words, the editing unit 13 includes two groups of users who perform a photo sticker creation game in a state where they face each other across the editing unit 13 in a direction perpendicular to the direction connecting the front unit 12A and the rear unit 12B. Two editing interfaces 13A and 13B are provided so that the above can be performed. Details of the configuration of these editing interfaces will also be described later with reference to FIG.

また、編集ユニット13の、撮影ユニット12と対向する面には、写真シール作成ゲームの結果として印刷された写真シールが排出される写真シール排出部13Cが設けられている。   In addition, a photo sticker discharge unit 13 </ b> C for discharging a photo sticker printed as a result of the photo sticker creation game is provided on the surface of the editing unit 13 facing the photographing unit 12.

図3は、写真シール作成装置1の設置例を示す外観図である。   FIG. 3 is an external view showing an installation example of the photo sticker creating apparatus 1.

写真シール作成装置1がゲームセンタ等に設置される場合、例えば図3に示されるように、撮影ユニット12や編集ユニット13を囲むように、側面カーテン21が設けられ、撮影作業が行われる撮影空間32や編集作業が行われる編集空間33等を簡易的に囲み、各空間の閉鎖性を向上させている。つまり、側面カーテン21は、例えば、各空間内の環境を安定させることにより、高画質な撮影や編集画面の見易さ等に寄与したり、各空間外からの視界を遮断し、利用者が外部(待機中の次の利用者グループの利用者など)からの視線を意識せずに撮影や編集等の作業を行うことができるようにしたりする。   When the photo sticker creating apparatus 1 is installed in a game center or the like, for example, as shown in FIG. 3, a shooting space in which a side curtain 21 is provided so as to surround the shooting unit 12 and the editing unit 13 and a shooting operation is performed. 32 and the editing space 33 in which editing work is performed are simply enclosed to improve the closeability of each space. In other words, for example, the side curtain 21 contributes to high-quality shooting and the visibility of the editing screen by stabilizing the environment in each space, or blocks the field of view from outside each space. It is possible to perform operations such as shooting and editing without being conscious of the line of sight from the outside (users of the next user group in standby, etc.).

この側面カーテン21の外部側の面は、通常、写真シール作成装置1自身の宣伝を広告する場所として利用され、設置場所において注目度が高まるように、写真シール作成装置1の機種名や機種のイメージを表す派手なデザイン画などが描かれている。   The external surface of the side curtain 21 is usually used as a place for advertising the photographic sticker creating apparatus 1 itself, and the model name and model of the photographic sticker creating apparatus 1 are increased so as to attract attention at the place of installation. A flashy design image representing the image is drawn.

以上説明したように、写真シール作成装置1は、複数の利用者グループに対して、それぞれ、写真シール作成ゲームをプレイさせる。また、写真シール作成装置1は、複数の写真シール作成ゲームを同時に進行させることができる。つまり、写真シール作成装置1は、同時に複数の利用者グループに写真シール作成ゲームをプレイさせることができる。このとき、各利用者グループは、写真シール作成装置1に設けられた複数の空間を移動しながら、写真シール作成ゲームの各作業を行い、ゲームを進行させることになる。   As described above, the photo sticker creating apparatus 1 causes a plurality of user groups to play a photo sticker creating game. In addition, the photo sticker creating apparatus 1 can simultaneously execute a plurality of photo sticker creating games. That is, the photo sticker creating apparatus 1 can cause a plurality of user groups to play a photo sticker creating game at the same time. At this time, each user group performs each work of the photo sticker creation game while moving through a plurality of spaces provided in the photo sticker creation device 1, and advances the game.

次に、写真シール作成装置1による写真シール作成ゲームの流れと、それに伴う利用者グループの空間の移動について説明する。   Next, the flow of the photo sticker creating game by the photo sticker creating device 1 and the accompanying movement of the user group space will be described.

図4は、ゲーム中の利用者グループの空間移動を、写真シール作成装置1の上方から見下ろした平面図により示したものである。   FIG. 4 is a plan view of the user group's space movement during the game as viewed from above the photo sticker creating apparatus 1.

図4に示されるように、写真シール作成ゲームをプレイしようとする利用者グループ(AまたはA’に位置する利用者グループ)は、写真シール作成装置1の外の待機領域31にて、撮影ユニット12の撮影空間32(図中点線で示される、前方ユニット12Aと後方ユニット12Bとの間に形成された空間)が空いているかを確認し、空いていればそのまま撮影空間32に入場する。   As shown in FIG. 4, a user group (a user group located in A or A ′) who intends to play the photo sticker creation game has a photographing unit in a standby area 31 outside the photo sticker creation device 1. It is checked whether 12 shooting spaces 32 (space formed between the front unit 12A and the rear unit 12B shown by a dotted line in the drawing) are vacant, and if they are vacant, they enter the shooting space 32 as they are.

反対に、撮影ユニット12が先の利用者グループによって使用されている場合、撮影空間32が空くまで待機し、先の利用者グループが撮影を終えて編集ユニット13側に移動し、撮影空間32が空いた後、待機していた利用者グループは、待機領域31から撮影空間32に入場する。   On the other hand, when the shooting unit 12 is used by the previous user group, the camera waits until the shooting space 32 becomes free, the previous user group finishes shooting and moves to the editing unit 13 side, and the shooting space 32 is moved. After vacating, the user group that has been waiting enters the imaging space 32 from the waiting area 31.

撮影空間32に入場した利用者グループ(Bに位置する利用者グループ)は、前方ユニット12Aの正面に設けられたタッチパネルモニタ52を操作して受付け処理(コースの選択、オプションの追加、代金の投入など)を行った後、自身が被写体となって撮影を実行させる撮影作業(本撮影)を行う。   The user group (user group located in B) who entered the shooting space 32 operates the touch panel monitor 52 provided in front of the front unit 12A to accept the process (select course, add option, input price). Etc.) is performed, and a photographing operation (main photographing) is performed in which the subject becomes a subject and performs photographing.

なお、撮影空間32で受付け処理を行うのではなく、待機領域31にて受付け処理を行うようにしてもよい。その場合、例えば、前方ユニット12Aの側面などに受付け処理のためのユーザインタフェースを設ければよい。   Instead of performing the receiving process in the imaging space 32, the receiving process may be performed in the standby area 31. In this case, for example, a user interface for receiving processing may be provided on the side surface of the front unit 12A.

撮影を終えた利用者グループに対しては、得られた撮影画像のうち、編集処理や印刷処理の対象とするために後段に送る複数の編集対象画像の選択が促される。この選択の後、タッチパネルモニタ52に表示される移動案内に従って、撮影空間32から、図中点線で示される、編集作業を行う第1編集空間33A(編集ユニット13の第1編集インタフェース13A側)または第2編集空間33B(編集ユニット13の第2編集インタフェース13B側)のうち、案内された方に移動する。なお、このときの移動案内では、通常、第1編集空間33Aまたは第2編集空間33Bの空いている方に案内される。   The user group that has finished photographing is prompted to select a plurality of editing target images to be sent to the subsequent stage in order to make them the subject of editing processing and printing processing. After this selection, according to the movement guide displayed on the touch panel monitor 52, the first editing space 33A (the first editing interface 13A side of the editing unit 13) or the editing work indicated by the dotted line in the figure from the shooting space 32 or The second editing space 33B (the second editing interface 13B side of the editing unit 13) moves to the guided side. It should be noted that the movement guidance at this time is usually guided to the vacant side of the first editing space 33A or the second editing space 33B.

第1編集空間33Aまたは第2編集空間33Bに移動した利用者グループ(CまたはC’に位置する利用者)は、落書き編集作業を行う。以下において、第1編集空間33Aと第2編集空間33Bとを個々に区別する必要がない場合、単に編集空間33と称する。   The user group (user located in C or C ') moved to the first editing space 33A or the second editing space 33B performs a graffiti editing work. Hereinafter, when it is not necessary to distinguish the first editing space 33A and the second editing space 33B from each other, they are simply referred to as the editing space 33.

この後、利用者グループは写真シールが印刷されるまで待機し、この待機の間、この編集空間33において利用者グループは、事後接客処理としてのミニゲームを行ったり、携帯端末に撮影画像や編集済み画像を送信したりすることができる。   Thereafter, the user group waits until the photo sticker is printed, and during this waiting time, the user group performs a mini-game as a post-service processing in the editing space 33 or takes a photographed image or edits on the portable terminal. Sent images can be sent.

そして、印刷が終了すると、その旨が利用者グループに案内される。この案内に従い、利用者グループは、写真シール排出部13Cの前方の印刷物受取領域34に移動し、排出された写真シール紙を受け取り、写真シール作成ゲームを終了する。   Then, when printing is completed, a notice to that effect is given to the user group. Following this guidance, the user group moves to the printed matter receiving area 34 in front of the photo sticker discharge unit 13C, receives the discharged photo sticker paper, and ends the photo sticker creation game.

なお、以上のような写真シール作成ゲームにおいて、撮影空間32を占めていた利用者グループが第1編集空間33Aまたは第2編集空間33Bに移動すると、撮影空間32が空くので、写真シール作成装置1は、次の新たな利用者グループに撮影空間32を使用させることができる。さらに、第1編集空間33Aの利用者グループ、または第2編集空間33Bの利用者グループが、印刷物受取領域34に移動すると、その編集空間(第1編集空間33Aまたは第2編集空間33B)が空くので、写真シール作成装置1は、それまで撮影空間32にいた利用者グループにその編集空間を使用させることができる。   In the photo sticker creation game as described above, when the user group that occupied the shooting space 32 moves to the first editing space 33A or the second editing space 33B, the shooting space 32 becomes free. Can use the imaging space 32 for the next new user group. Further, when the user group in the first editing space 33A or the user group in the second editing space 33B moves to the printed material receiving area 34, the editing space (the first editing space 33A or the second editing space 33B) becomes empty. Therefore, the photo sticker creating apparatus 1 can allow the user group that has been in the photographing space 32 to use the editing space.

つまり、写真シール作成装置1は、写真シール作成ゲームの、単位時間当たりおよび単位床面積当たりの回転率を向上させるために、待機領域31、撮影空間32、第1編集空間33A、第2編集空間33B、および印刷物受取領域34を用いて、同時に、複数の利用者グループに対して写真シール作成ゲームをプレイさせることができる(多重接客を行うことができる)。   In other words, the photo sticker creating apparatus 1 uses the standby area 31, the shooting space 32, the first editing space 33A, the second editing space in order to improve the rotation rate per unit time and unit floor area of the photo sticker creating game. Using 33B and the printed matter receiving area 34, a photo sticker creation game can be played simultaneously for a plurality of user groups (multiple customer service can be performed).

なお、上述した写真シール作成装置1の筐体10の構成は任意であり、上述した以外の構成であってもよい。同様に、多重接客の仕方も任意である。   In addition, the structure of the housing | casing 10 of the photograph sticker production apparatus 1 mentioned above is arbitrary, and a structure other than the above-mentioned may be sufficient. Similarly, the method of multiple customer service is also arbitrary.

次に、写真シール作成装置1を構成する各ユニットについて詳述する。   Next, each unit constituting the photo sticker creating apparatus 1 will be described in detail.

図5は、撮影ユニット12の前方ユニット12Aの正面図である。   FIG. 5 is a front view of the front unit 12 </ b> A of the photographing unit 12.

同図に示されるように、前方ユニット12Aの正面右下には、利用者が写真シール作成ゲームの代金を投入したり、お釣り等を利用者に返却したりする硬貨投入返却口50が設けられている。   As shown in the figure, a coin insertion / return port 50 is provided at the lower right of the front of the front unit 12A so that the user can pay for a photo sticker creation game or return fishing to the user. ing.

なお、写真シール作成ゲームをプレイするための代金の支払いは硬貨に限定されるものではなく、当然、紙幣でも支払い可能とすることができる。また、実際に流通している現金(硬貨および紙幣)の代わりに、写真シール作成装置1が設置されている遊技施設などで流通されているプリペイドカード、コイン、電子マネーなどでも支払い可能とするようしてもよい。   Note that the payment of the price for playing the photo sticker creation game is not limited to coins. In addition, instead of cash (coins and banknotes) that are actually distributed, it is also possible to make payments using prepaid cards, coins, electronic money, and the like that are distributed in amusement facilities where the photo sticker creation device 1 is installed. May be.

また、待機領域31にて待機する次の利用者グループが撮影空間32に入場する前に代金を投入できるようにしてもよい。この場合、硬貨投入返却口50を、例えば、前方ユニット12Aの外側の側面に設けるようにすればよい。さらに、この場合、撮影空間32が空くまで待機領域31にて次の利用者を待機させ、撮影空間32が空いた後に次の利用者グループを撮影空間32に誘導するための音声案内などを出力するようにしてもよい。   In addition, the next user group waiting in the standby area 31 may be allowed to enter a fee before entering the shooting space 32. In this case, the coin insertion / return port 50 may be provided, for example, on the outer side surface of the front unit 12A. Further, in this case, the next user is kept waiting in the standby area 31 until the shooting space 32 becomes empty, and voice guidance for guiding the next user group to the shooting space 32 is output after the shooting space 32 is empty. You may make it do.

前方ユニット12Aの正面には、カメラ51、タッチパネルモニタ52、フラッシュライト53−5およびスピーカ55−1が設けられている。また、前方ユニット12Aの正面横には、フラッシュライト53−1乃至53−4が設けられている。   A camera 51, a touch panel monitor 52, a flashlight 53-5, and a speaker 55-1 are provided in front of the front unit 12A. Further, flashlights 53-1 to 53-4 are provided on the front side of the front unit 12A.

前方ユニット12Aの正面横および下の壁面は、略半円筒形の曲面に形成された乳白アクリル板54−1乃至54−4により構成されている。   The front side surface and the lower wall surface of the front unit 12A are configured by milky white acrylic plates 54-1 to 54-4 formed in a substantially semi-cylindrical curved surface.

前方ユニット12Aの正面の左右下には、撮影作業中の利用者の手荷物等を置くための荷物置場56−1,56−2が設けられている。   Luggage storage areas 56-1 and 56-2 are provided at the lower left and right of the front of the front unit 12A for placing baggage and the like of a user who is photographing.

カメラ51は、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子が採用されており、被写体の光学像を電子信号としての画像データに変換する撮像装置であり、写真シール作成ゲームの撮影作業の工程において、撮影空間32内の利用者を被写体として、写り具合の確認用に動画像を取得するとともに、所定のシャッタータイミングにおいて静止画像を撮影する。カメラ51の数や設置場所については任意である。   The camera 51 employs an imaging device such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal-Oxide Semiconductor), and is an imaging device that converts an optical image of a subject into image data as an electronic signal. In the shooting process of the creation game, a moving image is acquired for confirming the appearance of the user in the shooting space 32 as a subject, and a still image is shot at a predetermined shutter timing. The number and installation locations of the cameras 51 are arbitrary.

なお、カメラ51は、従来の写真シール作成装置に比較して、その設置位置が若干上方に設置されるとともに、広角レンズが使用される。これにより、従来の写真シール作成装置においては困難であった、被写体が立った状態での全身撮影が容易に実現されている。   The camera 51 is installed at a slightly higher position as compared with the conventional photo sticker creating apparatus, and a wide-angle lens is used. As a result, the whole-body photographing with the subject standing, which is difficult in the conventional photo sticker creating apparatus, is easily realized.

タッチパネルモニタ52は、CRT(Cathode Ray Tube)、またはLCD(Liquid Crystal Display)等のディスプレイ123と、それに積層された無色透明のタッチパネル124(例えば、感圧式や電磁誘導式等)(いずれも図9)により構成される。   The touch panel monitor 52 includes a display 123 such as a CRT (Cathode Ray Tube) or LCD (Liquid Crystal Display), and a colorless and transparent touch panel 124 (for example, a pressure-sensitive type or an electromagnetic induction type) laminated thereon (both shown in FIG. 9). ).

ディスプレイ123は、受付時に利用者が撮影コースを選択したり、前景や背景を選択したりするための操作画面などを表示し、タッチパネル124は、例えば利用者の指等によるタップ操作を受け付けるようになされている。   The display 123 displays an operation screen for the user to select a shooting course or select a foreground or background at the time of reception, and the touch panel 124 receives a tap operation with a user's finger, for example. Has been made.

また、ディスプレイ123は、シャッタータイミングに先立ち、カメラ51によって取得される被写体の動画像を、そのままの状態、または、背景あるいは前景となる合成用画像が合成された状態で表示する(ライブビュー表示を行う)。ディスプレイ123に表示されたライブビュー表示を見ることにより利用者は、自身の写り具合を確認することができる。また、ディスプレイ123は、撮影結果として、カメラ51により撮影された静止画像、または静止画像に合成用画像を合成した合成静止画像を表示する。   Prior to the shutter timing, the display 123 displays the moving image of the subject acquired by the camera 51 as it is or in a state where the background or foreground composite image is combined (live view display). Do). By looking at the live view display displayed on the display 123, the user can confirm his / her appearance. Further, the display 123 displays a still image taken by the camera 51 or a synthesized still image obtained by synthesizing a still image with a synthesis image as a shooting result.

フラッシュライト53−1乃至53−5は、カメラ51による撮影タイミングに合わせて閃光し、被写体を照射する。以下、フラッシュライト53−1乃至53−5を個々に区別する必要がない場合、単にフラッシュライト53と称する。   The flashlights 53-1 to 53-5 flash in accordance with the shooting timing of the camera 51 and irradiate the subject. Hereinafter, when it is not necessary to distinguish the flashlights 53-1 to 53-5, they are simply referred to as the flashlight 53.

乳白アクリル板54−1乃至54−4の背後には、撮影空間32を照らす蛍光灯などの照明装置が設けられている。   An illumination device such as a fluorescent lamp that illuminates the imaging space 32 is provided behind the milky acrylic plates 54-1 to 54-4.

乳白アクリル板54−1乃至54−4とその背後に設けられた照明装置、および天井照明ユニット14により、側面カーテン21により囲まれた撮影空間32は、光で包まれた試着室であるかのように演出されるので、被写体(利用者)の全身を影なく照射してより美しく撮影することができる。さらに、利用者に対して、撮影空間32が広い、快適、清潔、明るいなどの好印象を与えることができる。   Whether the shooting space 32 surrounded by the side curtain 21 by the milky acrylic plates 54-1 to 54-4, the lighting device provided behind the ceiling plates 14, and the ceiling lighting unit 14 is a fitting room wrapped in light. Thus, the whole body of the subject (user) can be illuminated without shadows, and more beautiful images can be taken. Furthermore, it is possible to give the user a good impression that the shooting space 32 is wide, comfortable, clean, bright, and the like.

なお、乳白アクリル板54−1乃至54−3の設置を省略し、蛍光灯などの照明装置を利用者から直接見える位置に配置するようにしてもよい。また、フラッシュライト53の代わりに、蛍光灯などの照明装置を配置してもよい。また、さらに、乳白アクリル板54−4の位置(背後を含む)にフラッシュライトを設置するようにしてもよい。   Note that the installation of the milky white acrylic plates 54-1 to 54-3 may be omitted, and an illumination device such as a fluorescent lamp may be arranged at a position that can be directly seen by the user. Further, instead of the flashlight 53, an illumination device such as a fluorescent lamp may be arranged. Further, a flashlight may be installed at the position (including the back) of the milky white acrylic plate 54-4.

スピーカ55−1乃至55−3(図6)は、写真シール作成ゲームの撮影作業における案内音声、BGM(Back Ground Music)、効果音等を適宜出力する。なお、スピーカ55−1乃至55−3の設置場所は任意である。   Speakers 55-1 to 55-3 (FIG. 6) appropriately output guidance voice, background music (BGM), sound effects, etc. in the shooting work of the photo sticker creation game. In addition, the installation place of the speakers 55-1 to 55-3 is arbitrary.

荷物置場56−1および荷物置場56−2は、撮影時における利用者が手荷物の置き場所として利用できる棚である。荷物置場56−1および荷物置場56−2は、いずれも、撮影の邪魔にならないような位置、すなわち、利用者が撮影ポーズをとる際に邪魔にならず、かつ、フラッシュライト53による閃光照射の妨げとならない位置に設けられている。   The luggage storage place 56-1 and the luggage storage place 56-2 are shelves that can be used as a place for baggage by the user at the time of photographing. Each of the luggage storage place 56-1 and the luggage storage place 56-2 does not get in the way of shooting, that is, does not get in the way when the user takes a shooting pose, and the flashlight 53 emits flash light. It is provided in a position that does not interfere.

利用者は、自身の手荷物を荷物置場56−1または荷物置場56−2に置くことにより、より快適に安心して撮影作業を行うことができる。以下において、荷物置場56−1および荷物置場56−2を個々に区別する必要のない場合、単に荷物置場56と称する。荷物置場56を設けることにより、手荷物を床面に置いたことにより汚してしまったり、利用者が置引きの被害に遭う事態を抑止することができる。   By placing his / her baggage in the luggage storage area 56-1 or the luggage storage area 56-2, the user can perform the photographing work more comfortably and safely. In the following, when it is not necessary to distinguish the luggage storage 56-1 and the luggage storage 56-2 from each other, they are simply referred to as the luggage storage 56. By providing the luggage storage place 56, it is possible to prevent a situation in which the baggage is soiled due to the baggage being placed on the floor or the user is damaged by the withdrawal.

もちろん、前方ユニット12Aの正面12A−1に上述した構成以外のものが設けられるようにしてもよい。   Of course, you may make it provide things other than the structure mentioned above in the front surface 12A-1 of the front unit 12A.

図6は、撮影空間32において被写体となる利用者グループの背面に位置する撮影ユニット12の後方ユニット12Bの正面図である。   FIG. 6 is a front view of the rear unit 12B of the photographing unit 12 located on the back side of the user group that is the subject in the photographing space 32. FIG.

同図に示されるように、後方ユニット12Bの左側には、上から順にスピーカ55−2、フラッシュライト53−6、および照明装置57−1が設けられている。同様に、後方ユニット12Bの右側には、上から順にスピーカ55−3、フラッシュライト53−7、および照明装置57−2が設けられている。   As shown in the drawing, on the left side of the rear unit 12B, a speaker 55-2, a flashlight 53-6, and an illumination device 57-1 are provided in order from the top. Similarly, on the right side of the rear unit 12B, a speaker 55-3, a flashlight 53-7, and an illumination device 57-2 are provided in order from the top.

なお、フラッシュライト53−6、および照明装置57−1、並びにフラッシュライト53−7、および照明装置57−2は、被写体に向くようやや内側に向けて設けられている。   Note that the flashlight 53-6 and the illuminating device 57-1 and the flashlight 53-7 and the illuminating device 57-2 are provided slightly inward toward the subject.

次に、編集ユニット13の構成について詳述する。   Next, the configuration of the editing unit 13 will be described in detail.

図7は、編集ユニット13に2箇所設けられた編集空間33のうち、一方の第1編集空間33Aの構成例を示す図である。   FIG. 7 is a diagram illustrating a configuration example of one first editing space 33 </ b> A among the editing spaces 33 provided in two places in the editing unit 13.

同図に示すように、第1編集インタフェース13Aの上部には、側面カーテン21等で仕切られているために暗くなっている第1編集空間33Aを照らすための照明装置61が設けられている。   As shown in the figure, an illuminating device 61 for illuminating the first editing space 33A that is darkened because it is partitioned by the side curtain 21 or the like is provided at the top of the first editing interface 13A.

この照明装置61により、側面カーテン21で覆われた編集空間33における利用者の編集作業効率の低下を抑制するとともに、第1編集空間33Aの安全性を向上させることができる。   With this lighting device 61, it is possible to suppress a reduction in the editing work efficiency of the user in the editing space 33 covered with the side curtain 21, and to improve the safety of the first editing space 33A.

なお、図7の構成例においては、編集ユニット13の、照明装置61が設けられている第1編集インタフェース13Aの上部が、第2編集空間33B側に貫通しており、照明装置61が第1編集空間33Aと第2編集空間33Bとで共有されている。つまり、照明装置61は、第1編集空間33Aだけでなく、第2編集空間33Bも照明している。なお、この照明装置61の設置位置および個数は任意である。   In the configuration example of FIG. 7, the upper part of the first editing interface 13A in which the lighting device 61 is provided of the editing unit 13 penetrates to the second editing space 33B side, and the lighting device 61 is the first. The editing space 33A and the second editing space 33B are shared. That is, the illumination device 61 illuminates not only the first editing space 33A but also the second editing space 33B. Note that the installation position and the number of the illumination devices 61 are arbitrary.

第1編集インタフェース13Aには、その正面にタブレット内蔵モニタ62が設けられており、タブレット内蔵モニタ62の左右にはそれぞれタッチペン(タッチペン63−1およびタッチペン63−2)が配置されている。さらに、第1編集インタフェース13Aには、スピーカ64および追加硬貨投入返却口65が設けられている。   The first editing interface 13A is provided with a tablet built-in monitor 62 on the front thereof, and touch pens (touch pen 63-1 and touch pen 63-2) are arranged on the left and right of the tablet built-in monitor 62, respectively. Further, the first editing interface 13A is provided with a speaker 64 and an additional coin insertion / return opening 65.

タブレット内蔵モニタ62は、CRTやLCD等のディスプレイ141とそれに積層されたタブレット142(いずれも図9)により構成され、ディスプレイ141が撮影空間における撮影作業によって得られた撮影画像を編集するためのGUIである編集画面等を表示し、タブレット142がユーザの操作を入力する。   The tablet built-in monitor 62 includes a display 141 such as a CRT or LCD and a tablet 142 stacked on the display 141 (both of which are shown in FIG. 9). The display 141 is a GUI for editing a captured image obtained by a shooting operation in a shooting space. The editing screen or the like is displayed, and the tablet 142 inputs a user operation.

なお、タブレット内蔵モニタ62のディスプレイ141に表示される編集画面は、利用者グループを構成する複数の利用者それぞれがタッチペン63−1、または63−2を用いて個別に、あるいは共同して落書き編集を行えるよう、編集する画像を同時に2枚表示できるようになされている。この同時に表示される落書き編集の対象となる2枚の画像は、同一のものであってもよいし、異なるものであってもよい。   The editing screen displayed on the display 141 of the tablet built-in monitor 62 is a graffiti editing by a plurality of users constituting the user group individually or jointly using the touch pen 63-1 or 63-2. The two images to be edited can be displayed simultaneously. The two images to be simultaneously displayed for graffiti editing may be the same or different.

タブレット内蔵モニタ62のタブレット142は、例えば、感圧式や電磁誘導式の入力デバイスであり、無色透明であって、タッチペン63−1またはタッチペン63−2を用いた利用者からの操作を位置情報に変換する。   The tablet 142 of the tablet built-in monitor 62 is, for example, a pressure-sensitive type or electromagnetic induction type input device, is colorless and transparent, and uses an operation from a user using the touch pen 63-1 or the touch pen 63-2 as position information. Convert.

このタブレット内蔵モニタ62の左右に設けられたタッチペン63−1および63−2は、所定のアタッチメントにより編集ユニット13に着脱可能に固定されており、利用者グループを構成する複数の利用者が、これらのタッチペンをそれぞれ使用することにより、同時に、写真シール作成作業の編集作業の工程をプレイすることができるようになされている。そして、タッチペン63−1を用いた入力操作であるのか、またはタッチペン63−2を用いた入力操作であるのかも識別される。なお、以下において、タッチペン63−1およびタッチペン63−2を個々に区別する必要がない場合、単にタッチペン63と称する。   The touch pens 63-1 and 63-2 provided on the left and right of the tablet built-in monitor 62 are detachably fixed to the editing unit 13 by a predetermined attachment, and a plurality of users constituting a user group can By using each of the touch pens, it is possible to play the editing work process of the photo sticker creation work at the same time. It is also identified whether the input operation is performed using the touch pen 63-1 or the input operation is performed using the touch pen 63-2. Hereinafter, when there is no need to distinguish between the touch pen 63-1 and the touch pen 63-2, they are simply referred to as the touch pen 63.

タッチペン63は、編集ユニット13内部に設置された制御部101(図9)と有線または無線により電気的に接続されている。タッチペン63は、タブレット内蔵モニタ62のディスプレイ141の表示画面上に重畳された無色透明のタブレット142と連携して動作する。利用者がこれらのタッチペン63を操作して、そのタブレット142をタップ(タッチペン63とタブレット内蔵モニタ62の表示画面を接触(または近接)させること)したり、タブレット142上を移動させたりすることにより、これらは、利用者からの入力を受け付ける入力デバイスとして動作する。なお、タッチペン63の設置本数、設置位置、及び形状等は任意である。   The touch pen 63 is electrically connected to the control unit 101 (FIG. 9) installed inside the editing unit 13 by wire or wireless. The touch pen 63 operates in cooperation with the colorless and transparent tablet 142 superimposed on the display screen of the display 141 of the tablet built-in monitor 62. When the user operates these touch pens 63 and taps the tablet 142 (to bring the touch pen 63 and the display screen of the tablet built-in monitor 62 into contact (or close proximity)) or move the tablet 142 on the tablet 142. These operate as input devices that receive input from the user. The number of touch pens 63 to be installed, the installation position, the shape, and the like are arbitrary.

スピーカ64は、例えば、案内音声、効果音、BGM等の音声を出力する。なお、スピーカ64の設置個数、デザイン、および形状等は任意である。   The speaker 64 outputs voices such as guidance voices, sound effects, and BGM, for example. The number, design, shape, etc. of the speakers 64 are arbitrary.

追加硬貨投入返却口65は、利用者グループが編集可能時間を延長させたいとき、写真シールを複数枚追加して印刷させるとき、写真シール手帳の頁を印刷させるときなどに追加代金としての硬貨を投入したり、お釣り等を返却したりするために設けられている。なお、この追加代金の支払いも硬貨に限定されるものではなく、当然、紙幣でも支払い可能とすることができる。また、実際に流通している現金(硬貨および紙幣)の代わりに、写真シール作成装置1が設置されている遊技施設などで流通されているプリペイドカード、コイン、電子マネーなどでも支払いができるようしてもよい。   The additional coin insertion / return port 65 is used to add a coin as an additional fee when the user group wants to extend the editable time, when a plurality of photo stickers are added and printed, or when a page of a photo sticker notebook is printed. It is provided for throwing in or returning fishing. Note that the payment of this additional price is not limited to coins, and it is naturally possible to pay even with banknotes. In addition, instead of cash (coins and banknotes) that are actually distributed, payment can also be made with prepaid cards, coins, electronic money, etc. distributed at amusement facilities where the photo sticker creation device 1 is installed. May be.

ただし、編集可能時間の延長は、現在、撮影空間32にて撮影作業が行われていない場合(次の利用者がいない場合)、または、もう一方の編集インタフェース(いまの場合、第2編集インタフェース13B)が空いている場合にのみ可能であり、撮影空間32にて撮影作業が行われており、かつ、もう一方の編集インタフェースが利用されている場合には延長できないようにしてもよい。   However, the extension of the editable time is performed when the shooting operation is not currently performed in the shooting space 32 (when there is no next user) or the other editing interface (in this case, the second editing interface). 13B) is possible only when it is vacant, and it may not be possible to extend when the shooting operation is performed in the shooting space 32 and the other editing interface is used.

なお、編集ユニット13の第2編集空間33B側の構成例は、図7に示された第1編集空間33A側の構成例と基本的に同様であるので、その説明は省略する。   The configuration example on the second editing space 33B side of the editing unit 13 is basically the same as the configuration example on the first editing space 33A side shown in FIG.

図8は、編集ユニット13に設けられた写真シール排出部13Cの構成例を示す図である。   FIG. 8 is a diagram illustrating a configuration example of the photographic sticker discharge unit 13 </ b> C provided in the editing unit 13.

同図に示されるように、写真シール排出部13Cには写真シール排出口71が設けられており、写真シール(編集済みの撮影画像が印刷されたシール紙162)が排出される。なお、写真シールは、編集ユニット13に内蔵されたプリンタ114(図9)により、編集インタフェース13Aまたは13Bが操作されて作成された印刷用の画像がシール紙に印刷されて作成される。   As shown in the figure, the photo sticker discharge portion 13C is provided with a photo sticker discharge port 71, and a photo sticker (sticker paper 162 on which an edited photographed image is printed) is discharged. The photo sticker is created by printing an image for printing created by operating the editing interface 13A or 13B by a printer 114 (FIG. 9) built in the editing unit 13 on a sticker sheet.

次に、写真シール作成装置1の内部の構成例について説明する。   Next, an internal configuration example of the photo sticker creating apparatus 1 will be described.

図9は、写真シール作成装置1の機能的構成例を示すブロック図である。なお、上述した部位については、同一の符号を付しているので、その説明を省略する。   FIG. 9 is a block diagram illustrating a functional configuration example of the photo sticker creating apparatus 1. In addition, about the site | part mentioned above, since the same code | symbol is attached | subjected, the description is abbreviate | omitted.

写真シール作成装置1は、写真シール作成装置1の装置全体を制御する制御部101を有している。制御部101には、記憶部102、通信部103、ドライブ104、ROM(Read Only Memory)106、RAM(Random Access Memory)107、撮影部111、編集部113、およびプリンタ114がそれぞれ所定のバスを介して接続されている。   The photo sticker creating apparatus 1 includes a control unit 101 that controls the entire apparatus of the photo sticker creating apparatus 1. In the control unit 101, a storage unit 102, a communication unit 103, a drive 104, a ROM (Read Only Memory) 106, a RAM (Random Access Memory) 107, a photographing unit 111, an editing unit 113, and a printer 114 each have a predetermined bus. Connected through.

記憶部102は、例えばハードディスクやフラッシュメモリ等のような不揮発性の記憶媒体を有しており、制御部101より供給される各種設定情報をその記憶媒体に保存したり、記憶媒体に記録されている設定情報を読み出して制御部101に供給したりする。また、記憶部102には、各利用者グループが作成した写真シール(の画像データ)が記憶される。   The storage unit 102 has a non-volatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 101 in the storage medium or is recorded in the storage medium. The setting information is read and supplied to the control unit 101. Further, the storage unit 102 stores the photo sticker (image data) created by each user group.

通信部103は、制御部101の制御に従い、例えばインタネットや公衆電話回線網等のような外部のネットワーク、または単に通信ケーブル(いずれも不図示)を介して、他の通信装置、具体的には、例えば利用者の携帯型電話機、利用者のパーソナルコンピュータ、または中央管理サーバ等と通信を行う。より具体的には、通信部103は、制御部101より供給される送信情報を他の通信装置に送信したり、他の通信装置より供給された受信情報を制御部101に供給したりする。   Under the control of the control unit 101, the communication unit 103 is connected to another communication device, specifically via an external network such as the Internet or a public telephone network, or simply through a communication cable (both not shown). For example, it communicates with the user's mobile phone, the user's personal computer, the central management server, or the like. More specifically, the communication unit 103 transmits transmission information supplied from the control unit 101 to another communication device, or supplies reception information supplied from another communication device to the control unit 101.

ドライブ104には、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)、BD(Blu ray Disc)を含む)、光磁気ディスク、および、半導体メモリなどのリムーバブルメディア105が適宜装着され、それらから読み出されたコンピュータプログラムやデータが、必要に応じて制御部101に供給され、記憶部102等に保存されたり、インストールされたりする。   The drive 104 includes a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc), a BD (Blu ray Disc)), a magneto-optical disk, and A removable medium 105 such as a semiconductor memory is appropriately mounted, and computer programs and data read from the removable medium 105 are supplied to the control unit 101 as necessary, and stored or installed in the storage unit 102 or the like.

ROM106には、制御部101によって実行されるプログラムやデータなどが予め格納されており、ROM106は、制御部101からの制御に従い、プログラムやデータを制御部101に供給する。RAM107は、制御部101が処理するデータやプログラムなどを一時的に保持する。   The ROM 106 stores programs and data executed by the control unit 101 in advance, and the ROM 106 supplies the programs and data to the control unit 101 in accordance with control from the control unit 101. The RAM 107 temporarily holds data and programs processed by the control unit 101.

撮影部111は、撮影ユニット12に関するブロックであり、背景カーテンユニット15、カメラ51、タッチパネルモニタ52、スピーカ55、硬貨処理部121、および照明制御部122を有する。   The photographing unit 111 is a block relating to the photographing unit 12 and includes a background curtain unit 15, a camera 51, a touch panel monitor 52, a speaker 55, a coin processing unit 121, and an illumination control unit 122.

背景カーテンユニット15は、写真シール作成ゲームの撮影作業の工程において、背景として用いられる複数の昇降式カーテンとその制御を行う制御部を有するユニットである。各カーテンは互いに色、模様、絵柄等が異なり、互いに異なる背景となるようになされている。つまり、利用者は調節するカーテンを選択することにより背景の色、模様、絵柄等を選択することができる。   The background curtain unit 15 is a unit having a plurality of elevating curtains used as a background and a control unit that controls the curtains used as a background in the process of shooting a photo sticker creation game. The curtains have different colors, patterns, patterns, etc. and have different backgrounds. That is, the user can select the background color, pattern, pattern, etc. by selecting the curtain to be adjusted.

背景カーテンユニット15(の制御部)は、後方ユニット12Bの上部に設けられ、利用者により選択された1つまたは複数のカーテンを、撮影空間32の後方(被写体となる利用者の背後側)に吊設する。このとき、既に吊設されている不要なカーテンは、巻き上げて収納する。実際には、背景カーテンユニット15は、制御部101により制御されて動作し、制御部101より供給される背景制御信号に従ってカーテンを吊設したり収納したりする。   The background curtain unit 15 (the control unit thereof) is provided at the upper part of the rear unit 12B, and one or more curtains selected by the user are placed behind the shooting space 32 (behind the user who is the subject). Hanging. At this time, unnecessary curtains that are already suspended are wound up and stored. Actually, the background curtain unit 15 operates under the control of the control unit 101, and suspends or stores the curtain according to the background control signal supplied from the control unit 101.

なお、各カーテンの素材、形、大きさ等は任意であり、例えばパネル状や立体形状のものも含む。また、各カーテンの素材、形、大きさ等が、互いに異なるようにしてもよい(全てのカーテンにおいて素材、形、大きさ等が統一されている必要はない)。また、背景カーテンユニット15は、利用者が背景を選択できるようになされていればよく、例えば、スライド式、開閉式、折り畳み式等の昇降式以外のカーテンを用いるようにしてもよい。   Note that the material, shape, size, and the like of each curtain are arbitrary, and include, for example, panels and solid shapes. Moreover, the material, shape, size, etc. of each curtain may be different from each other (the material, shape, size, etc. need not be unified for all curtains). Further, the background curtain unit 15 is only required to allow the user to select a background. For example, a curtain other than a lift type such as a slide type, an open / close type, and a folding type may be used.

さらに、背景として使用されるカーテンは吊設されるのではなく、後方ユニット12Bの撮影空間32側の側面、つまり、撮影空間32において、前方ユニット12Aの正面12A−1に対向する、撮影空間32の背面となる面に張り付けられるようにしてもよい。また、制御部101を介さずに、利用者が手動で、背景カーテンユニット15に用意されたカーテンを選択し、設置するようにしてもよい。   Furthermore, the curtain used as the background is not suspended, but the shooting space 32 facing the front surface 12A-1 of the front unit 12A in the side surface of the rear unit 12B on the shooting space 32 side, that is, in the shooting space 32. You may make it stick on the surface used as the back of. Alternatively, the user may manually select and install a curtain prepared in the background curtain unit 15 without using the control unit 101.

なお、撮影時の背景として、背景カーテンユニット15以外を用いることができるようにしてもよい。例えば、利用者が持参した絵やアイテムを撮影空間32の背面(またはカーテン)に貼り付けることができるようにしてもよいし、利用者が持参した、または、選択した画像を撮影空間32の背面(またはカーテン)に表示または映写するようにしてもよい。   Note that a background other than the background curtain unit 15 may be used as a background at the time of shooting. For example, a picture or item brought by the user may be pasted on the back surface (or curtain) of the shooting space 32, or an image brought by the user or selected may be displayed on the back of the shooting space 32. (Or curtains) may be displayed or projected.

また、1枚のクロマキー用のカーテンを予め撮影空間32の背面に張り付けるか、または、昇降式クロマキー用カーテンを撮影空間32の背面に設けるようにし、合成用の背景画像を複数種類用意して編集処理において利用者が所望する背景画像をカーテンの部分に合成することができるようにしてもよい。   In addition, a single chroma key curtain is attached in advance to the back of the shooting space 32, or an elevating chroma key curtain is provided on the back of the shooting space 32, and a plurality of types of composite background images are prepared. In the editing process, a background image desired by the user may be combined with the curtain portion.

以上のように、何らかの方法で利用者が背景を選択できるようにすることにより、利用者の要求により適した画像を提供することができる。   As described above, by allowing the user to select the background by some method, it is possible to provide an image more suitable for the user's request.

カメラ51は、制御部101に制御されて、写真シール作成ゲームの撮影作業の工程において、撮影空間32内の被写体(利用者)の撮影を行う。例えば、カメラ51は、制御部101の制御の下、リアルタイムで利用者の動画像を取り込み、その取り込んだ動画像データを制御部101に供給する。また、カメラ51は、制御部101より供給されるシャッタ制御信号に基づいて、メカシャッタを動作させる等して、撮影画像(静止画像)の取得を行い、取得した静止画像データを制御部101に供給する。   The camera 51 is controlled by the control unit 101 to shoot a subject (user) in the shooting space 32 in the shooting work process of the photo sticker creation game. For example, the camera 51 captures a user's moving image in real time under the control of the control unit 101, and supplies the captured moving image data to the control unit 101. Further, the camera 51 acquires a captured image (still image) by operating a mechanical shutter based on a shutter control signal supplied from the control unit 101, and supplies the acquired still image data to the control unit 101. To do.

タッチパネルモニタ52のディスプレイ123は、制御部101より供給されるRGB信号に基づく画像をそのディスプレイ123に表示する。また、タッチパネルモニタ52のタッチパネル124は、利用者が、自分自身の指等を用いてこのタッチパネルにタップ(接触または近接)すると、その位置情報を制御部101に供給する。制御部101は、その位置情報を解析し、表示画像に対して利用者が入力した情報や指示を特定し、受け付ける。   The display 123 of the touch panel monitor 52 displays an image based on the RGB signal supplied from the control unit 101 on the display 123. The touch panel 124 of the touch panel monitor 52 supplies position information to the control unit 101 when the user taps (contacts or approaches) the touch panel with his / her own finger or the like. The control unit 101 analyzes the position information, identifies and accepts information and instructions input by the user with respect to the display image.

スピーカ55は、例えば、制御部101より供給される音声信号の音声(撮影作業の案内音声、効果音、またはBGM等)を出力する。   The speaker 55 outputs, for example, sound of a sound signal supplied from the control unit 101 (such as shooting work guidance sound, sound effect, or background music).

硬貨処理部121は、硬貨投入返却口50に投入された硬貨の種類を識別して識別結果を制御部101に通知する。   The coin processing unit 121 identifies the type of coin inserted into the coin insertion / return port 50 and notifies the control unit 101 of the identification result.

照明制御部122は、制御部101より供給される照明制御信号に基づいて、フラッシュライト53を閃光させたり、乳白アクリル板54の背後に設けられた照明装置や後方ユニット12Bの照明装置57などを点灯したり、消灯したりする。   Based on the illumination control signal supplied from the control unit 101, the illumination control unit 122 flashes the flashlight 53, and the illumination device provided behind the milky acrylic plate 54, the illumination device 57 of the rear unit 12 </ b> B, and the like. Turns on and off.

編集部113は、編集ユニット13に関するブロックであり、第1編集インタフェース13Aに対応する第1編集部113Aと、第2編集インタフェース13Bに対応する第2編集部113Bよりなる。第1編集部113Aおよび第2編集部113Bは、互いに同一の構成を有しており、以下においては第1編集部113Aについて説明するが、その説明は第2編集部113Bにも適用可能である。   The editing unit 113 is a block related to the editing unit 13, and includes a first editing unit 113A corresponding to the first editing interface 13A and a second editing unit 113B corresponding to the second editing interface 13B. The first editing unit 113A and the second editing unit 113B have the same configuration. The first editing unit 113A will be described below, but the description can also be applied to the second editing unit 113B. .

第1編集部113Aは、図7を参照して上述した、タブレット内蔵モニタ62、タッチペン63、およびスピーカ64に加えて、硬貨処理部130を有する。   The first editing unit 113A includes a coin processing unit 130 in addition to the tablet built-in monitor 62, the touch pen 63, and the speaker 64 described above with reference to FIG.

タブレット内蔵モニタ62は、上述したように、ディスプレイ141とタブレット142により構成される。タブレット内蔵モニタ62のディスプレイ141は、制御部101より供給されるRGB信号に対応する、編集入力用のGUIや撮像画像等、編集に関する画像を表示する。   As described above, the tablet built-in monitor 62 includes the display 141 and the tablet 142. The display 141 of the tablet built-in monitor 62 displays an image related to editing such as an editing input GUI and a captured image corresponding to the RGB signal supplied from the control unit 101.

さらに、タブレット内蔵モニタ62のディスプレイ141は、後述する事後接客処理において、ミニゲームの画面を表示したりする。   Further, the display 141 of the tablet built-in monitor 62 displays a mini game screen in the after-mentioned customer service process described later.

タブレット内蔵モニタ62のタブレット142は、タッチペン63を用いた利用者によるタブレット142にタップ(接触または近接)する操作に対応して、そのタップされた位置を示す位置情報を制御部101に供給する。制御部101は、その位置情報を解析し、表示画像(GUI等)に対して利用者が入力した情報や指示を特定し、受け付ける。つまり、撮影画像(撮影画像を用いて作成された合成画像)に対する編集入力は、これらの構成を用いて行われる。   The tablet 142 of the tablet built-in monitor 62 supplies position information indicating the tapped position to the control unit 101 in response to an operation of tapping (contacting or approaching) the tablet 142 by the user using the touch pen 63. The control unit 101 analyzes the position information, identifies and accepts information and instructions input by the user with respect to the display image (GUI or the like). That is, editing input for a captured image (a composite image created using the captured image) is performed using these configurations.

スピーカ64は、制御部101より供給される音声信号の音声(編集作業の案内音声、効果音、BGM等の写真シール作成ゲームの編集作業の工程に関する音声)を出力する。   The speaker 64 outputs the sound of the sound signal supplied from the control unit 101 (editing sound for editing work, sound effects, sound related to the editing work process of the photo sticker creation game such as BGM).

硬貨処理部130は、追加硬貨投入返却口65に投入された硬貨の種類を識別して識別結果を制御部101に通知する。   The coin processing unit 130 identifies the type of coin inserted into the additional coin insertion / return port 65 and notifies the control unit 101 of the identification result.

プリンタ114は、内蔵する2つのヘッド151,152により、編集部113により行われた編集作業結果としての写真シールをシール紙162に印刷する。また、プリンタ114は、カッター153を内蔵しており、写真シールを印刷したシール紙162を所定の位置で切断して出力する。   The printer 114 prints a photo sticker as a result of the editing operation performed by the editing unit 113 on the sticker sheet 162 by using two built-in heads 151 and 152. The printer 114 has a built-in cutter 153, and cuts and outputs a sticker sheet 162 on which a photo sticker is printed at a predetermined position.

すなわち、プリンタ114は、制御部101より第1編集部113Aにより行われた編集作業結果を取得すると、給紙ユニット161よりシール紙162を取得し、ヘッド151によって写真シールを印刷する。また、プリンタ114は、制御部101より第2編集部113Bにより行われた編集作業結果を取得すると、給紙ユニット161よりシール紙162を取得し、ヘッド152によって写真シールを印刷する。   That is, when the printer 114 acquires the result of the editing operation performed by the first editing unit 113A from the control unit 101, the printer 114 acquires the sticker sheet 162 from the paper supply unit 161 and prints the photo sticker by the head 151. Further, when the printer 114 acquires the result of the editing operation performed by the second editing unit 113B from the control unit 101, the printer 114 acquires the sticker sheet 162 from the paper supply unit 161 and prints the photo sticker by the head 152.

プリンタ114は、写真シールの印刷を終了すると、その印刷済みのシール紙162をし、所定の位置で切断して写真シール排出口71より排出する。この印刷済みのシール紙162が、写真シール作成ゲームの成果物である写真シールとして利用者グループに提供される。   When the printer 114 finishes printing the photo sticker, it prints the printed sticker paper 162, cuts it at a predetermined position, and discharges it from the photo sticker discharge port 71. This printed sticker sheet 162 is provided to the user group as a photo sticker that is a product of the photo sticker creation game.

このように、切断済みのシール紙162を排出することにより、利用者はハサミなどでシール紙162を切り分ける必要がなくなるので、利用者の手間を省くことができる。   Thus, by discharging the cut sticker paper 162, the user does not need to cut the sticker paper 162 with scissors or the like, so that the user's trouble can be saved.

次に、制御部101について説明する。図10は、制御部101がROM106などに格納されているプログラムを実行することにより実現される機能ブロックの構成例を示している。   Next, the control unit 101 will be described. FIG. 10 shows a configuration example of functional blocks realized by the control unit 101 executing a program stored in the ROM 106 or the like.

制御部101は、写真シール作成ゲームを開始する際に投入される代金に関する処理等を行う事前接客処理部201、利用者グループを撮影する等の写真シール作成ゲームの撮影作業の工程に関する処理を行う撮影処理部202、撮影画像に対する落書き編集等の写真シール作成ゲームの編集作業の工程に関する処理を行う編集処理部203、シール紙の印刷等の写真シール作成ゲームの印刷の工程に関する処理を行う印刷処理部204、および、編集作業を終了した利用者グループを接客する写真シール作成ゲームの事後接客の工程に関する処理を行う事後接客処理部205を有する。   The control unit 101 performs a process related to a shooting work process of the photo sticker creation game, such as a pre-service processing unit 201 that performs a process related to a charge input when starting the photo sticker creation game, and a user group. A shooting processing unit 202, an editing processing unit 203 that performs processing related to a photo sticker creation game editing process such as graffiti editing for a captured image, and a printing process that performs processing related to a photo sticker creating game printing process such as printing sticker And a post-service processing unit 205 that performs processing related to the post-service process of the photo sticker creation game that serves the user group that has finished the editing work.

つまり、制御部101は、写真シール作成ゲームの各工程に関する処理の制御を行う。   That is, the control unit 101 controls processing relating to each process of the photo sticker creation game.

図11は、図10の撮影処理部202の詳細な構成例を示している。撮影処理部202は、操作入力処理部211、顔画像認識部212、画像処理部213、合成処理部214、表示制御部215、および管理部216から構成される。なお、以下、カメラ51により撮影された動画像と静止画像を区別する必要がない場合、すなわち、どちらにも共通する場合、単に画像(撮影画像や被写体画像)などと称する。   FIG. 11 shows a detailed configuration example of the imaging processing unit 202 in FIG. The imaging processing unit 202 includes an operation input processing unit 211, a face image recognition unit 212, an image processing unit 213, a composition processing unit 214, a display control unit 215, and a management unit 216. Hereinafter, when it is not necessary to distinguish between a moving image captured by the camera 51 and a still image, that is, when both are common, they are simply referred to as an image (captured image or subject image).

操作入力処理部211は、タッチパネルモニタ52を制御して、撮影コースを利用者グループに選択させる処理、合成用画像を利用者グループに選択させる処理、撮影された画像の中から編集対象とするもの(編集対象画像)を利用者グループに選択させる処理などを行う。   The operation input processing unit 211 controls the touch panel monitor 52 to cause the user group to select a photographing course, to cause the user group to select a composite image, and to be an editing target from among the photographed images. Processing for causing the user group to select (edit target image) is performed.

顔画像認識部212は、撮影される画像、あるいは、撮影された画像における所定の範囲において、目を検知するなどの方法で、利用者(被写体)の顔の位置を認識する。なお、顔画像認識部212は、顔の位置の認識結果より、被写体の人数を容易に認識することができる。   The face image recognition unit 212 recognizes the position of the face of the user (subject) by a method such as detecting an eye in a captured image or a predetermined range in the captured image. Note that the face image recognition unit 212 can easily recognize the number of subjects from the recognition result of the face position.

画像処理部213は、顔画像認識部212により被写体の顔が認識された場合、撮影された画像のうち、認識された被写体の顔の範囲、または、予め設定された範囲の画像の画像処理を行う。具体的には、画像処理部213は、例えば、被写体の肌の色を、見栄えのよい肌の色に補正(変換)する画像処理をしたり、目検知が行われた場合には、例えば、被写体の目をぱっちりさせるように見栄えよく補正する画像処理を行う。   When the face of the subject is recognized by the face image recognition unit 212, the image processing unit 213 performs image processing on the recognized subject's face range or a preset range of images in the captured image. Do. Specifically, the image processing unit 213 performs, for example, image processing for correcting (converting) the skin color of the subject to a good-looking skin color, or when eye detection is performed, for example, Image processing is performed to correct the appearance of the subject so that the eyes of the subject are sharp.

合成処理部214は、取得された被写体画像または被写体画像の一部分を、選択された合成用画像に合成する処理を行う。例えば、合成処理部214は、必要に応じて、被写体画像の一部分をトリミングし、トリミングした部分を拡大または縮小して、合成用画像に合成する。   The composition processing unit 214 performs processing for compositing the acquired subject image or a part of the subject image with the selected composition image. For example, the synthesis processing unit 214 trims a part of the subject image as necessary, enlarges or reduces the trimmed part, and synthesizes the image for synthesis.

表示制御部215は、撮影された動画像や、合成用画像と合成された動画像(合成動画像)を、タッチパネルモニタ52のディスプレイ123にライブビュー表示させる。表示される動画像は、被写体の顔の認識結果に応じて画像処理されている。このとき、表示制御部215は、動画像上に、動画像における画像処理の対象範囲を示す対象枠を重畳してライブビュー表示させる。   The display control unit 215 displays the captured moving image or the moving image combined with the combining image (the combined moving image) on the display 123 of the touch panel monitor 52 in a live view. The displayed moving image is subjected to image processing according to the recognition result of the face of the subject. At this time, the display control unit 215 performs live view display by superimposing a target frame indicating a target range of image processing on the moving image on the moving image.

また、表示制御部215は、合成用画像と合成された静止画像(合成静止画像)を撮影結果としてタッチパネルモニタ52のディスプレイ123に表示させる。   In addition, the display control unit 215 displays a still image (combined still image) combined with the combining image on the display 123 of the touch panel monitor 52 as a photographing result.

管理部216は、カメラ51のシャッタータイミングを制御したり、各ゲーム時におけるシャッタ回数や経過時間を計測したりする。   The management unit 216 controls the shutter timing of the camera 51 and measures the number of shutters and the elapsed time during each game.

次に、写真シール作成装置1による写真シール作成ゲームの一連の処理について、図12のフローチャートを参照して説明する。   Next, a series of processing of the photo sticker creating game by the photo sticker creating device 1 will be described with reference to the flowchart of FIG.

写真シール作成ゲームを行う利用者は、待機領域31から撮影空間32に移動し、撮影ユニット12の前方ユニット12Aに設けられた硬貨投入返却口50にゲームの代金である硬貨を投入することにより支払う。この硬貨投入に応じて硬貨処理部121は、硬貨の種類を識別し、識別結果を含む起動信号を制御部101に供給する。制御部101の事前接客処理部201は、ステップS1において、その起動信号に基づいて、代金が投入されたか否かを判定し、正当な代金が投入されたと判定した場合、処理をステップS2に進める。   A user who plays the photo sticker creation game moves from the standby area 31 to the shooting space 32 and pays by inserting coins that are the price of the game into the coin insertion / return port 50 provided in the front unit 12A of the shooting unit 12. . In response to this coin insertion, the coin processing unit 121 identifies the type of coin and supplies an activation signal including the identification result to the control unit 101. In step S1, the advance customer service processing unit 201 of the control unit 101 determines whether or not a price has been inserted based on the activation signal. If it is determined that a valid price has been inserted, the process proceeds to step S2. .

ステップS2において、撮影処理部202は、撮影部111の各部を制御し、撮影空間32内において行われる、写真シール作成ゲームの撮影作業に関する処理であるライブビュー撮影処理を実行する。ライブビュー撮影処理では、利用者を被写体とする動画像が、そのままの状態、あるいは、合成用画像が合成された状態でタッチパネルモニタ52に常時表示される。したがって、利用者はタッチパネルモニタ52の画像を見ながら、自身の写り具合を確認することができる。なお、ライブビュー撮影処理については、図13を参照して後述する。   In step S <b> 2, the shooting processing unit 202 controls each unit of the shooting unit 111, and executes live view shooting processing that is processing related to shooting work of the photo sticker creation game performed in the shooting space 32. In the live view shooting process, a moving image with the user as a subject is always displayed on the touch panel monitor 52 in a state as it is or in a state where a composition image is combined. Therefore, the user can confirm his / her appearance while viewing the image on the touch panel monitor 52. The live view shooting process will be described later with reference to FIG.

ライブビュー撮影処理が終了すると、撮影処理部202は、ステップS3において、撮影作業を終えた撮影空間32内の利用者に対して、画像や音声によって第1編集空間33Aまたは第2編集空間33Bへの移動を促す移動案内処理を行う。   When the live view shooting process is completed, in step S3, the shooting processing unit 202 sends the user in the shooting space 32 who has finished the shooting operation to the first editing space 33A or the second editing space 33B by an image or sound. A movement guidance process for encouraging movement is performed.

ステップS4において、編集処理部203は、編集空間33に移動した利用者からの操作に応じて、写真シール作成ゲームの編集作業に関する処理である編集処理を行う。   In step S <b> 4, the editing processing unit 203 performs editing processing, which is processing related to editing work of the photo sticker creation game, in accordance with an operation from the user who has moved to the editing space 33.

編集作業が終了すると、ステップS5において、印刷処理部204は、プリンタ114を制御し、編集作業により得られた編集済み画像をシール紙に印刷する印刷処理を行う。   When the editing operation is completed, in step S5, the print processing unit 204 controls the printer 114 to perform a printing process for printing the edited image obtained by the editing operation on a sticker sheet.

ステップS6において、事後接客処理部205は、印刷終了待機中の利用者に対してミニゲームや画像転送等のサービス、あるいは、写真シール手帳を閲覧したり写真シールを投稿したりすることができる事後接客処理を行う。   In step S6, the post-mortem service processing unit 205 can perform services such as mini-games and image transfer to a user waiting for completion of printing, or can post a photo sticker notebook or post a photo sticker. Perform customer service.

そして事後接客処理が終了すると、事後接客処理部205は、ステップS7において、編集空間33の利用者を印刷物受取領域34に移動させるための移動案内を行う。また、印刷処理が終了すると、印刷処理部204は、ステップS8において、プリンタ114を制御し、印刷済みのシール紙を適宜裁断して写真シール排出口71より排出させる。以上で、写真シール作成ゲームの一連の処理が終了される。   When the post-service processing is completed, the post-service processing unit 205 performs movement guidance for moving the user of the editing space 33 to the printed material receiving area 34 in step S7. When the printing process is completed, the print processing unit 204 controls the printer 114 in step S8 to cut the printed sticker sheet appropriately and discharge it from the photo sticker discharge port 71. Thus, a series of processes of the photo sticker creation game is completed.

次に、上述した写真シール作成ゲームの一連の処理におけるステップS2のライブビュー撮影処理について、図13のフローチャートを参照して詳述する。   Next, the live view shooting process of step S2 in the series of processes of the photo sticker creation game described above will be described in detail with reference to the flowchart of FIG.

ステップS101において、撮影処理部202の操作入力処理部211は、タッチパネルモニタ52を用いて、撮影コース選択画面を表示させ、利用者に撮影コースの選択を促す。   In step S101, the operation input processing unit 211 of the shooting processing unit 202 displays a shooting course selection screen using the touch panel monitor 52, and prompts the user to select a shooting course.

例えば、利用者が選択可能なコースとしては、こだわりコースや組み合わせ画像コースなどがある。こだわりコースが選択された場合、撮影回数と同じ数の撮影静止画像が得られ、その中から複数の編集対象画像を選択することになる。   For example, examples of courses that can be selected by the user include discerning courses and combination image courses. When the disciplined course is selected, the same number of shot still images as the number of shots is obtained, and a plurality of images to be edited are selected from the shot still images.

一方、組み合わせ画像コースが選択された場合、撮影回数よりも多い数の画像が得られ、その中から複数の編集対象画像を選択することになる。以下、こだわりコースが選択された後の動作例について説明を継続する。   On the other hand, when the combination image course is selected, a larger number of images than the number of times of photographing are obtained, and a plurality of editing target images are selected from among the images. Hereinafter, the description of the operation example after the selected course is selected will be continued.

ステップS102において、撮影処理部202の管理部216は、ライブビュー撮影処理の経過時間tの計時を開始する。   In step S102, the management unit 216 of the shooting processing unit 202 starts measuring the elapsed time t of the live view shooting process.

ステップS103において、操作入力処理部211は、タッチパネルモニタ52を用いて、合成用画像選択画面を表示させ、利用者に合成用画像の選択を促す。   In step S <b> 103, the operation input processing unit 211 displays a composition image selection screen using the touch panel monitor 52 and prompts the user to select a composition image.

ここで、合成用画像とは、撮影画像に合成するための背景画像や前景画像のことである。なお、合成用画像選択画面には、合成用画像だけでなく、例えば、撮影画像における被写体の代わりのモデル画像と合成用画像が合成されたサンプル合成用画像(例えば、後述する図17Aのサンプル合成用画像241)が表示されてもよい。このサンプル合成用画像は、合成ではなく、もともとモデルが写りこんでいる画像であってもよい。   Here, the composition image is a background image or a foreground image to be combined with a captured image. Note that the composition image selection screen includes not only a composition image but also a sample composition image obtained by compositing a model image instead of the subject in the photographed image and the composition image (for example, sample composition in FIG. 17A described later). An image for use 241) may be displayed. The sample synthesis image may be an image in which a model is originally reflected instead of synthesis.

ステップS104において、管理部216は、カメラ51を制御して、被写体の動画像(被写体動画像)の取得を開始させる。   In step S <b> 104, the management unit 216 controls the camera 51 to start acquisition of a subject moving image (subject moving image).

ステップS105において、撮影処理部202の顔画像認識部212は、ステップS104で取得が開始された被写体動画像において利用者(被写体)の顔の位置を認識し、撮影処理部202の画像処理部213は、被写体動画像において、認識された被写体の顔の範囲を、画像処理の対象範囲として画像処理する。そして、撮影処理部202の表示制御部215は、タッチパネルモニタ52を用いて、例えば、図14Aに示すようなライブビュー画面230を表示させる。例えば、ステップS104で取得が開始されて、画像処理された被写体動画像に、認識された被写体の顔の範囲であり、画像処理の対象範囲を示す対象枠231Aおよび231Bが重畳されてライブビュー表示される。   In step S105, the face image recognition unit 212 of the shooting processing unit 202 recognizes the position of the user (subject) face in the subject moving image acquired in step S104, and the image processing unit 213 of the shooting processing unit 202. In the subject moving image, the recognized face range of the subject is subjected to image processing as a target range for image processing. Then, the display control unit 215 of the photographing processing unit 202 uses the touch panel monitor 52 to display a live view screen 230 as illustrated in FIG. 14A, for example. For example, the live view display is performed by superimposing the target frames 231A and 231B that are the range of the face of the recognized subject and indicate the target range of the image processing on the subject moving image that has been acquired and is processed in step S104. Is done.

図14Aの場合、まず、顔画像認識部212により、被写体動画像において、被写体Aおよび被写体Bの顔の位置が認識され、認識された被写体Aおよび被写体Bの顔の範囲がそれぞれ画像処理の対象範囲として、画像処理部213により画像処理される。そして、表示制御部215により、対象範囲が画像処理された被写体動画像に、被写体Aに対応する画像処理の対象範囲を示す対象枠231Aと、被写体Bに対応する画像処理の対象範囲を示す対象枠231Bとが重畳されて、ライブビュー画面230として表示される。   In the case of FIG. 14A, first, the face image recognition unit 212 recognizes the positions of the faces of the subject A and the subject B in the subject moving image, and the recognized face ranges of the subject A and the subject B are subject to image processing, respectively. As a range, the image processing unit 213 performs image processing. Then, a subject frame 231A indicating the target range of image processing corresponding to the subject A and a target indicating the target range of image processing corresponding to the subject B are added to the subject moving image whose target range is image-processed by the display control unit 215. A frame 231 </ b> B is superimposed and displayed as a live view screen 230.

なお、図14Aにおいては、対象枠231Aおよび231Bとして、句の字でくくった枠線が用いられているが、これに限定されることなく、装飾されたデザイン画像(枠線)でもよい。   In FIG. 14A, a frame line surrounded by phrases is used as the target frames 231A and 231B, but is not limited to this, and a decorated design image (frame line) may be used.

すなわち、図14Aの場合、顔の範囲が認識されなければ、対象枠は表示されない。したがって、このライブビュー画面230を見ることにより、利用者は、自分の写り具合と、どの部分が画像処理(補正)されているのか、すなわち、自分の顔が画像処理(補正)されているのか否かを直感的に確認することができる。   That is, in the case of FIG. 14A, the target frame is not displayed unless the face range is recognized. Therefore, by viewing the live view screen 230, the user can see how his / her image is and what part is image-processed (corrected), that is, whether his / her face is image-processed (corrected). It can be confirmed intuitively.

なお、ステップS105におけるライブビュー画面の表示処理の詳細については、さらに、図16を参照して後述する。   Details of the live view screen display processing in step S105 will be described later with reference to FIG.

ステップS106においては、管理部216は、シャッタータイミングまでのカウントダウン(例えば、初期値が3秒)を開始する。このとき、管理部216は、表示制御部215を制御し、例えば「3,2,1,0」などとシャッタータイミングまでの残り秒数(カウント)に応じたライブビュー画面を、タッチパネルモニタ52に表示させ、さらに、スピーカ55からもカウントダウンの音声を出力させて利用者にシャッタータイミングを通知し、カメラ51を制御してシャッタータイミングに同期して撮影を実行させる。   In step S106, the management unit 216 starts a countdown (for example, the initial value is 3 seconds) until the shutter timing. At this time, the management unit 216 controls the display control unit 215 to display, for example, “3, 2, 1, 0” or the like on the touch panel monitor 52 according to the remaining number of seconds (count) until the shutter timing. Further, a sound of countdown is output from the speaker 55 to notify the user of the shutter timing, and the camera 51 is controlled to execute shooting in synchronization with the shutter timing.

これにより、カメラ51からは被写体静止画像が出力されて、被写体静止画像において、上述した対象範囲が画像処理されて、保存される。また、合成用画像と合成する場合には、カメラ51からは被写体静止画像が出力されて、被写体静止画像において、上述した対象範囲が画像処理されて、合成用画像と合成されて、保存される。   As a result, a still image of the subject is output from the camera 51, and the above-described target range is subjected to image processing and stored in the still image of the subject. In addition, when compositing with a compositing image, a still image of the subject is output from the camera 51, and the above-described target range is subjected to image processing in the still image of the subject, and is combined with the compositing image and stored. .

具体的には、タッチパネルモニタ52には、「3,2,1,0」などとシャッタータイミングまでの残り秒数(カウント)のうち、カウント「3,2」においては、図14Aのライブビュー画面230が表示される。そして、カウント「1.5や1」においては、図14Aのライブビュー画面230で句の字でくくった対象枠231Aおよび231Bに代わって、黒い対象枠233Aおよび233Bが重畳された図14Bのライブビュー画面232が表示される。さらに、カウント「0」においては、利用者の視線をカメラに向けさせるため、「カメラをみてね!」とカメラ51の設置方向を指す矢印が示された図14Cのライブビュー画面234が表示される。   Specifically, the touch panel monitor 52 includes “3, 2, 1, 0” and the like and the remaining number of seconds until the shutter timing (count). 230 is displayed. Then, in the count “1.5 or 1”, the black target frames 233A and 233B are superimposed on the live frame of FIG. 14B in place of the target frames 231A and 231B that are wrapped in the phrase on the live view screen 230 of FIG. 14A. A view screen 232 is displayed. Further, in the case of the count “0”, the live view screen 234 of FIG. 14C showing “Look at the camera!” And an arrow indicating the installation direction of the camera 51 is displayed to direct the user's line of sight toward the camera. The

これにより、利用者に、画像処理を行う部分を撮影直前まで完璧に認識させ、どのような表情が撮影されるのかを明確に認識させることができる。   This allows the user to completely recognize the part to be image-processed until immediately before shooting, and to clearly recognize what facial expression is shot.

なお、図14Bの例においては、対象枠233Aおよび233Bとして、黒い枠線が用いられているが、これに限定されることなく、リボンなどが付加されたデザイン画像(枠線)でもよい。すなわち、カウント「1.5,1」に表示される対象枠233Aおよび233Bは、カウント「3,2」に表示される対象枠231Aおよび231Bとは異なる種類の枠線であれば、どのような枠線でもよい。   In the example of FIG. 14B, black frame lines are used as the target frames 233A and 233B. However, the present invention is not limited to this, and a design image (frame line) to which a ribbon or the like is added may be used. That is, the target frames 233A and 233B displayed in the count “1.5, 1” may be any type of frame line different from the target frames 231A and 231B displayed in the count “3, 2”. It may be a frame line.

また、利用者数(写真に何人写るか)という人数に応じた合成用画像を予め記憶しておき、撮影開始前(例えば、ステップS103より前)に、その人数を利用者に入力させ、ステップS103において、入力された人数に応じた合成用画像を、合成用画像選択画面に表示させて、利用者に選ばせるようにしてもよい。この場合、ステップS105において認識された顔の数が、入力された人数に合致したときに、撮影開始可能、非合致したときに、撮影不可とするようにすることができる。   Further, a composite image corresponding to the number of users (how many people are shown in the photograph) is stored in advance, and the number of users is input by the user before the start of shooting (for example, before step S103). In S103, a composition image corresponding to the number of persons input may be displayed on the composition image selection screen so that the user can select it. In this case, shooting can be started when the number of faces recognized in step S105 matches the input number of people, and shooting can be disabled when they do not match.

このとき、人数だけでなく、合成用画像における利用者の位置も決めておき、その位置に合致するかしないかも、撮影開始可能か不可かの判定条件に入れてもよい。また、人数を入力させずに、選択した合成用画像に設定されている人数に、顔画像認識部212の認識結果により認識された人数が合致した場合に、撮影開始するなどの判定条件を設けてもよい。   At this time, not only the number of people but also the position of the user in the image for synthesis may be determined, and whether or not it matches the position may be put in a determination condition as to whether or not photographing can be started. In addition, a determination condition is set such that shooting is started when the number of people recognized by the recognition result of the face image recognition unit 212 matches the number of people set in the selected composition image without inputting the number of people. May be.

また、非合致の場合、あるいは、不適切に顔認識された場合(例えば、目検知により片目のみしか検知されていない場合)には、非合致であることを画面や音声で案内することが望ましい。さらに、撮影不可と判定された場合には、非合致、適切に認識されないにかかわらず、所定時間後、撮影される。この場合、「画像処理(補正)はされないよ!」などと画面や音声で案内が行われる。   In the case of non-coincidence, or when face recognition is inappropriate (for example, when only one eye is detected by eye detection), it is desirable to inform the user of non-coincidence using a screen or voice. . In addition, if it is determined that the image cannot be taken, the image is taken after a predetermined time regardless of whether the image is not matched or not properly recognized. In this case, guidance such as “Image processing (correction) will not be performed!” Is given on the screen or voice.

なお、上記説明においては、ステップS105のライブビュー画面における枠線と、ステップS106のカウント「3,2」のライブビュー画面における枠線とは同じものを表示する例を記載したが、これらも異なるものを表示させてもよいし、カウントが発生するまでは、枠を表示せず、カウント「3,2」になってから、初めて枠を表示させるようにすることもできる。   In the above description, the example in which the same frame line is displayed on the live view screen in step S105 and the live view screen of the count “3, 2” in step S106 has been described. A frame may be displayed, or the frame may not be displayed until the count occurs, and the frame may be displayed for the first time after the count reaches “3, 2”.

また、ステップS105におけるライブビュー画面には、画像処理前の被写体動画像を表示するようにしてもよいが、上述したように、画像処理された被写体動画像を表示するようにしてもよい。従来、被写体動画像には、画像処理済み(補正済み)画像は表示されなかったが、例えば、肌変換後の画像処理済み画像や、目検知された場合、目処理後の画像処理済み画像が表示される。これにより、利用者に撮影する前から、画像処理済みの画像が如何に実物と同じであるかのように実感させ、完璧(見栄えのよい)撮影画像を容易に想像させながら、撮影させることができる。   In addition, the subject moving image before image processing may be displayed on the live view screen in step S105, but the subject moving image subjected to image processing may be displayed as described above. Conventionally, an image processed (corrected) image has not been displayed on the subject moving image. However, for example, an image processed image after skin conversion or an image processed image after eye processing when eyes are detected Is displayed. This makes it possible to make the user feel that the processed image is the same as the actual image before shooting it, and to make it easy to imagine a perfect (good looking) shot image. it can.

次に、ステップS107において、表示制御部215は、タッチパネルモニタ52を用いて、撮影結果画面を表示させる。すなわち、撮影のタイミングで取得された被写体静止画像において、対象範囲が画像処理されて、画像処理済みの被写体静止画像が、タッチパネルモニタ52に撮影結果画面として表示される。   Next, in step S <b> 107, the display control unit 215 displays a shooting result screen using the touch panel monitor 52. In other words, in the subject still image acquired at the shooting timing, the target range is subjected to image processing, and the subject still image subjected to image processing is displayed on the touch panel monitor 52 as a shooting result screen.

ステップS108において、管理部216は、撮影回数が所定数X(例えば、6回)に到達したか否かを判定する。そして、撮影回数が所定数Xに到達していないと判定された場合、処理はステップS105に戻されて、それ以降が繰り返される。その後、ステップS108において、撮影回数が所定数Xに到達したと判定された場合、処理はステップS109に進められる。   In step S108, the management unit 216 determines whether or not the number of shootings has reached a predetermined number X (for example, 6 times). If it is determined that the number of shootings has not reached the predetermined number X, the process returns to step S105, and the subsequent steps are repeated. Thereafter, when it is determined in step S108 that the number of photographing has reached the predetermined number X, the process proceeds to step S109.

ステップS109において、管理部216は、経過時間tが所定時間T(例えば、5分間)を経過したか否かを判定する。ここで、経過時間tが所定時間Tを経過していないと判定された場合、ボーナス撮影(所定数X回を超える撮影)が許可されて、処理はステップS105に戻される。   In step S109, the management unit 216 determines whether or not the elapsed time t has passed a predetermined time T (for example, 5 minutes). If it is determined that the elapsed time t has not passed the predetermined time T, bonus shooting (shooting exceeding a predetermined number X times) is permitted, and the process returns to step S105.

反対に、経過時間tが所定時間Tを経過していると判定された場合、処理はステップS110に進められる。   Conversely, if it is determined that the elapsed time t has passed the predetermined time T, the process proceeds to step S110.

ステップS110において、操作入力処理部211は、タッチパネルモニタ52を用いて、例えば図15に示すような編集対象画像選択画面235を表示させ、利用者に対し、撮影した複数の被写体静止画像の中から複数の編集対象画像を選択するように促す。ここで、編集対象画像とは、当該ライブビュー撮像処理の後段に出力し、編集処理を施した後にシール紙162に印刷する画像を指す。   In step S110, the operation input processing unit 211 uses the touch panel monitor 52 to display an editing target image selection screen 235 as shown in FIG. 15, for example, and allows the user to select from a plurality of captured subject still images. Prompts to select multiple images to edit. Here, the editing target image refers to an image that is output to the subsequent stage of the live view imaging process and is printed on the sticker sheet 162 after the editing process is performed.

図15の例においては、編集対象画像選択画面235には、1乃至6の数字が付された被写体静止画像が表示されており、各被写体静止画像の下部には、ステップS105における被写体の認識結果(すなわち、画像処理結果)として、被写体の顔が認識された(認識されて画像処理された)ことを示す認識OK画像、または、被写体の顔が認識されていない(認識されず画像処理されていない)ことを示す認識NG画像が、異なる色で表示されている。   In the example of FIG. 15, subject still images with numbers 1 to 6 are displayed on the edit target image selection screen 235, and the subject recognition result in step S105 is displayed below each subject still image. As a result (that is, an image processing result), a recognition OK image indicating that the face of the subject has been recognized (recognized and image processed), or the face of the subject has not been recognized (image processing has been performed without being recognized). A recognition NG image indicating that the color is not present) is displayed in a different color.

このようにすることで、利用者に、認識ができなかった画像を選択させないように促すことができる。これにより、利用者が認識できず、画像処理されなかった画像を出力して満足しないことを抑制することができる。   In this way, the user can be prompted not to select an image that could not be recognized. Thereby, it is possible to prevent the user from being satisfied and outputting an image that has not been subjected to image processing and is not satisfied.

以上のようにして編集対象画像が決定された後、ライブビュー撮影処理は終了される。   After the editing target image is determined as described above, the live view shooting process is ended.

以上説明したように、ライブビュー撮影処理では、経過時間tに拘わらず、撮影をX回行うことができる。さらに、経過時間tが所定時間Tを経過していない場合、ボーナス撮影を許可することができる。なお、ボーナス撮影の撮影回数に上限を設けるようにしてもよい。また、ボーナス撮影の撮影回数に制限を設けず、経過時間tが所定時間Tを経過していない限り、ボーナス撮影を許可するようにしてもよい。   As described above, in the live view shooting process, shooting can be performed X times regardless of the elapsed time t. Furthermore, when the elapsed time t has not passed the predetermined time T, bonus shooting can be permitted. An upper limit may be set for the number of times of bonus shooting. Further, there is no limit on the number of times of bonus shooting, and bonus shooting may be permitted as long as the elapsed time t has not passed the predetermined time T.

なお、上述したライブビュー撮影処理では、シャッタータイミングまでのカウントダウンを撮影処理部202が自律的に開始するようにしたが、ユーザからの所定の撮影操作に応じ、このカウントダウンを開始するようにしてもよい。   In the live view shooting process described above, the shooting processing unit 202 autonomously starts the countdown until the shutter timing. However, the countdown may be started in response to a predetermined shooting operation from the user. Good.

次に、図16のフローチャートを参照して、図13のステップS105のライブビュー画面の表示処理の他の例を説明する。例えば、図13のステップS103で、図17Aに示されるサンプル合成用画像241が選択された場合を例に説明する。   Next, another example of the live view screen display process in step S105 in FIG. 13 will be described with reference to the flowchart in FIG. For example, a case where the sample composition image 241 shown in FIG. 17A is selected in step S103 of FIG. 13 will be described as an example.

図17Aの例においては、合成用画像の右側に、被写体のモデルの画像がトリミングされて、合成されているサンプル合成用画像241が示されている。図16の表示処理においては、このモデル画像の位置(すなわち、モデル画像が位置する範囲)に被写体を誘導するためのライブビュー画面が表示される。   In the example of FIG. 17A, a sample composition image 241 is shown on the right side of the composition image. In the display process of FIG. 16, a live view screen for guiding the subject is displayed at the position of the model image (that is, the range where the model image is located).

ステップS131において、カメラ51は、被写体動画像を取得する。ステップS132において、顔画像認識部212は、ステップS131で取得された被写体動画像において利用者(被写体)の顔の位置を認識し、画像処理部213は、被写体動画像における認識された被写体の顔の範囲を、画像処理の対象範囲として画像処理する。   In step S131, the camera 51 acquires a subject moving image. In step S132, the face image recognition unit 212 recognizes the position of the face of the user (subject) in the subject moving image acquired in step S131, and the image processing unit 213 recognizes the face of the recognized subject in the subject moving image. Is processed as a target range for image processing.

ステップS133において、表示制御部215は、画像処理の対象範囲が、サンプル用合成画像241におけるモデル画像の位置であるか否かを判定する。ステップS133において、画像処理の対象範囲が、モデル画像の位置ではないと判定された場合、処理は、ステップS134に進む。   In step S133, the display control unit 215 determines whether or not the target range of the image processing is the position of the model image in the sample composite image 241. If it is determined in step S133 that the image processing target range is not the position of the model image, the process proceeds to step S134.

ステップS134において、合成処理部214は、合成用画像と画像処理された被写体動画像とを合成し、表示制御部215は、その合成画像に、目標枠243および対象枠244aを重畳させた図17Bのライブビュー画面242を表示し、利用者に対して移動案内を行う。   In step S134, the composition processing unit 214 composes the composition image and the subject moving image subjected to the image processing, and the display control unit 215 superimposes the target frame 243 and the target frame 244a on the composite image. The live view screen 242 is displayed to guide the user to move.

図17Bの例においては、合成用画像と画像処理された被写体動画像とが合成された合成画像に、図17Aのサンプル合成用画像241のモデルの顔の位置(範囲)を示す目標枠243と、ステップS132において被写体Aの顔の位置が認識されて、画像処理された画像処理の対象範囲を示す対象枠244aとが重畳されたライブビュー画面242が示されている。   In the example of FIG. 17B, a target frame 243 that indicates the position (range) of the face of the model of the sample composition image 241 in FIG. 17A is combined with a composite image in which the composition image and the subject moving image subjected to image processing are combined. The live view screen 242 is shown in which the position of the face of the subject A is recognized in step S132 and the target frame 244a indicating the target range of the image processed image is superimposed.

ステップS134においては、このようなライブビュー画面242が表示されるとともに、「右側の枠の位置に移動してね!」などと、目標枠243に対して利用者を誘導するための移動案内が画面や音声で行われる。なお、図17Bには図示されていないが、対象枠244aから、目標枠243へ向けての矢印を、移動案内としてライブビュー画面242に表示させるようにしてもよい。   In step S134, such a live view screen 242 is displayed, and movement guidance for guiding the user to the target frame 243, such as “Please move to the position of the right frame!” This is done with the screen and sound. Although not shown in FIG. 17B, an arrow from the target frame 244a toward the target frame 243 may be displayed on the live view screen 242 as movement guidance.

その後、処理は、ステップS131に戻り、それ以降の処理が繰り返される。すなわち、ステップS134における移動案内に対して利用者が移動するので、その被写体動画像がステップS131において取得され、ステップS132において、それに対して顔認識、画像処理が行われ、ステップS133において、画像処理の対象範囲がモデル画像の位置であるか否かが判定される。   Thereafter, the processing returns to step S131, and the subsequent processing is repeated. That is, since the user moves in response to the movement guidance in step S134, the subject moving image is acquired in step S131. In step S132, face recognition and image processing are performed on the subject moving image. In step S133, image processing is performed. Whether the target range is the position of the model image is determined.

利用者がモデル画像の位置まで移動していない場合、ステップS133において、画像処理の対象範囲がモデル画像の位置ではないと判定され、再度、ステップS134に進む。ステップS134において、表示制御部215は、例えば、合成用画像と画像処理された被写体動画像とを合成し、その合成画像に、目標枠243と、利用者の移動に応じて対象枠244aよりも目標枠243に近づいた現在の対象枠244bとを重畳させた図17Cのライブビュー画面245を表示し、さらに、移動案内を行う。   If the user has not moved to the position of the model image, it is determined in step S133 that the target area for image processing is not the position of the model image, and the process proceeds to step S134 again. In step S134, for example, the display control unit 215 synthesizes the image for synthesis and the subject moving image subjected to image processing, and adds the synthesized image to the target frame 243 and the target frame 244a according to the movement of the user. The live view screen 245 of FIG. 17C on which the current target frame 244b approaching the target frame 243 is superimposed is displayed, and further movement guidance is performed.

すなわち、表示制御部215は、利用者(認識された補正の対象範囲)の移動に合わせて、対象枠244bを移動表示させる。   That is, the display control unit 215 moves and displays the target frame 244b in accordance with the movement of the user (recognized correction target range).

なお、図17Cにおいては、説明の便宜上、図17Bの例の利用者と対象枠244aも示されているが、実際には表示されない。   In FIG. 17C, the user and the target frame 244a in the example of FIG. 17B are also shown for convenience of explanation, but are not actually displayed.

一方、ステップS133において、画像処理の対象範囲が、モデル画像の位置であると判定された場合、処理は、ステップS135に進む。   On the other hand, when it is determined in step S133 that the target range of the image processing is the position of the model image, the process proceeds to step S135.

ステップS135において、表示制御部215は、合成用画像と画像処理された被写体動画像とを合成し、その合成画像に、対象枠247を重畳させた図17Dのライブビュー画面246を表示し、移動案内を行う。   In step S135, the display control unit 215 synthesizes the composition image and the subject moving image subjected to image processing, displays the live view screen 246 in FIG. 17D in which the target frame 247 is superimposed on the synthesized image, and moves Give guidance.

図17Dの例においては、合成用画像と画像処理された被写体動画像とが合成された合成画像に、目標枠243(図17Aのサンプル合成用画像241のモデルの顔の位置)と、対象枠244a(認識された図17Bの被写体Aの顔の位置)が一致した結果、目標枠243が、対象枠247として重畳されたライブビュー画面246が示されている。   In the example of FIG. 17D, the target frame 243 (the position of the model face of the sample combining image 241 in FIG. 17A) and the target frame are combined with the combined image obtained by combining the combining image and the subject moving image subjected to image processing. As a result of matching 244a (the recognized position of the face of the subject A in FIG. 17B), a live view screen 246 is shown in which the target frame 243 is superimposed as the target frame 247.

その後、図13のステップS106において、管理部216により、カウントダウンが開始されて、撮影が実行される。この場合も、カウントダウンにおいて、カウント「0」となったとき、利用者の視線をカメラに向けさせるため、「カメラをみてね!」とカメラ51の設置方向を指す矢印が示された図17Eのライブビュー画面248が表示される。   After that, in step S106 in FIG. 13, the management unit 216 starts countdown and executes photographing. Also in this case, when the count reaches “0” in the countdown, “Look at the camera!” And an arrow indicating the installation direction of the camera 51 are shown in FIG. 17E to direct the user's line of sight toward the camera. A live view screen 248 is displayed.

なお、図17の例においては、サンプル合成用画像のモデルに対して、カメラ51からの利用者の距離が近すぎず、遠すぎない(すなわち、適した距離)である場合について説明したが、図18の例に示されるように、サンプル合成用画像のモデルに対して、カメラ51からの利用者の距離が近すぎたり、遠すぎたりする場合がある。   In the example of FIG. 17, the case where the user's distance from the camera 51 is not too close and not too far (that is, a suitable distance) with respect to the model of the sample synthesis image has been described. As shown in the example of FIG. 18, the user may be too close or too far from the camera 51 with respect to the model of the sample composition image.

図18Aのサンプル用合成用画像251におけるモデルの顔の大きさは、全身が合成用画像内に入るように、図17Aのサンプル用合成用画像241におけるモデルの顔の大きさより小さく、サンプル用合成用画像251におけるモデルの顔の位置は、図17Aのサンプル用合成用画像241におけるモデルの顔の位置より上に配置されている。   The model face size in the sample composition image 251 in FIG. 18A is smaller than the model face size in the sample composition image 241 in FIG. 17A so that the whole body falls within the composition image. The position of the model face in the sample image 251 is arranged above the position of the model face in the sample composition image 241 in FIG. 17A.

したがって、図18Bの例においては、合成用画像と画像処理された被写体動画像とが合成された合成画像に、図18Aのサンプル合成用画像251のモデルの顔の位置を示す目標枠253と、被写体Aの顔の位置が認識されて、画像処理された対象範囲を示す対象枠254aとが重畳されたライブビュー画面252が示されているが、その目標枠253は、図17Bの目標枠243よりも、小さく、かつ、画面の上に位置している。   Therefore, in the example of FIG. 18B, a target frame 253 indicating the position of the face of the model of the sample composition image 251 in FIG. 18A is added to the composite image in which the composition image and the subject moving image subjected to image processing are combined. A live view screen 252 in which the position of the face of the subject A is recognized and the target frame 254a indicating the target range subjected to image processing is superimposed is shown. The target frame 253 is the target frame 243 in FIG. 17B. Smaller than and located on the screen.

例えば、上述した図16のステップS134において、このようなライブビュー画面252が表示される場合には、例えば、「右側の枠に顔が入るように、右後方に移動してね!」などと、目標枠253に対して利用者を誘導するための移動案内が画面や音声で行われる。   For example, when such a live view screen 252 is displayed in step S134 of FIG. 16 described above, for example, “Move to the right rear so that the face enters the right frame!” Then, movement guidance for guiding the user to the target frame 253 is performed by a screen or a voice.

これに対応して、利用者がライブビュー画面252(タッチパネルモニタ52やカメラ51)に対して、右後方に移動するので、例えば、次のステップS134においては、合成画像に、目標枠253と、利用者の移動に応じて対象枠254aよりも目標枠253に近づいて、大きさも小さくなった現在の対象枠254bとを重畳させた図18Cのライブビュー画面255が表示され、さらに、移動案内が行われる。   In response to this, the user moves to the right rear with respect to the live view screen 252 (the touch panel monitor 52 or the camera 51). For example, in the next step S134, the target frame 253 and As the user moves, the live view screen 255 of FIG. 18C is displayed in which the current target frame 254b that is closer to the target frame 253 than the target frame 254a and is smaller in size is superimposed, and further movement guidance is provided. Done.

さらに利用者がライブビュー画面255に対して、右後方に移動した結果、ステップS133において、画像処理の対象範囲が、モデル画像の位置であると判定され、ステップS134においては、合成画像に、目標枠253(図18Aのサンプル合成用画像251のモデルの顔の位置)と、対象枠254a(認識された図18Bの被写体Aの顔の位置)が一致した結果、目標枠253が対象枠257として重畳されたライブビュー画面256が示される。   Further, as a result of the user moving to the right rear side with respect to the live view screen 255, it is determined in step S133 that the target range of the image processing is the position of the model image. In step S134, the target image is displayed on the synthesized image. As a result of the match between the frame 253 (the face position of the model of the sample composition image 251 in FIG. 18A) and the target frame 254a (the recognized face position of the subject A in FIG. 18B), the target frame 253 is set as the target frame 257. A superimposed live view screen 256 is shown.

そして、この場合も、図13のステップS106のカウントダウンにおいて、カウント「0」となったとき、利用者の視線をカメラに向けさせるため、「カメラをみてね!」とカメラ51の設置方向を指す矢印が示された図18Eのライブビュー画面258が表示される。   In this case as well, in the countdown of step S106 in FIG. 13, when the count reaches “0”, “Look at the camera!” Indicates the installation direction of the camera 51 in order to direct the user's line of sight toward the camera. The live view screen 258 shown in FIG. 18E with an arrow is displayed.

以上のように、サンプル合成用画像におけるモデル(利用者)のアップ画像や全身画像(すなわち、カメラに近い、または遠い)に応じて、画像処理の対象範囲を示す枠が大きすぎたり、小さすぎる場合には、サンプル合成用画像に合わせるように、枠の大きさを変更して、利用者を誘導することもできる。   As described above, the frame indicating the target range of the image processing is too large or too small depending on the model (user) up-image and whole-body image (that is, close to or far from the camera) in the sample composition image. In some cases, the user can be guided by changing the size of the frame so as to match the sample composition image.

これにより、サンプル合成用画像のモデルの位置を示す目標枠の大きさに応じた位置に、容易に利用者を移動させることができる。   Accordingly, the user can be easily moved to a position corresponding to the size of the target frame indicating the position of the model of the sample composition image.

なお、上記説明においては、顔の位置が認識されてから、対象範囲の画像を画像処理して表示するようにしたが、例えば、対象枠の位置と目標枠の位置が一致してから、認識された画像処理の対象範囲での画像処理を行って表示を行うようにしてもよい。   In the above description, the image of the target range is processed and displayed after the face position is recognized. For example, the recognition is performed after the position of the target frame matches the position of the target frame. Display may be performed by performing image processing in the target range of the image processing performed.

また、上記説明においては、利用者が1人の場合の例を説明したが、利用者が複数人である場合には、顔の位置が認識された各利用者を、複数の目標枠(モデルの顔の位置)のうち、対応する認識された顔の位置と最も近い目標枠に、それぞれ案内するようにしてもよい。   In the above description, an example in which there is one user has been described. However, when there are a plurality of users, each user whose face position is recognized is represented by a plurality of target frames (models). The position may be guided to the target frame closest to the corresponding recognized face position.

これにより、複数の利用者が、右往左往することなく、サンプル合成用画像のモデルの位置に、容易に誘導することができる。   Thereby, a plurality of users can easily be guided to the position of the model of the sample composition image without going back and forth.

また、例えば、利用者が複数人(図19の例の場合4人)で構成される場合、対象枠の色や形状を、図19Aに示されるように、左右で分けるようにしてもよいし、図19Bに示されるように、利用者毎に分けるようにしてもよい。   Further, for example, when the user is composed of a plurality of people (four people in the case of FIG. 19), the color and shape of the target frame may be divided into left and right as shown in FIG. 19A. As shown in FIG. 19B, each user may be divided.

図19Aの例においては、ライブビュー画面261の左下には利用者A、左上には利用者B、右下には利用者C、および右上には利用者Dが撮影されている。そして、ライブビュー画面261の左下の利用者Aの顔には、利用者Aの顔が認識された結果の画像処理の対象範囲を示す対象枠262が黒枠線で表示されている。ライブビュー画面261の左上の利用者Bの顔には、利用者Bの顔が認識された結果の画像処理の対象範囲を示す対象枠263が黒枠線で表示されている。   In the example of FIG. 19A, the user A is photographed in the lower left of the live view screen 261, the user B in the upper left, the user C in the lower right, and the user D in the upper right. A target frame 262 indicating a target range of image processing as a result of recognition of the user A's face is displayed with a black frame line on the face of the user A at the lower left of the live view screen 261. On the face of user B at the upper left of the live view screen 261, a target frame 263 indicating a target range of image processing as a result of recognition of the face of user B is displayed with a black frame line.

さらに、ライブビュー画面261の右下の利用者Cの顔には、利用者Cの顔が認識された結果の画像処理の対象範囲を示す対象枠264が黄色などの黒とは異なる色(ハッチング)枠線で表示されている。ライブビュー画面261の右上の利用者Dの顔には、利用者Dの顔が認識された結果の画像処理の対象範囲を示す対象枠265が黄色枠線で表示されている。すなわち、ライブビュー画面261に表示される対象枠のうち、左側に表示される対象枠262および263は、黒枠線で表示されており、右側に表示される対象枠264および265は、黄色枠線で表示されている。   Further, on the face of the user C at the lower right of the live view screen 261, the target frame 264 indicating the target range of image processing as a result of the recognition of the face of the user C is a color different from black such as yellow (hatching) ) It is displayed with a border. On the face of the user D at the upper right of the live view screen 261, a target frame 265 indicating a target range of image processing as a result of recognition of the user D's face is displayed with a yellow frame line. That is, among the target frames displayed on the live view screen 261, the target frames 262 and 263 displayed on the left side are displayed with black frame lines, and the target frames 264 and 265 displayed on the right side are yellow frame lines. Is displayed.

図19Bの例の場合も、ライブビュー画面271の左下には利用者A、左上には利用者B、右下には利用者C、および右上には利用者Dが撮影されている。そして、ライブビュー画面271の左下の利用者Aの顔には、利用者Aの顔が認識された結果の画像処理の対象範囲を示す対象枠272が黒枠線で表示されている。ライブビュー画面271の左上の利用者Bの顔には、利用者Bの顔が認識された結果の画像処理の対象範囲を示す対象枠273が、例えば、黄色(粗いハッチング)枠線で表示されている。   Also in the example of FIG. 19B, the user A is photographed at the lower left of the live view screen 271, the user B is photographed at the upper left, the user C is photographed at the lower right, and the user D is photographed at the upper right. A target frame 272 indicating a target range of image processing as a result of recognition of the user A's face is displayed as a black frame line on the face of the user A at the lower left of the live view screen 271. On the face of user B at the upper left of the live view screen 271, a target frame 273 indicating a target range of image processing as a result of recognition of the face of user B is displayed, for example, with a yellow (coarse hatched) frame line. ing.

さらに、ライブビュー画面271の右下の利用者Cの顔には、利用者Cの顔が認識された結果の画像処理の対象範囲を示す対象枠274が青(細かいハッチング)枠線で表示されている。ライブビュー画面271の右上の利用者Dの顔には、利用者Dの顔が認識された結果の画像処理の対象範囲を示す対象枠275が白枠線で表示されている。すなわち、ライブビュー画面271に表示される対象枠はすべて異なる色の枠線で表示されている。   Further, on the face of the user C at the lower right of the live view screen 271, a target frame 274 indicating a target range of image processing as a result of recognition of the face of the user C is displayed with a blue (fine hatched) frame line. ing. On the face of the user D at the upper right of the live view screen 271, a target frame 275 indicating a target range of image processing as a result of recognition of the user D's face is displayed with a white frame line. That is, the target frames displayed on the live view screen 271 are all displayed with different color frame lines.

このように利用者が複数人の場合、対象枠を異なる枠線で表示することにより、複数の利用者が、右往左往することなく、サンプル合成用画像のモデルの位置に、容易に誘導することができる。もちろん、目標枠も、対応する対象枠と同じ色の枠線で、かつ、模様を変更するなどして表示するようにしてもよい。   In this way, when there are a plurality of users, by displaying the target frame with different frame lines, the plurality of users can easily be guided to the position of the model of the sample composition image without going back and forth. it can. Of course, the target frame may be displayed with a frame line of the same color as the corresponding target frame and by changing the pattern.

なお、以上においては、サンプル合成用画像のモデルの位置(モデルが位置する範囲)に、利用者を誘導させて、撮影画像における利用者の顔の大きさを変える例を説明したが、次に、図20を参照して、予め画像処理を行う範囲を示す対象枠を表示しておき、対象枠内の画像を変倍(拡大、縮小)して、合成用画像にはめ込み合成する例について説明する。   In the above description, the example in which the user is guided to the position of the model of the sample composition image (the range in which the model is located) to change the size of the user's face in the captured image has been described. Referring to FIG. 20, an example in which a target frame indicating a range to be subjected to image processing is displayed in advance, the image in the target frame is scaled (enlarged or reduced), and is embedded in the composite image will be described. To do.

図20のフローチャートは、図13のステップS105のライブビュー画面の表示処理のさらに他の例を示しており、図20の説明には、適宜、図21が参照される。この図21の例においては、例えば、利用者2人用の合成用画像が選択された場合にライブビュー画面に表示される画像例が示されている。   The flowchart in FIG. 20 shows still another example of the live view screen display process in step S105 in FIG. 13, and FIG. 21 is referred to as appropriate in the description of FIG. In the example of FIG. 21, for example, an image example displayed on the live view screen when a synthesis image for two users is selected is shown.

ステップS151において、カメラ51は、被写体動画像を取得する。ステップS152において、表示制御部215は、図21Aの被写体画像281(動画像)に対して、画像処理の対象範囲を示す対象枠282aおよび282bを重畳して、ライブビュー画面にライブビュー表示させる。   In step S151, the camera 51 acquires a subject moving image. In step S152, the display control unit 215 superimposes the target frames 282a and 282b indicating the target range of the image processing on the subject image 281 (moving image) in FIG. 21A and displays the live view on the live view screen.

この対象枠は、予め利用者により入力された利用者の人数に応じた数表示される。また、図21Aの例において、この対象枠が示す範囲は、顔認識を行う範囲であり、画像処理の対象範囲であり、さらに、はめ込み合成のためのトリミング範囲でもある。なお、ステップS152において、対象枠内の画像だけを表示するようにしてもよいが、対象枠を被写体動画像に重畳して、被写体動画像全体も表示したほうがよりその範囲を理解しやすい。   The number of target frames is displayed according to the number of users input in advance by the user. In the example of FIG. 21A, the range indicated by the target frame is a range where face recognition is performed, a target range for image processing, and a trimming range for inset synthesis. In step S152, only the image within the target frame may be displayed. However, it is easier to understand the range when the target frame is superimposed on the subject moving image and the entire subject moving image is displayed.

これに対応して、利用者AおよびBは、それぞれ、対象枠282aおよび282b内に自分の顔を入れるために移動する。すなわち、図21Aの例の場合、対象枠を表示すること自体が、利用者を対象枠に誘導させるための移動案内をしているともいえる。   In response to this, the users A and B move to put their faces in the target frames 282a and 282b, respectively. That is, in the case of the example of FIG. 21A, it can be said that displaying the target frame itself provides movement guidance for guiding the user to the target frame.

管理部216は、対象枠282aおよび282bが表示されてから、経過時間t2の計時を開始しており、ステップS153において、計時時間t2が、所定時間T2(例えば、5秒間)を経過したか否かを判定する。ここで、所定時間T2を経過していないと判定された場合、処理は、ステップS151に戻りそれ以降の処理が繰り返される。   The management unit 216 has started counting the elapsed time t2 after the target frames 282a and 282b are displayed, and whether or not the measured time t2 has passed a predetermined time T2 (for example, 5 seconds) in step S153. Determine whether. If it is determined that the predetermined time T2 has not elapsed, the process returns to step S151 and the subsequent processes are repeated.

ステップS153において、所定時間T2を経過したと判定された場合、ステップS154において、顔画像認識部212は、画像処理の対象範囲の被写体動画像において、顔認識を行い、画像処理部213は、顔認識結果に応じて画像処理を行う。   If it is determined in step S153 that the predetermined time T2 has elapsed, in step S154, the face image recognition unit 212 performs face recognition on the subject moving image in the image processing target range, and the image processing unit 213 Image processing is performed according to the recognition result.

ステップS155において、合成処理部214は、画像処理済みの被写体動画像における画像処理の対象範囲を、合成用画像に応じて拡大縮小し、合成用画像に合成する。具体的には、合成処理部214は、画像処理済みの被写体画像から、対象範囲の画像を、合成用画像に応じて拡大縮小してトリミングし、はめ込み合成処理を行う。   In step S155, the compositing processing unit 214 enlarges / reduces the target range of the image processing in the subject moving image that has undergone image processing according to the compositing image, and composites it with the compositing image. Specifically, the compositing processing unit 214 performs an inset compositing process from an image-processed subject image by scaling the image in the target range according to the compositing image.

表示制御部215は、ステップS156において、図21Bに示されるように、画像処理した被写体画像283(動画像)に対象枠を重畳して、ライブビュー表示を行うとともに、ステップS157において、図21Cに示されるように、ステップS155において合成された合成画像284をライブビュー表示する。   In step S156, the display control unit 215 performs live view display by superimposing a target frame on the subject image 283 (moving image) subjected to image processing, as shown in FIG. 21B. In step S157, the display control unit 215 performs FIG. As shown, the synthesized image 284 synthesized in step S155 is displayed in live view.

図21Bの例においては、対象枠282aで示される画像処理の対象範囲において、被写体Aの顔の位置が認識され、補正されて、同様に、対象枠282bで示される画像処理の対象範囲において、被写体Bの顔の位置が認識され、補正されて、その結果、対象枠282aおよび282bがそれぞれ重畳されて表示される被写体画像283が示されている。なお、この被写体画像283は、動画像である。   In the example of FIG. 21B, the position of the face of the subject A is recognized and corrected in the image processing target range indicated by the target frame 282a. Similarly, in the image processing target range indicated by the target frame 282b, The position of the face of the subject B is recognized and corrected, and as a result, the subject image 283 displayed by superimposing the target frames 282a and 282b is shown. The subject image 283 is a moving image.

図21Cの例においては、画像処理済みの被写体画像283から対象枠282aで示される対象範囲がトリミングされて、拡大された対象枠285aで示される範囲の画像と、補正された被写体画像283から対象枠282bで示される対象範囲がトリミングされて、拡大された対象枠285bで示される範囲の画像が、合成用画像286にはめ込み合成された合成画像284が示されている。すなわち、合成画像284のうち、はめ込み合成された対象枠285aおよび対象枠285bで示される範囲の画像は動画像である。   In the example of FIG. 21C, the target range indicated by the target frame 282a is trimmed from the subject image 283 that has been subjected to image processing, and the target range from the image indicated by the enlarged target frame 285a and the corrected subject image 283 are set. A target image indicated by a frame 282b is trimmed, and an image of a range indicated by an enlarged target frame 285b is combined with an image for synthesis 286, and a composite image 284 is shown. That is, in the synthesized image 284, the image in the range indicated by the target frame 285a and the target frame 285b that are fitted and synthesized is a moving image.

例えば、表示制御部215は、これらの図21Bの被写体画像283と、図21Cの合成画像284とを、例えば、図22に示されるように、1つのライブビュー画面291として表示させる。   For example, the display control unit 215 displays the subject image 283 in FIG. 21B and the composite image 284 in FIG. 21C as one live view screen 291 as shown in FIG. 22, for example.

図22の例においては、ライブビュー画面291には、図中左から、サンプル合成用画像292、被写体画像283、および合成画像284が表示される例が示されている。   In the example of FIG. 22, an example in which a sample combining image 292, a subject image 283, and a combined image 284 are displayed on the live view screen 291 from the left in the drawing.

これにより、利用者は、実際の動画像と、合成後の動画像を同時に見ることができるので、自分の位置や、合成における自分の顔を確認しながら、撮影を行うことができる。すなわち、立ち位置と撮影モニタを交互に確認する必要がないので、撮影空間において右往左往することが抑制される。   Thus, the user can view the actual moving image and the combined moving image at the same time, so that the user can take a picture while checking his / her position and his / her face in the combining. In other words, since it is not necessary to alternately check the standing position and the photographing monitor, it is possible to suppress the right-and-left movement in the photographing space.

なお、上述した図20のステップS154において、図23Aに示されるように、例えば、利用者Bが後方に立ちすぎたなどの理由により、対象枠282bで示される対象範囲において顔認識ができなかった場合、表示制御部215は、ステップS156において、対象枠282aと、認識できなかった対象枠282bとが重畳された被写体画像301(動画像)をライブビュー表示する。このとき、認識できなかった対象枠282bは、認識できた対象枠282aとは異なる表示方法で表示される。   Note that in step S154 of FIG. 20 described above, as shown in FIG. 23A, face recognition could not be performed in the target range indicated by the target frame 282b due to, for example, the user B standing too far behind. In this case, in step S156, the display control unit 215 performs live view display of the subject image 301 (moving image) in which the target frame 282a and the target frame 282b that could not be recognized are superimposed. At this time, the target frame 282b that could not be recognized is displayed by a different display method from the target frame 282a that could be recognized.

図23Aの例においては、認識できた対象枠282aが実線表示されているのに対して、認識できなかった対象枠282bは、点線表示されている。   In the example of FIG. 23A, the recognized object frame 282a is displayed as a solid line, whereas the unrecognized object frame 282b is displayed as a dotted line.

この場合、図20のステップS155においては、認識できなかった利用者Bの顔画像(対象枠282bで示される対象範囲の画像)の代わりに、サンプル合成用画像のモデル画像や、認識できた利用者Aの顔画像をトリミングして、はめ込み合成してもよいし、対象枠282bで示される対象範囲の画像をトリミングして、そのまま(画像処理せずに)はめ込み合成するようにしてもよい。   In this case, in step S155 of FIG. 20, instead of the face image of the user B that could not be recognized (the image of the target range indicated by the target frame 282b), the model image of the sample synthesis image or the recognized use The face image of the person A may be trimmed and combined, or the image in the target range indicated by the target frame 282b may be trimmed and directly combined (without image processing).

なお、図23Bの例においては、認識できなかった対象枠282bで示される対象範囲の画像をトリミングして、そのままはめ込み合成した合成画像302の例が示されている。   In the example of FIG. 23B, an example of a composite image 302 is shown in which an image in the target range indicated by the target frame 282b that could not be recognized is trimmed and directly fitted and combined.

図23Bの例においては、画像処理された被写体画像301から対象枠282aで示される対象範囲がトリミングされて、拡大された対象枠303aで示される範囲の画像と、被写体Bの顔が認識されなかったため、補正されていない被写体画像301から対象枠282bで示される対象範囲がトリミングされて、縮小された対象枠303bで示される範囲の画像が、合成用画像304にはめ込み合成された合成画像302が、ライブビュー画面291に表示される。すなわち、合成画像302のうち、対象枠303aおよび対象枠303bで示される範囲の画像は動画像である。   In the example of FIG. 23B, the target range indicated by the target frame 282a is trimmed from the subject image 301 subjected to image processing, and the image of the range indicated by the enlarged target frame 303a and the face of the subject B are not recognized. Therefore, the composite image 302 is obtained by trimming the target range indicated by the target frame 282b from the uncorrected subject image 301 and fitting the composite image 304 with the image of the range indicated by the reduced target frame 303b. Are displayed on the live view screen 291. That is, in the composite image 302, the image in the range indicated by the target frame 303a and the target frame 303b is a moving image.

なお、複数の対象枠が示す画像処理の対象範囲において、顔認識された対象範囲の画像だけを、ライブビュー画面の近傍に、顔認識された画像として、別途表示させてもよい。これにより、利用者は、顔認識結果を明確に把握することができる。   In addition, in the image processing target range indicated by the plurality of target frames, only the image of the target range whose face is recognized may be separately displayed as a face-recognized image in the vicinity of the live view screen. As a result, the user can clearly grasp the face recognition result.

また、上記説明においては、図22を参照して、サンプル合成用画像292、被写体画像283、および合成画像284を1つのライブビュー画面291に表示する例を説明したが、被写体動画像と合成画像だけを1つのライブビュー画面に表示するようにしてもよい。さらに、まず、サンプル合成用画像と被写体動画像のみを1つのライブビュー画面として表示しておき、被写体動画像の後に、合成画像を表示するようにしてもよい。   In the above description, an example in which the sample composition image 292, the subject image 283, and the composite image 284 are displayed on one live view screen 291 has been described with reference to FIG. May be displayed on one live view screen. Further, first, only the sample composition image and the subject moving image may be displayed as one live view screen, and the synthesized image may be displayed after the subject moving image.

なお、複数のモニタを用いて、被写体動画像と合成画像を別々に表示するようにしてもよく、この場合、利用者の視線が大きくそれることを抑制するために、カメラの上下や左右などのカメラ近傍に複数のモニタを設置することが望ましい。   Note that the subject moving image and the composite image may be displayed separately using a plurality of monitors. In this case, in order to prevent the user's line of sight from being greatly diverted, the camera is moved up and down, left and right, etc. It is desirable to install a plurality of monitors near the camera.

さらに、被写体動画像と合成画像を、図24のライブビュー画面311のように表示することもできる。ライブビュー画面311においては、図23Bの合成画像302が表示され、その下部に、図23Aの被写体画像301のうち、対象枠282aおよび282b内で示される画像処理の対象範囲の動画像(顔認識された範囲の画像)312aおよび312bが表示されている。   Furthermore, the subject moving image and the composite image can be displayed as in the live view screen 311 in FIG. On the live view screen 311, the composite image 302 of FIG. 23B is displayed, and a moving image (face recognition) of the target range of the image processing shown in the target frames 282a and 282b of the subject image 301 of FIG. 312a and 312b are displayed.

この場合も、利用者は、実際の動画像と、合成後の動画像を同時に見ることができるので、自分の位置や、合成における自分の顔を確認しながら、撮影を行うことができる。   Also in this case, since the user can view the actual moving image and the combined moving image at the same time, the user can take a picture while confirming his / her position and his / her face in the combining.

ただし、ライブビュー画面311と比べて、ライブビュー画面291のように並列に表示させるほうが、被写体画像全体における対象枠の位置が把握しやすいので、よりよい。   However, it is better to display in parallel as in the live view screen 291 than in the live view screen 311 because the position of the target frame in the entire subject image can be easily grasped.

なお、上記説明においては、画像処理の対象範囲を示す枠として、四角の枠線を表示する例を説明したが、四角ではなくても、丸、星型、ハート型など、様々な形の枠線であってもよい。また、画像処理の対象範囲を示すものとして、枠線の例を説明したが、枠線だけに限らず、枠線と領域、あるいは領域であってもよい。もちろん、モデルの範囲を示す枠も、同様に、丸、星型、ハート型など、様々な形の枠線であってもよいし、枠線に限らず、枠線と領域、あるいは領域であってもよい。   In the above description, an example in which a square frame line is displayed as a frame indicating the target range of image processing has been described, but various shapes such as a circle, a star shape, and a heart shape may be used instead of a square. It may be a line. In addition, the example of the frame line has been described as indicating the target range of the image processing. Of course, the frame indicating the range of the model may also be a frame of various shapes such as a circle, a star, or a heart, and is not limited to the frame, but may be a frame and a region, or a region. May be.

以上説明したように、本実施の形態である写真シール作成装置1によれば、ライブビュー画面に、画像処理の対象範囲が表示されるので、利用者は、ライブビュー撮影処理において、補正の対象範囲を確認しながら、必要に応じて移動して、撮影を行うことができる。これにより、画像処理の範囲などを指示しなくても、顔などを見栄え良く補正することができるので、利用者の満足度を上げることができる。   As described above, according to the photo sticker creation apparatus 1 according to the present embodiment, the target range of image processing is displayed on the live view screen. While confirming the range, the user can move as necessary to perform shooting. Thus, the face and the like can be corrected with good appearance without instructing the image processing range and the like, and the satisfaction of the user can be increased.

また、本実施の形態である写真シール作成装置1によれば、画像処理の対象範囲を示す枠と、目標の枠が表示されて案内される。これにより、利用者を用意に誘導して、所望のサンプル合成用画像と同じ撮影画像を簡単に得ることができるので、利用者の満足度を上げることができる。   Also, according to the photo sticker creating apparatus 1 according to the present embodiment, a frame indicating a target range of image processing and a target frame are displayed and guided. Thereby, since the user can be guided in advance and the same captured image as the desired sample composition image can be obtained easily, the satisfaction of the user can be increased.

さらに、本実施の形態である写真シール作成装置1によれば、補正の対象範囲を示す枠を重畳した被写体画像と合成画像が表示されるので、利用者は、自分の位置や、合成における自分の顔を確認しながら、撮影を行うことができる。これによっても、所望のサンプル合成用画像と同じ撮影画像を簡単に得ることができるので、利用者の満足度を上げることができる。   Furthermore, according to the photo sticker creating apparatus 1 of the present embodiment, the subject image and the composite image on which the frame indicating the correction target range is superimposed are displayed, so that the user can change his / her position and his / her own in the composition. You can shoot while checking your face. This also makes it possible to easily obtain the same photographed image as the desired sample composition image, thereby increasing the user's satisfaction.

ところで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   By the way, the above-described series of processes can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図9に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア105により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM106や、記憶部102に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 9, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the main body of the apparatus. Disk), optical disk (including CD-ROM and DVD), magneto-optical disk (including MD), or removable media 105 made of semiconductor memory, etc., but also pre-installed in the device body The ROM 106 in which the program is recorded and the hard disk included in the storage unit 102 are distributed to the administrator.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではなく、例えば、所定のサイズの紙やフィルム、ポスター用の紙、テレホンカードなどのカード、あるいは、Tシャツなどの布地などに印刷するようにしてもよい。   In the above, the printing medium is not limited to sticker paper or photographic paper. For example, printing on a predetermined size of paper or film, poster paper, a card such as a telephone card, or a cloth such as a T-shirt. You may make it do.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。なお、以上において、1つの装置として説明した構成を分割し、複数の装置として構成するようにしてもよい。逆に、以上において複数の装置として説明した構成をまとめて1つの装置として構成されるようにしてもよい。また、各装置の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置の構成の一部を他の装置の構成に含めるようにしてもよい。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses. In the above, the configuration described as one device may be divided and configured as a plurality of devices. Conversely, the configurations described above as a plurality of devices may be combined into a single device. Of course, configurations other than those described above may be added to the configuration of each device. Furthermore, if the configuration and operation of the entire system are substantially the same, a part of the configuration of a certain device may be included in the configuration of another device.

1 写真シール作成装置
12 撮影ユニット
13 編集ユニット
101 制御部
111 撮影部
113 編集部
201 事前接客処理部
202 撮影処理部
203 編集処理部
204 印刷処理部
205 事後接客処理部
211 操作入力処理部
212 顔画像認識部
213 画像処理部
214 合成処理部
215 表示制御部
216 管理部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 12 Image pick-up unit 13 Editing unit 101 Control part 111 Image pick-up part 113 Editing part 201 Pre-service reception process part 202 Image pick-up process part 203 Edit process part 204 Print processing part 205 Subsequent customer service process part 211 Operation input process part 212 Face image Recognition unit 213 Image processing unit 214 Composition processing unit 215 Display control unit 216 Management unit

Claims (5)

利用者を撮影する撮影手段と、
前記撮影手段により撮影された前記被写体の撮影動画像において画像処理の対象範囲を示す枠線および領域の少なくとも一方を、前記撮影動画像または画像処理済み動画像に重畳してリアルタイムで表示部に表示させるように制御する表示制御手段と、
所定のタイミングで、前記撮影手段により撮影された前記被写体の撮影静止画像を保存する保存手段と、
前記対象範囲の前記撮影動画像を画像処理し、前記画像処理済み動画像を生成し、前記対象範囲の前記撮影静止画像を画像処理し、画像処理済み静止画像を生成する画像処理手段と、
前記画像処理済み静止画像に所定の編集処理を施して編集済み画像を生成する編集手段と、
前記編集済み画像を出力する出力手段と
前記撮影動画像において、前記利用者の顔を認識する顔認識手段と、
前記画像処理済み動画像と合成するための合成用画像に、被写体の代わりのモデルが配置されたサンプル合成用画像を選択する選択手段と、
前記選択手段により選択された前記サンプル合成用画像に対応する前記合成用画像と、前記対象範囲の前記画像処理済み動画像とを合成し、合成動画像を生成する合成処理手段とを備え、
前記表示制御手段は、前記撮影動画像において前記利用者の顔が認識された範囲を、前記画像処理の対象範囲として、前記対象範囲を示す枠線および領域の少なくとも一方の大きさを変更して、前記合成動画像に重畳してリアルタイムで前記表示部に表示させるように制御するとともに、前記サンプル合成用画像における前記モデルの位置を示す枠線および領域の少なくとも一方を、前記合成動画像に重畳してリアルタイムで前記表示部に表示させるように制御し、
前記合成処理手段は、前記合成用画像と、前記対象範囲の前記画像処理済み静止画像とを合成し、合成静止画像を生成し、
前記編集手段は、前記合成静止画像に所定の編集処理を施して前記編集済み画像を生成する
写真シール作成装置。
Photographing means for photographing a user;
At least one of a frame line and a region indicating a target range of image processing in the captured moving image of the subject captured by the imaging unit is superimposed on the captured moving image or the image processed moving image and displayed on the display unit in real time. Display control means for controlling
Storage means for storing a photographed still image of the subject photographed by the photographing means at a predetermined timing;
Image processing means for image-processing the captured moving image of the target range , generating the image-processed moving image, image-processing the captured still image of the target range, and generating an image-processed still image;
Editing means for performing a predetermined editing process on the image-processed still image to generate an edited image;
Output means for outputting the edited image ;
Face recognition means for recognizing the user's face in the captured moving image;
A selecting means for selecting a sample composition image in which a model instead of a subject is arranged in a composition image for composition with the image processed moving image;
A synthesis processing unit that synthesizes the synthesis image corresponding to the sample synthesis image selected by the selection unit and the image processed moving image in the target range, and generates a synthesized moving image;
The display control means changes a size of at least one of a frame line and a region indicating the target range, with a range in which the user's face is recognized in the captured moving image as a target range of the image processing. And controlling to superimpose on the synthesized moving image and display on the display unit in real time, and superimpose at least one of a frame line and a region indicating the position of the model in the sample synthesizing image on the synthesized moving image. Control to display on the display unit in real time,
The synthesis processing unit synthesizes the synthesis image and the image-processed still image in the target range to generate a synthesized still image,
The photo sticker creating apparatus , wherein the editing means performs a predetermined editing process on the synthesized still image to generate the edited image .
前記表示制御手段は、複数の前記対象範囲がある場合、前記対象範囲を示す枠線および領域の少なくとも一方を、前記対象範囲毎に異なる表示方法で前記表示部に表示させるように制御する
請求項1に記載の写真シール作成装置。
When there are a plurality of the target ranges, the display control unit performs control so that at least one of a frame line and a region indicating the target range is displayed on the display unit by a display method different for each target range.
The photo sticker creating apparatus according to claim 1 .
前記表示制御手段は、前記対象範囲を示す枠線および領域の少なくとも一方を、撮影のカウント数に応じて異なる表示方法で前記表示部に表示させるように制御する
請求項1または2に記載の写真シール作成装置。
The display control unit performs control so that at least one of a frame line and a region indicating the target range is displayed on the display unit by a different display method according to the number of shooting counts
The photo sticker production apparatus according to claim 1 or 2 .
写真シールを作成する写真シール作成装置の写真シール作成方法において、
前記写真シール作成装置による、
利用者を撮影する撮影ステップと、
撮影された前記被写体の撮影動画像において画像処理の対象範囲を示す枠線および領域の少なくとも一方を、前記撮影動画像または画像処理済み動画像に重畳してリアルタイムで表示部に表示させるように制御する表示制御ステップと、
所定のタイミングで、前記撮影手段により撮影された前記被写体の撮影静止画像を保存する保存ステップと、
前記対象範囲の前記撮影動画像を画像処理し、前記画像処理済み動画像を生成し、前記対象範囲の前記撮影静止画像を画像処理し、画像処理済み静止画像を生成する画像処理ステップと、
前記画像処理済み静止画像に所定の編集処理を施して編集済み画像を生成する編集ステップと、
前記編集済み画像を出力する出力ステップと
前記撮影動画像において、前記利用者の顔を認識する顔認識ステップと、
前記画像処理済み動画像と合成するための合成用画像に、被写体の代わりのモデルが配置されたサンプル合成用画像を選択する選択ステップと、
前記選択ステップの処理により選択された前記サンプル合成用画像に対応する前記合成用画像と、前記対象範囲の前記画像処理済み動画像とを合成し、合成動画像を生成する合成処理ステップとを含み、
前記表示制御ステップでは、前記撮影動画像において前記利用者の顔が認識された範囲を、前記画像処理の対象範囲として、前記対象範囲を示す枠線および領域の少なくとも一方の大きさを変更して、前記合成動画像に重畳してリアルタイムで前記表示部に表示させるように制御するとともに、前記サンプル合成用画像における前記モデルの位置を示す枠線および領域の少なくとも一方を、前記合成動画像に重畳してリアルタイムで前記表示部に表示させるように制御し、
前記合成処理ステップでは、前記合成用画像と、前記対象範囲の前記画像処理済み静止画像とを合成し、合成静止画像を生成し、
前記編集ステップでは、前記合成静止画像に所定の編集処理を施して前記編集済み画像を生成する
写真シール作成方法。
In the photo sticker creating method of the photo sticker creating device for creating the photo sticker,
By the photo sticker creation device,
A shooting step for shooting the user;
Control is performed so that at least one of a frame line and a region indicating a target range of image processing in the captured moving image of the subject is superimposed on the captured moving image or the image-processed moving image and displayed on the display unit in real time. Display control step to
A storage step of storing a photographed still image of the subject photographed by the photographing means at a predetermined timing;
An image processing step of performing image processing on the captured moving image in the target range , generating the image processed moving image, performing image processing on the captured still image in the target range, and generating an image processed still image;
An editing step of performing a predetermined editing process on the image-processed still image to generate an edited image;
An output step of outputting the edited image ;
A face recognition step for recognizing the user's face in the captured moving image;
A selection step of selecting a sample synthesis image in which a model instead of a subject is arranged in a synthesis image to be synthesized with the image processed moving image;
A synthesis processing step of synthesizing the synthesis image corresponding to the sample synthesis image selected by the processing of the selection step and the image processed moving image in the target range to generate a synthesized moving image. ,
In the display control step, a range in which the user's face is recognized in the captured moving image is set as a target range of the image processing, and a size of at least one of a frame line and a region indicating the target range is changed. And controlling to superimpose on the synthesized moving image and display on the display unit in real time, and superimpose at least one of a frame line and a region indicating the position of the model in the sample synthesizing image on the synthesized moving image. Control to display on the display unit in real time,
In the synthesis processing step, the synthesis image and the image-processed still image in the target range are synthesized to generate a synthesized still image,
In the editing step, a photo sticker creation method for generating the edited image by performing a predetermined editing process on the synthesized still image .
写真シールを作成する写真シール作成装置の制御用のプログラムにおいて、
利用者を撮影する撮影ステップと、
撮影された前記被写体の撮影動画像において画像処理の対象範囲を示す枠線および領域の少なくとも一方を、前記撮影動画像または画像処理済み動画像に重畳してリアルタイムで表示部に表示させるように制御する表示制御ステップと、
所定のタイミングで、前記撮影手段により撮影された前記被写体の撮影静止画像を保存する保存ステップと、
前記対象範囲の前記撮影動画像を画像処理し、前記画像処理済み動画像を生成し、前記対象範囲の前記撮影静止画像を画像処理し、画像処理済み静止画像を生成する画像処理ステップと、
前記画像処理済み静止画像に所定の編集処理を施して編集済み画像を生成する編集ステップと、
前記編集済み画像を出力する出力ステップと
前記撮影動画像において、前記利用者の顔を認識する顔認識ステップと、
前記画像処理済み動画像と合成するための合成用画像に、被写体の代わりのモデルが配置されたサンプル合成用画像を選択する選択ステップと、
前記選択ステップの処理により選択された前記サンプル合成用画像に対応する前記合成用画像と、前記対象範囲の前記画像処理済み動画像とを合成し、合成動画像を生成する合成処理ステップとを含み、
前記表示制御ステップでは、前記撮影動画像において前記利用者の顔が認識された範囲を、前記画像処理の対象範囲として、前記対象範囲を示す枠線および領域の少なくとも一方の大きさを変更して、前記合成動画像に重畳してリアルタイムで前記表示部に表示させるように制御するとともに、前記サンプル合成用画像における前記モデルの位置を示す枠線および領域の少なくとも一方を、前記合成動画像に重畳してリアルタイムで前記表示部に表示させるように制御し、
前記合成処理ステップでは、前記合成用画像と、前記対象範囲の前記画像処理済み静止画像とを合成し、合成静止画像を生成し、
前記編集ステップでは、前記合成静止画像に所定の編集処理を施して前記編集済み画像を生成する
処理を前記写真シール作成装置に実行させるプログラム。
In a program for controlling a photo sticker creating apparatus that creates a photo sticker,
A shooting step for shooting the user;
Control is performed so that at least one of a frame line and a region indicating a target range of image processing in the captured moving image of the subject is superimposed on the captured moving image or the image-processed moving image and displayed on the display unit in real time. Display control step to
A storage step of storing a photographed still image of the subject photographed by the photographing means at a predetermined timing;
An image processing step of performing image processing on the captured moving image in the target range , generating the image processed moving image, performing image processing on the captured still image in the target range, and generating an image processed still image;
An editing step of performing a predetermined editing process on the image-processed still image to generate an edited image;
An output step of outputting the edited image ;
A face recognition step for recognizing the user's face in the captured moving image;
A selection step of selecting a sample synthesis image in which a model instead of a subject is arranged in a synthesis image to be synthesized with the image processed moving image;
A synthesis processing step of synthesizing the synthesis image corresponding to the sample synthesis image selected by the processing of the selection step and the image processed moving image in the target range to generate a synthesized moving image. ,
In the display control step, a range in which the user's face is recognized in the captured moving image is set as a target range of the image processing, and a size of at least one of a frame line and a region indicating the target range is changed. And controlling to superimpose on the synthesized moving image and display on the display unit in real time, and superimpose at least one of a frame line and a region indicating the position of the model in the sample synthesizing image on the synthesized moving image. Control to display on the display unit in real time,
In the synthesis processing step, the synthesis image and the image-processed still image in the target range are synthesized to generate a synthesized still image,
In the editing step, a program that causes the photograph sticker creation apparatus to execute a process of performing a predetermined editing process on the synthesized still image to generate the edited image .
JP2009213898A 2009-09-16 2009-09-16 Photo sticker creation apparatus, photo sticker creation method, and program Expired - Fee Related JP5115528B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009213898A JP5115528B2 (en) 2009-09-16 2009-09-16 Photo sticker creation apparatus, photo sticker creation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009213898A JP5115528B2 (en) 2009-09-16 2009-09-16 Photo sticker creation apparatus, photo sticker creation method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012140979A Division JP5482830B2 (en) 2012-06-22 2012-06-22 Photo sticker creation apparatus, photo sticker creation method, and program

Publications (2)

Publication Number Publication Date
JP2011066565A JP2011066565A (en) 2011-03-31
JP5115528B2 true JP5115528B2 (en) 2013-01-09

Family

ID=43952358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009213898A Expired - Fee Related JP5115528B2 (en) 2009-09-16 2009-09-16 Photo sticker creation apparatus, photo sticker creation method, and program

Country Status (1)

Country Link
JP (1) JP5115528B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5423744B2 (en) * 2011-06-24 2014-02-19 フリュー株式会社 Image providing apparatus and method, and program
JP5844206B2 (en) * 2012-04-10 2016-01-13 大日本印刷株式会社 Print production apparatus and print production method
JP6575085B2 (en) * 2014-03-28 2019-09-18 フリュー株式会社 Photo sticker creation apparatus and image generation method
JP6686280B2 (en) * 2015-03-03 2020-04-22 富士ゼロックス株式会社 Registration device and image forming device
JP6646202B2 (en) * 2015-04-03 2020-02-14 フリュー株式会社 Photo sticker making device and display method
JP6864212B2 (en) * 2016-08-12 2021-04-28 フリュー株式会社 Photographing game console and shooting method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4403497B2 (en) * 2004-03-24 2010-01-27 フリュー株式会社 Photo sticker vending machine, photo sticker creation method, and program
JP2005295163A (en) * 2004-03-31 2005-10-20 Omron Entertainment Kk Photographic printer, photographic printer control method, program, and recording medium with the program recorded thereeon
JP4337699B2 (en) * 2004-09-28 2009-09-30 オムロン株式会社 Imaging apparatus and imaging support method
JP4919031B2 (en) * 2006-08-25 2012-04-18 フリュー株式会社 Photo sticker creation apparatus and method, and program

Also Published As

Publication number Publication date
JP2011066565A (en) 2011-03-31

Similar Documents

Publication Publication Date Title
JP5445420B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5447276B2 (en) Image editing apparatus and method, and program
JP4715964B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5447183B2 (en) Photo sticker creation apparatus and method, and program
JP5318714B2 (en) Image printing apparatus and method, and program
JP5115528B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2012039410A (en) Image creating apparatus, method, and program
JP5482830B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP6217989B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2011053249A (en) Photographic sticker-creating apparatus, photographic sticker-creating method, and program
JP5633762B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5476868B2 (en) Image editing apparatus, image editing method, and program
JP5505751B2 (en) Image editing apparatus and method, and program
JP2010062791A (en) Photograph seal creating apparatus, method, and program
JP5500359B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5336682B2 (en) Image printing apparatus and method, and program
JP5354257B2 (en) Photo sticker creating apparatus and method, and program
JP5183670B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2013083992A (en) Photographic seal creation device, photographic seal creation method, and program
JP4899174B1 (en) Image printing apparatus and method, and program
JP2014212489A (en) Photograph seal creating device, method, and program
JP2014202962A (en) Photographing game machine and control program thereof
JP5353685B2 (en) Photo sticker creation apparatus, control method, and program
JP7280478B2 (en) Imaging device and control method
JP6414276B2 (en) Photo sticker creation apparatus and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20120207

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120918

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121001

R150 Certificate of patent or registration of utility model

Ref document number: 5115528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151026

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees