JP5904192B2 - Photo sticker creation apparatus, image processing method, and program - Google Patents

Photo sticker creation apparatus, image processing method, and program Download PDF

Info

Publication number
JP5904192B2
JP5904192B2 JP2013236789A JP2013236789A JP5904192B2 JP 5904192 B2 JP5904192 B2 JP 5904192B2 JP 2013236789 A JP2013236789 A JP 2013236789A JP 2013236789 A JP2013236789 A JP 2013236789A JP 5904192 B2 JP5904192 B2 JP 5904192B2
Authority
JP
Japan
Prior art keywords
image
user
displayed
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013236789A
Other languages
Japanese (ja)
Other versions
JP2014075812A (en
Inventor
菜津美 松原
菜津美 松原
萌子 小西
萌子 小西
幸平 河上
幸平 河上
育子 八田
育子 八田
厚 乾
厚 乾
有元 幸郎
幸郎 有元
佳子 竹村
佳子 竹村
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2013236789A priority Critical patent/JP5904192B2/en
Publication of JP2014075812A publication Critical patent/JP2014075812A/en
Application granted granted Critical
Publication of JP5904192B2 publication Critical patent/JP5904192B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、写真シール作成装置、画像処理方法、並びにプログラムに関し、特に、利用者にとってより満足度の高い画像を提供することができるようにする写真シール作成装置、画像処理方法、並びにプログラムに関する。   The present invention relates to a photographic sticker creating apparatus, an image processing method, and a program, and more particularly, to a photographic sticker creating apparatus, an image processing method, and a program that can provide a user with a more satisfactory image.

利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。   There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.

写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集済み画像をシール紙に印刷して排出するという流れになる。   The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is the edited image, is printed on a sticker sheet and discharged.

近年は、編集作業後、編集済み画像がシール紙に印刷されるまでの待ち時間に行われる事後接客において、シール紙に印刷される撮影画像や編集済み画像をサーバに送信・保存し、利用者が所有する携帯端末からそのサーバにアクセスし、保存された画像を取得することで、利用者は、携帯端末上で、撮影画像や編集済み画像を利用することができるようになっている。例えば、利用者は、取得した画像を、携帯端末からウェブ上で管理されているブログ(Blog:web log)等にアップロードすることで、その画像を不特定多数の人に公開することができる。   In recent years, after editing work, during the waiting time until the edited image is printed on the sticker paper, the photographed image or edited image to be printed on the sticker paper is transmitted and stored to the server at the customer service. By accessing the server from the mobile terminal owned by the user and acquiring the stored image, the user can use the captured image or the edited image on the mobile terminal. For example, the user can upload the acquired image to an unspecified number of people by uploading the acquired image to a blog (Blog: web log) or the like managed on the web.

また、従来、利用者の全身と顔付近のアップを個別に撮影し、全身画像とアップ画像を個別にシール紙に印刷することが可能な写真シール機が提案されている(例えば、特許文献1参照)。   Conventionally, there has been proposed a photo sticker that can individually capture a user's whole body and the vicinity of the face, and can individually print the whole body image and the up image on a sticker sheet (for example, Patent Document 1). reference).

さらに、利用者の全身を撮影する際に、全身画像から顔付近のアップ画像をトリミング拡大し、全身画像とアップ画像を合成してライブビュー表示するとともに、全身画像とアップ画像を合成した画像をシール紙に印刷することが可能な写真シール機が提案されている(例えば、特許文献2参照)。   Furthermore, when photographing the whole body of the user, the up-image near the face is cropped and enlarged from the whole-body image, the whole-body image and the up-image are combined and displayed in live view, and the combined image of the whole-body image and the up-image is displayed. A photo sticker that can print on sticker paper has been proposed (see, for example, Patent Document 2).

特開2012−39414号公報JP 2012-39414 A 特開2010−258774号公報JP 2010-258774 A

本発明は、利用者にとって満足度の高い画像を提供することができるようにするものである。   The present invention makes it possible to provide an image that is highly satisfactory for the user.

本発明の一側面の写真シール作成装置は、撮影空間において利用者を撮影し、得られた撮影画像を加工した画像を所定のシール紙に印刷したり、通信ネットワークを介して接続されている携帯端末へ送信したりする写真シール作成装置であって、複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込み手段と、前記取り込み手段により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御手段と、前記取り込み手段により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成手段とを備え、前記合成手段は、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する。 A photo sticker creating apparatus according to one aspect of the present invention is a mobile phone that takes a picture of a user in a shooting space, prints an image obtained by processing the obtained shot image on a predetermined sticker sheet, or is connected via a communication network. A photo sticker creating apparatus for transmitting to a terminal, which captures an image including a plurality of users, captures the plurality of users, and a moving image captured by the capturing means within one area multiple causes displayed in real time, and live view display control means for controlling the display of the display unit so as to display a plurality of combined images around the moving image generated from images captured by the capture means a synthesizing means for generating a plurality of combined images by combining each of the combined images to the image, said combining means, the left of the user in the video image A first composite image is generated by combining the image and the image for synthesis displayed on the left side of the moving image, and is displayed on the right side of the moving image and the user image on the right side in the moving image. A second composite image is generated by combining the composite images.

前記合成手段には、前記撮影画像から各前記利用者の画像を抽出させ、各前記利用者の画像に各前記合成用画像を組み合わせることにより、複数の前記合成画像を生成させることができる。   The synthesizing means can extract each of the user images from the photographed image, and can generate a plurality of the synthesized images by combining each of the user images with the images for synthesis.

前記ライブビュー表示制御手段には、前記表示部の表示画面の中央に前記動画像をリアルタイムに表示させるとともに、前記動画像の左右に前記合成用画像を表示させことができる。 Wherein the live view display control means causes display of the moving image in real time the center of the display screen of the display unit, it is possible to Ru to display the synthesis image to the left and right of the moving image.

前記撮影画像に対する編集入力を受け付ける編集処理手段と、前記シール紙に画像を印刷する印刷手段と、前記携帯端末へ画像を送信する送信手段とをさらに設けることができる。   The image processing apparatus may further include an editing processing unit that receives an editing input for the captured image, a printing unit that prints an image on the sticker sheet, and a transmission unit that transmits the image to the portable terminal.

本発明の一側面の画像処理方法は、撮影空間において利用者を撮影し、得られた撮影画像を加工した画像を所定のシール紙に印刷したり、通信ネットワークを介して接続されている携帯端末へ送信したりする写真シール作成装置の画像処理方法であって、複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込みステップと、前記取り込みステップの処理により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御ステップと、前記取り込みステップの処理により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成ステップとを含み、前記合成ステップにおいて、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成するAn image processing method according to one aspect of the present invention is a mobile terminal that captures an image of a user in an imaging space, prints an image obtained by processing the captured image on a predetermined sticker sheet, or is connected via a communication network An image processing method of a photo sticker creating apparatus for transmitting to a capturing step of capturing an image including a plurality of users and photographing the plurality of users, and a moving image captured by the processing of the capturing step Is displayed in one area in real time, and a live view display control step for controlling display of the display unit so as to display a plurality of compositing images around the moving image, and the processing of the capturing step. and each of said a plurality of images generated from the captured image viewed contains a combining step of generating a plurality of combined images by combining the synthesis image, before In the combining step, a first composite image is generated by combining the left user image in the moving image and the combining image displayed on the left side of the moving image, and the right side in the moving image A second synthesized image is generated by synthesizing the image of the user and the image for synthesis displayed on the right side of the moving image .

本発明の一側面のプログラムは、撮影空間において利用者を撮影し、得られた撮影画像を加工した画像を所定のシール紙に印刷したり、通信ネットワークを介して接続されている携帯端末へ送信したりする処理をコンピュータに実行させるためのプログラムであって、複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込みステップと、前記取り込みステップの処理により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御ステップと、前記取り込みステップの処理により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成ステップとを含み、前記合成ステップにおいて、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する処理をコンピュータに実行させる。 The program according to one aspect of the present invention shoots a user in a shooting space, prints an image obtained by processing the captured image on a predetermined sticker sheet, or transmits the image to a mobile terminal connected via a communication network. A program for causing a computer to execute a process for capturing, capturing an image including a plurality of users, capturing an image of the plurality of users, and a moving image captured by the processing of the capturing step Photographed in the live view display control step for controlling the display of the display unit so that a plurality of compositing images are displayed around the moving image and displayed in one area in real time, and taken by the processing of the capturing step A composite step of generating a plurality of composite images obtained by combining the composite images with a plurality of images generated from the photographed images. Only contains, in the combining step, to generate a first synthesized image by synthesizing the synthesis image which is displayed on the left side of the user's image in the moving image on the left side of the moving image, the A computer is caused to execute a process of generating a second synthesized image by synthesizing the right user image in the moving image and the synthesizing image displayed on the right side of the moving image .

本発明の一側面においては、複数の利用者を含む画像が取り込まれ、複数の前記利用者が撮影され、取り込まれた動画像がリアルタイムに表示され、前記動画像の周囲に複数の合成用画像が表示され、撮影された撮影画像から生成した複数の画像のうち、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像が生成され、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像が生成される。 In one aspect of the present invention, an image including a plurality of users is captured, the plurality of users are photographed, the captured moving images are displayed in real time, and a plurality of compositing images are provided around the moving images. By combining the image of the user on the left side in the moving image and the image for synthesis displayed on the left side of the moving image among the plurality of images generated from the captured image that is displayed. One composite image is generated, and a second composite image is generated by combining the right user image in the moving image and the combining image displayed on the right side of the moving image.

本発明の一側面によれば、利用者にとって満足度の高い画像を提供することが可能となる。   According to one aspect of the present invention, it is possible to provide an image that is highly satisfactory for the user.

写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of a photograph sticker production apparatus. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 撮影・表示ユニットの詳細な構成例を示す図である。It is a figure which shows the detailed structural example of an imaging | photography / display unit. カメラの詳細な構成例を示す図である。It is a figure which shows the detailed structural example of a camera. カメラ支持部の構成例を示す図である。It is a figure which shows the structural example of a camera support part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 背景部の床の外観の構成例を示す図である。It is a figure which shows the structural example of the external appearance of the floor of a background part. 床の傾斜により得られる効果について説明する図である。It is a figure explaining the effect acquired by the inclination of a floor. 背景部のクロマキー用シートについて説明する図である。It is a figure explaining the sheet | seat for chroma keys of a background part. 編集部の構成例を示す図である。It is a figure which shows the structural example of an edit part. 事後接客部の構成例を示す図である。It is a figure which shows the structural example of a customer service part after the fact. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 制御部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of a control part. 撮影処理部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of an imaging | photography process part. 編集処理部の詳細な構成例を示す機能ブロック図である。It is a functional block diagram which shows the detailed structural example of an edit process part. 写真シール作成ゲームを提供する処理について説明するフローチャートである。It is a flowchart explaining the process which provides a photograph sticker creation game. 撮影処理について説明するフローチャートである。It is a flowchart explaining an imaging | photography process. 撮影処理について説明するフローチャートである。It is a flowchart explaining an imaging | photography process. 下カメラアップ撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of lower camera up photography. 上カメラアップ撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of upper camera up photography. 上カメラ全身撮影のガイダンス画面の例を示す図である。It is a figure which shows the example of the guidance screen of an upper camera whole body imaging | photography. 上カメラ全身撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of upper camera whole body imaging | photography. 上カメラ全身撮影処理について説明するフローチャートである。It is a flowchart explaining an upper camera whole body imaging | photography process. ライブビュー画像の例を示す図である。It is a figure which shows the example of a live view image. 色範囲の検出について説明する図である。It is a figure explaining the detection of a color range. コーナー画像の例を示す図である。It is a figure which shows the example of a corner image. 上カメラ全身撮影画像の例を示す図である。It is a figure which shows the example of an upper camera whole body picked-up image. 上カメラ全身撮影処理について説明するフローチャートである。It is a flowchart explaining an upper camera whole body imaging | photography process. 色範囲の検出について説明する図である。It is a figure explaining the detection of a color range. コーナーポイント調整処理について説明するフローチャートである。It is a flowchart explaining a corner point adjustment process. コーナーポイント調整画面の例を示す図である。It is a figure which shows the example of a corner point adjustment screen. コーナーポイント調整画面の例を示す図である。It is a figure which shows the example of a corner point adjustment screen. 撮影空間におけるカメラと被写体との距離について説明する図である。It is a figure explaining the distance of a camera and a to-be-photographed object in imaging | photography space. クロス組合せ撮影処理について説明するフローチャートである。It is a flowchart explaining the cross combination imaging | photography process. クロス組合せ撮影で上カメラ全身撮影を行うときのライブビュー表示画面の例を示す図である。It is a figure which shows the example of a live view display screen when performing upper camera whole body photography by cross combination photography. 取り込み画像の非撮影領域について説明する図である。It is a figure explaining the non-photographing area | region of a captured image. 取り込み画像のトリミングについて説明する図である。It is a figure explaining trimming of a captured image. クロス組合せ撮影で上カメラアップ撮影を行うときのライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen when performing upper camera up photography by cross combination photography. クロス組合せ画像の確認画面の例を示す図である。It is a figure which shows the example of the confirmation screen of a cross combination image. クロス組合せ撮影処理の他の例について説明するフローチャートである。It is a flowchart explaining the other example of a cross combination imaging | photography process. クロス組合せ画像の途中経過の確認画面の例を示す図である。It is a figure which shows the example of the confirmation screen of the progress of the cross combination image. 編集処理について説明するフローチャートである。It is a flowchart explaining an edit process. 目のサイズおよび明るさを選択する選択画面の例を示す図である。It is a figure which shows the example of the selection screen which selects the size and brightness of eyes. 自分の画像を選択する選択画面の例を示す図である。It is a figure which shows the example of the selection screen which selects an own image. 名前入力画面の例を示す図である。It is a figure which shows the example of a name input screen. 名前入力画面の他の例を示す図である。It is a figure which shows the other example of a name input screen. 背景色の選択画面の例を示す図である。It is a figure which shows the example of the selection screen of a background color. 合成用画像の選択画面の例を示す図である。It is a figure which shows the example of the selection screen of the image for a synthesis | combination. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 分割パターンの例を示す図である。It is a figure which shows the example of a division | segmentation pattern. 分割パターンの他の例を示す図である。It is a figure which shows the other example of a division | segmentation pattern. 合成画像の生成方法の他の例を説明するための図である。It is a figure for demonstrating the other example of the production | generation method of a synthesized image. 合成画像の生成方法の他の例を説明するための図である。It is a figure for demonstrating the other example of the production | generation method of a synthesized image.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

[写真シール作成装置の外観構成]
図1は、本発明の一実施形態に係る写真シール作成装置1の外観の構成例を示す斜視図である。
[External structure of photo sticker creation device]
FIG. 1 is a perspective view showing a configuration example of the appearance of a photo sticker creating apparatus 1 according to an embodiment of the present invention.

写真シール作成装置1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機である。写真シール作成装置1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるし、複数人であることもある。   The photo sticker creating apparatus 1 is a game machine that allows a user to perform operations such as shooting and editing as a game and receives a price from the user instead of providing a shot image or an edited image. The photo sticker creating apparatus 1 is installed in a store such as a game center. There may be one user or a plurality of users.

写真シール作成装置1が提供するゲームで遊ぶ利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像に対して、手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。利用者は、編集済みの画像が印刷されたシール紙を受け取って一連のゲームを終了させることになる。   The user who plays the game provided by the photo sticker creating apparatus 1 pays the price, takes a picture of himself as a subject, and synthesizes a handwritten line drawing or stamp image with the shot image obtained by the shooting. By editing using the editing function, the captured image becomes a rich image. The user receives the sticker sheet on which the edited image is printed and ends the series of games.

図1に示すように、写真シール作成装置1は、主に、撮影ユニット11、編集部12、および事後接客部13から構成される。撮影ユニット11と編集部12が接した状態で設置され、編集部12と事後接客部13が接した状態で設置される。   As shown in FIG. 1, the photo sticker creating apparatus 1 mainly includes a photographing unit 11, an editing unit 12, and a subsequent customer service unit 13. The photographing unit 11 and the editing unit 12 are installed in contact with each other, and the editing unit 12 and the subsequent customer service unit 13 are installed in contact with each other.

撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間である撮影空間において撮影作業が行われる。   The photographing unit 11 includes a photographing unit 21 and a background unit 22. The photographing unit 21 and the background unit 22 are set apart by a predetermined distance, and a photographing operation is performed in a photographing space that is a space formed between the photographing unit 21 and the background unit 22.

撮影部21は撮影作業を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影作業を行っている利用者の正面に位置する。撮影空間を正面に臨む面を構成する撮影部21の正面パネル41には、撮影作業時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42B(図示せず)により構成される。   The photographing unit 21 is a device that allows a user to perform photographing work. The photographing unit 21 enters the photographing space and is located in front of the user who is performing the photographing work. A front panel 41 of the photographing unit 21 that constitutes a surface facing the photographing space in front is provided with a touch panel monitor used by the user during photographing work. When the left side as viewed from the user in the imaging space is the left side and the right side is the right side, the left side of the imaging unit 21 is constituted by a side panel 42A, and the right side is a side panel 42B (not shown). Consists of.

背景部22は、正面を向いて撮影作業を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の左端に取り付けられ、側面パネル42Aとほぼ同じ幅の板状の部材である側面パネル52A、および、背面パネル51の右端に取り付けられ、側面パネル42Bとほぼ同じ幅の板状の部材である側面パネル52B(図2)から構成される。   The background unit 22 is attached to the left end of the rear panel 51 and the rear panel 51, which are plate-like members positioned on the rear side of the user who is taking a photo work facing the front, and has the same width as the side panel 42A. A side panel 52A, which is a plate-like member, and a side panel 52B (FIG. 2), which is a plate-like member attached to the right end of the rear panel 51 and having the same width as the side panel 42B.

撮影部21の左側面を構成する側面パネル42Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Aによって連結される。また、撮影部21の右側面を構成する側面パネル42Bと背景部22の側面パネル52Bは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Bによって連結される。   The side panel 42A constituting the left side surface of the photographing unit 21 and the side panel 52A of the background unit 22 are provided on substantially the same plane, and their upper portions are connected by a connecting part 23A that is a plate-like member. Further, the side panel 42B constituting the right side surface of the photographing unit 21 and the side panel 52B of the background portion 22 are provided on substantially the same plane, and their upper portions are connected by a connecting portion 23B which is a plate-like member.

撮影部21の側面パネル42A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口G1となる。なお、図示はしないが、撮影部21の側面パネル42B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口G2となる。   An opening formed by being surrounded by the side panel 42 </ b> A of the photographing unit 21, the connecting part 23 </ b> A, and the side panel 52 </ b> A of the background part 22 becomes an entrance G <b> 1 of the photographing space. Although not shown, an opening formed by being surrounded by the side panel 42B of the photographing unit 21, the connecting part 23B, and the side panel 52B of the background 22 is also an entrance G2 of the photographing space.

撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景部22の背面パネル51に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。   An opening surrounded by the front panel 41 of the photographing unit 21, the connecting part 23A, the connecting part 23B, and the back panel 51 of the background part 22 is formed above the photographing space, and a ceiling strobe is formed so as to cover a part of the opening. A unit 24 is provided. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. A fluorescent lamp is provided inside the strobe constituting the ceiling strobe unit 24, and also functions as illumination of the photographing space.

なお、撮影空間にいる利用者の正面−背面方向を奥行き方向とすると、撮影ユニット11の寸法(奥行き、幅、および高さ)は、例えば、1850mm×1800mm×2225mmとされる。   When the front-back direction of the user in the shooting space is the depth direction, the dimensions (depth, width, and height) of the shooting unit 11 are, for example, 1850 mm × 1800 mm × 2225 mm.

編集部12は、撮影作業によって得られた画像を編集する編集作業を利用者に行わせる装置である。編集部12は、一方の側面が撮影部21の正面パネル41の背面に接するように撮影ユニット11に連結して設けられる。編集部12には、編集作業時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。   The editing unit 12 is a device that allows a user to perform editing work for editing an image obtained by photographing work. The editing unit 12 is provided so as to be connected to the photographing unit 11 so that one side surface thereof is in contact with the back surface of the front panel 41 of the photographing unit 21. The editing unit 12 is provided with a configuration such as a tablet built-in monitor used by a user during editing work.

図1に示す編集部12の構成を正面側の構成とすると、2組の利用者が同時に編集作業を行うことができるように、編集部12の正面側と背面側には編集作業に用いられる構成がそれぞれ設けられる。   If the configuration of the editing unit 12 shown in FIG. 1 is the configuration on the front side, the editing unit 12 is used for editing operations on the front side and the back side so that two sets of users can perform editing operations simultaneously. Each configuration is provided.

編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集作業に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73B(図2)が設けられる。さらに、支持部73Aの左側には、板状の形状を有し、事後接客部13が連結して設けられる支持部73Cが設けられる。また、支持部73Cの上面にはカーテンレール26を支持する支持部75が設けられる。   The front side of the editing unit 12 is a surface perpendicular to the floor surface, and is composed of a surface 71 that is substantially parallel to the side panel 42A, and a slope 72 formed above the surface 71. The configuration used is provided on the slope 72. On the left side of the slope 72, a support portion 73A that has a columnar shape and supports one end of the lighting device 74 is provided. A support portion 73 </ b> B (FIG. 2) that supports the other end of the lighting device 74 is also provided on the right side of the slope 72. Further, on the left side of the support portion 73A, there is provided a support portion 73C having a plate-like shape and provided by connecting the subsequent customer service portion 13. A support portion 75 that supports the curtain rail 26 is provided on the upper surface of the support portion 73C.

編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端に残りの一本のレール26Cの両端が接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C so that the shape when viewed from above is a U-shape. One end of the rails 26A and 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, respectively, and both ends of the remaining one rail 26C are joined to the other end.

カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集作業を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the inside of the space in front of the editing unit 12 and the space in front of the back cannot be seen from the outside. The space in front of the editing unit 12 and the space in front of the back, which are surrounded by the curtain attached to the curtain rail 26, serve as an editing space in which the user performs editing work.

図2は、写真シール作成装置1を別の角度から見た斜視図である。   FIG. 2 is a perspective view of the photo sticker creating apparatus 1 as seen from another angle.

事後接客部13は利用者に対して事後接客を行う装置である。事後接客では、撮影画像や編集済みの画像が携帯電話機などの携帯端末に送信される。   The subsequent customer service unit 13 is a device for performing subsequent customer service to the user. At the time of the customer service, the photographed image and the edited image are transmitted to a mobile terminal such as a mobile phone.

図2に示すように、事後接客部13は、所定の厚さを有する板状の筐体を有しており、その背面が編集部12の左側面に接するように編集部12に連結して設けられる。事後接客部13の正面には、事後接客時に利用者により用いられるタブレット内蔵モニタや、撮影画像や編集済みの画像が印刷されたシール紙が排出される排出口などが設けられる。事後接客部13の正面前方の空間が、シール紙への印刷が終わるのを待っている利用者に対して事後接客を行う事後接客空間となる。   As shown in FIG. 2, the post-service customer unit 13 has a plate-like housing having a predetermined thickness, and is connected to the editing unit 12 so that the back surface thereof is in contact with the left side surface of the editing unit 12. Provided. A front face of the post-service section 13 is provided with a tablet built-in monitor used by the user at the time of post-service and a discharge port through which sticker paper on which a photographed image or an edited image is printed is discharged. The space in front of the post-service section 13 serves as a post-service space for performing post-service to users who are waiting for the printing on the sticker paper to end.

ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図3を参照して説明する。図3は、写真シール作成装置1を上から見た平面図である。   Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

写真シール作成装置1の利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。   The user of the photo sticker creating apparatus 1 is formed between the photographing part 21 and the background part 22 from the entrance G1 as indicated by the white arrow # 1 or from the entrance G2 as indicated by the white arrow # 2. The camera enters the shooting space A1 and performs a shooting operation using a camera or a touch panel monitor provided in the shooting unit 21.

撮影作業を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。   The user who has finished the photographing work exits the photographing space A1 using the doorway G1 as indicated by the white arrow # 3 and moves to the editing space A2-1, or as indicated by the white arrow # 4. To leave the shooting space A1 and move to the editing space A2-2.

編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12, and the editing space A2-2 is an editing space on the back side of the editing unit 12. Which of the editing space A2-1 and the editing space A2-2 is moved is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the empty space of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、撮影画像や編集済みの画像の印刷が開始される。画像の印刷中、編集作業を終えた利用者は、編集空間A2−1で編集作業を行っていた場合には白抜き矢印#5で示すように編集空間A2−1から事後接客空間A3に移動して事後接客を受ける。また、編集作業を終えた利用者は、編集空間A2−2で編集作業を行っていた場合には白抜き矢印#6で示すように編集空間A2−2から事後接客空間A3に移動し、事後接客空間A3において事後接客を受ける。   After the editing operation is completed, printing of the captured image and the edited image is started. The user who has finished the editing work during image printing moves from the editing space A2-1 to the post-service area A3 as indicated by the white arrow # 5 if the editing work has been performed in the editing space A2-1. After that, he gets a customer service. In addition, when the editing work is completed in the editing space A2-2, the user moves from the editing space A2-2 to the post-service area A3 as indicated by the white arrow # 6. Receive customer service in customer service space A3.

画像の印刷が終了したとき、利用者は、事後接客部13に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。   When the printing of the image is finished, the user receives the sticker paper from the outlet provided in the post-service section 13 and finishes a series of photo sticker creation games.

次に、各装置の構成について説明する。   Next, the configuration of each device will be described.

[撮影部の構成]
図4は、撮影部21の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bが、箱状の形状を有するベース部43に取り付けられることによって構成される。
[Configuration of shooting section]
FIG. 4 is a diagram illustrating a configuration example of the photographing unit 21. The photographing unit 21 is configured by attaching a front panel 41, a side panel 42A, and a side panel 42B to a base unit 43 having a box shape.

正面パネル41は撮影空間A1で撮影作業を行う利用者の正面に位置し、側面パネル42Aと側面パネル42Bは、それぞれ、撮影空間A1で撮影作業を行う利用者の左側、右側に位置する。側面パネル42Aの上方には連結部23Aが固定され、側面パネル42Bの上方には連結部23Bが固定される。   The front panel 41 is positioned in front of the user who performs the shooting operation in the shooting space A1, and the side panel 42A and the side panel 42B are positioned on the left side and the right side of the user who performs the shooting operation in the shooting space A1, respectively. The connecting portion 23A is fixed above the side panel 42A, and the connecting portion 23B is fixed above the side panel 42B.

正面パネル41のほぼ中央には撮影・表示ユニット81が設けられる。撮影・表示ユニット81は、カメラ91、カメラストロボ92、およびタッチパネルモニタ93から構成される。   An imaging / display unit 81 is provided in the approximate center of the front panel 41. The photographing / display unit 81 includes a camera 91, a camera strobe 92, and a touch panel monitor 93.

カメラ91は、CCD(Charge Coupled Device)などの撮像素子を有する撮像装置を含むように構成され、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(ライブビュー画像)は、タッチパネルモニタ93にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた画像は撮影画像(静止画像)として保存される。なお、カメラ91により取り込まれた画像、すなわち、ライブビュー画像および撮影画像を併せて、以下、取り込み画像ともいう。   The camera 91 is configured to include an imaging device having an imaging element such as a CCD (Charge Coupled Device), and images a user in the imaging space A1. A moving image (live view image) captured by the camera 91 is displayed on the touch panel monitor 93 in real time. An image captured by the camera 91 at a predetermined timing such as when a user gives an instruction to shoot is saved as a photographic image (still image). Note that an image captured by the camera 91, that is, a live view image and a captured image are collectively referred to as a captured image hereinafter.

カメラ91の背面側には、カメラストロボ92が設けられ、カメラ91は、カメラストロボ92の表面側で上下方向に駆動(移動)するようになされている。カメラストロボ92は、発光面を構成するアクリル板と、その背後に設けられる蛍光灯等の照明装置とから構成され、他のストロボと同様にカメラ91による撮影に合わせて発光する。カメラストロボ92においては、カメラ91の上下方向の位置に応じて露出する部分が発光面となる。つまり、カメラストロボ92は、カメラ91の上下方向の位置に応じて、被写体としての利用者の顔付近をカメラ91の上方または下方から照射する。   A camera strobe 92 is provided on the back side of the camera 91, and the camera 91 is driven (moved) in the vertical direction on the surface side of the camera strobe 92. The camera strobe 92 is composed of an acrylic plate constituting a light emitting surface and an illumination device such as a fluorescent lamp provided behind the light emitting surface, and emits light in accordance with photographing by the camera 91 like other strobes. In the camera strobe 92, a portion exposed according to the vertical position of the camera 91 is a light emitting surface. That is, the camera strobe 92 irradiates the vicinity of the user's face as a subject from above or below the camera 91 according to the vertical position of the camera 91.

カメラ91の下側に設けられたタッチパネルモニタ93は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ93は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示し、利用者の選択操作をタッチパネルにより受け付ける機能とを備えている。タッチパネルモニタ93には、適宜、背景等の画像が合成された後の動画像が表示される。   A touch panel monitor 93 provided on the lower side of the camera 91 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 93 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUI (Graphical User Interface) images and accepts a user's selection operation through the touch panel. ing. On the touch panel monitor 93, a moving image after an image such as a background is appropriately displayed is displayed.

正面パネル41には、撮影・表示ユニット81の位置を基準として、上方に上ストロボ82が設置される。また、左方に左ストロボ83が設置され、右方に右ストロボ84が設置される。撮影・表示ユニット81の下方の位置には、ベース部43の上面が一部突出する形で下ストロボ85が設けられる。   On the front panel 41, an upper strobe 82 is installed on the upper side with respect to the position of the photographing / display unit 81. A left strobe 83 is installed on the left side and a right strobe 84 is installed on the right side. A lower strobe 85 is provided at a position below the photographing / display unit 81 such that a part of the upper surface of the base portion 43 protrudes.

上ストロボ82は、利用者を上前方から照射する。左ストロボ83は、利用者を左前方から照射し、右ストロボ84は、利用者を右前方から照射する。下ストロボ85は、利用者を下前方から照射する。   The upper strobe 82 irradiates the user from the upper front. The left strobe 83 irradiates the user from the left front, and the right strobe 84 irradiates the user from the right front. The lower strobe 85 irradiates the user from the lower front.

ベース部43には利用者の足元を照射する足元ストロボ86も設けられる。上ストロボ82、左ストロボ83、右ストロボ84、下ストロボ85、および足元ストロボ86の内部には蛍光灯が設けられており、天井ストロボユニット24を構成するストロボの内部の蛍光灯と合わせて、撮影空間A1内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光させる蛍光灯の数が調整されることによって、撮影空間A1内の明るさが、利用者が行っている撮影作業の内容に応じて適宜調整される。   The base unit 43 is also provided with a foot strobe 86 that irradiates the user's foot. Fluorescent lamps are provided inside the upper strobe 82, left strobe 83, right strobe 84, lower strobe 85, and foot strobe 86, and together with the fluorescent lights inside the strobe constituting the ceiling strobe unit 24, photographing is performed. Used as illumination in the space A1. By adjusting the light emission amount of each fluorescent lamp, or by adjusting the number of fluorescent lamps to emit light, the brightness in the shooting space A1 depends on the content of the shooting work performed by the user. Adjust as appropriate.

また、足元ストロボ86の右側には、利用者がお金を投入する硬貨投入返却口87が設けられる。   Further, a coin insertion / return port 87 through which a user inserts money is provided on the right side of the foot strobe 86.

さらに、下ストロボ85の上側であって、タッチパネルモニタ93の左側には、利用者を左下前方から照射するモニタ左ストロボ88が設けられ、タッチパネルモニタ93の右側には、利用者を右下前方から照射するモニタ右ストロボ89が設けられる。   Further, on the left side of the touch panel monitor 93 on the upper side of the lower strobe 85, a monitor left strobe 88 that irradiates the user from the lower left front is provided, and on the right side of the touch panel monitor 93, the user is viewed from the lower right front. A monitor right strobe 89 for irradiating is provided.

なお、各ストロボ内部には、蛍光灯以外の照明装置が設けられてもよい。   An illumination device other than the fluorescent lamp may be provided inside each strobe.

下ストロボ85を挟んでベース部43の上面の左右に形成されるスペース43Aおよび43Bは、撮影作業を行う利用者が手荷物等を置くための荷物置き場として用いられる。
また、正面パネル41の例えば天井付近には、利用者に撮影作業を行わせる撮影処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカも設けられる。
Spaces 43A and 43B formed on the left and right sides of the upper surface of the base portion 43 with the lower strobe 85 interposed therebetween are used as a luggage storage place for a user who performs a photographing operation to place baggage and the like.
Further, for example, near the ceiling of the front panel 41, there is also provided a speaker that outputs sound such as guidance sound for shooting processing, BGM (Back Ground Music), and sound effects for allowing the user to perform shooting operations.

ここで、カメラ91の上下方向の駆動について説明する。   Here, the vertical drive of the camera 91 will be described.

撮影処理においては、カメラ91の上下方向の位置が、被写体としての利用者を、利用者から見て前方正面から撮影する位置と、利用者から見て前方斜め上から撮影する位置とになるように、カメラ91を上下方向に駆動させて撮影が行われる。   In the shooting process, the vertical position of the camera 91 is such that the user as a subject is shot from the front in front when viewed from the user, and the position from which the user is photographed obliquely from the front when viewed from the user. In addition, the camera 91 is driven in the vertical direction to perform shooting.

以下、適宜、利用者を前方正面から撮影する位置にあるカメラ91を下カメラといい、利用者を前方斜め上から撮影する位置にあるカメラ91を上カメラという。   Hereinafter, as appropriate, the camera 91 in a position where the user is photographed from the front in front is referred to as a lower camera, and the camera 91 in a position where the user is photographed from diagonally forward is referred to as the upper camera.

[撮影・表示ユニットの構成例]
図5は、上下方向に駆動するカメラ91を含む撮影・表示ユニット81の詳細な構成例を示している。
[Configuration example of shooting / display unit]
FIG. 5 shows a detailed configuration example of the photographing / display unit 81 including the camera 91 driven in the vertical direction.

図5Aに示されるように、撮影・表示ユニット81は、縦長の直方体の形状を有する筐体の一側面に、カメラ91、カメラストロボ92、およびタッチパネルモニタ93が設けられることで構成される。カメラ91およびカメラストロボ92の周囲には、それらを囲うような額縁状のカバー94が設けられており、カメラ91は、カバー94の開口部の範囲内で上下方向に駆動する。   As shown in FIG. 5A, the photographing / display unit 81 is configured by providing a camera 91, a camera strobe 92, and a touch panel monitor 93 on one side of a casing having a vertically long rectangular parallelepiped shape. A frame-shaped cover 94 is provided around the camera 91 and the camera strobe 92, and the camera 91 is driven in the vertical direction within the range of the opening of the cover 94.

図5Bは、図5Aの状態から、タッチパネルモニタ93およびカバー94を取り外した撮影・表示ユニット81を示している。図5Bに示されるように、カメラ91は、カメラストロボ92の発光面を構成するアクリル板95と一体に構成されており、アクリル板95は、カメラ91とともに上下方向に駆動する。また、カメラ91は、カメラ支持部96によってその側面が支持されており、カメラ支持部96に設けられたガイド溝に従って上下方向に駆動する。   FIG. 5B shows the photographing / display unit 81 from which the touch panel monitor 93 and the cover 94 are removed from the state of FIG. 5A. As shown in FIG. 5B, the camera 91 is configured integrally with an acrylic plate 95 that constitutes the light emitting surface of the camera strobe 92, and the acrylic plate 95 is driven in the vertical direction together with the camera 91. The side surface of the camera 91 is supported by a camera support unit 96 and is driven in the vertical direction according to a guide groove provided in the camera support unit 96.

図5Cは、図5Bの状態から、アクリル板95を取り外した撮影・表示ユニット81を示している。図5Cに示されるように、カメラ91の背面上方には、カメラ上蛍光灯97Uが設けられ、カメラ91の背面下方には、カメラ下蛍光灯97Dが設けられている。カメラ91は、カメラストロボ92を構成する照明装置としてのカメラ上蛍光灯97Uおよびカメラ下蛍光灯97Dと一体に構成されており、カメラ上蛍光灯97Uおよびカメラ下蛍光灯97Dは、カメラ91とともに上下方向に駆動する。   FIG. 5C shows the photographing / display unit 81 from which the acrylic plate 95 is removed from the state of FIG. 5B. As shown in FIG. 5C, an upper fluorescent lamp 97U is provided above the back of the camera 91, and a lower fluorescent lamp 97D is provided below the back of the camera 91. The camera 91 is configured integrally with an on-camera fluorescent lamp 97U and a lower-camera fluorescent lamp 97D as illumination devices constituting the camera strobe 92. The upper-camera fluorescent lamp 97U and the lower-camera fluorescent lamp 97D are vertically moved together with the camera 91. Drive in the direction.

つまり、図5Aに示されるように、カメラ91がカバー94の開口部の下端に位置し、下カメラの状態となるとき、カメラ91の上側のアクリル板95が露出し、カメラ上蛍光灯97Uが発光することで、カメラストロボ92は、被写体としての利用者の顔付近をカメラ91の上方から照射する。   That is, as shown in FIG. 5A, when the camera 91 is positioned at the lower end of the opening of the cover 94 and is in the lower camera state, the acrylic plate 95 on the upper side of the camera 91 is exposed, and the on-camera fluorescent lamp 97U is By emitting light, the camera strobe 92 irradiates the vicinity of the user's face as a subject from above the camera 91.

また、図示はしないが、カメラ91がカバー94の開口部の上端に位置し、上カメラの状態となるとき、カメラ91の下側のアクリル板95が露出し、カメラ下蛍光灯97Dが発光することで、カメラストロボ92は、被写体としての利用者の顔付近をカメラ91の下方から照射する。   Although not shown, when the camera 91 is positioned at the upper end of the opening of the cover 94 and is in the upper camera state, the lower acrylic plate 95 of the camera 91 is exposed and the lower fluorescent lamp 97D emits light. Thus, the camera strobe 92 irradiates the vicinity of the user's face as a subject from below the camera 91.

[カメラの構成例]
図6は、カメラ91の詳細な構成例を示している。
[Camera configuration example]
FIG. 6 shows a detailed configuration example of the camera 91.

カメラ91は、撮像装置であるカメラ本体91Mがケース91Cに搭載されて構成される。カメラ91には、所定の駆動機構により、カメラ本体91Mのレンズの光軸に平行な軸を中心に回転する回転部91Rが設けられている。また、カメラ本体91Mの焦点距離を調整するズームリング91Fの円周面に設けられたギアと、回転部91Rの一端に設けられたギア(図示せず)とは、内側にリブが設けられたタイミングベルト91Bにより連結されている。   The camera 91 is configured by mounting a camera body 91M, which is an imaging device, on a case 91C. The camera 91 is provided with a rotating portion 91R that rotates about an axis parallel to the optical axis of the lens of the camera body 91M by a predetermined driving mechanism. Further, a gear provided on the circumferential surface of the zoom ring 91F for adjusting the focal length of the camera body 91M and a gear (not shown) provided at one end of the rotating portion 91R are provided with ribs on the inner side. They are connected by a timing belt 91B.

すなわち、回転部91Rが回転することにより、タイミングベルト91Bを介してズームリング91Fが回転し、カメラ本体91Mの焦点距離が調整されるようになされている。これにより、例えば、カメラ91が下カメラの状態において、ズームインするように焦点距離を調整し、カメラ91が上カメラの状態において、ズームアウトするように焦点距離を調整することができる。   That is, when the rotating portion 91R rotates, the zoom ring 91F rotates via the timing belt 91B, and the focal length of the camera body 91M is adjusted. Thereby, for example, when the camera 91 is in the lower camera state, the focal length can be adjusted to zoom in, and when the camera 91 is in the upper camera state, the focal length can be adjusted to zoom out.

また、ケース91Cの側面には、突起物P1,P2が設けられている。カメラ91は、突起物P1,P2がそれぞれ、図7に示されるようなカメラ支持部96に設けられたガイド溝g1,g2に沿ってガイドされることで上下方向に駆動する。ガイド溝g1,g2は、カメラ支持部96を貫通するように形成されてもよいし、貫通しないように形成されてもよい。また、図7に示されるように、ガイド溝g2は、ガイド溝g1の上端に対応する位置より上では、ガイド溝g1の上端を中心に孤を描くように形成されている。これにより、突起物P1,P2がそれぞれ、ガイド溝g1の上端、および、ガイド溝g2のガイド溝g1の上端に対応する位置に達した後、カメラ91は、ガイド溝g1の上端を中心に、図中左方向に所定角度だけ回転し、撮影空間の下方向を撮影するようになる。   Further, protrusions P1 and P2 are provided on the side surface of the case 91C. The camera 91 is driven in the vertical direction by the projections P1 and P2 being guided along the guide grooves g1 and g2 provided in the camera support portion 96 as shown in FIG. The guide grooves g1 and g2 may be formed so as to penetrate the camera support portion 96, or may be formed so as not to penetrate. Also, as shown in FIG. 7, the guide groove g2 is formed so as to draw an arc around the upper end of the guide groove g1 above the position corresponding to the upper end of the guide groove g1. Thus, after the protrusions P1 and P2 reach the positions corresponding to the upper end of the guide groove g1 and the upper end of the guide groove g1 of the guide groove g2, the camera 91 is centered on the upper end of the guide groove g1. The image is rotated in the left direction in the figure by a predetermined angle, and the lower direction of the photographing space is photographed.

このような構造により、カメラ91が下カメラの状態のときには、利用者は前方正面から撮影され、カメラ91が上カメラの状態のときには、利用者は前方斜め上から撮影されるようになる。   With such a structure, when the camera 91 is in the lower camera state, the user is photographed from the front front, and when the camera 91 is in the upper camera state, the user is photographed from diagonally forward.

[背景部の構成]
図8は、背景部22の撮影空間A1側の構成例を示す図である。図8Aは、背景部22の構成例を示す正面図であり、図8Bは、背景部22の構成例を示す斜視図である。
[Configuration of the background]
FIG. 8 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side. FIG. 8A is a front view illustrating a configuration example of the background portion 22, and FIG. 8B is a perspective view illustrating a configuration example of the background portion 22.

背面パネル51の上方のほぼ中央には、撮影空間A1内で撮影作業を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。   Near the center above the back panel 51, a back center strobe 101 for irradiating a user who is performing a shooting operation in the shooting space A1 from the back center is attached.

背面パネル51の上方であって、出入り口G1側の位置には、撮影空間A1内で撮影作業を行っている利用者を左後方から照射する背面左ストロボ102が取り付けられる。また、背面パネル51の上方であって、出入り口G2側の位置には、撮影空間A1内で撮影作業を行っている利用者を右後方から照射する背面右ストロボ103が取り付けられる。   A rear left strobe 102 that irradiates a user who is performing a photographing operation in the photographing space A1 from the left rear is provided above the rear panel 51 and on the doorway G1 side. Further, a rear right strobe 103 that irradiates a user who is performing a photographing operation in the photographing space A1 from the right rear is provided above the rear panel 51 and on the entrance / exit G2 side.

また、背面パネル51の下側で、撮影空間A1において側面パネル52Aおよび側面パネル52Bに挟まれる部分には、床104が設けられている。床104は、図9に示されるように、背面パネル51側に近いほど高くなるように、写真シール作成装置1が設置される設置面に対して、例えば7°等の傾斜が設けられている。   In addition, a floor 104 is provided below the back panel 51 in a portion sandwiched between the side panel 52A and the side panel 52B in the imaging space A1. As shown in FIG. 9, the floor 104 is provided with an inclination of, for example, 7 ° with respect to the installation surface on which the photo sticker creating apparatus 1 is installed so that the floor 104 becomes higher as it is closer to the rear panel 51 side. .

なお、撮影空間にいる利用者の正面−背面方向を奥行き方向とすると、床104の寸法(奥行き、幅、および背面パネル51側の高さ)は、例えば、550mm×1710mm×80mmとされる。   If the front-back direction of the user in the shooting space is the depth direction, the dimensions of the floor 104 (depth, width, and height on the back panel 51 side) are, for example, 550 mm × 1710 mm × 80 mm.

[床の傾斜により得られる効果]
ここで、図10を参照して、床104に傾斜を設けることによって得られる効果について説明する。
[Effects obtained by floor inclination]
Here, with reference to FIG. 10, the effect obtained by providing the floor 104 with an inclination will be described.

図10には、撮影空間A1において、上カメラの状態のカメラ91によって撮影される被写体(利用者)111が示されている。被写体の全身を撮影しようとする場合、上カメラによる撮影によれば、下カメラによる撮影と比較して、顔が大きく写るので、顔が強調された撮影画像を得ることができる。また、下カメラにより得られる全身画像より、上カメラにより得られる全身画像の方が、画像における被写体の割合を高めることができる。
このように、上カメラによる撮影は、被写体の全身画像を得るのに好適とされている。
FIG. 10 shows a subject (user) 111 photographed by the camera 91 in the upper camera state in the photographing space A1. When shooting the whole body of the subject, shooting with the upper camera makes the face appear larger than shooting with the lower camera, so that a shot image with an enhanced face can be obtained. Further, the whole body image obtained by the upper camera can increase the ratio of the subject in the image than the whole body image obtained by the lower camera.
As described above, photographing with the upper camera is suitable for obtaining a whole body image of a subject.

例えば、一般的な写真シール作成装置の撮影空間において、図10Aに示されるように、被写体111がカメラ91に顔を近づけるように前傾姿勢をとった場合には、顔がより強調された撮影画像を得ることができる。   For example, in a shooting space of a general photo sticker creation apparatus, as shown in FIG. 10A, when the subject 111 takes a forward leaning posture so that the face is brought closer to the camera 91, shooting with a more emphasized face is performed. An image can be obtained.

さらに、本発明の写真シール作成装置1のように傾斜を設けた床104を備えることで、図10Bに示されるように、被写体111のかかと部分がヒールのある靴を履いているときと同じ状態となり、カメラ91の撮像面に対する足の甲の長さが、図10Aの場合より長くなるので、より足が長く見える撮影画像を得ることができる。   Further, by providing the inclined floor 104 as in the photo sticker creating apparatus 1 of the present invention, as shown in FIG. 10B, the same state as when the heel portion of the subject 111 is wearing shoes with heels. Thus, the length of the back of the foot with respect to the imaging surface of the camera 91 is longer than that in the case of FIG. 10A, so that a captured image in which the foot looks longer can be obtained.

特に、ヒールのある靴を履いた場合の地面と足の裏のなす角度が7°のときに最も足が長く見えるものとすると、床104の傾斜を7°とすることで、例えば学校指定のヒールの低い靴を履いている女子中高生であっても、ヒールのある靴を履いたときと同様に、より足が長く見える撮影画像を得ることができる。   In particular, if the foot is the longest when the angle between the ground and the sole when wearing shoes with heel is 7 °, the inclination of the floor 104 is set to 7 °. Even a female junior and senior high school student who wears shoes with low heels can obtain a photographed image in which the legs look longer as in the case of wearing shoes with heels.

また、図10Aに示されるように、被写体111が前傾姿勢をとってカメラ91を見た場合、顎の下から首にかけての部分111nがストロボによって照射されてしまうので、撮影画像においては、顔の輪郭がわかりにくく、必要以上に顔が大きく見えてしまう恐れがある。   Also, as shown in FIG. 10A, when the subject 111 is tilted forward and the camera 91 is viewed, a portion 111n from the bottom of the chin to the neck is irradiated by the strobe. It is difficult to understand the outline of the face, and the face may appear larger than necessary.

一方、図10Bのように床104を備えることで、被写体111は、図10Aのように前傾姿勢にならず、顎を出さない姿勢で撮影することができるので、顎の下から首にかけての部分111nに影ができ、撮影画像においては、顔の輪郭が強調されて、必要以上に顔が大きく見えることを避けることができる。   On the other hand, by providing the floor 104 as shown in FIG. 10B, the subject 111 can be photographed in a posture that does not protrude forward and does not stick out the chin as shown in FIG. 10A. A shadow is formed on the portion 111n, and in the captured image, it is possible to prevent the face from being emphasized and the face from appearing larger than necessary.

さらに、図10Aにおいて、被写体111が前傾姿勢をとらずにカメラ91を見た場合、撮影画像においては、上目遣いをした顔となってしまう。一方、図10Bのように床104を備えることで、被写体111の視線が高くなるので、被写体111は、カメラ91を自然に見ることができ、撮影画像においては、上目遣いをした顔となることを避けることができる。   Furthermore, in FIG. 10A, when the subject 111 looks at the camera 91 without taking the forward tilted posture, the face taken up is in the captured image. On the other hand, since the line of sight of the subject 111 is increased by providing the floor 104 as shown in FIG. 10B, the subject 111 can naturally see the camera 91, and the photographed image has a face with an upper eye. Can be avoided.

[クロマキー用シートについて]
また、本実施の形態においては、背景部22の撮影空間A1側に、背景に利用する巻き取り式の背景カーテンや、クロマキー用のカーテンとして使用する昇降式カーテンを設けず、背景部22を構成する背面パネル51、側面パネル52A,52B、および床104の表面にクロマキー用のシートが貼付される。
[About chroma key sheet]
Further, in the present embodiment, the background portion 22 is configured without the winding-up type background curtain used for the background or the elevating curtain used as the chroma key curtain on the photographing space A1 side of the background portion 22. A chroma key sheet is affixed to the rear panel 51, the side panels 52 </ b> A and 52 </ b> B, and the surface of the floor 104.

図11は、背景部22の撮影空間A1側に貼付されるクロマキー用シートについて説明する図である。   FIG. 11 is a diagram illustrating a chroma key sheet affixed to the photographing space A1 side of the background portion 22. FIG.

図11に示されるように、背面パネル51にはクロマキー用シート121Aが貼付され、側面パネル52Bの下部にはクロマキー用シート121Bが貼付され、床104の斜面部分にはクロマキー用シート121Cが貼付される。クロマキー用シート121A乃至121Cは、緑色のクロマキー用シートであり、これにより、いわゆるグリーンバック合成が行われる。なお、図示はしないが、側面パネル52Aの下部にもクロマキー用シート121Bと同様のクロマキー用シート121C’が貼付される。なお、図11に示されるように、クロマキー用シート121Bは、側面パネル52Bの下部のみに貼付されるものとしたが、側面パネル52Bにおいてクロマキー用シート121Bが貼付される部分は、カメラ91の画角に入る部分より広ければよく、例えば側面パネル52Bの全面であってもよい。また、側面パネル52Aに貼付されるクロマキー用シート121C’についても同様である。   As shown in FIG. 11, a chroma key sheet 121A is affixed to the back panel 51, a chroma key sheet 121B is affixed to the lower part of the side panel 52B, and a chroma key sheet 121C is affixed to the slope portion of the floor 104. The The chroma key sheets 121A to 121C are green chroma key sheets, whereby a so-called green back composition is performed. Although not shown, a chroma key sheet 121C 'similar to the chroma key sheet 121B is also attached to the lower portion of the side panel 52A. As shown in FIG. 11, the chroma key sheet 121B is attached only to the lower portion of the side panel 52B. However, the portion of the side panel 52B to which the chroma key sheet 121B is attached is the image of the camera 91. It may be wider than the part that enters the corner, and may be the entire surface of the side panel 52B, for example. The same applies to the chroma key sheet 121C 'attached to the side panel 52A.

クロマキー用シート121A,121B,121Cはそれぞれ、同一の材質で構成されるようにしてもよいし、異なる材質で構成されるようにしてもよい。具体的には、例えば、撮影空間A1の背面となるクロマキー用シート121Aを布製とし、側面となるクロマキー用シート121Bを樹脂製または布製とし、クロマキー用シート121Cをゴム等の樹脂製としてもよい。   The chroma key sheets 121A, 121B, and 121C may be made of the same material or different materials. Specifically, for example, the chroma key sheet 121A serving as the back surface of the imaging space A1 may be made of cloth, the chroma key sheet 121B serving as the side face may be made of resin or cloth, and the chroma key sheet 121C may be made of resin such as rubber.

[編集部の構成]
図12は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。
[Configuration of editorial department]
FIG. 12 is a diagram illustrating a configuration example of the front side of the editing unit 12 (the editing space A2-1 side).

斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided at substantially the center of the slope 72. A touch pen 132A is provided on the left side of the tablet built-in monitor 131, and a touch pen 132B is provided on the right side.

タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどの編集用モニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。   The tablet built-in monitor 131 is configured by superimposing a tablet capable of inputting an operation using the touch pen 132A or 132B on an editing monitor such as an LCD. On the tablet built-in monitor 131, for example, an editing screen that is a screen used for editing a captured image is displayed. When two people perform editing work simultaneously, the touch pen 132A is used by one user, and the touch pen 132B is used by the other user.

編集部12の左側には事後接客部13が設けられる。   On the left side of the editing unit 12, a post-service unit 13 is provided.

[事後接客部の構成]
図13は、事後接客部13の正面側の構成例を示す図である。
[Composition of the customer service department]
FIG. 13 is a diagram illustrating a configuration example of the front side of the post-service unit 13.

事後接客部13の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161を挟んで左側にタッチペン162Aが設けられ、右側にタッチペン162Bが設けられる。タブレット内蔵モニタ161もタブレット内蔵モニタ131と同様に、タッチペン162Aまたは162Bを用いて操作入力が可能なタブレットがLCDなどの事後接客用モニタに重畳して設けられることによって構成される。タブレット内蔵モニタ161には、撮影画像や編集済みの画像を携帯電話機などの携帯端末に送信する事後接客処理に用いられる画面が表示される。   A monitor 161 with a built-in tablet is provided at the upper center of the post-service section 13. A touch pen 162A is provided on the left side of the tablet built-in monitor 161, and a touch pen 162B is provided on the right side. Similarly to the tablet built-in monitor 131, the tablet built-in monitor 161 is configured by providing a tablet capable of operating input using the touch pen 162A or 162B superimposed on a post-service monitor such as an LCD. On the tablet built-in monitor 161, a screen used for post-service processing for transmitting a captured image or an edited image to a mobile terminal such as a mobile phone is displayed.

タブレット内蔵モニタ161の下には非接触型ICリーダ/ライタ163が設けられ、非接触型ICリーダ/ライタ163の下にはシール紙排出口164が設けられる。シール紙排出口164の下にはスピーカ165が設けられる。   A non-contact type IC reader / writer 163 is provided under the tablet built-in monitor 161, and a sticker paper discharge port 164 is provided under the non-contact type IC reader / writer 163. A speaker 165 is provided below the sticker paper discharge port 164.

非接触型ICリーダ/ライタ163は、近接された非接触型ICと通信を行い、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。   The non-contact type IC reader / writer 163 communicates with a non-contact type IC that is in close proximity, and reads data from the non-contact type IC and writes data to the non-contact type IC.

シール紙排出口164には、編集空間A2−1の利用者が編集作業を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集作業を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。   In the sticker paper discharge port 164, sticker paper on which an image created by the user of the editing space A2-1 is printed, or the user of the editing space A2-2 performs the editing work. The sticker paper on which the created image is printed is discharged. A printer is provided inside the editing unit 12, and printing of images is performed by the printer.

スピーカ165は、事後接客処理の案内音声、BGM、効果音等の音を出力する。   The speaker 165 outputs sound such as guidance voice, BGM, and sound effects for the post-service processing.

[写真シール作成装置の内部構成]
次に、写真シール作成装置1の内部構成について説明する。図14は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。なお、重複する説明については適宜省略する。
[Internal configuration of photo sticker creation device]
Next, the internal configuration of the photo sticker creating apparatus 1 will be described. FIG. 14 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. The same code | symbol is attached | subjected to the same structure as the structure mentioned above. Note that overlapping descriptions are omitted as appropriate.

制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209、および事後接客部210の各構成も接続される。   The control unit 201 includes a CPU (Central Processing Unit) and the like, executes a program stored in a ROM (Read Only Memory) 206 and a storage unit 202, and controls the overall operation of the photo sticker creating apparatus 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. The control unit 201 is also connected with each configuration of the photographing unit 208, the editing unit 209, and the post-service unit 210.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 includes a non-volatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 201. Information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203はインターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。   A communication unit 203 is an interface of a network such as the Internet, and communicates with an external device according to control by the control unit 201.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   A removable medium 205 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 204. Computer programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

撮影部208は、撮影空間A1における撮影処理を行う構成である硬貨処理部221、照明装置222、カメラ91、タッチパネルモニタ93、およびスピーカ223から構成される。   The imaging unit 208 includes a coin processing unit 221, an illumination device 222, a camera 91, a touch panel monitor 93, and a speaker 223 that are configured to perform imaging processing in the imaging space A1.

硬貨処理部221は、硬貨投入返却口87に対する硬貨の投入を検出する。硬貨処理部221は、例えば300円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of coins into the coin insertion / return port 87. When the coin processing unit 221 detects that a predetermined amount of coins such as 300 yen has been inserted, the coin processing unit 221 outputs an activation signal indicating that to the control unit 201.

照明装置222は、撮影空間A1内の各ストロボの内部に設けられる蛍光灯であり、制御部201より供給される照明制御信号に従って発光する。上述したように、撮影空間A1には、天井ストロボユニット24のストロボの他に、撮影部21に設けられる上ストロボ82、左ストロボ83、右ストロボ84、下ストロボ85、足元ストロボ86、モニタ左ストロボ88、モニタ右ストロボ89と、背景部22に設けられる背面中央ストロボ101、背面左ストロボ102,背面右ストロボ103が設けられている。   The illumination device 222 is a fluorescent lamp provided inside each strobe in the photographing space A1, and emits light according to an illumination control signal supplied from the control unit 201. As described above, in the photographing space A1, in addition to the strobe of the ceiling strobe unit 24, an upper strobe 82, a left strobe 83, a right strobe 84, a lower strobe 85, a foot strobe 86, and a monitor left strobe provided in the photographing section 21. 88, a monitor right strobe 89, a back center strobe 101 provided in the background portion 22, a back left strobe 102, and a back right strobe 103 are provided.

また、照明装置222は、制御部201による制御に従って発光量を調整することによって、利用者が行っている撮影作業の段階に応じて撮影空間A1内の明るさを調整する。   In addition, the illumination device 222 adjusts the light emission amount according to the control by the control unit 201, thereby adjusting the brightness in the shooting space A1 according to the stage of the shooting work performed by the user.

カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像を制御部201に出力する。   The camera 91 shoots according to the control by the control unit 201 and outputs an image obtained by the shooting to the control unit 201.

スピーカ223は、利用者に撮影作業を行わせる撮影処理の案内音声、BGM、効果音等の音を出力する。   The speaker 223 outputs sound such as guidance voice, BGM, and sound effects of shooting processing that causes the user to perform shooting work.

編集部209Aは、編集空間A2−1における編集処理を行う構成として編集部12の正面側に設けられるタブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bも編集部209Aと同一の構成を有しており、編集空間A2−2における編集処理を行う。   The editing unit 209A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 231 provided on the front side of the editing unit 12 as a configuration for performing editing processing in the editing space A2-1. The editing unit 209B has the same configuration as the editing unit 209A, and performs editing processing in the editing space A2-2.

タブレット内蔵モニタ131は、制御部201による制御に従って、内蔵する編集用モニタに編集画面を表示し、編集画面(内蔵するタブレット)に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。   The tablet built-in monitor 131 displays an editing screen on a built-in editing monitor under the control of the control unit 201, and detects a user operation on the editing screen (built-in tablet). A signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

スピーカ231は、利用者に編集作業を行わせる編集処理の案内音声、BGM、効果音等の音を出力する。   The speaker 231 outputs sound such as guidance voice, BGM, and sound effect of editing processing that allows the user to perform editing work.

事後接客部210は、事後接客空間A3における事後接客処理を行う構成であるタブレット内蔵モニタ161、タッチペン162A,162B、非接触型ICリーダ/ライタ163、スピーカ165、印刷処理を行う構成であるプリンタ241、およびシール紙ユニット242から構成される。   The subsequent customer service unit 210 includes a tablet built-in monitor 161, touch pens 162A and 162B, a non-contact type IC reader / writer 163, a speaker 165, and a printer 241 that perform print processing in the subsequent customer service space A3. , And a sticker unit 242.

タブレット内蔵モニタ161は、制御部201による制御に従って、内蔵する事後接客用モニタに事後接客に用いられる画面を表示し、その画面(内蔵するタブレット)に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、事後接客が行われる。   Under the control of the control unit 201, the tablet built-in monitor 161 displays a screen used for the subsequent customer service on the built-in subsequent customer service monitor, and detects a user operation on the screen (built-in tablet). A signal representing the content of the user's operation is supplied to the control unit 201, and the customer service is performed afterwards.

プリンタ241は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ241に装着されたシール紙ユニット242に収納されているシール紙に印刷し、シール紙排出口164に排出する。   The printer 241 prints the photographed image or the edited image obtained by the editing process on the sticker paper stored in the sticker paper unit 242 attached to the printer 241 and discharges it to the sticker paper discharge port 164.

[制御部の構成]
次に、制御部201について説明する。図15は、制御部201がROM206などに格納されているプログラムを実行することにより実現される機能ブロックの構成例を示している。
[Configuration of control unit]
Next, the control unit 201 will be described. FIG. 15 shows a configuration example of functional blocks realized by the control unit 201 executing a program stored in the ROM 206 or the like.

制御部201は、写真シール作成ゲームを開始する際に投入される代金に関する処理や利用者グループを撮影する等の写真シール作成ゲームの撮影作業の工程に関する処理を行う撮影処理部301、撮影画像に対する落書き編集等の写真シール作成ゲームの編集作業の工程に関する処理を行う編集処理部302、シール紙の印刷等の写真シール作成ゲームの印刷の工程に関する処理を行う印刷処理部303、および、編集作業を終了した利用者グループを接客する写真シール作成ゲームの事後接客の工程に関する処理を行う事後接客処理部304を有する。   The control unit 201 performs a process related to a charge input when starting the photo sticker creation game and a process related to a photographing work process of the photo sticker creation game such as photographing a user group. An editing processing unit 302 that performs processing related to the editing work process of the photo sticker creation game such as graffiti editing, a printing processing unit 303 that performs processing related to the printing process of the photo sticker creation game such as printing of sticker paper, and editing work. A post-service processing unit 304 is provided for performing processing related to the post-service process of the photo sticker creation game that serves the finished user group.

つまり、制御部201は、写真シール作成ゲームの各工程に関する処理の制御を行う。   That is, the control unit 201 controls processing related to each process of the photo sticker creation game.

[撮影処理部の構成]
図16は、図15の撮影処理部301のさらに詳細な構成例を示す機能ブロック図である。
[Configuration of shooting processing unit]
FIG. 16 is a functional block diagram illustrating a more detailed configuration example of the imaging processing unit 301 in FIG.

図16の例において、撮影処理部301は、進行制御部311、撮影パラメータ設定部312、ライブビュー表示制御部313、撮影画像取得部314、照明制御部315、カメラ駆動制御部316、クロマキー処理部317、コーナーポイント検知部318、コーナー画像生成部319、合成処理部320、および顔認識部321から構成される。   In the example of FIG. 16, the shooting processing unit 301 includes a progress control unit 311, a shooting parameter setting unit 312, a live view display control unit 313, a shot image acquisition unit 314, an illumination control unit 315, a camera drive control unit 316, and a chroma key processing unit. 317, a corner point detection unit 318, a corner image generation unit 319, a composition processing unit 320, and a face recognition unit 321.

進行制御部311は、撮影作業の工程の進行を制御する。   The progress control unit 311 controls the progress of the photographing work process.

撮影パラメータ設定部312は、写りや明るさ、目のサイズ等の撮影に関するパラメータの設定に関する処理を行う。   The shooting parameter setting unit 312 performs processing related to setting of parameters relating to shooting such as image quality, brightness, and eye size.

ライブビュー表示制御部313は、タッチパネルモニタ93の表示(ライブビュー表示)に関する処理を行う。   The live view display control unit 313 performs processing related to display on the touch panel monitor 93 (live view display).

撮影画像取得部314は、撮影、特に、撮影画像の取得に関する処理を行う。   The captured image acquisition unit 314 performs processing related to imaging, particularly acquisition of captured images.

照明制御部315は、撮影空間内に設けられる照明装置の発光に関する処理を行う。   The illumination control unit 315 performs processing related to light emission of the illumination device provided in the imaging space.

カメラ駆動制御部316は、カメラ91の駆動に関する処理を行う。   The camera drive control unit 316 performs processing related to driving of the camera 91.

クロマキー処理部317は、カメラ91により取り込まれた取り込み画像の背景領域の色に基づいて、背景領域を抜き出すクロマキー処理を行う。   The chroma key processing unit 317 performs chroma key processing for extracting the background area based on the color of the background area of the captured image captured by the camera 91.

コーナーポイント検知部318は、カメラ91により取り込まれた取り込み画像の背景領域としての、撮影空間の背面、側面、および床面の3面が交わる交点であるコーナーポイントを検知する。   The corner point detection unit 318 detects a corner point, which is an intersection where the back surface, the side surface, and the floor surface of the shooting space intersect as a background region of the captured image captured by the camera 91.

コーナー画像生成部319は、撮影空間の背面、側面、および床面のうちの2面が交わる交線を模した線分であるコーナーラインを含む背景画像(以下、コーナー画像という)を生成する。   The corner image generation unit 319 generates a background image (hereinafter referred to as a corner image) including a corner line that is a line segment imitating an intersection line of two of the back surface, the side surface, and the floor surface of the imaging space.

合成処理部320は、クロマキー処理部317により背景領域が抜き出された取り込み画像に、コーナー画像生成部319により生成されたコーナー画像を合成する。また、合成処理部320は、複数の撮影画像から各利用者の画像を抽出し、同じ利用者の画像のみを組み合わせた合成画像を生成する処理を行う。   The composition processing unit 320 synthesizes the corner image generated by the corner image generation unit 319 with the captured image from which the background area has been extracted by the chroma key processing unit 317. Further, the composition processing unit 320 performs processing for extracting each user's image from a plurality of photographed images and generating a composite image combining only the same user's images.

顔認識部321は、撮影画像に写っている利用者の顔の認識処理を行う。例えば、顔認識部321は、撮影画像に写っている顔に基づいて個人の特定を行ったり、撮影画像内の人の数を検出したりする。   The face recognition unit 321 performs a process for recognizing a user's face in the captured image. For example, the face recognizing unit 321 identifies an individual based on the face shown in the photographed image, or detects the number of people in the photographed image.

[編集処理部の構成]
図17は、図15の編集処理部302のさらに詳細な構成例を示す機能ブロック図である。
[Configuration of edit processing section]
FIG. 17 is a functional block diagram illustrating a more detailed configuration example of the editing processing unit 302 of FIG.

図17の例において、編集処理部302は、進行制御部351、編集準備処理部352、入力受付制御部353、編集画面表示制御部354、および落書き編集処理部355から構成される。   In the example of FIG. 17, the editing processing unit 302 includes a progress control unit 351, an editing preparation processing unit 352, an input reception control unit 353, an editing screen display control unit 354, and a graffiti editing processing unit 355.

進行制御部351は、編集作業の工程の進行を制御する。   The progress control unit 351 controls the progress of the editing work process.

編集準備処理部352は、編集の準備に関する処理を行う。   The editing preparation processing unit 352 performs processing related to editing preparation.

入力受付制御部353は、タブレット内蔵モニタ131を制御し、タブレット内蔵モニタ131に表示される各種のGUIに対して利用者により行われる操作入力を受け付ける処理を行う。   The input reception control unit 353 controls the tablet built-in monitor 131 and performs a process of receiving operation input performed by the user for various GUIs displayed on the tablet built-in monitor 131.

編集画面表示制御部354は、タブレット内蔵モニタ131に表示される編集画面の表示や、その編集画面上における各種のGUIの表示に関する処理を行う。   The edit screen display control unit 354 performs processing related to display of an edit screen displayed on the tablet built-in monitor 131 and display of various GUIs on the edit screen.

落書き編集処理部355は、利用者によるタッチペン132を用いた入力操作に応じて、撮影画像に対する落書き等の編集に関する処理を行う。   The graffiti editing processing unit 355 performs processing related to editing graffiti on the captured image in response to an input operation using the touch pen 132 by the user.

[写真シール作成装置の動作]
次に、図18のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の処理について説明する。
[Operation of photo sticker creation device]
Next, processing of the photo sticker creation apparatus 1 that provides a photo sticker creation game will be described with reference to the flowchart of FIG.

ステップS1において、写真シール作成装置1の制御部201の撮影処理部301は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。   In step S1, the photographing processing unit 301 of the control unit 201 of the photo sticker creating apparatus 1 determines whether or not a predetermined amount of coins has been inserted based on a signal supplied from the coin processing unit 221 and is inserted. Wait until it is determined.

硬貨が投入されたとステップS1において判定した場合、ステップS2において、撮影処理部301は、撮影部208を制御し、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ93にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影する撮影処理を行う。なお、撮影処理については、図19および図20のフローチャートを参照して後述する。   If it is determined in step S1 that a coin has been inserted, in step S2, the photographing processing unit 301 controls the photographing unit 208 to display a moving image of the subject captured by the camera 91 on the touch panel monitor 93 for live view. A photographing process is performed for photographing a user in the space A1 as a subject. The photographing process will be described later with reference to the flowcharts of FIGS. 19 and 20.

ステップS3において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ93に画面を表示させることによって、または音声をスピーカ223から出力させることによって行われる。   In step S3, the imaging processing unit 301 guides the user in the imaging space A1 to move to the editing space A2-1 or the editing space A2-2. The guidance for movement to the editing space A2-1 or the editing space A2-2 is performed by displaying a screen on the touch panel monitor 93 of the photographing unit 208 or by outputting sound from the speaker 223.

ステップS4において、編集処理部302は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間(以下、移動先編集空間と称する)に対応する編集部209を制御し、編集処理を行う。具体的には、編集処理部302は、撮影画像に合成する合成用画像を利用者に選択させ、選択された合成用画像を撮影画像に合成させ、得られた合成画像に対して、利用者による編集操作に従って編集を行う。なお、編集処理については、図44のフローチャートを参照して後述する。   In step S4, the editing processing unit 302 selects the editing space (hereinafter referred to as the moving destination editing space) which is the moving destination of the user who has finished the photographing process, among the editing space A2-1 and the editing space A2-2. The editing unit 209 corresponding to is controlled to perform editing processing. Specifically, the editing processing unit 302 causes the user to select a synthesis image to be synthesized with the photographed image, synthesizes the selected composition image with the photographed image, and performs a user operation on the obtained synthesized image. Edit according to the editing operation. The editing process will be described later with reference to the flowchart of FIG.

ステップS5において、編集処理部302は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して事後接客空間A3への移動を案内する。事後接客空間A3への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。   In step S5, the editing processing unit 302 guides the user who has finished the editing process in the editing space A2-1 or the editing space A2-2 to move to the post-service space A3. The guidance of the movement to the post-service space A3 is performed by displaying a screen on the tablet built-in monitor 131 or by outputting sound from the speaker 231.

ステップS6において、印刷処理部303は、編集処理により得られた編集済み画像をプリンタ241に出力してシール紙に印刷させる印刷処理を行う。   In step S <b> 6, the print processing unit 303 performs a printing process in which the edited image obtained by the editing process is output to the printer 241 and printed on a sticker sheet.

ステップS7において、事後接客処理部304は、事後接客部210を制御し、印刷終了待機中の利用者に対する事後接客処理を行う。具体的には、事後接客処理部304は、撮影画像や編集済みの画像を携帯端末に送信する携帯送信ゲーム処理を事後接客処理として行い、携帯端末の電子メールアドレスを直接入力することで画像を携帯端末に送信するか、非接触型ICと通信することで画像を携帯端末に送信するかを利用者に選択させる送信方法の選択画面や、送信する画像の選択画面をタブレット内蔵モニタ161に表示させ、利用者による操作に応じて画像を送信する。   In step S <b> 7, the subsequent customer service processing unit 304 controls the subsequent customer service unit 210 to perform the subsequent customer service process for a user who is waiting for printing completion. Specifically, the post-service processing unit 304 performs a mobile transmission game process for transmitting a captured image or an edited image to the mobile terminal as the post-service processing, and directly inputs the e-mail address of the mobile terminal. Display on the tablet built-in monitor 161 a selection screen for a transmission method that allows a user to select whether to transmit an image to a portable terminal by transmitting to a portable terminal or by communicating with a non-contact type IC. The image is transmitted according to the operation by the user.

印刷が終了すると、ステップS8において、事後接客処理部304は、印刷が終了した旨をタブレット内蔵モニタ161に表示させ、プリンタ241は、画像が印刷されたシール紙をシール紙排出口164に排出し、処理を終了させる。   When the printing is completed, in step S8, the post-service processing unit 304 displays that the printing is completed on the tablet built-in monitor 161, and the printer 241 discharges the sticker paper on which the image is printed to the sticker paper discharge port 164. The process is terminated.

[撮影処理の例]
次に、図19および図20のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS2の撮影処理の流れの例を説明する。
[Example of shooting process]
Next, an example of the flow of the photographing process in step S2 in the series of processes of the above-described photo sticker creation game will be described with reference to the flowcharts of FIGS.

ステップS31において、撮影パラメータ設定部312は、写り選択画面をタッチパネルモニタ93に表示させ、利用者による写り選択を受け付ける。写り選択は、色合いやシャープネス等の、画像の画質の選択である。撮影パラメータ設定部312は、利用者により選択された写りに応じて、カメラ91により撮影された画像の画質を調整する。   In step S31, the shooting parameter setting unit 312 displays a shooting selection screen on the touch panel monitor 93 and accepts shooting selection by the user. The image selection is selection of image quality such as hue and sharpness. The shooting parameter setting unit 312 adjusts the image quality of the image shot by the camera 91 according to the image selected by the user.

ステップS32において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、利用者の顔または上半身を前方正面から撮影する下カメラアップ撮影を行う旨のガイダンス画面を表示する。すなわち、このとき、カメラ91は、下カメラの状態とされる。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。   In step S <b> 32, the progress control unit 311 displays a shooting method guidance screen on the touch panel monitor 93. Specifically, a guidance screen for performing lower camera up shooting for shooting the user's face or upper body from the front front is displayed. That is, at this time, the camera 91 is in a lower camera state. After displaying the guidance screen, the captured image acquisition unit 314 controls the camera 91 to start capturing an image.

ステップS33において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。   In step S33, the live view display control unit 313 displays the moving image (live view image) captured by the camera 91 on the touch panel monitor 93 (performs live view display).

ステップS34において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。   In step S34, the captured image acquisition unit 314 displays a countdown indicator on the touch panel monitor 93, and notifies the user of the capturing timing.

撮影タイミングになったとき、ステップS35において、撮影画像取得部314は、カメラ91を制御して下カメラアップ撮影を行い、静止画像である撮影画像(下カメラアップ撮影画像)を取得する。   When the shooting timing comes, in step S35, the captured image acquisition unit 314 controls the camera 91 to perform lower camera up shooting, and acquires a captured image that is a still image (lower camera up captured image).

ステップS36において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。   In step S <b> 36, the progress control unit 311 displays the captured image on the touch panel monitor 93 and allows the user to check the captured result.

図21は、下カメラアップ撮影時にタッチパネルモニタ93に表示されるライブビュー表示画面の例を示している。図21のライブビュー表示画面は、カメラ91のライブビュー画像を表示するライブビュー表示領域411、および、撮影の結果得られる撮影画像が表示される撮影結果表示領域412−1乃至412−6から構成されている。図21のライブビュー表示画面において、図示せぬカウントダウンインジケータで示される数字が0になったときに、ライブビュー表示領域411に表示されているライブビュー画像が下カメラアップ撮影画像として得られる。得られた下カメラアップ撮影画像は、撮影した順に、撮影結果表示領域412−1乃至412−6のうちの所定の領域(具体的には、撮影結果表示領域412−1乃至412−3)に表示されるようになる。   FIG. 21 shows an example of a live view display screen displayed on the touch panel monitor 93 during lower camera up shooting. The live view display screen of FIG. 21 includes a live view display area 411 that displays a live view image of the camera 91, and shooting result display areas 412-1 to 412-6 that display shot images obtained as a result of shooting. Has been. In the live view display screen of FIG. 21, when the number indicated by a countdown indicator (not shown) becomes 0, the live view image displayed in the live view display area 411 is obtained as the lower camera up photographed image. The obtained lower camera-up shot images are displayed in predetermined areas (specifically, the shooting result display areas 412-1 to 412-3) in the shooting result display areas 412-1 to 412-6 in the order of shooting. It will be displayed.

図19のフローチャートに戻り、ステップS36の後、ステップS37において、進行制御部311は、撮影を所定回数繰り返し行ったか否かを判定する。ステップS37において撮影を所定回数行っていないと判定された場合、処理はステップS33に戻り、上述の処理を繰り返し行う。具体的には、3回の下カメラアップ撮影が行われるまで、上述の処理が繰り返される。   Returning to the flowchart of FIG. 19, after step S <b> 36, in step S <b> 37, the progress control unit 311 determines whether or not shooting has been repeated a predetermined number of times. If it is determined in step S37 that shooting has not been performed a predetermined number of times, the process returns to step S33, and the above-described process is repeated. Specifically, the above-described processing is repeated until the lower camera up shooting is performed three times.

一方、ステップS37において、下カメラアップ撮影を3回繰り返し行ったと判定された場合、処理はステップS38に進み、カメラ駆動制御部316は、カメラ91を上方向に移動させるように、カメラ91の駆動を制御する。これにより、カメラ91は、上カメラの状態とされる。   On the other hand, if it is determined in step S37 that the lower camera up shooting has been repeated three times, the process proceeds to step S38, and the camera drive control unit 316 drives the camera 91 so as to move the camera 91 upward. To control. As a result, the camera 91 is brought into the upper camera state.

ステップS39において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、利用者の顔または上半身を前方斜め上から撮影する上カメラアップ撮影を行う旨のガイダンス画面を表示する。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。   In step S <b> 39, the progress control unit 311 displays a shooting method guidance screen on the touch panel monitor 93. Specifically, a guidance screen for performing upper camera-up shooting for shooting the user's face or upper body from diagonally forward is displayed. After displaying the guidance screen, the captured image acquisition unit 314 controls the camera 91 to start capturing an image.

なお、上述したように、カメラ91は、上カメラの状態では、ズームアウトするようにフォーカスが調整されるが、ここでは、デジタルズーム機能により、取り込み画像の倍率を電気的に変更することで、上カメラアップ撮影を行う。また、カメラ91のフォーカスは、図6を参照して説明した機構により調整される以外に、撮影方法に応じてカメラ駆動制御部316により調整されるようにしてもよい。   As described above, in the state of the upper camera, the focus of the camera 91 is adjusted so as to zoom out, but here, the digital zoom function is used to electrically change the magnification of the captured image, thereby Take a camera-up shot. Further, the focus of the camera 91 may be adjusted by the camera drive control unit 316 in accordance with the shooting method, in addition to being adjusted by the mechanism described with reference to FIG.

ステップS40において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。   In step S40, the live view display control unit 313 displays the moving image (live view image) captured by the camera 91 on the touch panel monitor 93 (performs live view display).

ステップS41において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。   In step S41, the captured image acquisition unit 314 displays a countdown indicator on the touch panel monitor 93 and notifies the user of the capturing timing.

撮影タイミングになったとき、ステップS42において、撮影画像取得部314は、カメラ91を制御して上カメラアップ撮影を行い、静止画像である撮影画像(上カメラアップ撮影画像)を取得する。   When the shooting timing comes, in step S42, the captured image acquisition unit 314 controls the camera 91 to perform upper camera up shooting and acquires a captured image (upper camera up captured image) that is a still image.

ステップS43において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。   In step S43, the progress control unit 311 displays the captured image on the touch panel monitor 93, and allows the user to check the captured result.

図22は、上カメラアップ撮影時にタッチパネルモニタ93に表示されるライブビュー表示画面の例を示している。図22のライブビュー表示画面において、図示せぬカウントダウンインジケータで示される数字が0になったときに、ライブビュー表示領域411に表示されているライブビュー画像が上カメラアップ撮影画像として得られる。なお、上カメラアップ撮影は1回のみ行われる。撮影結果表示領域412−1乃至412−3には、下カメラアップ撮影画像が表示されているので、得られた上カメラアップ撮影画像は、撮影結果表示領域412−4に表示されるようになる。   FIG. 22 shows an example of a live view display screen displayed on the touch panel monitor 93 during upper camera up shooting. In the live view display screen of FIG. 22, when the number indicated by a countdown indicator (not shown) becomes 0, the live view image displayed in the live view display area 411 is obtained as the upper camera up photographed image. The upper camera up shooting is performed only once. Since the lower camera up photographed image is displayed in the photographing result display areas 412-1 to 412-3, the obtained upper camera up photographed image is displayed in the photographing result display area 412-4. .

図19のフローチャートに戻り、ステップS43の後、図20のステップS44において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、利用者の全身を前方斜め上から撮影する上カメラ全身撮影を行う旨のガイダンス画面を表示する。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。   Returning to the flowchart of FIG. 19, after step S <b> 43, in step S <b> 44 of FIG. 20, the progress control unit 311 causes the touch panel monitor 93 to display a shooting method guidance screen. Specifically, a guidance screen is displayed to the effect that the upper camera whole body photographing is performed to photograph the whole body of the user from diagonally forward. After displaying the guidance screen, the captured image acquisition unit 314 controls the camera 91 to start capturing an image.

図23は、タッチパネルモニタ93に表示される上カメラ全身撮影のガイダンス画面の例を示している。図23のガイダンス画面には、全身撮影を行う旨の文言と、利用者をタッチパネルモニタ93に表示される足型の印である足マークに合わせて立たせるよう促す文言が表示される。すなわち、タッチパネルモニタ93(図24)には、ライブビュー画像とともに、上カメラ全身撮影を行うのに最適な立ち位置を示す足マークが表示され、利用者がその足マークに合わせて立つことで、好適な上カメラ全身撮影画像が得られるようになされている。   FIG. 23 shows an example of an upper camera whole body photographing guidance screen displayed on the touch panel monitor 93. On the guidance screen of FIG. 23, a wording that the whole body photographing is performed and a word that prompts the user to stand in accordance with a foot mark that is a foot mark displayed on the touch panel monitor 93 are displayed. That is, on the touch panel monitor 93 (FIG. 24), a foot mark indicating the optimal standing position for performing the upper camera whole body photographing is displayed together with the live view image, and the user stands according to the foot mark, A suitable upper camera whole body photographed image is obtained.

そして、ステップS45において、カメラ91により取り込まれた動画像(ライブビュー画像)を表示させ、所定の撮影タイミングで上カメラ全身撮影を行う上カメラ全身撮影処理が実行される。なお、上カメラ全身撮影処理については、図25のフローチャートを参照して後述する。   Then, in step S45, a moving image (live view image) captured by the camera 91 is displayed, and an upper camera whole body photographing process is performed in which the upper camera whole body photographing is performed at a predetermined photographing timing. The upper camera whole body imaging process will be described later with reference to the flowchart of FIG.

図24は、上カメラ全身撮影時にタッチパネルモニタ93に表示されるライブビュー表示画面の例を示している。図24のライブビュー表示画面において、図示せぬカウントダウンインジケータで示される数字が0になったときに、ライブビュー表示領域411に表示されているライブビュー画像が上カメラ全身撮影画像として得られる。撮影結果表示領域412−1乃至412−3には、下カメラアップ撮影画像が表示され、撮影結果表示領域412−4には、上カメラアップ撮影画像が表示されているので、得られた上カメラ全身撮影画像は、撮影結果表示領域412−5に表示されるようになる。   FIG. 24 shows an example of a live view display screen displayed on the touch panel monitor 93 at the time of upper camera whole body photography. In the live view display screen of FIG. 24, when the number indicated by a countdown indicator (not shown) becomes 0, the live view image displayed in the live view display area 411 is obtained as the upper camera whole body captured image. The lower camera up shot image is displayed in the shooting result display areas 412-1 to 412-3, and the upper camera up shot image is displayed in the shooting result display area 412-4. The whole-body captured image is displayed in the imaging result display area 412-5.

なお、図24に示されるタッチパネルモニタ93においては、ライブビュー表示領域411の領域外(ライブビュー表示領域411の下)に足マークが表示されているが、ライブビュー表示領域411に表示されるライブビュー画像内に足マークを表示するようにしてもよい。また、足マークを、タッチパネルモニタ93に表示するのではなく、床104(クロマキー用シート121C)の表面に予め記すようにし、利用者にその足マークの上に立たせるようにしてもよい。   In the touch panel monitor 93 shown in FIG. 24, a foot mark is displayed outside the live view display area 411 (below the live view display area 411), but the live view displayed in the live view display area 411 is displayed. A foot mark may be displayed in the view image. Further, the foot mark may not be displayed on the touch panel monitor 93, but may be written in advance on the surface of the floor 104 (chroma key sheet 121C) so that the user can stand on the foot mark.

図20のフローチャートに戻り、ステップS46において、進行制御部311は、経過時間または残り時間に基づいて、撮影可能時間内か否かを判定する。ステップS46において、撮影可能時間内であると判定された場合、追加的な撮影、いわゆる「ボーナス撮影」の処理が行われる。   Returning to the flowchart of FIG. 20, in step S <b> 46, the progress control unit 311 determines based on the elapsed time or the remaining time whether or not it is within the shootable time. If it is determined in step S46 that the time is within the available shooting time, additional shooting, so-called “bonus shooting” is performed.

ステップS47において、進行制御部311は、ボーナス撮影のガイダンス画面をタッチパネルモニタ93に表示させる。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。   In step S <b> 47, the progress control unit 311 displays a bonus shooting guidance screen on the touch panel monitor 93. After displaying the guidance screen, the captured image acquisition unit 314 controls the camera 91 to start capturing an image.

ステップS48において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。   In step S48, the live view display control unit 313 displays the moving image (live view image) captured by the camera 91 on the touch panel monitor 93 (performs live view display).

ステップS49において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。   In step S49, the captured image acquisition unit 314 displays a countdown indicator on the touch panel monitor 93 and notifies the user of the capturing timing.

撮影タイミングになったとき、ステップS50において、撮影画像取得部314は、カメラ91を制御してボーナス撮影を行い、静止画像である撮影画像(ボーナス撮影画像)を取得する。   When the shooting timing comes, in step S50, the captured image acquisition unit 314 controls the camera 91 to perform bonus shooting, and acquires a captured image (bonus captured image) that is a still image.

なお、ボーナス撮影処理においては、カメラ91は上カメラの状態とされるので、上カメラアップ撮影または上カメラ全身撮影のいずれかが行われるものとする。なお、以下、ボーナス撮影処理において、上カメラ全身撮影が行われる場合を例に挙げて説明する。   In the bonus shooting process, since the camera 91 is in the upper camera state, either the upper camera up shooting or the upper camera whole body shooting is performed. Hereinafter, a case where upper camera whole body photographing is performed in the bonus photographing processing will be described as an example.

ステップS51において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。このとき、得られたボーナス撮影画像は、図21、図22または図24に示される撮影結果表示領域412−6に表示されるようになる。その後、処理はステップS52に進む。   In step S51, the progress control unit 311 displays the captured image on the touch panel monitor 93, and allows the user to check the captured result. At this time, the obtained bonus photographed image is displayed in the photographing result display area 412-6 shown in FIG. 21, FIG. 22, or FIG. Thereafter, the process proceeds to step S52.

一方、ステップS46において、撮影可能時間内でないと判定された場合、ステップS47乃至S51はスキップされ、ボーナス撮影は行われずに、処理はステップS52に進む。   On the other hand, if it is determined in step S46 that the time is not within the shootable time, steps S47 to S51 are skipped, bonus shooting is not performed, and the process proceeds to step S52.

従って、例えば、コインを1枚投入してから所定の時間(例えば、300秒)が経過した場合、化粧直し等により時間がかかっている利用者に対しては、ボーナス撮影が行われなくなる。そのため、大部分の利用者は、ボーナス撮影が行われるように、より早く撮影するようになる。   Therefore, for example, when a predetermined time (for example, 300 seconds) has elapsed since the insertion of one coin, bonus shooting is not performed for a user who is taking a long time due to re-dressing or the like. For this reason, most users will shoot faster so that bonus shooting can be performed.

なお、以下、ボーナス撮影が行われる場合を通常撮影と称し、ボーナス撮影が行われない場合をペナルティ撮影と称する。また、以下、ボーナス撮影が終了するまでに得られる撮影画像をまとめて標準撮影画像と称する。従って、通常撮影が行われた場合には、6枚の標準撮影画像が得られ、ペナルティ撮影が行われた場合には、5枚の標準撮影画像が得られることになる。なお、後述するように、標準撮影画像がシール紙に印刷される対象となる。   Hereinafter, a case where bonus shooting is performed is referred to as normal shooting, and a case where bonus shooting is not performed is referred to as penalty shooting. Hereinafter, the captured images obtained until the bonus shooting is completed are collectively referred to as a standard captured image. Therefore, when normal shooting is performed, six standard captured images are obtained, and when penalty shooting is performed, five standard captured images are obtained. As will be described later, the standard captured image is an object to be printed on the sticker sheet.

ステップS52において、顔認識部321は、撮影人数が1人または2人であるか否かを判定する。具体的には、顔認識部321は、現在までに得られた5枚または6枚の各撮影画像に対して顔認識処理を行い、各撮影画像における撮影人数を検出する。なお、顔認識処理には、任意の手法を採用することができる。   In step S52, the face recognition unit 321 determines whether the number of photographers is one or two. Specifically, the face recognition unit 321 performs face recognition processing on each of the five or six photographed images obtained up to now, and detects the number of photographers in each photographed image. Note that any method can be employed for the face recognition processing.

そして、顔認識部321は、撮影人数が1人または2人の撮影画像が4枚以上である場合、撮影人数が1人または2人であると判定し、処理はステップS53に進む。   The face recognition unit 321 determines that the number of photographed persons is one or two when the number of photographed persons is four or more, and the process proceeds to step S53.

ステップS53において、クロス組合せ撮影処理が実行される。この処理により、携帯端末への送信用の画像として、利用者毎に全身画像と顔付近のアップ画像を組み合わせたクロス組合せ画像が得られる。なお、クロス組合せ撮影処理については、図42のフローチャートを参照して後述する。   In step S53, a cross combination photographing process is executed. By this process, a cross combination image obtained by combining the whole body image and the up image near the face is obtained for each user as an image for transmission to the mobile terminal. The cross combination photographing process will be described later with reference to the flowchart of FIG.

ステップS53の処理が終了すると、撮影処理は終了され、処理は図18のステップS2に戻る。   When the process of step S53 ends, the shooting process ends, and the process returns to step S2 of FIG.

一方、ステップS52において、顔認識部321は、撮影人数が1人または2人の撮影画像が4枚未満である場合、撮影人数が1人または2人でないと判定する。その後、ステップS53の処理はスキップされ、撮影処理は終了され、処理は図18のステップS2に戻る。   On the other hand, in step S52, the face recognition unit 321 determines that the number of photographed persons is not one or two when the number of photographed persons is less than four. Thereafter, the process in step S53 is skipped, the photographing process is terminated, and the process returns to step S2 in FIG.

[上カメラ全身撮影処理1]
次に、図25のフローチャートを参照して、図20のステップS45の上カメラ全身撮影処理の詳細について説明する。
[Upper camera whole body photographing process 1]
Next, with reference to the flowchart of FIG. 25, the details of the upper camera whole body imaging process in step S45 of FIG.

ステップS111において、クロマキー処理部317は、カメラ91により取り込まれた動画像(ライブビュー画像)の背景領域を抜き出す。   In step S <b> 111, the chroma key processing unit 317 extracts a background area of a moving image (live view image) captured by the camera 91.

図26は、カメラ91により取り込まれたライブビュー画像の例を示している。図26のライブビュー画像501においては、2人の被写体とともに、撮影空間A1を構成する背景部22の背面パネル51、側面パネル52B、および床104の表面に貼付されているクロマキー用シート121A,121B,121Cが表示されている。   FIG. 26 shows an example of a live view image captured by the camera 91. In the live view image 501 of FIG. 26, together with two subjects, the back panel 51, the side panel 52B, and the chroma key sheets 121A and 121B attached to the surface of the floor 104 that constitute the imaging space A1. , 121C are displayed.

ここで、クロマキー用シート121A,121B,121Cがそれぞれ異なる材質で構成されているものとすると、ライブビュー画像501におけるクロマキー用シート121A,121B,121Cの色(見え方)もそれぞれ異なる。   Here, if the chroma key sheets 121A, 121B, and 121C are made of different materials, the colors (appearance) of the chroma key sheets 121A, 121B, and 121C in the live view image 501 are also different.

そこで、クロマキー処理部317は、ライブビュー画像501の背景領域としての撮影空間A1の背面、側面、および床面(すなわち、クロマキー用シート121A,121B,121C)の3面それぞれの色を示す値の範囲(色範囲)を検出することで、背面、側面、および床面それぞれについてのクロマキーパラメータを設定する。   Therefore, the chroma key processing unit 317 has values indicating the colors of the three surfaces of the back surface, the side surface, and the floor surface (that is, the chroma key sheets 121A, 121B, and 121C) as the background region of the live view image 501. By detecting the range (color range), the chroma key parameter for each of the back surface, the side surface, and the floor surface is set.

具体的には、図27に示されるライブビュー画像501(被写体は省略)において、クロマキー用シート121Aで最も明るい領域RmaxAの色値と、最も暗い領域RminAの色値とに基づいて色範囲が検出されることで、クロマキー用シート121Aのクロマキーパラメータが設定される。同様に、クロマキー用シート121Bで最も明るい領域RmaxBの色値と、最も暗い領域RminBの色値とに基づいて色範囲が検出されることで、クロマキー用シート121Bのクロマキーパラメータが設定され、クロマキー用シート121Cで最も明るい領域RmaxCの色値と、最も暗い領域RminCの色値とに基づいて色範囲が検出されることで、クロマキー用シート121Cのクロマキーパラメータが設定される。   Specifically, in the live view image 501 (subject is omitted) shown in FIG. 27, the color range is detected based on the color value of the brightest region RmaxA and the color value of the darkest region RminA in the chroma key sheet 121A. Thus, the chroma key parameter of the chroma key sheet 121A is set. Similarly, by detecting the color range based on the color value of the brightest region RmaxB and the color value of the darkest region RminB in the chroma key sheet 121B, the chroma key parameter of the chroma key sheet 121B is set, and the chroma key By detecting the color range based on the color value of the brightest region RmaxC and the color value of the darkest region RminC in the sheet 121C, the chroma key parameter of the chroma key sheet 121C is set.

そして、クロマキー処理部317は、3面それぞれについてのクロマキーパラメータを用いて、ライブビュー画像501から背景領域(背面、側面、および床面)を抜き出す。   Then, the chroma key processing unit 317 extracts a background region (back surface, side surface, and floor surface) from the live view image 501 using the chroma key parameters for each of the three surfaces.

ステップS112において、コーナーポイント検知部318は、カメラ91により取り込まれたライブビュー画像の背景領域の色を示す値(色値)の境界に基づいて、コーナーポイントを検知する。   In step S <b> 112, the corner point detection unit 318 detects a corner point based on a boundary of values (color values) indicating the color of the background area of the live view image captured by the camera 91.

上述したように、図26において、ライブビュー画像501におけるクロマキー用シート121A,121B,121Cの色はそれぞれ異なるので、コーナーポイント検知部318は、クロマキー用シート121A,121B,121Cの3面それぞれの色範囲を検出し、それぞれの色値の境界を求めることで、撮影空間A1の背面、側面、および床面の3面が交わるコーナーポイントCPを検知する。   As described above, since the colors of the chroma key sheets 121A, 121B, and 121C in the live view image 501 are different from each other in FIG. By detecting the range and obtaining the boundary of each color value, a corner point CP where the three surfaces of the back surface, the side surface, and the floor surface of the imaging space A1 intersect is detected.

ステップS113において、進行制御部311は、コーナーポイント検知部318がコーナーポイントを検知したか否かを判定する。ステップS113において、コーナーポイントを検知していないと判定された場合、処理はステップS112に戻り、コーナーポイントが検知されるまで処理が繰り返される。なお、コーナーポイントを検知していないと判定された場合、タッチパネルモニタ93に、エラーメッセージを表示させるようにしてもよい。また、このとき、色値の境界を求めるのに用いられる色範囲が変更(再検出)されるようにしてもよい。   In step S113, the progress control unit 311 determines whether the corner point detection unit 318 has detected a corner point. If it is determined in step S113 that no corner point is detected, the process returns to step S112, and the process is repeated until a corner point is detected. If it is determined that a corner point has not been detected, an error message may be displayed on the touch panel monitor 93. At this time, the color range used to obtain the boundary between the color values may be changed (redetected).

一方、ステップS113において、コーナーポイントが検知されたと判定された場合、処理はステップS114に進み、コーナー画像生成部319は、図28に示されるような、撮影空間の背面、側面、および床面のうちの2面が交わる交線に似せたコーナーライン522A,522B,522Cが描かれているコーナー画像521を生成する。コーナー画像521において、撮影空間の背面、側面、および床面に対応する各面の色は、例えばグレーに近い白色とされる。コーナー画像521は、部屋の一角を模した背景画像とされる。   On the other hand, if it is determined in step S113 that a corner point has been detected, the process proceeds to step S114, and the corner image generation unit 319 displays the rear, side, and floor surfaces of the shooting space as shown in FIG. A corner image 521 is generated in which corner lines 522A, 522B, and 522C resembling the intersecting line where two of the surfaces intersect are drawn. In the corner image 521, the color of each surface corresponding to the back surface, the side surface, and the floor surface of the shooting space is, for example, white close to gray. The corner image 521 is a background image imitating a corner of the room.

ステップS115において、ライブビュー表示制御部313は、カメラ91により取り込まれたライブビュー画像をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。ここでは、図26に示されるような、2人の被写体とともに、クロマキー用シート121A,121B,121Cが表示されるライブビュー画像が表示される。   In step S115, the live view display control unit 313 displays the live view image captured by the camera 91 on the touch panel monitor 93 (performs live view display). Here, a live view image on which chroma key sheets 121A, 121B, and 121C are displayed is displayed together with two subjects as shown in FIG.

ステップS116において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。   In step S116, the captured image acquisition unit 314 displays a countdown indicator on the touch panel monitor 93 and notifies the user of the capturing timing.

ここで、ステップS111乃至S114の処理と、ステップS115,S116の処理とは、並列に実行されてもよい。   Here, the processes of steps S111 to S114 and the processes of steps S115 and S116 may be executed in parallel.

撮影タイミングになったとき、ステップS117において、撮影画像取得部314は、カメラ91を制御して撮影を行い、そのタイミングで取り込まれ、背景領域が抜き出された静止画像である撮影画像(上カメラ全身撮影画像)を取得する。   When the shooting timing comes, in step S117, the captured image acquisition unit 314 controls the camera 91 to perform shooting, and the captured image (upper camera) is captured at that timing and is a still image with the background area extracted. A whole body image is acquired.

ステップS118において、合成処理部320は、上カメラ全身撮影画像においてコーナーポイント検知部318により検知されたコーナーポイントCPと、コーナー画像生成部319により生成されたコーナー画像521のコーナーライン522A乃至522Cの交点とが一致するように、背景領域が抜き出された上カメラ全身撮影画像にコーナー画像521を合成する。   In step S118, the composition processing unit 320 intersects the corner points CP detected by the corner point detection unit 318 in the upper camera whole body captured image and the corner lines 522A to 522C of the corner image 521 generated by the corner image generation unit 319. The corner image 521 is synthesized with the upper camera whole body photographed image from which the background region is extracted.

ステップS119において、進行制御部311は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。   In step S119, the progress control unit 311 displays the captured image on the touch panel monitor 93, and allows the user to check the captured result.

以上の処理によれば、図29に示される、被写体の頭からつま先までが写った上カメラ全身撮影画像541を得ることができる。図29の上カメラ全身撮影画像541は、被写体の前方斜め上から撮影された、顔を強調した全身画像であり、背面、側面、および床の境界がはっきりと示されるようになるので、ブログにアップロードされるコーデ画像として好適な画像となる。このようにして、利用者にとってより満足度の高いコーデ画像を提供することが可能となる。   According to the above processing, it is possible to obtain the upper camera whole body photographed image 541 shown in FIG. 29 from the head to the toe of the subject. The upper camera whole-body image 541 in FIG. 29 is a whole-body image with the face emphasized, taken obliquely from the front in front of the subject, and the boundary between the back surface, the side surface, and the floor is clearly shown. The image is suitable as an uploaded coordinate image. In this way, it is possible to provide a coordinated image that is more satisfactory for the user.

さらに、撮影空間A1において、床104には傾斜が設けられているので、より足が長く見えるコーデ画像を得ることができる。さらに、そのコーデ画像においては、床104の傾斜により、必要以上に顔が大きく見えることを避けることができるとともに、上目遣いをした顔となることを避けることができるので、より見栄えのよいコーデ画像が得られることとなる。   Furthermore, since the floor 104 is inclined in the photographing space A1, a coordinate image that makes the legs look longer can be obtained. Furthermore, in the coordinated image, the inclination of the floor 104 can prevent the face from appearing larger than necessary, and it can be avoided that the face looks more than necessary. Will be obtained.

なお、ステップS115において、ライブビュー画像として、背景領域(背面、側面、および床面)が抜き出されたライブビュー画像にコーナー画像を合成したものを表示するようにしてもよい。これにより、利用者は、実際に得られる上カメラ全身撮影画像をイメージしながら撮影作業を行うことができる。   In step S115, a live view image obtained by combining a corner image with a live view image from which background regions (back, side, and floor) are extracted may be displayed. As a result, the user can perform a shooting operation while imagining an upper camera whole body captured image actually obtained.

また、背景領域が抜き出されたライブビュー画像にコーナー画像を合成する際、コーナーポイント検知部318により検知されたコーナーポイントではなく、予め設定されたコーナーポイントと、コーナー画像の線分の交点とが一致するように合成するようにしてもよい。これにより、背面、側面、および床面の3面がクロマキー処理により抜き出された撮影画像に対して、コーナー画像を容易に適正な位置に合成することができ、ブログにアップロードされるコーデ画像として好適な画像を得ることができる。   In addition, when a corner image is synthesized with a live view image from which a background area has been extracted, not a corner point detected by the corner point detection unit 318 but an intersection of a preset corner point and a line segment of the corner image You may make it synthesize | combine so that may match. As a result, the corner image can be easily synthesized at an appropriate position with respect to the photographed image obtained by extracting the three surfaces of the back surface, the side surface, and the floor surface by the chroma key process, and as a coordinate image uploaded to the blog A suitable image can be obtained.

さらに、コーナー画像において、コーナーラインは、実際の撮影空間の背面、側面、および床面のうちの2面が交わる交線に対応した位置や角度に対応して描かれる必要はなく、また、撮影空間の背面、側面、および床面に対応する各面の色は、上述した色(グレーに近い白色)に限られず、さらに、部屋の一角を模した装飾を施すようにしてもよい。   Further, in the corner image, the corner line does not need to be drawn corresponding to the position and angle corresponding to the intersecting line where the back surface, the side surface, and the floor surface of the actual photographing space intersect. The color of each surface corresponding to the back surface, the side surface, and the floor surface of the space is not limited to the above-described color (white color close to gray), and may further be decorated with a corner of the room.

また、複数の種類のコーナー画像を予め用意しておき、利用者に選択させるようにしてもよい。これにより、より利用者の嗜好に合ったコーデ画像を提供することができるようになる。   Further, a plurality of types of corner images may be prepared in advance and may be selected by the user. As a result, it is possible to provide a coordinate image that better matches the user's preference.

[上カメラ全身撮影処理2]
次に、図30のフローチャートを参照して、上カメラ全身撮影処理の他の例について説明する。
[Upper camera whole body photographing process 2]
Next, another example of the upper camera whole body imaging process will be described with reference to the flowchart of FIG.

なお、図30のフローチャートのステップS215乃至S219の処理は、図25のフローチャートのステップS115乃至S119の処理と基本的に同様であるので、その説明は省略する。   Note that the processing in steps S215 to S219 in the flowchart in FIG. 30 is basically the same as the processing in steps S115 to S119 in the flowchart in FIG.

ステップS211において、クロマキー処理部317は、カメラ91により取り込まれた動画像(ライブビュー画像)の背景領域を抜き出す。   In step S <b> 211, the chroma key processing unit 317 extracts the background area of the moving image (live view image) captured by the camera 91.

具体的には、クロマキー処理部317は、ライブビュー画像の背景領域としての撮影空間A1の背面、側面、および床面(すなわち、クロマキー用シート121A,121B,121C)の3面全ての色範囲を検出することで、1つのクロマキーパラメータを設定する。   Specifically, the chroma key processing unit 317 calculates the color ranges of all three surfaces of the back surface, the side surface, and the floor surface (that is, the chroma key sheets 121A, 121B, and 121C) as the background region of the live view image. By detecting, one chroma key parameter is set.

すなわち、図31に示されるライブビュー画像501(被写体は省略)において、クロマキー用シート121A,121B,121Cで最も明るい領域Rmaxの色値と、最も暗い領域Rminの色値とに基づいて色範囲が検出されることで、クロマキー用シート121A,121B,121Cのクロマキーパラメータが設定される。   That is, in the live view image 501 (subject is omitted) shown in FIG. 31, the color range is based on the color value of the brightest region Rmax and the color value of the darkest region Rmin in the chroma key sheets 121A, 121B, and 121C. When detected, the chroma key parameters of the chroma key sheets 121A, 121B, and 121C are set.

そして、クロマキー処理部317は、そのクロマキーパラメータを用いて、ライブビュー画像から背景領域(背面、側面、および床面)を抜き出す。   Then, the chroma key processing unit 317 extracts a background area (back surface, side surface, and floor surface) from the live view image using the chroma key parameter.

ステップS212において、コーナーポイント検知部318は、カメラ91により取り込まれたライブビュー画像の背景領域の色値と、所定の閾値とに基づいて、コーナーポイントを検知する。   In step S212, the corner point detection unit 318 detects a corner point based on the color value of the background area of the live view image captured by the camera 91 and a predetermined threshold value.

ここで、撮影空間において、背面、側面、および床面の3面が交わる交点(コーナーポイントに対応する部分)や、背面、側面、および床面のうちの2面が交わる交線(コーナーラインに対応する部分)の近傍は、照明装置としてのストロボからの光が届きにくく、影になりやすい。したがって、ライブビュー画像のクロマキー用シート121A,121B,121Cにおいて、コーナーポイントに対応する部分や、コーナーラインに対応する部分の近傍の色は、暗い緑色となる。   Here, in the shooting space, the intersection (the part corresponding to the corner point) where the three surfaces of the back, side, and floor intersect, and the intersection (the corner line) where two of the back, side, and floor intersect. In the vicinity of the corresponding part), the light from the strobe as the lighting device is difficult to reach and tends to be a shadow. Therefore, in the chroma key sheets 121A, 121B, and 121C of the live view image, the color in the vicinity of the portion corresponding to the corner point and the portion corresponding to the corner line is dark green.

そこで、コーナーポイント検知部318は、ライブビュー画像において、クロマキー用シート121A,121B,121Cの色値のうち、所定の色値の範囲(暗い緑色とされる色値の範囲)に含まれる色値に対応する部分(画素位置)を特定することで、撮影空間A1の背面、側面、および床面の3面が交わるコーナーポイントCPを検知する。例えば、暗い緑色とされる色値の範囲に含まれる色値に対応する部分において、最も暗い緑色とされる色値の部分が、コーナーポイントCPとして検知される。   Accordingly, the corner point detection unit 318 includes a color value included in a predetermined color value range (a range of dark green color values) among the color values of the chroma key sheets 121A, 121B, and 121C in the live view image. By specifying the portion (pixel position) corresponding to, the corner point CP at which the three surfaces of the back surface, the side surface, and the floor surface of the imaging space A1 intersect is detected. For example, in the portion corresponding to the color value included in the range of color values that are dark green, the portion of the color value that is darkest green is detected as the corner point CP.

また、暗い緑色とされる色値の範囲に含まれる色値に対応する部分において、コーナーラインに対応する部分を検知し、その部分を直線で近似することで、コーナーポイントCPを検知(設定)するようにしてもよい。   In addition, in the part corresponding to the color value included in the color value range that is dark green, the corner point CP is detected (set) by detecting the part corresponding to the corner line and approximating the part with a straight line. You may make it do.

なお、このとき、コーナーポイント検知部318がコーナーポイントCPを検知可能とするように(検知しやすいように)、照明制御部315が、撮影空間A1内の各ストロボの発光を制御するようにしてもよい。例えば、背景領域の上側より下側を照射する光を弱くするように、照明制御部315は、下ストロボ85や足元ストロボ86の発光量を抑えたり、発光させないようにする等して、各ストロボの発光を制御することができる。   At this time, the illumination control unit 315 controls the light emission of each strobe in the photographing space A1 so that the corner point detection unit 318 can detect the corner point CP (so that it can be easily detected). Also good. For example, the illumination control unit 315 suppresses the amount of light emitted from the lower strobe 85 or the foot strobe 86 so as to weaken the light emitted from the upper side to the lower side of the background region, or prevents the strobe from emitting light. The light emission can be controlled.

ステップS213において、進行制御部311は、コーナーポイント検知部318がコーナーポイントを検知したか否かを判定する。ステップS213において、コーナーポイントを検知していないと判定された場合、処理はステップS212に戻り、コーナーポイントが検知されるまで処理が繰り返される。なお、ここでも、コーナーポイントを検知していないと判定された場合、タッチパネルモニタ93に、エラーメッセージを表示させるようにしてもよい。また、このとき、コーナーポイントの検知に用いられる閾値(色値の範囲)が変更されるようにしてもよい。   In step S213, the progress control unit 311 determines whether the corner point detection unit 318 has detected a corner point. If it is determined in step S213 that a corner point has not been detected, the process returns to step S212, and the process is repeated until a corner point is detected. Here again, if it is determined that a corner point has not been detected, an error message may be displayed on the touch panel monitor 93. At this time, a threshold value (color value range) used for corner point detection may be changed.

一方、ステップS213において、コーナーポイントが検知されたと判定された場合、処理はステップS214に進み、コーナー画像生成部319は、背景領域の色値を用いて、コーナー画像を生成する。具体的には、コーナー画像生成部319は、クロマキー用シート121A,121B,121Cの色値のうち、例えば上述した暗い緑色とされる色値の範囲に含まれる色値に基づいて、コーナーラインの画素位置を決定し、その結果に応じたコーナーラインを含むコーナー画像を生成する。このとき、コーナー画像生成部319は、コーナー画像におけるコーナーラインの近傍の部分に対して、ライブビュー画像の対応する部分の色値に応じた影を施す処理を行う。これにより、実際の撮影空間に生じる影を再現した、リアルなコーナー画像を生成することができる。なお、影を施す処理として、コーナー画像におけるコーナーラインを中心としたぼかし処理を行うようにしてもよい。   On the other hand, if it is determined in step S213 that a corner point has been detected, the process proceeds to step S214, and the corner image generation unit 319 generates a corner image using the color value of the background area. Specifically, the corner image generation unit 319, based on the color values included in the above-described dark green color value range among the color values of the chroma key sheets 121A, 121B, and 121C, for example, A pixel position is determined, and a corner image including a corner line according to the result is generated. At this time, the corner image generation unit 319 performs a process of applying a shadow corresponding to the color value of the corresponding part of the live view image to the part near the corner line in the corner image. As a result, it is possible to generate a realistic corner image that reproduces the shadow generated in the actual shooting space. Note that as a process for applying a shadow, a blurring process centering on a corner line in a corner image may be performed.

以上のように、図30の上カメラ全身撮影処理においても、図25の上カメラ全身撮影処理と同様の作用効果を奏することができる。   As described above, the upper camera whole-body imaging process in FIG. 30 can achieve the same effects as the upper camera whole-body imaging process in FIG.

さらに、得られる上カメラ全身撮影画像には、リアルなコーナー画像が合成されるので、利用者にとってより一層満足度の高いコーデ画像を提供することが可能となる。   Furthermore, since a realistic corner image is combined with the obtained upper-camera whole-body photographed image, it is possible to provide a coordinated image that is more satisfactory for the user.

なお、ステップS215においても、ライブビュー画像として、背景領域(背面、側面、および床面)が抜き出されたライブビュー画像にコーナー画像を合成したものを表示するようにしてもよい。これにより、利用者は、実際に得られる上カメラ全身撮影画像をイメージしながら撮影作業を行うことができる。   In step S215, a live view image obtained by synthesizing a corner image with a live view image from which background regions (back, side, and floor) are extracted may be displayed. As a result, the user can perform a shooting operation while imagining an upper camera whole body captured image actually obtained.

ところで、上述した上カメラ全身撮影画像においては、その画像内の特定の位置にコーナーポイントがあることが望ましく、これにより、バランスのよい上カメラ全身撮影画像が得られるようになる。   By the way, in the above-mentioned upper camera whole-body photographed image, it is desirable that there is a corner point at a specific position in the image, so that a well-balanced upper camera whole-body photographed image can be obtained.

しかしながら、カメラ91の取り付け位置のずれや、撮影空間A1を構成する撮影部21および背景部22の歪み等により、検知されるコーナーポイントが望ましい位置からずれてしまうことが考えられる。   However, it is conceivable that the detected corner point may deviate from a desired position due to a displacement of the mounting position of the camera 91, distortion of the photographing unit 21 and the background unit 22 constituting the photographing space A1, or the like.

そこで、以下においては、検知されたコーナーポイントが望ましい位置からずれている場合に、そのコーナーポイントを調整する処理について説明する。   Therefore, in the following, a process for adjusting a corner point when the detected corner point is deviated from a desired position will be described.

[コーナーポイント調整処理]
図32は、検知されたコーナーポイントが望ましい位置からずれている場合に、そのコーナーポイントを調整するコーナーポイント調整処理について説明するフローチャートである。図32のコーナーポイント調整処理は、撮影処理において、上カメラ全身撮影処理が実行される前に実行されてもよいし、写真シール作成装置1の所定箇所に設けられるメンテナンスボタンが操作されることにより、写真シール作成装置1の動作モードがメンテナンスモードに移行したときに実行されるようにしてもよい。
[Corner point adjustment processing]
FIG. 32 is a flowchart for explaining corner point adjustment processing for adjusting a corner point when the detected corner point is shifted from a desired position. The corner point adjustment process of FIG. 32 may be executed before the upper camera whole body imaging process is executed in the imaging process, or by operating a maintenance button provided at a predetermined location of the photo sticker creating apparatus 1. The operation may be executed when the operation mode of the photo sticker creating apparatus 1 shifts to the maintenance mode.

なお、図32のコーナーポイント調整処理は、カメラ91が上カメラの状態で実行される。   Note that the corner point adjustment processing in FIG. 32 is executed with the camera 91 in the upper camera state.

また、図32のフローチャートのステップS311乃至S313の処理は、図25のフローチャートのステップS111乃至S113の処理、または、図30のフローチャートのステップS211乃至S213の処理のいずれかが実行されればよく、ここでは、その説明は省略する。   Also, the processing of steps S311 to S313 in the flowchart of FIG. 32 may be performed by executing either the processing of steps S111 to S113 of the flowchart of FIG. 25 or the processing of steps S211 to S213 of the flowchart of FIG. Here, the description is omitted.

すなわち、ステップS314において、ライブビュー表示制御部313は、カメラ91により取り込まれたライブビュー画像をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。このとき、図33に示されるように、ライブビュー画像601には、クロマキー用シート121A,121B,121C、検知されたコーナーポイントCP、および、設定されるべきコーナーポイントの位置を示す設定ポイントCP0が表示される。   That is, in step S314, the live view display control unit 313 displays the live view image captured by the camera 91 on the touch panel monitor 93 (performs live view display). At this time, as shown in FIG. 33, the live view image 601 includes chroma key sheets 121A, 121B, and 121C, detected corner points CP, and a set point CP0 indicating the position of the corner point to be set. Is displayed.

ステップS315において、ライブビュー表示制御部313は、検知されたコーナーポイントCPが設定ポイントCP0から所定の距離以上ずれているか否かを判定する。   In step S315, the live view display control unit 313 determines whether or not the detected corner point CP is displaced from the set point CP0 by a predetermined distance or more.

ステップS315において、コーナーポイントCPが設定ポイントCP0からずれていると判定された場合、処理はステップS316に進み、ライブビュー表示制御部313は、ライブビュー画像601の移動を促す表示、例えば、「コーナーポイントを合わせてください」等のメッセージの表示を行う。このとき、利用者は、タッチパネルモニタ93のライブビュー表示領域に表示されているライブビュー画像を指などでタッチ(ドラッグ)することにより、ライブビュー画像(コーナーポイントCP)を移動することができる。   If it is determined in step S315 that the corner point CP is deviated from the set point CP0, the process proceeds to step S316, and the live view display control unit 313 displays a display that prompts the user to move the live view image 601, for example, “corner” Please display a message such as “Please adjust the point”. At this time, the user can move the live view image (corner point CP) by touching (dragging) the live view image displayed in the live view display area of the touch panel monitor 93 with a finger or the like.

また、図34に示されるように、ライブビュー画像601に操作ボタン611を表示し、利用者に操作させることによって、ライブビュー画像(コーナーポイントCP)を移動するようにしてもよい。   As shown in FIG. 34, the live view image (corner point CP) may be moved by displaying an operation button 611 on the live view image 601 and causing the user to operate it.

一方、ステップS315において、コーナーポイントCPが設定ポイントCP0からずれていないと判定された場合、処理は終了する。   On the other hand, if it is determined in step S315 that the corner point CP is not deviated from the set point CP0, the process ends.

以上の処理によれば、検知されたコーナーポイントが望ましい位置からずれている場合、そのコーナーポイントを調整することができる。   According to the above processing, when the detected corner point is deviated from a desired position, the corner point can be adjusted.

なお、ステップS315において表示される設定ポイントCP0は、利用者(操作者)の操作によって所望の位置に設定されるようにしてもよい。   Note that the setting point CP0 displayed in step S315 may be set to a desired position by the operation of the user (operator).

以上においては、ライブビュー画像(撮影画像)の背景領域としての撮影空間A1の背面、側面、および床面には、クロマキー用シート121A,121B,121Cが貼付されるものとしたが、背面、側面、および床面のうちの2面が交わる交線近傍には、クロマキー用シート121A,121B,121Cが貼付されないようにしてもよい。   In the above description, the chroma key sheets 121A, 121B, and 121C are attached to the back surface, the side surface, and the floor surface of the shooting space A1 as the background region of the live view image (captured image). In addition, the chroma key sheets 121A, 121B, and 121C may not be attached to the vicinity of the intersection line where two of the floor surfaces intersect.

また、撮影空間A1の背面、側面、および床面のうちの2面が交わる交線近傍に、クロマキー用シート121A,121B,121Cが貼付されないようにした場合、クロマキー用シートが貼付されている部分と貼付されていない部分との境界も、クロマキー処理の対象とする。具体的には、背面パネル51においてクロマキー用シート121Aが貼付されている部分と貼付されていない部分との境界、側面パネル52Bにおいてクロマキー用シート121Bが貼付されている部分と貼付されていない部分との境界、床104の表面においてクロマキー用シート121Cが貼付されている部分と貼付されていない部分との境界がそれぞれ含まれる色範囲で、クロマキー処理を実行するようにしてもよい。なお、撮影空間A1の背面、側面、および床面においてクロマキー用シートが貼付されていない部分の色は、撮影画像に合成されるコーナー画像の各面の色(例えばグレーに近い白色)とされる。   Further, when the chroma key sheets 121A, 121B, and 121C are not affixed in the vicinity of the intersection line where two of the back surface, the side surface, and the floor surface of the imaging space A1 intersect, the portion where the chroma key sheet is affixed The boundary between the part and the part not attached is also subject to chroma key processing. Specifically, a boundary between a portion where the chroma key sheet 121A is affixed and a portion where the chroma key sheet 121A is affixed on the back panel 51, a portion where the chroma key sheet 121B is affixed and a portion where the chroma key sheet 121B is affixed on the side panel 52B, The chroma key processing may be executed in a color range that includes the boundary between the portion where the chroma key sheet 121C is affixed and the portion where the chroma key sheet 121C is not affixed on the surface of the floor 104. In addition, the color of the portion where the chroma key sheet is not attached on the back surface, the side surface, and the floor surface of the photographing space A1 is the color of each surface of the corner image combined with the photographed image (for example, white near gray). .

これにより、撮影画像からコーナーポイントやコーナーラインに対応する部分(実際のコーナー部分)が抜き出されずに残るので、撮影画像においては、よりリアルな背景が再現され、コーデ画像により好適な撮影画像を得ることができる。   As a result, a portion corresponding to a corner point or corner line (actual corner portion) remains without being extracted from the captured image, so that a more realistic background is reproduced in the captured image, and the captured image is more suitable for the coordinate image. Can be obtained.

また、上述した上カメラ全身撮影処理において、コーナーポイントを検知する処理は、ライブビュー画像に対して行われるようにしたが、上カメラ全身撮影処理開始時に、仮撮影を行うようにし、得られた仮撮影画像に対してコーナーポイントを検知するようにしてもよい。   Further, in the above-described upper camera whole body photographing process, the process for detecting the corner point is performed on the live view image, but the provisional photographing is performed at the start of the upper camera whole body photographing process. You may make it detect a corner point with respect to a temporary picked-up image.

さらに、上カメラ全身撮影処理として、図25のフローチャートを参照して説明した上カメラ全身撮影処理と、図30を参照して説明した上カメラ全身撮影処理が選択的に行われるようにしてもよい。例えば、コーナー画像以外の背景画像を合成するようにして、合成されるその背景画像の配置が、実際の撮影空間の背面、側面、および床面の位置と合わない場合には、図25の上カメラ全身撮影処理が実行され、合成されるその背景画像の配置が、実際の撮影空間の背面、側面、および床面の位置に合っている場合には、図25の上カメラ全身撮影処理が実行されるようにする。   Furthermore, as the upper camera whole body imaging process, the upper camera whole body imaging process described with reference to the flowchart of FIG. 25 and the upper camera whole body imaging process described with reference to FIG. 30 may be selectively performed. . For example, when a background image other than a corner image is synthesized, and the arrangement of the synthesized background image does not match the positions of the back, side, and floor of the actual shooting space, the top of FIG. When the entire camera photographing process is executed and the arrangement of the background image to be synthesized matches the positions of the back, side and floor of the actual photographing space, the upper camera whole body photographing process of FIG. 25 is executed. To be.

また、上述した説明においては、コーナーポイントとして、撮影空間A1において背面パネル51、右側面の側面パネル52B、および床104の3面が交わる交点を検知するようにしたが、背面パネル51、左側面の側面パネル52A、および床104の3面が交わる交点を検知するようにしてもよい。   Further, in the above description, as a corner point, an intersection where the rear panel 51, the right side panel 52B, and the floor 104 intersect in the imaging space A1 is detected. You may make it detect the intersection which 3A of side panel 52A of this and the floor 104 cross.

ところで、ファッション雑誌に掲載されている写真は、部屋の一角を模したある程度の広さのある撮影スタジオにおいて撮影されたものが多く、その仕上がりは奥行き感のあるものとなる。   By the way, most of the photos published in fashion magazines were taken in a photo studio with a certain size that imitated a corner of the room, and the finish has a sense of depth.

一方、本発明の写真シール作成装置1の撮影空間A1は、決して広さのある空間とは言えず、図35に示されるように、カメラ91を備える撮影・表示ユニット81と被写体111との距離は、最も近づいた場合で700mm、最も離れた場合であっても1000mmである。
通常、このように、カメラと被写体との距離が近い撮影空間で撮影された写真(撮影画像)においては、被写体と背景とに明暗をつけることが難しく、奥行き感のない仕上がりとなってしまう。
On the other hand, the shooting space A1 of the photo sticker creating apparatus 1 according to the present invention is never a wide space, and the distance between the shooting / display unit 81 including the camera 91 and the subject 111 is shown in FIG. Is 700 mm at the closest distance and 1000 mm at the farthest distance.
Usually, in such a photograph (photographed image) photographed in a photographing space where the distance between the camera and the subject is close, it is difficult to make the subject and the background light and dark, and the finish without a sense of depth.

そこで、本発明の写真シール作成装置1においては、上述したように、背景領域を抜き出した画像に、部屋の一角を模したコーナー画像を合成するようにしたので、得られる撮影画像の仕上がりを奥行き感のあるものとすることができる。さらに、図30のフローチャートを参照して説明した処理においては、実際の撮影空間に生じる影を再現したコーナー画像を生成するようにしたので、得られる撮影画像において、より自然な奥行き感を再現することができるようになる。   Therefore, in the photo sticker creating apparatus 1 of the present invention, as described above, the corner image imitating a corner of the room is synthesized with the image obtained by extracting the background region, so that the finish of the obtained captured image is set to the depth. It can be a feeling. Furthermore, in the process described with reference to the flowchart of FIG. 30, a corner image that reproduces a shadow generated in the actual shooting space is generated, so that a more natural sense of depth is reproduced in the obtained shot image. Will be able to.

また、以上においては、コーナーポイントとして、撮影空間A1の背面、側面、および床面の3面の交点を検知するようにしたが、撮影空間A1の形状に応じて、3面以上の交点を検知するようにしてもよい。例えば、撮影空間A1が、正八面体を構成する構造である場合には、正三角形の4面が交わる交点を、コーナーポイントとして検知するようにしてもよい。   In the above, the intersection of the three surfaces of the back surface, the side surface, and the floor surface of the photographing space A1 is detected as a corner point. However, the intersection of three or more surfaces is detected according to the shape of the photographing space A1. You may make it do. For example, when the shooting space A1 has a structure that forms a regular octahedron, an intersection where four faces of an equilateral triangle intersect may be detected as a corner point.

[クロス組合せ撮影処理1]
次に、図36のフローチャートを参照して、図20のステップS53のクロス組合せ撮影処理の詳細について説明する。
[Cross combination shooting process 1]
Next, with reference to the flowchart of FIG. 36, the detail of the cross combination imaging | photography process of FIG.20 S53 is demonstrated.

ステップS201において、進行制御部311は、撮影方法のガイダンス画面をタッチパネルモニタ93に表示させる。具体的には、2人同時に全身および顔付近のアップの撮影を行い、利用者毎に全身画像と顔付近のアップ画像を組み合わせたクロス組合せ画像を生成するクロス組合せ撮影を行う旨のガイダンス画面が、タッチパネルモニタ93に表示される。ガイダンス画面を表示した後、撮影画像取得部314は、カメラ91を制御し、画像の取り込みを開始させる。   In step S <b> 201, the progress control unit 311 displays a shooting method guidance screen on the touch panel monitor 93. Specifically, there is a guidance screen for performing cross-combination shooting, in which two people simultaneously shoot the entire body and the vicinity of the face, and generate a cross-combination image that combines the whole body image and the close-up image of the face for each user. Is displayed on the touch panel monitor 93. After displaying the guidance screen, the captured image acquisition unit 314 controls the camera 91 to start capturing an image.

ステップS202において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。   In step S202, the live view display control unit 313 displays the moving image (live view image) captured by the camera 91 on the touch panel monitor 93 (performs live view display).

図37は、このときタッチパネルモニタ93に表示されるライブビュー表示画面の例を模式的に示している。この場合、2人の被写体が写っている、図37の左側に示されるカメラ91の取り込み画像701に対して、被写体部分それぞれがトリミングされる。図37の右側に示されるライブビュー表示画面には、カメラ91の取り込み画像701からトリミングされた各被写体の画像を個別にライブビュー表示するライブビュー表示領域702L,702Rが表示される。すなわち、ライブビュー表示領域702Lには、取り込み画像701からトリミングされた左側の被写体の画像が表示され、ライブビュー表示領域702Rには、取り込み画像701からトリミングされた右側の被写体の画像が表示される。   FIG. 37 schematically shows an example of a live view display screen displayed on the touch panel monitor 93 at this time. In this case, each of the subject portions is trimmed with respect to the captured image 701 of the camera 91 shown on the left side of FIG. 37 in which two subjects are shown. On the live view display screen shown on the right side of FIG. 37, live view display areas 702L and 702R for individually displaying live images of the subjects trimmed from the captured image 701 of the camera 91 are displayed. That is, the left subject image trimmed from the captured image 701 is displayed in the live view display area 702L, and the right subject image trimmed from the captured image 701 is displayed in the live view display area 702R. .

そして、利用者は、ライブビュー表示画面の下方に表示されているガイダンスに従って、ライブビュー表示領域702L,702Rにそれぞれの全身がうまく入るように、立ち位置や姿勢等を調整する。   Then, the user adjusts the standing position, posture, and the like according to the guidance displayed at the bottom of the live view display screen so that each whole body enters the live view display areas 702L and 702R.

ところで、取り込み画像701において、2人の被写体が重なっている場合、それぞれの被写体をトリミングすると、お互いの腕等の体の一部が、トリミングされた画像それぞれに入り込んでしまう。   By the way, in the captured image 701, when two subjects overlap, if each subject is trimmed, a part of the body such as each other's arm enters each trimmed image.

そこで、図38に示されるように、取り込み画像701において、その左右方向に対して中央部分の領域701aを、被写体が撮影されない非撮影領域とし、被写体が領域701aに入った場合には、警告音等を鳴らすようにしてもよい。   Therefore, as shown in FIG. 38, in the captured image 701, an area 701a at the center with respect to the left-right direction is set as a non-photographing area where the subject is not photographed, and a warning sound is generated when the subject enters the area 701a. Etc. may be sounded.

これにより、取り込み画像701において、2人の被写体が重なることがなくなるので、それぞれの被写体が取り込み画像701から確実にトリミングされるようになる。   This prevents two subjects from overlapping each other in the captured image 701, so that each subject is reliably trimmed from the captured image 701.

なお、この場合、図37のライブビュー表示画面の代わりに、図38の取り込み画像701の領域701aをマスクした画像をそのままライブビュー表示画面に表示するようにしてもよい。   In this case, instead of the live view display screen of FIG. 37, an image obtained by masking the area 701a of the captured image 701 of FIG. 38 may be displayed as it is on the live view display screen.

また、図39Aに示されるように、取り込み画像701において、被写体の2人の身長差が大きい場合、それぞれ同じ様にトリミングすると、身長の低い被写体をトリミングした画像に無駄な領域が発生してしまい、バランスの悪い撮影画像が得られてしまう。   Also, as shown in FIG. 39A, in the captured image 701, when there is a large difference in height between two subjects, if they are trimmed in the same way, a wasteful area is generated in the trimmed image of the subject with a short height. An imbalanced photographed image is obtained.

そこで、図39Bに示されるように、取り込み画像701において、例えば、人認識の結果に基づいて、被写体それぞれの身長に応じたトリミング枠を設定し、そのトリミング枠に応じてトリミングするようにしてもよい。これにより、それぞれの被写体がトリミングされた画像に無駄な領域が発生することなく、バランスのよい撮影画像が得られるようになる。   Therefore, as shown in FIG. 39B, in the captured image 701, for example, a trimming frame corresponding to the height of each subject is set based on the result of human recognition, and trimming is performed according to the trimming frame. Good. As a result, a well-balanced captured image can be obtained without generating a useless area in an image obtained by trimming each subject.

図36のフローチャートに戻り、ステップS203において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。   Returning to the flowchart of FIG. 36, in step S203, the photographed image acquisition unit 314 displays a countdown indicator on the touch panel monitor 93 to notify the user of the photographing timing.

ステップS204において、撮影処理部301は、上カメラ全身撮影を行う。すなわち、図25または図30を参照して上述した処理と同様の撮影が行われ、上カメラ全身撮影画像が取得される。   In step S204, the imaging processing unit 301 performs upper camera whole body imaging. That is, imaging similar to that described above with reference to FIG. 25 or FIG. 30 is performed, and an upper camera whole body captured image is acquired.

ステップS205において、ライブビュー表示制御部313は、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。   In step S205, the live view display control unit 313 displays the moving image (live view image) captured by the camera 91 on the touch panel monitor 93 (performs live view display).

図40は、このときタッチパネルモニタ93に表示されるライブビュー表示画面の例を示している。この場合、2人の被写体が写っている、図40の左側に示されるカメラ91の取り込み画像721に対して、被写体の顔付近の部分がそれぞれトリミングされる。図40の右側に示されるライブビュー表示画面には、カメラ91の取り込み画像721からトリミングされた各被写体の顔付近の画像を個別にライブビュー表示するライブビュー表示領域722L,722Rが表示される。すなわち、ライブビュー表示領域722Lには、取り込み画像721からトリミングされた左側の被写体の顔付近の画像が表示され、ライブビュー表示領域722Rには、取り込み画像721からトリミングされた右側の被写体の顔付近の画像が表示される。   FIG. 40 shows an example of a live view display screen displayed on the touch panel monitor 93 at this time. In this case, a portion near the face of the subject is trimmed with respect to the captured image 721 of the camera 91 shown on the left side of FIG. 40 in which two subjects are shown. On the live view display screen shown on the right side of FIG. 40, live view display areas 722L and 722R for individually displaying live view images of each subject near the face trimmed from the captured image 721 of the camera 91 are displayed. That is, the live view display area 722L displays an image near the face of the left subject trimmed from the captured image 721, and the live view display area 722R displays the vicinity of the face of the right subject trimmed from the captured image 721. Is displayed.

そして、利用者は、ライブビュー表示画面の下方に表示されているガイダンスに従って、ライブビュー表示領域722L,722Rにそれぞれの顔がうまく入るように、立ち位置や姿勢等を調整する。   Then, the user adjusts the standing position, the posture, and the like according to the guidance displayed at the bottom of the live view display screen so that each face enters the live view display areas 722L and 722R well.

なお、図38を参照して上述した場合と同様に、取り込み画像721において、その左右方向の中央部分の領域を、被写体が撮影されない非撮影領域とし、被写体が非撮影領域に入った場合には、警告音等を鳴らすようにしてもよい。また、取り込み画像721の非撮影領域をマスクした画像を、そのままライブビュー表示画面に表示するようにしてもよい。   As in the case described above with reference to FIG. 38, in the captured image 721, the central area in the left-right direction is set as a non-photographing area where the subject is not photographed, and the subject enters the non-photographing area. A warning sound or the like may be sounded. Further, an image obtained by masking the non-photographing area of the captured image 721 may be displayed as it is on the live view display screen.

また、例えば、ステップS202とステップS205のライブビュー表示時に各利用者の顔認識を行い、ステップS205のライブビュー表示時に、ステップS202のライブビュー表示時と左右の利用者の顔の認識結果が異なる場合に、その旨をアナウンス等で通知するようにしてもよい。この通知が行われるケースとして、例えば、利用者の左右の位置が入れ替わったり、利用者の1人または2人が別の人と入れ替わったり、撮影空間A1内の利用者の数が増えたり、減ったりしている場合等が想定される。   Also, for example, each user's face recognition is performed at the time of live view display at step S202 and step S205, and at the time of live view display at step S205, the recognition result of the left and right user faces is different from that at step S202. In such a case, a notification to that effect may be made. As a case where this notification is performed, for example, the left and right positions of the user are switched, one or two users are replaced with another person, or the number of users in the shooting space A1 is increased or decreased. Or the like.

さらに、図20のステップS52において撮影人数が1人と判定された場合、図37のライブビュー表示画面および図40のライブビュー表示画面において、左右のいずれか一方のライブビュー表示領域の表示、および、その領域内の被写体の撮影を省略することが可能である。あるいは、例えば、図37のライブビュー表示画面では、ライブビュー表示領域の表示を省略せずに、図40のライブビュー表示画面において、図37のライブビュー表示画面で利用者の存在が認識された方と異なる側にあるライブビュー表示領域の表示、および、その領域内の被写体の撮影を省略するようにしてもよい。   Further, when it is determined in step S52 in FIG. 20 that the number of photographers is one, in the live view display screen in FIG. 37 and the live view display screen in FIG. It is possible to omit photographing of the subject in the area. Alternatively, for example, in the live view display screen of FIG. 37, the display of the live view display area is not omitted, and in the live view display screen of FIG. 40, the presence of the user is recognized on the live view display screen of FIG. The display of the live view display area on the side different from the direction and the photographing of the subject in the area may be omitted.

図36のフローチャートに戻り、ステップS206において、撮影画像取得部314は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。   Returning to the flowchart of FIG. 36, in step S206, the captured image acquisition unit 314 displays a countdown indicator on the touch panel monitor 93 to notify the user of the capturing timing.

ステップS207において、図19のステップS42の処理と同様に、上カメラアップ撮影が行われ、上カメラアップ撮影画像が取得される。   In step S207, similar to the process in step S42 of FIG. 19, the upper camera up shooting is performed, and the upper camera up shooting image is acquired.

ステップS208において、合成処理部320は、クロス組合せ画像を生成する。具体的には、合成処理部320は、ステップS204の処理で取得した上カメラ全身撮影画像から各被写体の全身画像を個別にトリミング(抽出)する。また、合成処理部320は、ステップS207の処理で取得した上カメラアップ撮影画像から各被写体の顔付近の画像を個別にトリミング(抽出)する。そして、合成処理部320は、抽出した全身画像およびアップ画像を利用者ごとに所定の合成用画像に合成することにより、クロス組合せ画像を生成する。これにより、同じ利用者の全身と顔のアップを組み合わせた合成画像(クロス組合せ画像)が、利用者毎に複数生成される。   In step S208, the composition processing unit 320 generates a cross combination image. Specifically, the composition processing unit 320 individually trims (extracts) the whole body image of each subject from the upper camera whole body captured image acquired in the process of step S204. In addition, the composition processing unit 320 individually trims (extracts) an image near the face of each subject from the upper camera-up captured image acquired in the process of step S207. Then, the synthesis processing unit 320 generates a cross combination image by synthesizing the extracted whole body image and the up image with a predetermined image for synthesis for each user. Thereby, a plurality of composite images (cross combination images) in which the same user's whole body and face up are combined are generated for each user.

ステップS209において、進行制御部311は、クロス組合せ画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。   In step S209, the progress control unit 311 displays the cross combination image on the touch panel monitor 93, and allows the user to check the photographing result.

図41は、このときタッチパネルモニタ93に表示されるクロス組合せ画像の確認画面の表示例を示している。図41の確認画面は、クロス組合せ画像が表示される撮影結果表示領域741Lおよび741Rから構成されている。   FIG. 41 shows a display example of a cross combination image confirmation screen displayed on the touch panel monitor 93 at this time. The confirmation screen shown in FIG. 41 includes shooting result display areas 741L and 741R in which a cross combination image is displayed.

撮影結果表示領域741Lに表示されるクロス組合せ画像には、ステップS204の処理で取得した上カメラ全身撮影画像の左側の被写体の全身画像が左側に配置され、ステップS207の処理で取得した上カメラアップ撮影画像の左側の被写体の顔付近のアップ画像が右上に配置されている。また、全身画像およびアップ画像の背景、並びに、クロス組合せ画像の右下に、所定の合成用画像が合成されている。   In the cross combination image displayed in the imaging result display area 741L, the whole body image of the subject on the left side of the upper camera whole body captured image acquired in the process of step S204 is arranged on the left side, and the upper camera up acquired in the process of step S207 is displayed. An up image near the face of the subject on the left side of the photographed image is arranged on the upper right. In addition, a predetermined image for synthesis is synthesized on the background of the whole body image and the up image, and on the lower right of the cross combination image.

同様に、撮影結果表示領域741Rに表示されるクロス組合せ画像には、ステップS204の処理で取得した上カメラ全身撮影画像の右側の被写体の全身画像が左側に配置され、ステップS207の処理で取得した上カメラアップ撮影画像の右側の被写体の顔付近のアップ画像が右上に配置されている。また、全身画像およびアップ画像の背景、並びに、クロス組合せ画像の右下に、所定の合成用画像が合成されている。   Similarly, in the cross combination image displayed in the imaging result display area 741R, the whole body image of the subject on the right side of the upper camera whole body captured image acquired in the process of step S204 is arranged on the left side, and acquired in the process of step S207. An up image near the face of the subject on the right side of the upper camera up shot image is arranged on the upper right. In addition, a predetermined image for synthesis is synthesized on the background of the whole body image and the up image, and on the lower right of the cross combination image.

これらのクロス組合せ画像は、上述した図18のステップS7の事後接客処理において、利用者の携帯端末に送信される。   These cross-combination images are transmitted to the user's mobile terminal in the above-described post-service process in step S7 of FIG.

なお、クロス組合せ画像は、例えば、ファッションコーディネイトの投稿サイトなどに投稿する画像に適している。すなわち、全身画像により全身のファッションを詳細に確認できるとともに、アップ画像により被写体の顔を詳細に確認することができるからである。また、全身画像とアップ画像が個別に撮影されるため、ファッションを写すための画像と、顔の表情を写すための画像とを分けて撮影することができ、より利用者の嗜好にあった画像を得ることができる。   Note that the cross combination image is suitable for an image posted on a fashion coordination posting site, for example. That is, the whole body fashion can be confirmed in detail by the whole body image, and the face of the subject can be confirmed in detail by the up image. In addition, since the whole body image and the up image are shot separately, it is possible to shoot separately the image for capturing the fashion and the image for capturing the facial expression. Can be obtained.

また、クロス組合せ画像は利用者毎に画像がまとめられているため、例えば、他者の肖像権やプライバシー等を考慮することなく、ブログやSNS(Social Networking Service)等の自分専用のサイトに投稿することができる。   In addition, cross-combination images are grouped for each user, so you can post them on your own site such as a blog or SNS (Social Networking Service) without considering the portrait rights or privacy of others. can do.

さらに、2人の利用者で同時に撮影したにも関わらず、利用者毎に全身画像とアップ画像が組み合わされた、撮影時とは異なった画像が提供されるため、利用者に驚きと面白みを与えることができ、利用者の満足度が向上する。   In addition, even though two users have taken pictures at the same time, each user is provided with a different image from the one in which the whole body image and the up image are combined. It can be given and user satisfaction is improved.

[クロス組合せ撮影処理2]
次に、図42のフローチャートを参照して、クロス組合せ撮影処理の他の例について説明する。
[Cross combination shooting process 2]
Next, another example of the cross combination photographing process will be described with reference to the flowchart of FIG.

なお、図42のフローチャートのステップS251乃至S254の処理は、図36のフローチャートのステップS201乃至S204の処理と基本的に同様であるので、その説明は省略する。また、図42のフローチャートのステップS257乃至S259の処理は、図36のフローチャートのステップS205乃至S207の処理と基本的に同様であるので、その説明は省略する。   Note that the processing in steps S251 to S254 in the flowchart in FIG. 42 is basically the same as the processing in steps S201 to S204 in the flowchart in FIG. Also, the processing of steps S257 to S259 in the flowchart of FIG. 42 is basically the same as the processing of steps S205 to S207 in the flowchart of FIG.

ステップS255において、合成処理部320は、全身画像を合成する。具体的には、合成処理部320は、ステップS254の処理で取得した上カメラ全身撮影画像から各被写体の全身画像を個別にトリミング(抽出)する。そして、合成処理部320は、抽出した全身画像を利用者ごとに所定の合成用画像に合成する。これにより、利用者の全身のみが写った画像が、利用者毎に複数生成される。   In step S255, the composition processing unit 320 synthesizes the whole body image. Specifically, the composition processing unit 320 individually trims (extracts) the whole body image of each subject from the upper camera whole body captured image acquired in the process of step S254. Then, the synthesis processing unit 320 synthesizes the extracted whole body image into a predetermined synthesis image for each user. Thereby, a plurality of images showing only the whole body of the user are generated for each user.

ステップS256において、進行制御部311は、クロス組合せ画像の途中経過の確認画面をタッチパネルモニタ93に表示し、クロス組合せ画像の生成過程を利用者に確認させる。   In step S256, the progress control unit 311 displays a confirmation screen of the progress of the cross combination image on the touch panel monitor 93, and allows the user to confirm the generation process of the cross combination image.

図43は、このときタッチパネルモニタ93に表示される確認画面の表示例を示している。図43の確認画面は、生成途中のクロス組合せ画像が表示される撮影結果表示領域761Lおよび761Rから構成されている。   FIG. 43 shows a display example of a confirmation screen displayed on the touch panel monitor 93 at this time. The confirmation screen shown in FIG. 43 includes imaging result display areas 761L and 761R in which a cross combination image being generated is displayed.

撮影結果表示領域761Lに表示されるクロス組合せ画像は、図41の撮影結果表示領域741Lに表示されているクロス組合せ画像から、右上のアップ画像を除いた画像となる。同様に、撮影結果表示領域761Rに表示されるクロス組合せ画像は、図41の撮影結果表示領域741Rに表示されているクロス組合せ画像から、右上のアップ画像を除いた画像となる。   The cross combination image displayed in the imaging result display area 761L is an image obtained by removing the upper right up image from the cross combination image displayed in the imaging result display area 741L of FIG. Similarly, the cross combination image displayed in the shooting result display area 761R is an image obtained by removing the upper right up image from the cross combination image displayed in the shooting result display area 741R of FIG.

その後、ステップS257乃至S259の処理が行われた後、ステップS260において、合成処理部320は、アップ画像を合成する。具体的には、合成処理部320は、ステップS259の処理で取得した上カメラアップ撮影画像から各被写体の顔付近の画像を個別にトリミング(抽出)する。そして、合成処理部320は、ステップS255の処理で生成した各クロス組合せ画像に、全身画像と同じ利用者の顔付近のアップ画像を合成することにより、クロス組合せ画像を完成させる。   Thereafter, after the processing of steps S257 to S259 is performed, in step S260, the composition processing unit 320 composes the up image. Specifically, the composition processing unit 320 individually trims (extracts) an image near the face of each subject from the upper camera-up captured image acquired in step S259. Then, the synthesis processing unit 320 completes the cross combination image by synthesizing an up image near the face of the same user as the whole body image with each cross combination image generated in the process of step S255.

なお、全身画像とアップ画像が同一人物のものであるか否かの判定には、任意の手法を採用することができる。例えば、全身画像の顔付近の画像およびアップ画像から所定の特徴量を抽出し、抽出した特徴量の差が所定の閾値以下である場合、同一人物であると判定することが可能である。   It should be noted that any method can be employed to determine whether the whole body image and the up image belong to the same person. For example, when a predetermined feature amount is extracted from an image near the face and an up-image of the whole body image, and the difference between the extracted feature amounts is equal to or less than a predetermined threshold value, it is possible to determine that they are the same person.

ステップS261において、図36のステップS209と同様の処理が行われ、例えば、上述した図41に示される確認画面が、タッチパネルモニタ93に表示される。   In step S261, the same processing as step S209 in FIG. 36 is performed, and for example, the above-described confirmation screen shown in FIG. 41 is displayed on the touch panel monitor 93.

このようにして、撮影画像が撮影される毎に、撮影画像から各利用者の画像がトリミング(抽出)され、抽出された画像がそれぞれ対応するクロス組合せ画像に合成されることにより、各クロス組合せ画像が更新される。また、クロス組合せ画像が更新される毎に、更新された各クロス組合せ画像がタッチパネルモニタ93に表示される。従って、利用者は、クロス組合せ撮影を行いながら、全身画像、アップ画像の順に画像が組み合わされていく過程を確認することができる。   In this way, each time a captured image is captured, the image of each user is trimmed (extracted) from the captured image, and the extracted images are combined with the corresponding cross combination images, whereby each cross combination. The image is updated. Each time the cross combination image is updated, each updated cross combination image is displayed on the touch panel monitor 93. Therefore, the user can check the process in which the images are combined in the order of the whole body image and the up image while performing cross combination shooting.

[編集処理]
次に、図44のフローチャートを参照して、図18のステップS4の編集処理の詳細について説明する。
[Edit processing]
Next, details of the editing process in step S4 in FIG. 18 will be described with reference to the flowchart in FIG.

ステップS301において、進行処理部351は、撮影処理を終えた利用者の移動先の編集空間(移動先編集空間)の編集部209を制御し、タブレット内蔵モニタ131に開始画面を表示させる。具体的には、編集処理の開始前には、移動先編集空間のタブレット内蔵モニタ131には所定のデモンストレーション画面が表示されている。そして、進行処理部351は、図18のステップS3の処理の後、移動先編集空間の編集部209を制御し、編集処理の開始を通知するための開始画面をタブレット内蔵モニタ131に表示させる。   In step S <b> 301, the progress processing unit 351 controls the editing unit 209 of the editing space (moving destination editing space) of the movement destination of the user who has finished the photographing process, and displays the start screen on the tablet built-in monitor 131. Specifically, a predetermined demonstration screen is displayed on the tablet built-in monitor 131 in the destination editing space before the editing process is started. Then, after the process of step S3 in FIG. 18, the progress processing unit 351 controls the editing unit 209 in the destination editing space to display a start screen for notifying the start of the editing process on the tablet built-in monitor 131.

なお、以下、特に断りのない限り、この処理において、編集部209、並びに、その内部のタブレット内蔵モニタ131、タッチペン132A,132B、および、スピーカ231は、移動先編集空間のものを指すものとする。   Hereinafter, unless otherwise specified, in this processing, the editing unit 209, the tablet built-in monitor 131, the touch pens 132A and 132B, and the speaker 231 in the processing indicate those in the destination editing space. .

ステップS302において、編集処理部302は、目のサイズおよび明るさの選択を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図45に示す選択画面をタブレット内蔵モニタ131に表示させる。   In step S302, the edit processing unit 302 accepts selection of eye size and brightness. Specifically, the editing screen display control unit 354 controls the editing unit 209 to display, for example, the selection screen shown in FIG.

この選択画面には、撮影画像801−1乃至撮影画像801−6が、上側に並べられて表示されている。これらの撮影画像は、図18のステップS2の撮影処理においてカメラ91により撮影されて得られた、何も加工されていない画像(標準撮影画像)である。   On this selection screen, captured images 801-1 to 801-6 are displayed side by side on the upper side. These captured images are unprocessed images (standard captured images) obtained by capturing with the camera 91 in the capturing process in step S2 of FIG.

なお、ペナルティ撮影が行われた場合、すなわち、ボーナス撮影が行われず5枚の標準撮影画像が得られている場合、撮影画像801−5と撮影画像801−6として、図20のステップS45の処理で得られた上カメラ全身撮影画像が表示される。すなわち、撮影画像801−5と撮影画像801−6が同じ画像になる。   When penalty shooting is performed, that is, when bonus shooting is not performed and five standard captured images are obtained, the captured image 801-5 and captured image 801-6 are processed in step S45 of FIG. The upper camera whole body image obtained in the above is displayed. That is, the captured image 801-5 and the captured image 801-6 are the same image.

選択画面の中央のやや下側には、3つの目サイズ選択ボタン802−1乃至目サイズ選択ボタン802−3が横方向に並べられて表示されている。   Three eye size selection buttons 802-1 to 802-3 are displayed side by side in the horizontal direction slightly below the center of the selection screen.

目サイズ選択ボタン802−1には、目のサイズが自然な大きさのモデルの目の画像が表示され、目サイズ選択ボタン802−2には、目のサイズが若干大きな(例えば、自然な大きさよりも1割程度大きな)モデルの目の画像が表示されている。また、目サイズ選択ボタン802−3には、目のサイズが比較的大きな(例えば、自然な大きさよりも2割程度大きな)モデルの目の画像が表示されている。   The eye size selection button 802-1 displays an eye image of a model with a natural eye size, and the eye size selection button 802-2 displays a slightly larger eye size (for example, a natural size). An image of a model eye is displayed. The eye size selection button 802-3 displays an image of a model eye having a relatively large eye size (for example, about 20% larger than the natural size).

利用者は、目サイズ選択ボタン802−1乃至目サイズ選択ボタン802−3を選択することで、目のサイズを選択することができる。なお、以下、目サイズ選択ボタン802−1乃至目サイズ選択ボタン802−3を特に区別する必要のない場合、単に目サイズ選択ボタン802とも称する。   The user can select the eye size by selecting the eye size selection button 802-1 to the eye size selection button 802-3. Hereinafter, the eye size selection button 802-1 to the eye size selection button 802-3 are also simply referred to as an eye size selection button 802 when it is not necessary to distinguish them.

また、選択画面の下側には、5つの明るさ選択ボタン803−1乃至明るさ選択ボタン803−5が横方向に並べられて表示されている。明るさ選択ボタン803−1乃至明るさ選択ボタン803−5には、明るさの異なるモデルがそれぞれ表示されている。   Further, five brightness selection buttons 803-1 to 803-5 are displayed in the horizontal direction at the lower side of the selection screen. Models with different brightness levels are displayed on the brightness selection buttons 803-1 to 803-5, respectively.

利用者は、明るさ選択ボタン803−1乃至明るさ選択ボタン803−5の何れかを選択することで、被写体の明るさを選択することができる。なお、以下、明るさ選択ボタン803−1乃至明るさ選択ボタン803−5を特に区別する必要のない場合、単に明るさ選択ボタン803とも称する。   The user can select the brightness of the subject by selecting any one of the brightness selection buttons 803-1 to 803-5. Hereinafter, the brightness selection buttons 803-1 to 803-5 are also simply referred to as brightness selection buttons 803 when it is not necessary to distinguish them.

さらに、選択画面の右下側には、被写体の目のサイズと明るさを決定するときに操作される決定ボタン804が表示されている。この決定ボタン804が操作されると、撮影画像801−1乃至撮影画像801−6に写っている利用者の目のサイズと明るさが、一括して変更される。すなわち、撮影画像上の被写体の目のサイズと明るさが、選択された目サイズ選択ボタン802により定められた目のサイズ、および選択された明るさ選択ボタン803により定められた明るさに変更される。   Furthermore, a determination button 804 that is operated when determining the size and brightness of the subject's eyes is displayed on the lower right side of the selection screen. When the enter button 804 is operated, the size and brightness of the user's eyes shown in the photographed image 801-1 to the photographed image 801-6 are collectively changed. That is, the eye size and brightness of the subject on the photographed image are changed to the eye size determined by the selected eye size selection button 802 and the brightness determined by the selected brightness selection button 803. The

利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図45の選択画面が表示されたタブレット内蔵モニタ131に対する操作を行い、各撮影画像の目の大きさおよび明るさを選択する。また、利用者によって、この選択画面に対する操作が行われると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。さらに、落書き編集処理部355は、利用者の操作に応じて、各撮影画像の目のサイズおよび明るさを変更する。   Using the touch pen 132A or the touch pen 132B, the user operates the tablet built-in monitor 131 on which the selection screen of FIG. 45 is displayed, and selects the eye size and brightness of each captured image. When the user performs an operation on this selection screen, information corresponding to the user's operation is supplied from the tablet built-in monitor 131 to the input reception control unit 353. Furthermore, the graffiti editing processing unit 355 changes the eye size and brightness of each captured image in accordance with a user operation.

そして、選択処理が終了すると、処理はステップS303に進む。   Then, when the selection process ends, the process proceeds to step S303.

ステップS303において、進行制御部351は、クロス組合せ撮影を行ったか否かを判定し、クロス組合せ撮影を行ったと判定した場合、処理はステップS304に進む。   In step S303, the progress control unit 351 determines whether or not cross combination shooting has been performed. If it is determined that cross combination shooting has been performed, the process proceeds to step S304.

ステップS304において、編集処理部302は、画像の選択を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図46に示す選択画面をタブレット内蔵モニタ131に表示させる。   In step S304, the edit processing unit 302 accepts image selection. Specifically, the editing screen display control unit 354 controls the editing unit 209 to display, for example, the selection screen shown in FIG.

この選択画面は、基本的に、同じ構成の画面が左右に対称に並べて配置されることによって構成される。例えば、タブレット内蔵モニタ131に対して左側に立っている利用者(以下、左側利用者と称する)は、タッチペン132Aを用いて選択画面の左半分において自分の画像の選択を行い、右側に立っている利用者(以下、右側利用者と称する)は、タッチペン132Bを用いて編集画面の右半分において自分の画像の選択を行うことになる。   This selection screen is basically configured by arranging screens having the same configuration symmetrically on the left and right. For example, a user standing on the left side of the tablet built-in monitor 131 (hereinafter referred to as a left side user) selects his / her image on the left half of the selection screen using the touch pen 132A and stands on the right side. A user (hereinafter referred to as a right user) selects his / her image on the right half of the editing screen using the touch pen 132B.

選択画面の左側の上方には画像選択部821Lが配置されている。画像選択部821L内には、上述したクロス組合せ撮影において得られた2人の利用者のアップ画像が、それぞれ画像822L−1および画像822L−2として左右に並べて表示されている。   An image selection unit 821L is disposed above the left side of the selection screen. In the image selection unit 821L, the up images of the two users obtained in the above-described cross combination shooting are displayed side by side as an image 822L-1 and an image 822L-2, respectively.

一方、選択画面の右側の上方には画像選択部821Rが配置されている。画像選択部821R内には、画像選択部821L内の画像822L−1と同じ画像である画像822R−1、および、画像822L−2と同じ画像である画像822R−2が左右に並べて表示されている。   On the other hand, an image selection unit 821R is arranged above the right side of the selection screen. In the image selection unit 821R, an image 822R-1 that is the same image as the image 822L-1 in the image selection unit 821L and an image 822R-2 that is the same image as the image 822L-2 are displayed side by side. Yes.

利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図46の選択画面が表示されたタブレット内蔵モニタ131に対する操作を行い、自分の画像を選択する。
例えば、左側利用者は、タッチペン132Aを操作して、画像822L−1または画像822L−2から自分の画像を選択する。一方、右側利用者は、タッチペン132Bを操作して、画像822R−1または画像822R−2から自分の画像を選択する。また、利用者によって、この選択画面に対する操作が行われると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。
Using the touch pen 132A or the touch pen 132B, the user operates the tablet built-in monitor 131 on which the selection screen of FIG. 46 is displayed, and selects his / her image.
For example, the left user operates the touch pen 132A and selects his / her image from the image 822L-1 or the image 822L-2. On the other hand, the right user operates the touch pen 132B to select his / her image from the image 822R-1 or the image 822R-2. When the user performs an operation on this selection screen, information corresponding to the user's operation is supplied from the tablet built-in monitor 131 to the input reception control unit 353.

なお、画像選択部821Lまたは画像選択部821Rのいずれか一方において画像が選択されると、他方の画像選択部において、選択された画像と異なる方の画像が自動的に選択される。また、所定の時間内に画像の選択が行われなかった場合、画像選択部821Lにおいて左側の画像822L−1が自動的に選択され、画像選択部821Rにおいて右側の画像822R−2が自動的に選択される。   Note that when an image is selected by either the image selection unit 821L or the image selection unit 821R, the other image selection unit automatically selects an image different from the selected image. Further, if the image is not selected within a predetermined time, the left image 822L-1 is automatically selected by the image selection unit 821L, and the right image 822R-2 is automatically selected by the image selection unit 821R. Selected.

画像選択部821Lにおいて選択された画像は、次の処理で名前入力部841Lにおいて入力される名前と対応付けられ、画像選択部821Rにおいて選択された画像は、次の処理で名前入力部841Rにおいて入力される名前と対応付けられる。すなわち、この選択画面で画像の選択を行うことにより、利用者の画像と名前の対応関係が入力される。   The image selected in the image selection unit 821L is associated with the name input in the name input unit 841L in the next process, and the image selected in the image selection unit 821R is input in the name input unit 841R in the next process. Associated with the name. That is, by selecting an image on this selection screen, the correspondence between the user's image and name is input.

なお、画像822L−1乃至822R−2に、利用者のアップ画像の代わりに、クロス組合せ撮影において得られた利用者の全身画像を用いるようにしてもよい。   It should be noted that the whole body image of the user obtained in the cross combination photographing may be used for the images 822L-1 to 822R-2 instead of the user's up image.

そして、選択処理が終了すると、処理はステップS305に進む。   Then, when the selection process ends, the process proceeds to step S305.

ステップS305において、編集処理部302は、名前の入力を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図47に示す名前入力画面をタブレット内蔵モニタ131に表示させる。   In step S305, the edit processing unit 302 receives an input of a name. Specifically, the editing screen display control unit 354 controls the editing unit 209 to display, for example, the name input screen shown in FIG.

この名前入力画面は、基本的に、同じ構成の画面が左右に対称に並べて配置されることによって構成される。例えば、左側利用者は、タッチペン132Aを用いて名前入力画面の左半分において自分の名前の入力を行い、右側利用者は、タッチペン132Bを用いて名前入力画面の右半分において自分の名前の入力を行うことになる。   This name input screen is basically configured by arranging screens having the same configuration in a symmetrical manner on the left and right. For example, the left user inputs his name on the left half of the name input screen using the touch pen 132A, and the right user inputs his name on the right half of the name input screen using the touch pen 132B. Will do.

具体的には、名前入力画面の左側の上方には、図46の選択画面と同様に、画像選択部821Lが配置されている。同様に、名前入力画面の右側の上方には、図46の選択画面と同様に、画像選択部821Rが配置されている。従って、利用者は、図46の選択画面で自分の画像を選択した後も、この名前入力画面において自分の画像を再選択することができる。   Specifically, an image selection unit 821L is arranged above the left side of the name input screen, as in the selection screen of FIG. Similarly, an image selection unit 821R is arranged above the right side of the name input screen, as in the selection screen of FIG. Therefore, even after the user selects his / her image on the selection screen of FIG. 46, the user can re-select his / her image on the name input screen.

画像選択部821Lの下方には、名前入力部841Lが配置されている。名前入力部841Lの上方には、ひらがな入力で入力された文字(名前)を表示する名前表示部842Lが表示される。名前表示部842Lの右側には、名前表示部842Lに表示されている文字の最後の一文字を消去するひとつ戻るボタン843L、その右に、名前表示部842Lに表示されている全ての文字を消去する全部消すボタン844Lが表示される。   A name input unit 841L is arranged below the image selection unit 821L. Above the name input portion 841L, a name display portion 842L that displays characters (names) input by hiragana input is displayed. On the right side of the name display portion 842L, one back button 843L for erasing the last character displayed on the name display portion 842L, and on the right side, all the characters displayed on the name display portion 842L are deleted. A button 844L for deleting all is displayed.

そして、名前表示部842Lの下側には、ひらがなの各文字を入力する際に押下されるひらがな文字入力部845L、その下側に名前入力を決定するときに操作される決定ボタン846L、および名前入力を中止するキャンセルボタン847Lが表示される。   Below the name display portion 842L, a hiragana character input portion 845L that is pressed when inputting each character of hiragana, a determination button 846L that is operated when determining name input below, and a name A cancel button 847L for canceling the input is displayed.

画像選択部821Rの下方には、名前入力部841Lと同様の構成を有する名前入力部841Rが配置されている。   A name input unit 841R having the same configuration as the name input unit 841L is disposed below the image selection unit 821R.

利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図47の名前入力画面が表示されたタブレット内蔵モニタ131に対する操作を行い、自分の名前やニックネーム等を入力する。例えば、左側利用者は、タッチペン132Aを用いて、ひらがな文字入力部845Lを操作して、自分の名前やニックネーム等を入力する。同様に、右側利用者は、タッチペン132Bを用いて、ひらがな文字入力部845Rを操作して、自分の名前やニックネーム等を入力する。また、利用者によって、この名前入力画面に対する操作が行なわれると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。   Using the touch pen 132A or the touch pen 132B, the user operates the tablet built-in monitor 131 on which the name input screen of FIG. 47 is displayed, and inputs his / her name, nickname, and the like. For example, the left user operates his / her hiragana character input unit 845L using the touch pen 132A to input his / her name, nickname, and the like. Similarly, the right user operates his / her hiragana character input unit 845R using the touch pen 132B to input his / her name, nickname, and the like. When the user performs an operation on this name input screen, information corresponding to the user's operation is supplied from the tablet built-in monitor 131 to the input reception control unit 353.

なお、この名前入力画面により入力された名前は、例えば、「お名前スタンプ」と称される編集ツールや「お名前フレーム」と称される編集ツールに用いられる。   The name input on the name input screen is used for an editing tool called “name stamp” and an editing tool called “name frame”, for example.

また、画像選択部821Lで選択された画像と名前入力部841Lで入力された名前が対応付けられ、選択された画像を含むクロス組合せ画像の前景または背景に、対応付けられた名前を示す画像が合成される。同様に、画像選択部821Rで選択された画像と名前入力部841Rで入力された名前が対応付けられ、選択された画像を含むクロス組合せ画像の前景または背景に、対応付けられた名前を示す画像が合成される。   Further, the image selected by the image selection unit 821L and the name input by the name input unit 841L are associated with each other, and an image indicating the associated name is displayed on the foreground or background of the cross combination image including the selected image. Synthesized. Similarly, the image selected by the image selection unit 821R is associated with the name input by the name input unit 841R, and the image indicating the name associated with the foreground or background of the cross combination image including the selected image Is synthesized.

そして、名前入力処理が終了すると、処理はステップS307に進む。   When the name input process ends, the process proceeds to step S307.

一方、ステップS303において、クロス組合せ撮影を行なっていないと判定された場合、処理はステップS306に進む。   On the other hand, if it is determined in step S303 that cross combination shooting has not been performed, the process proceeds to step S306.

ステップS306において、編集処理部302は、名前の入力を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図48に示す名前入力画面をタブレット内蔵モニタ131に表示させる。   In step S306, the edit processing unit 302 receives an input of a name. Specifically, the edit screen display control unit 354 controls the edit unit 209 to display, for example, the name input screen shown in FIG.

図48の名前入力画面は、図47の名前入力画面から画像選択部821Lおよび画像選択部821Rを削除した画面構成となっている。すなわち、クロス組合せ撮影が行われていないため、この名前入力画面では、画像の選択は行われずに、名前の入力だけが行われる。   The name input screen of FIG. 48 has a screen configuration in which the image selection unit 821L and the image selection unit 821R are deleted from the name input screen of FIG. That is, since cross combination shooting is not performed, on this name input screen, an image is not selected and only a name is input.

そして、名前入力処理が終了すると、処理はステップS307に進む。   When the name input process ends, the process proceeds to step S307.

ステップS307において、進行制御部351は、編集部209を制御し、撮影画像に合成する合成用画像の選択を行う旨のガイダンス画面をタブレット内蔵モニタ131に表示させる。   In step S <b> 307, the progress control unit 351 controls the editing unit 209 to display a guidance screen on the tablet built-in monitor 131 for selecting a composition image to be combined with the captured image.

ステップS308において、編集処理部302は、背景色の選択を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図49に示す背景色選択画面をタブレット内蔵モニタ131に表示させる。   In step S308, the edit processing unit 302 accepts selection of a background color. Specifically, the editing screen display control unit 354 controls the editing unit 209 to display, for example, the background color selection screen shown in FIG.

この背景色選択画面には、背景色選択領域861および背景色選択領域862が、左右に並べて表示されている。   On this background color selection screen, a background color selection area 861 and a background color selection area 862 are displayed side by side.

利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図49の選択画面が表示されたタブレット内蔵モニタ131に対する操作を行い、背景色を選択することができる。すなわち、利用者は、タッチペン132Aまたはタッチペン132Bを用いて、背景色選択画面の背景色選択領域861または背景色選択領域862の何れかを選択することで、合成用画像に用いる背景色を選択することができる。具体的には、背景色選択領域861を選択すると、合成用画像をくっきりしたビビッドな色味に設定することができ、背景色選択領域862を選択すると、合成用画像をふんわりしたパステル調の色味に設定することができる。また、利用者によって、この選択画面に対する操作が行われると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。   Using the touch pen 132A or the touch pen 132B, the user can select the background color by operating the tablet built-in monitor 131 on which the selection screen of FIG. 49 is displayed. That is, the user selects a background color to be used for the composition image by selecting either the background color selection area 861 or the background color selection area 862 on the background color selection screen using the touch pen 132A or the touch pen 132B. be able to. Specifically, when the background color selection area 861 is selected, the composition image can be set to a clear vivid color, and when the background color selection area 862 is selected, a pastel color that softens the composition image. Can be set to taste. When the user performs an operation on this selection screen, information corresponding to the user's operation is supplied from the tablet built-in monitor 131 to the input reception control unit 353.

そして、背景色の選択処理が終了すると、処理はステップS309に進む。   When the background color selection process ends, the process proceeds to step S309.

ステップS309において、編集処理部302は、合成用画像の選択を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図50に示す合成用画像選択画面をタブレット内蔵モニタ131に表示させる。   In step S309, the editing processing unit 302 accepts selection of a composition image. Specifically, the editing screen display control unit 354 controls the editing unit 209 to display, for example, the composition image selection screen shown in FIG.

合成用画像選択画面には、合成用画像の分類ボタンの表示領域881、撮影合成画像の表示領域882、および、撮影画像および撮影合成画像の表示領域883が配置されている。合成用画像の分類ボタンの表示領域881には、ノーマルボタン884、柄ボタン885、およびセットボタン886が表示されている。図50の例では、黒色で反転表示されているノーマルボタン884が選択されている状態が示されている。   On the composite image selection screen, a composite image classification button display area 881, a composite image display area 882, and a composite image display area 883 are displayed. A normal button 884, a pattern button 885, and a set button 886 are displayed in the display area 881 of the composition image classification button. In the example of FIG. 50, a state in which the normal button 884 that is highlighted in black is selected is shown.

ノーマルボタン884および柄ボタン885は、予め用意された複数の合成用画像の中から、利用者が、所望の合成用画像を選択するときに操作される。ノーマルボタン884を選択することにより、各種の色からなる合成用画像の中から所望の合成用画像を選択することができる。また、柄ボタン885を選択することにより、各種の柄からなる合成用画像の中から所望の合成用画像を選択することができる。   The normal button 884 and the pattern button 885 are operated when the user selects a desired composition image from a plurality of composition images prepared in advance. By selecting the normal button 884, a desired composition image can be selected from among the composition images having various colors. Also, by selecting the pattern button 885, a desired composition image can be selected from among composition images composed of various patterns.

セットボタン886は、複数の合成用画像のセットの中から、利用者が所望の合成用画像のセットを選択するときに操作される。合成用画像のセットは、例えば、各種の色および柄からなる複数種類の合成用画像の中から、撮影枚数(6枚)に従って、任意の種類の合成用画像が組み合わされて、予め用意されている。   The set button 886 is operated when the user selects a desired set of compositing images from a plurality of compositing image sets. For example, a set of compositing images is prepared in advance by combining arbitrary types of compositing images according to the number of shots (six) from among a plurality of types of compositing images having various colors and patterns. Yes.

撮影合成画像の表示領域882には、複数の撮影合成画像が表示される。撮影合成画像は、撮影画像の被写体と合成用画像とが一括で合成された画像である。また、撮影合成画像の表示領域882には、ノーマルボタン884、柄ボタン885、およびセットボタン886の選択に応じて分類された合成用画像が合成された撮影合成画像が表示される。図50の例では、ノーマルボタン884が選択されており、各種の色からなる合成用画像が、撮影画像の被写体である利用者自身の背景として合成された27枚(3行×9列)の撮影合成画像が示されている。   A plurality of photographed composite images are displayed in the photographed composite image display area 882. The captured composite image is an image in which the subject of the captured image and the composite image are combined together. Also, in the photographed composite image display area 882, a photographed composite image in which the composite images classified according to the selection of the normal button 884, the pattern button 885, and the set button 886 are combined is displayed. In the example of FIG. 50, the normal button 884 is selected, and 27 images (3 rows × 9 columns) in which images for synthesis composed of various colors are synthesized as the background of the user who is the subject of the captured image. A photographed composite image is shown.

例えば、利用者が、撮影合成画像の表示領域882に表示されている複数の撮影合成画像の中から、任意の撮影合成画像を選択すると、その撮影合成画像に合成されている合成用画像が選択される。そして、利用者により選択された撮影合成画像には、既に選択されたことを示唆する「済」のマークが表示される。また、直前に選択された撮影合成画像には、利用者が選択したばかりであることを示唆する「SELECT」の文字が表示される。   For example, when the user selects an arbitrary photographed composite image from a plurality of photographed composite images displayed in the photographed composite image display area 882, a composite image synthesized with the photographed composite image is selected. Is done. Then, in the captured composite image selected by the user, an “already” mark indicating that it has already been selected is displayed. In addition, a character “SELECT” indicating that the user has just selected is displayed in the photographed composite image selected immediately before.

撮影画像および撮影合成画像の表示領域883には、撮影合成画像887および撮影画像888が表示される。図50の例では、撮影画像および撮影合成画像の表示領域883には、4枚の撮影合成画像887−1乃至887−4、並びに、2枚の撮影画像888−5および888−6が表示されている。また、撮影合成画像887−1乃至887−4の下方には、キャンセルボタン889−1乃至889−4がそれぞれ表示されている。   A captured composite image 887 and a captured image 888 are displayed in the display area 883 for the captured image and the captured composite image. In the example of FIG. 50, four captured composite images 887-1 to 887-4 and two captured images 888-5 and 888-6 are displayed in the display area 883 of the captured image and the captured composite image. ing. Cancel buttons 889-1 to 889-4 are respectively displayed below the captured composite images 887-1 to 887-4.

例えば、合成用画像の選択画面が最初に表示されたときには、撮影画像および撮影合成画像の表示領域883には、標準撮影画像に対応する6枚の撮影画像888が、左から撮影された順に表示される。また、撮影画像888は、上述したステップS302の処理により、被写体の目のサイズと明るさが変更された画像となる。   For example, when the composite image selection screen is first displayed, six captured images 888 corresponding to the standard captured images are displayed in the captured image and captured composite image display area 883 in the order in which they were captured from the left. Is done. The captured image 888 is an image in which the size and brightness of the subject's eyes have been changed by the processing in step S302 described above.

なお、ペナルティ撮影が行われた場合、すなわち、ボーナス撮影が行われず5枚の標準撮影画像が得られた場合には、図20のステップS45の処理で得られた上カメラ全身撮影画像が、撮影画像888−5と撮影画像888−6として表示される。すなわち、撮影画像888−5と撮影画像888−6が同じ画像になる。   When penalty shooting is performed, that is, when bonus shooting is not performed and five standard captured images are obtained, the upper camera whole body captured image obtained by the process of step S45 in FIG. 20 is captured. An image 888-5 and a captured image 888-6 are displayed. That is, the captured image 888-5 and the captured image 888-6 are the same image.

そして、利用者が、1枚目の撮影画像888に対して、撮影合成画像の表示領域882に表示されている複数の撮影合成画像の中から、所望の撮影合成画像を選択することにより、その撮影合成画像に合成されている合成用画像が選択される。これに従って、1枚目の撮影画像888の表示が、利用者により選択された撮影合成画像887−1に更新される。すなわち、1枚目の撮影画像888に替えて、1枚目の撮影画像888の被写体の背景に、利用者により選択された合成用画像が合成された撮影合成画像887−1が表示される。さらに、撮影合成画像887−1の下方に、キャンセルボタン889−1が表示される。   Then, the user selects a desired photographed composite image from the plurality of photographed composite images displayed in the photographed composite image display area 882 with respect to the first photographed image 888. A compositing image synthesized with the photographed composite image is selected. Accordingly, the display of the first photographed image 888 is updated to the photographed composite image 887-1 selected by the user. That is, instead of the first photographed image 888, a photographed composite image 887-1 in which the composition image selected by the user is synthesized is displayed on the background of the subject of the first photographed image 888. Further, a cancel button 889-1 is displayed below the photographed composite image 887-1.

以下、同様に、利用者が、2枚目の撮影画像888、3枚目の撮影画像888、および4枚目の撮影画像888に対して合成用画像を順番に選択すると、その選択に従って、撮影合成画像887−2乃至887−4がそれぞれ表示される。さらに、撮影合成画像887−2乃至887−4の下方に、キャンセルボタン889−2乃至889−4がそれぞれ表示される。このキャンセルボタン889を操作することで、その上方に表示されている撮影合成画像887に合成されている合成用画像の選択をキャンセルして、合成用画像を選び直すことができる。   Hereinafter, similarly, when the user sequentially selects a composite image for the second photographed image 888, the third photographed image 888, and the fourth photographed image 888, photographing is performed according to the selection. The composite images 887-2 to 887-4 are displayed. Further, cancel buttons 889-2 to 889-4 are displayed below the captured composite images 887-2 to 887-4, respectively. By operating the cancel button 889, selection of the composition image synthesized with the photographed composition image 887 displayed above it can be canceled, and the composition image can be selected again.

このように、図50には、4枚目の撮影画像888に対して合成用画像が選択されて、撮影合成画像887−4が表示された時点での合成用画像の選択画面が示されている。   As described above, FIG. 50 shows a selection screen for a composition image when a composition image is selected for the fourth photographed image 888 and the photographed composite image 887-4 is displayed. Yes.

従って、この合成用画像の選択画面では、撮影画像888−5に対する合成用画像の選択が行われる。そのことを示唆するため、撮影画像888−5を囲うようにカーソルCが表示されるとともに、撮影画像および撮影合成画像の表示領域883の上方に「5枚目の背景を選んでね!」という文字が表示される。   Therefore, on this composition image selection screen, the composition image for the photographed image 888-5 is selected. In order to suggest this, the cursor C is displayed so as to surround the photographed image 888-5, and “select the fifth background!” Above the display area 883 of the photographed image and the photographed composite image! Characters are displayed.

撮影合成画像の表示領域882の右側には、人を消すボタン890が表示されている。
人を消すボタン890は、撮影合成画像の表示領域882に表示されている撮影合成画像を、被写体が合成されていない状態に表示を変更する際に、即ち、撮影合成画像の表示領域882の表示を合成用画像とする際に操作される。例えば、通常、撮影合成画像の表示領域882には、撮影画像の被写体と合成用画像とが合成された撮影合成画像が表示されるが、被写体によって合成用画像の色や柄を確認し難い場合があると想定される。そのような場合には、利用者が人を消すボタン890を操作することで、撮影合成画像の表示領域882には合成用画像(すなわち、背景のみ)が表示されることになり、利用者が、合成用画像の色や柄を確認し易くなる。
A button 890 for erasing a person is displayed on the right side of the display area 882 for the photographed composite image.
The erase button 890 is used to change the display of the composite image displayed in the composite image display area 882 to a state where the subject is not composited, that is, in the display of the composite image display area 882. To be used as a composition image. For example, normally, a photographed composite image in which the subject of the photographed image and the composite image are combined is displayed in the display region 882 of the photographed composite image, but it is difficult to confirm the color or pattern of the composite image by the subject. It is assumed that there is. In such a case, when the user operates the button 890 for deleting a person, a composite image (that is, only the background) is displayed in the display area 882 of the photographed composite image. This makes it easier to confirm the color and pattern of the image for synthesis.

また、人を消すボタン890が操作されて、撮影合成画像の表示領域882に合成用画像が表示されるのと同時に、人を消すボタン890に表示されていた文字は「人を表示する」に変更される。そして、撮影合成画像の表示領域882の表示が合成用画像であるときに、利用者が人を消すボタン890を操作すると、撮影合成画像の表示領域882が元に戻り、図50に示すように、被写体の背景に合成用画像が合成された撮影合成画像が表示される。   Further, when the erase button 890 is operated to display the composite image in the captured composite image display area 882, the character displayed on the erase button 890 is changed to “display person”. Be changed. When the display of the photographed composite image display area 882 is a composite image, when the user operates the button 890 for deleting a person, the photographed composite image display area 882 returns to the original state, as shown in FIG. Then, a captured composite image in which the composite image is combined with the background of the subject is displayed.

利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図50の選択画面が表示されたタブレット内蔵モニタ131に対する操作を行い、各撮影画像に合成する合成用画像を選択する。また、利用者によって、この選択画面に対する操作が行われると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。さらに、落書き編集処理部355は、利用者の操作に応じて、各撮影画像に選択された合成用画像を合成し、6枚の撮影合成画像を生成する。なお、ペナルティ撮影が行われた場合には、5枚目と6枚目の撮影合成画像は、同一の撮影画像(上カメラ全身撮影画像)に、異なる合成用画像を合成した画像となる。   Using the touch pen 132A or the touch pen 132B, the user operates the tablet built-in monitor 131 on which the selection screen of FIG. 50 is displayed, and selects a composite image to be combined with each captured image. When the user performs an operation on this selection screen, information corresponding to the user's operation is supplied from the tablet built-in monitor 131 to the input reception control unit 353. Furthermore, the graffiti editing processing unit 355 synthesizes the selected composition image with each photographed image in response to a user operation, and generates six photographed composite images. When penalty shooting is performed, the fifth and sixth shot composite images are images obtained by combining different composite images with the same shot image (upper camera whole-body shot image).

そして、合成用画像の選択処理が終了すると、処理はステップS310に進む。   When the composition image selection process ends, the process proceeds to step S310.

ステップS310において、編集処理部302は、画像の編集を受け付ける。具体的には、編集画面表示制御部354は、編集部209を制御し、例えば、図51に示す編集画面をタブレット内蔵モニタ131に表示させる。   In step S310, the edit processing unit 302 receives image editing. Specifically, the editing screen display control unit 354 controls the editing unit 209 to display, for example, the editing screen shown in FIG.

この編集画面は、基本的に、同じ構成の画面が左右に対称に並べて配置されることによって構成される。例えば、左側利用者は、タッチペン132Aを用いて編集画面の左半分において撮影合成画像の編集を行い、右側利用者は、左側利用者による編集と並行して、タッチペン132Bを用いて編集画面の右半分において撮影合成画像の編集を行うことになる。   This editing screen is basically configured by arranging screens having the same configuration in a symmetrical arrangement on the left and right. For example, the left user edits the captured composite image in the left half of the editing screen using the touch pen 132A, and the right user uses the touch pen 132B to edit the right side of the editing screen in parallel with the editing by the left user. In half, the photographed composite image is edited.

編集画面の左側の上方には画像選択部903Lが配置されており、ステップS310の処理で生成された6枚の撮影合成画像が、左から撮影順に横に並べて表示される。なお、ペナルティ撮影が行われた場合には、右から2枚目の撮影合成画像と右端の撮影合成画像は、同じ撮影画像(上カメラ全身撮影画像)に基づいて生成された撮影合成画像となる。   An image selection unit 903L is arranged above the left side of the editing screen, and the six photographed composite images generated by the process of step S310 are displayed side by side in the order of photographing from the left. When penalty shooting is performed, the second shot composite image from the right and the rightmost shot composite image are shot composite images generated based on the same shot image (upper camera whole-body shot image). .

画像選択部903Lの下に形成された編集対象画像表示部901Lには、画像選択部903Lから選択された撮影合成画像が拡大して表示される。図51の例においては、6枚の撮影合成画像のうち、右から2枚目の撮影合成画像が編集対象としてカーソルC1によって選択されている。また、右端の撮影合成画像がカーソルC2によって選択されている。画像選択部903LにおいてカーソルC2によって選択されていることは、6枚の撮影合成画像のうちの右端の撮影合成画像が編集画面の右側において編集対象とされており、それと同じ画像を左側において編集対象として選択できないことを表す。   In the editing target image display unit 901L formed under the image selection unit 903L, the captured composite image selected from the image selection unit 903L is displayed in an enlarged manner. In the example of FIG. 51, among the six photographed composite images, the second photographed composite image from the right is selected by the cursor C1 as an editing target. The rightmost photographed composite image is selected by the cursor C2. What is selected by the cursor C2 in the image selection unit 903L is that the rightmost photographed composite image among the six photographed composite images is to be edited on the right side of the editing screen, and the same image is to be edited on the left side. Indicates that it cannot be selected.

同様に、編集画面の右側の上方に画像選択部903Rが配置されており、画像選択部903Rには、画像選択部903Lに表示されている画像と同じ6枚の撮影合成画像が同じ並びで表示される。画像選択部903Rにおいては、6枚の撮影合成画像のうち、右端の撮影合成画像が編集対象としてカーソルC2によって選択されている。   Similarly, an image selection unit 903R is arranged above the right side of the editing screen, and the same six captured composite images as the images displayed on the image selection unit 903L are displayed in the same arrangement on the image selection unit 903R. Is done. In the image selection unit 903R, the rightmost photographed composite image among the six photographed composite images is selected by the cursor C2 as an editing target.

また、右から2枚目の撮影合成画像がカーソルC1によって選択されている。画像選択部903RにおいてカーソルC1によって選択されていることは、6枚の撮影合成画像のうちの左端の撮影合成画像が編集画面の左側において編集対象とされており、それと同じ画像を右側において編集対象として選択できないことを表す。すなわち、編集画面においては、左右の一方の画面で編集対象として選択されている画像は、他方の画面で編集対象として選択不可となる。   Further, the second photographed composite image from the right is selected by the cursor C1. What is selected by the cursor C1 in the image selection unit 903R is that the leftmost photographed composite image among the six photographed composite images is to be edited on the left side of the editing screen, and that same image is to be edited on the right side. Indicates that it cannot be selected. That is, on the editing screen, an image selected as an editing target on one of the left and right screens cannot be selected as an editing target on the other screen.

編集対象画像表示部901Lの下にはコンテンツパレット902Lが表示される。コンテンツパレット902Lには手書き画像を入力するときに選択されるペンツール、スタンプ画像を入力するときに選択されるスタンプツールなどの各種の編集ツールのタブが表示されており、タブを選択することによって、編集ツールを切り替えることができるようになされている。利用者は、コンテンツパレット902Lから編集ツールを選択し、編集対象画像表示部901Lに表示されている編集対象の撮影合成画像に文字や絵柄などを入力することができる。   A content palette 902L is displayed below the edit target image display unit 901L. In the content palette 902L, tabs of various editing tools such as a pen tool selected when inputting a handwritten image and a stamp tool selected when inputting a stamp image are displayed. By selecting a tab, The editing tools can be switched. The user can select an editing tool from the content palette 902L, and input characters, a pattern, and the like to the edited composite image displayed on the editing target image display unit 901L.

編集対象画像表示部901Lの右側には、各種のボタンが表示されるボタン表示部904Lが表示される。図51の例においては、撮影合成画像の編集を終了するときに操作される終了ボタン、編集対象画像表示部901Lに入力した画像を部分的に消去するときに用いられる消しゴムボタン、編集をはじめからやり直すときに操作されるボタン、1セット前に戻るときに操作されるボタン、編集の内容を一操作後の状態に戻すときに操作されるボタン、および、編集の内容を一操作前の状態に戻すときに操作されるボタンがボタン表示部904Lに表示されている。   On the right side of the edit target image display unit 901L, a button display unit 904L on which various buttons are displayed is displayed. In the example of FIG. 51, an end button that is operated when the editing of the captured composite image is ended, an eraser button that is used when the image input to the edit target image display unit 901L is partially erased, and editing from the beginning. Buttons that are operated when redoing, buttons that are operated when returning to the previous set, buttons that are operated when returning the editing contents to the state after one operation, and editing contents that are one operation before A button operated when returning is displayed on the button display portion 904L.

編集画面の右側には、左側に表示される編集対象画像表示部901L、コンテンツパレット902L、画像選択部903L、およびボタン表示部904Lに対応して、編集対象画像表示部901R、コンテンツパレット902R、画像選択部903R、およびボタン表示部904Rが表示される。   On the right side of the editing screen, an editing target image display unit 901R, a content palette 902R, an image corresponding to the editing target image display unit 901L, the content palette 902L, the image selection unit 903L, and the button display unit 904L displayed on the left side. A selection unit 903R and a button display unit 904R are displayed.

また、編集画面の中央には、BGMの選択に用いられるGUI等が表示される。   In the center of the editing screen, a GUI used for selecting BGM is displayed.

利用者は、タッチペン132Aまたはタッチペン132Bを用いて、図51の編集画面が表示されたタブレット内蔵モニタ131に対する操作を行い、各撮影合成画像の編集を行う。例えば、左側利用者は、タッチペン132Aを操作して、スタンプツールやペンツールなどの編集ツールを用いて、編集対象画像表示部901Lに表示されている撮影合成画像に落書きする。一方、右側利用者は、タッチペン132Bを操作して、スタンプツールやペンツールなどの編集ツールを用いて、編集対象画像表示部901Rに表示されている撮影合成画像に落書きする。   Using the touch pen 132A or the touch pen 132B, the user operates the tablet built-in monitor 131 on which the editing screen of FIG. 51 is displayed, and edits each captured composite image. For example, the left user operates the touch pen 132A and uses an editing tool such as a stamp tool or a pen tool to doodle the captured composite image displayed on the editing target image display unit 901L. On the other hand, the user on the right side operates the touch pen 132B and uses an editing tool such as a stamp tool or a pen tool to doodle the captured composite image displayed on the editing target image display unit 901R.

また、利用者によって、この編集画面に対する操作が行なわれると、タブレット内蔵モニタ131から入力受付制御部353に、利用者の操作に応じた情報が供給される。さらに、落書き編集処理部355は、利用者の操作に応じて、撮影合成画像に入力された落書きを合成する。   When the user performs an operation on the editing screen, information corresponding to the user's operation is supplied from the tablet built-in monitor 131 to the input reception control unit 353. Furthermore, the graffiti editing processing unit 355 synthesizes the graffiti input to the photographed composite image in accordance with the user's operation.

これにより、各撮影合成画像に編集を施した6枚の編集済み画像が生成される。   As a result, six edited images obtained by editing each photographed composite image are generated.

そして、編集処理が終了すると、処理はステップS311に進む。   When the editing process ends, the process proceeds to step S311.

なお、以下、下カメラアップ撮影画像から生成された編集済み画像を下カメラアップ編集画像と称する。また、以下、上カメラアップ撮影画像から生成された編集済み画像を上カメラアップ編集画像と称する。さらに、以下、上カメラ全身撮影画像から生成された編集済み画像を上カメラ全身編集画像と称する。また、以下、ボーナス撮影画像から生成された編集済み画像をボーナス編集画像と称する。   Hereinafter, the edited image generated from the lower camera up photographed image is referred to as a lower camera up edited image. Hereinafter, an edited image generated from the upper camera-up captured image is referred to as an upper camera-up edited image. Further, the edited image generated from the upper camera whole body captured image is hereinafter referred to as an upper camera whole body edited image. Hereinafter, the edited image generated from the bonus photographed image is referred to as a bonus edited image.

なお、ペナルティ撮影が行われた場合、上述したように、同じ上カメラ全身画像に対して異なる編集入力を行うことができるため、合計2枚の上カメラ全身編集画像が生成される。これらの上カメラ全身編集画像を個々に区別する必要がある場合、5枚目の編集済み画像となる上カメラ全身編集画像を上カメラ全身編集画像Aと称し、6枚目の編集済み画像となる上カメラ全身編集画像を上カメラ全身編集画像Bと称する。   When penalty shooting is performed, as described above, since different editing inputs can be performed on the same upper camera whole body image, a total of two upper camera whole body edited images are generated. When it is necessary to individually distinguish these upper camera whole body edited images, the upper camera whole body edited image that becomes the fifth edited image is referred to as the upper camera whole body edited image A, and becomes the sixth edited image. The upper camera whole body edited image is referred to as an upper camera whole body edited image B.

ステップS311において、編集処理部302は、分割パターンの選択を受け付ける。
具体的には、編集画面表示制御部354は、編集部209を制御し、複数の分割パターンをタブレット内蔵モニタ131に表示させ、利用者にいずれか1つを選択させる。ここで、分割パターンとは、編集済み画像をシール紙に印刷するレイアウトを示すものである。
In step S <b> 311, the edit processing unit 302 receives selection of a division pattern.
Specifically, the editing screen display control unit 354 controls the editing unit 209 to display a plurality of division patterns on the tablet built-in monitor 131 and allow the user to select any one. Here, the division pattern indicates a layout for printing an edited image on a sticker sheet.

図52および図53は、分割パターンの種類の例を示している。図52は、通常撮影が行われた場合の分割パターンの例を示しており、図53は、ペナルティ撮影が行われた場合の分割パターンの例を示している。   52 and 53 show examples of types of division patterns. FIG. 52 shows an example of a division pattern when normal shooting is performed, and FIG. 53 shows an example of a division pattern when penalty shooting is performed.

通常撮影が行われた場合、利用者は、例えば、図52のパターン1A乃至パターン3Aのいずれかの分割パターンを選択することができる。   When normal shooting is performed, the user can select, for example, one of the divided patterns of patterns 1A to 3A in FIG.

パターン1Aでは、6枚の編集済み画像931A−1乃至931A−6が、縦3行×横2列に並べて配置されている。なお、編集済み画像931A−1乃至931A−3が下カメラアップ編集画像に対応し、編集済み画像931A−4が上カメラアップ編集画像に対応し、編集済み画像931A−5が上カメラ全身編集画像に対応し、編集済み画像931A−6がボーナス編集画像に対応する。   In the pattern 1A, six edited images 931A-1 to 931A-6 are arranged side by side in 3 rows × 2 columns. The edited images 931A-1 to 931A-3 correspond to the lower camera up edited image, the edited image 931A-4 corresponds to the upper camera up edited image, and the edited image 931A-5 is the upper camera whole body edited image. The edited image 931A-6 corresponds to the bonus edited image.

パターン2Aでは、6枚の編集済み画像941A−1乃至941A−6が、パターン1Aよりも小さなサイズで、縦3行×横2列に並べて配置されている。なお、編集済み画像941A−1乃至941A−3が下カメラアップ編集画像に対応し、編集済み画像941A−4が上カメラアップ編集画像に対応し、編集済み画像941A−5が上カメラ全身編集画像に対応し、編集済み画像941A−6がボーナス編集画像に対応する。さらに、パターン2Aでは、編集済み画像941A−1乃至941A−6の上に、6枚の編集済み画像の中から選択された1枚の編集済み画像942Aが配置されている。編集済み画像942Aのサイズは、編集済み画像941A−1乃至941A−6より大きなサイズに設定されている。   In the pattern 2A, six edited images 941A-1 to 941A-6 are arranged in a size smaller than the pattern 1A and arranged in 3 rows × 2 columns. The edited images 941A-1 to 941A-3 correspond to the lower camera up edited image, the edited image 941A-4 corresponds to the upper camera up edited image, and the edited image 941A-5 is the upper camera whole body edited image. The edited image 941A-6 corresponds to the bonus edited image. Further, in the pattern 2A, one edited image 942A selected from the six edited images is arranged on the edited images 941A-1 to 941A-6. The size of the edited image 942A is set larger than the edited images 941A-1 to 941A-6.

パターン3Aでは、6枚の編集済み画像951A−1乃至951A−6が、パターン1Aよりも小さなサイズで、縦3行×横2列に並べて配置されている。さらにその下に、編集済み画像952A−1乃至952A−6が、編集済み画像951A−1乃至951A−6よりも小さなサイズで、縦2行×横3列に並べて配置されている。なお、編集済み画像951A−1乃至951A−3および編集済み画像952A−1乃至952A−3が下カメラアップ編集画像に対応し、編集済み画像951A−4および編集済み画像952A−4が上カメラアップ編集画像に対応し、編集済み画像951A−5および編集済み画像952A−5が上カメラ全身編集画像に対応し、編集済み画像951A−6および編集済み画像952A−6がボーナス編集画像に対応する。   In the pattern 3A, six edited images 951A-1 to 951A-6 are arranged in a size smaller than the pattern 1A and arranged in 3 rows × 2 columns. Below that, edited images 952A-1 to 952A-6 are arranged in a size of 2 rows x 3 columns in a size smaller than the edited images 951A-1 to 951A-6. Note that the edited images 951A-1 to 951A-3 and the edited images 952A-1 to 952A-3 correspond to the lower camera up edited image, and the edited images 951A-4 and 952A-4 are the upper camera up. Corresponding to the edited image, the edited image 951A-5 and the edited image 952A-5 correspond to the upper camera whole body edited image, and the edited image 951A-6 and the edited image 952A-6 correspond to the bonus edited image.

なお、各分割パターンにおいて、例えば、被写体のアップが写っている下カメラアップ編集画像および上カメラアップ編集画像の縦横比は、1.2:1に設定され、被写体の全身が写っている上カメラ全身編集画像およびボーナス編集画像の縦横比は、例えば、4:3に設定される。ただし、各画像の縦横比は、その一例であり、例えば、全ての画像の縦横比を同じ値に設定するようにしてもよい。   In each division pattern, for example, the aspect ratio of the lower camera up edit image and the upper camera up edit image in which the subject is up is set to 1.2: 1, and the upper camera in which the entire body of the subject is shown The aspect ratio of the whole body edited image and the bonus edited image is set to 4: 3, for example. However, the aspect ratio of each image is an example, and for example, the aspect ratio of all images may be set to the same value.

一方、ペナルティ撮影が行われた場合、利用者は、例えば、図53のパターン1B乃至パターン3Bのいずれかの分割パターンを選択することができる。   On the other hand, when penalty shooting is performed, the user can select, for example, one of the divided patterns of patterns 1B to 3B in FIG.

パターン1Bでは、図52のパターン1Aと基本的に同じレイアウトで編集済み画像が配置されている。ただし、編集済み画像931B−1乃至931B−5は、図52のパターン1Aにおける編集済み画像931A−1乃至931A−5と同じであるが、編集済み画像931A−6がボーナス編集画像であるのに対し、編集済み画像931B−6は上カメラ全身編集画像Bとなる。   In the pattern 1B, the edited image is arranged in basically the same layout as the pattern 1A in FIG. However, the edited images 931B-1 to 931B-5 are the same as the edited images 931A-1 to 931A-5 in the pattern 1A of FIG. 52, but the edited image 931A-6 is a bonus edited image. On the other hand, the edited image 931B-6 becomes the upper camera whole body edited image B.

パターン2Bでは、図52のパターン2Aと基本的に同じレイアウトで編集済み画像が配置されている。ただし、パターン1Bと同様に、編集済み画像941B−6は、パターン2Aの編集済み画像941A−6と異なり、上カメラ全身編集画像Bとなる。   In the pattern 2B, the edited image is arranged in basically the same layout as the pattern 2A in FIG. However, like the pattern 1B, the edited image 941B-6 is an upper camera whole body edited image B, unlike the edited image 941A-6 of the pattern 2A.

パターン3Bでは、図52のパターン3Aと基本的に同じレイアウトで編集済み画像が配置されている。ただし、パターン1Bと同様に、編集済み画像951B−6および編集済み画像952B−6は、パターン3Aの編集済み画像951A−6および編集済み画像952A−6と異なり、上カメラ全身編集画像Bとなる。   In the pattern 3B, edited images are arranged with basically the same layout as the pattern 3A in FIG. However, like the pattern 1B, the edited image 951B-6 and the edited image 952B-6 are different from the edited image 951A-6 and the edited image 952A-6 of the pattern 3A and become the upper camera whole body edited image B. .

すなわち、パターン1B乃至パターン3Bでは、同じ上カメラ全身撮影画像から生成された編集済み画像が、1枚のシール紙に複数配置される。   That is, in the patterns 1B to 3B, a plurality of edited images generated from the same upper camera whole body captured image are arranged on one sticker sheet.

このような分割パターンを選択するための選択画面がタブレット内蔵モニタ131に表示されると、利用者はタブレット内蔵モニタ131に対する操作を行い、分割パターンを選択する。また、利用者によって、選択操作が行なわれると、タブレット内蔵モニタ131から編集処理部302に、利用者の操作に応じた情報が供給される。   When a selection screen for selecting such a division pattern is displayed on the tablet built-in monitor 131, the user operates the tablet built-in monitor 131 to select a division pattern. When the user performs a selection operation, information corresponding to the user's operation is supplied from the tablet built-in monitor 131 to the editing processing unit 302.

そして、選択処理が終了すると、編集処理は終了され、処理は図18のステップS4に戻る。   When the selection process ends, the editing process ends, and the process returns to step S4 in FIG.

そして、上述した図18のステップS6の処理において、利用者により選択された分割パターンに基づいて、各編集済み画像がシール紙に印刷される。   Then, in the process of step S6 in FIG. 18 described above, each edited image is printed on the sticker sheet based on the division pattern selected by the user.

上述したように、この編集処理においては、編集対象画像の選択を行うことなく、クロス組合せ画像を除く全ての標準撮影画像が、編集対象となり、最終的にシール紙に印刷される。従って、編集処理に要する時間を短縮することができる。また、常に写真シール作成装置1で用意した最適なレイアウトで編集済み画像がシール紙に印刷されるため、見栄えがよいシール紙を提供することができる。さらに、利用者は、後で編集対象画像を選択することができないため、より良い撮影画像が得られるように1回1回の撮影に集中するようになり、各画像の完成度が向上する。その結果、シール紙の出来上がりに対する利用者の満足度が向上する。   As described above, in this editing process, all standard captured images except for the cross combination image are to be edited and are finally printed on sticker paper without selecting the image to be edited. Therefore, the time required for the editing process can be shortened. Further, since the edited image is always printed on the sticker paper with the optimum layout prepared by the photo sticker creating apparatus 1, it is possible to provide sticker paper having a good appearance. Furthermore, since the user cannot select an image to be edited later, the user concentrates on one shot at a time so that a better shot image can be obtained, and the completeness of each image is improved. As a result, the user's satisfaction with the finished sticker is improved.

また、通常撮影とペナルティ撮影とでは、得られる撮影画像(標準撮影画像)の枚数が異なるが、上述したように、同じ撮影画像に対して複数の異なる編集入力を可能にすることで、編集入力が可能な撮影画像の合計数は同じになる。そして、ペナルティ撮影時に同じ撮影画像(から生成された編集済み画像)をシール紙に複数配置することにより、通常撮影時とペナルティ撮影時で1枚のシール紙に印刷される撮影画像の枚数は同じになる。
従って、通常撮影時とペネルティ撮影時とで、シール紙のレイアウトを共通にすることができ、ペナルティ撮影時にも、通常撮影時と同様に、利用者の満足度が高いシール紙を提供することができる。
In addition, the number of captured images (standard captured images) that can be obtained differs between normal shooting and penalty shooting. However, as described above, a plurality of different editing inputs can be performed on the same captured image, thereby enabling editing input. The total number of images that can be captured is the same. In addition, by arranging a plurality of the same captured images (edited images generated from the same) at the time of penalty shooting on the sticker paper, the number of shot images printed on one sticker paper at the time of normal shooting and the time of penalty shooting is the same. become.
Therefore, it is possible to make the layout of the sticker paper common during normal photography and during penalty photography, and it is possible to provide sticker paper with high user satisfaction during penalty photography as well as during normal photography. it can.

さらに、ペナルティ撮影が行われた場合、同じ撮影画像に対して異なる編集入力を行うことができ、その結果、同じ被写体に対して編集効果が異なる2枚の画像を得ることができるという効果が得られる。   Furthermore, when penalty shooting is performed, different editing inputs can be performed on the same captured image, and as a result, two images with different editing effects can be obtained on the same subject. It is done.

以下、上述した本発明の実施の形態の変形例について説明する。   Hereinafter, modifications of the above-described embodiment of the present invention will be described.

[クロス組合せ撮影処理に関する変形例]
以上の説明では、全身画像と顔付近のアップ画像を組み合わせたクロス組合せ画像を生成する例を示したが、画像の組合せは、この例に限定されるものではない。
[Variation related to cross combination shooting processing]
In the above description, an example in which a cross combination image is generated by combining a whole-body image and an up-image near the face has been shown, but the combination of images is not limited to this example.

例えば、同じ利用者の2以上の全身画像を組み合わせるようにしてもよい。この場合、例えば、前と後ろや前と横など異なる方向から同じ利用者を撮影した複数の全身画像を、1枚のクロス組合せ画像に合成することができる。   For example, two or more whole body images of the same user may be combined. In this case, for example, a plurality of whole body images obtained by photographing the same user from different directions such as front and back and front and side can be combined into one cross combination image.

また、例えば、同じ利用者の2以上の顔のアップ画像を組み合わせるようにしてもよい。この場合、例えば、同じ利用者の表情が異なる複数のアップ画像を、1枚のクロス組合せ画像に合成することができる。   Further, for example, two or more face up images of the same user may be combined. In this case, for example, a plurality of up images having different facial expressions of the same user can be combined into one cross combination image.

さらに、アップ画像の対象は、必ずしも顔に限定されるものではなく、例えば、利用者のファッションのコーディネートのポイント等の顔と異なる部分をアップ画像の対象に設定するようにしてもよい。また、この場合、例えば、利用者がアップにしたい部分を指定できるようにしてもよい。そして、このような顔以外の部分のアップ画像を使用してクロス組合せ画像を生成するようにしてもよい。   Further, the target of the up image is not necessarily limited to the face, and for example, a part different from the face, such as a user's fashion coordination point, may be set as the target of the up image. In this case, for example, the user may be allowed to designate a part that the user wants to up. And you may make it produce | generate a cross combination image using the up image of such parts other than a face.

さらに、3枚以上の撮影画像からそれぞれ同じ利用者の画像を抽出し、組合せることにより、クロス組合せ画像を生成するようにしてもよい。すなわち、この場合、1枚のクロス組合せ画像において、同じ利用者の画像が3種類以上組み合わせられるようになる。また、例えば、3種類以上の利用者の画像の中から、クロス組合せ画像に用いる画像を選択できるようにしてもよい。   Furthermore, a cross combination image may be generated by extracting and combining images of the same user from three or more photographed images. That is, in this case, three or more types of images of the same user are combined in one cross combination image. Further, for example, an image used for a cross combination image may be selected from three or more types of user images.

また、3人以上の利用者を複数回撮影して、利用者毎にそれぞれ個別にクロス組合せ画像を生成できるようにしてもよい。例えば、3人の利用者A乃至Cを複数回撮影し、利用者毎に3枚のクロス組合せ画像を生成できるようにしてもよい。この場合、図37や図40のライブビュー表示画面において、各利用者をそれぞれ異なるライブビュー表示領域に表示するようにするのが望ましい。   Alternatively, three or more users may be photographed a plurality of times, and a cross combination image may be generated individually for each user. For example, three users A to C may be photographed a plurality of times, and three cross combination images may be generated for each user. In this case, it is desirable to display each user in a different live view display area on the live view display screen of FIG. 37 or 40.

さらに、利用者が3人以上の場合に、1つのクロス組合せ画像において複数の利用者の画像を組み合わせるようにしてもよい。例えば、3人の利用者A乃至Cを複数回撮影し、1つのクロス組合せ画像において、利用者Aと利用者Bの全身画像やアップ画像を組み合わせ、もう1つのクロス組合せ画像において、利用者Cの全身画像やアップ画像を組み合わせるようにしてもよい。この場合、図37や図40のライブビュー表示画面において、クロス組合せ画像と同じ組み合わせで各利用者をライブビュー表示領域に表示するようにしてもよいし、各利用者をそれぞれ異なるライブビュー表示領域に表示するようにしてもよい。例えば、先の利用者A乃至Cの例では、前者の場合、利用者Aと利用者Bが同じライブビュー表示領域に表示され、利用者Cがそれとは異なるライブビュー表示領域に表示され、後者の場合、利用者A乃至Cがそれぞれ異なるライブビュー表示領域に表示される。   Furthermore, when there are three or more users, a plurality of user images may be combined in one cross combination image. For example, three users A to C are photographed a plurality of times, and in one cross combination image, the whole body images and up images of user A and user B are combined, and in the other cross combination image, user C You may make it combine a whole body image and an up image. In this case, in the live view display screens of FIGS. 37 and 40, each user may be displayed in the live view display area in the same combination as the cross combination image, or each user may be displayed in a different live view display area. May be displayed. For example, in the example of the previous users A to C, in the former case, the user A and the user B are displayed in the same live view display area, and the user C is displayed in a different live view display area. In this case, users A to C are displayed in different live view display areas.

また、以上の説明では、クロス組合せ画像を携帯端末への送信専用の画像とする例を示したが、シール紙に印刷できるようにしてもよい。   In the above description, an example in which the cross combination image is an image dedicated to transmission to the mobile terminal has been described. However, the cross combination image may be printed on a sticker sheet.

さらに、クロス組合せ画像に合成する前の各利用者の全身画像またはアップ画像を個別に携帯端末に送信したり、サーバにアップロードしたりすることができるようにしてもよい。これにより、利用者は、自分の好きなパターンで各画像を組み合わせることが可能になる。また、サーバにアップロードするようにした場合、利用者は、複数回ゲームを行ったとき、同じゲームで得られた画像だけでなく、異なるゲームで得られた画像も組み合わせることが可能になる。   Further, the whole body image or the up image of each user before being combined with the cross combination image may be individually transmitted to the portable terminal or uploaded to the server. Thereby, the user can combine the images with his / her favorite pattern. Further, when uploading to the server, the user can combine not only images obtained in the same game but also images obtained in different games when the game is played a plurality of times.

さらに、以上の説明では、クロス組合せ画像を編集対象外にしたが、クロス組合せ画像に対しても編集入力を行えるようにしてもよい。また、例えば、クロス組合せ画像内の各画像のレイアウトを利用者が変更できるようにしてもよい。例えば、図41の例の場合、全身画像とアップ画像の左右の位置を入れ替えたり、アップ画像の上下の位置を移動させたりできるようにしてもよい。   Further, in the above description, the cross combination image is excluded from editing, but editing input may be performed on the cross combination image. Further, for example, the user may be able to change the layout of each image in the cross combination image. For example, in the example of FIG. 41, the left and right positions of the whole body image and the up image may be interchanged, or the up and down positions of the up image may be moved.

[ペナルティ撮影に関する変形例]
以上の説明では、ペナルティ撮影が行われた場合に、異なる編集入力が可能な撮影画像(重複して編集することが可能な撮影画像)を上カメラ全身撮影画像に固定する例を示したが、利用者が選択できるようにしてもよい。この選択は、例えば、5枚目の撮影画像の撮影時または撮影後に、ボーナス画像の撮影が行われないことが確定したときに行うようにすることが考えられる。
[Variation related to penalty shooting]
In the above description, when penalty shooting is performed, an example of fixing a captured image (captured image that can be edited in duplicate) that can be edited and input to the upper camera whole body captured image is shown. The user may be allowed to select. For example, this selection may be performed when it is determined that a bonus image is not shot at the time of shooting the fifth shot image or after shooting.

また、通常撮影とペナルティ撮影との撮影枚数の差を2枚以上に設定するようにしてもよい。この場合、例えば、異なる編集入力が可能な撮影画像の種類を増やすようにしてもよいし、或いは、同じ撮影画像に対して異なる編集入力ができる数を増やすようにしてもよい。例えば、通常撮影の撮影枚数を6枚とし、ペナルティ撮影の撮影枚数を4枚とした場合、前者の場合、例えば、下カメラアップ撮影画像、上カメラアップ撮影画像、および、上カメラ全身撮影画像のうちの2種類について、それぞれ2枚ずつ編集して、印刷するようにすることが可能である。一方、後者の場合、例えば、同じ撮影画像を3枚分編集して、印刷するようにすることが可能である。   Further, the difference in the number of shots between normal shooting and penalty shooting may be set to two or more. In this case, for example, the types of photographed images that can be input with different edits may be increased, or the number of different edit inputs for the same captured image may be increased. For example, when the number of shots for normal shooting is six and the number of shots for penalty shooting is four, in the former case, for example, a lower camera up shot image, an upper camera up shot image, and an upper camera whole body shot image It is possible to edit and print two of each of the two types. On the other hand, in the latter case, for example, the same photographed image can be edited for three sheets and printed.

さらに、例えば、ペナルティ撮影時に重複して編集することをやめて、通常撮影時とペナルティ撮影時で、それぞれの撮影枚数に応じて適切なレイアウトの分割パターンを使い分けるようにしてもよい。   Further, for example, it is possible to stop editing at the time of penalty shooting and to use different division patterns with appropriate layouts according to the number of shots for normal shooting and penalty shooting.

また、ペナルティ撮影が行われ、同じ撮影画像に対して複数の異なる編集入力を行う場合、その一部を印刷用の画像として編集し、シール紙に印刷し、残りを携帯端末への送信用の画像として編集し、携帯端末に送信するようにしてもよい。   In addition, when penalty shooting is performed and a plurality of different editing inputs are performed on the same captured image, a part of the edited image is edited as a print image, printed on sticker paper, and the rest for transmission to a mobile terminal. You may make it edit as an image and transmit to a portable terminal.

[その他の変形例]
以上の説明では、複数の撮影画像から、各利用者の画像を抽出し、同じ利用者の画像のみを組み合わせて複数の合成画像(クロス組合せ画像)を生成し、利用者に提供する例を示したが、例えば、1枚の撮影画像から各利用者の画像を抽出し、抽出した画像と所定の合成用画像を組み合わせた複数の合成画像を生成し、利用者に提供するようにすることも可能である。
[Other variations]
In the above description, an example is shown in which images of each user are extracted from a plurality of captured images, a plurality of combined images (cross combination images) are generated by combining only the images of the same user, and provided to the user. However, for example, an image of each user may be extracted from one photographed image, and a plurality of composite images may be generated by combining the extracted images and a predetermined composite image and provided to the user. Is possible.

例えば、撮影時には、図54に示されるように、タッチパネルモニタ93の中央にライブビュー表示画面1001を表示するとともに、左右に所定の合成用画像1002Lおよび合成用画像1002Rを表示する。そして、最終的に、中央のライブビュー表示画面1001に対応する撮影画像から利用者1003Lおよび利用者1003Rの画像を抽出し、図55に示されるように、利用者1003Lの画像と合成用画像1002Lを組み合わせた画像1011Lと、利用者1003Rの画像と合成用画像1002Rを組み合わせた画像1011Rを利用者に提供するようにしてもよい。   For example, at the time of shooting, as shown in FIG. 54, a live view display screen 1001 is displayed at the center of the touch panel monitor 93, and predetermined composite images 1002L and composite images 1002R are displayed on the left and right. Finally, the images of the user 1003L and the user 1003R are extracted from the captured image corresponding to the central live view display screen 1001, and as shown in FIG. 55, the image of the user 1003L and the composition image 1002L are extracted. An image 1011L obtained by combining the images 1011R, and an image 1011R obtained by combining the image of the user 1003R and the composition image 1002R may be provided to the user.

ところで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   By the way, the above-described series of processes can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図14に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 14, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the main body of the apparatus. Disk), optical disk (including CD-ROM and DVD), magneto-optical disk (including MD), or removable media 205 made of semiconductor memory, etc., but also pre-installed in the main unit The ROM 206 that stores the program and the hard disk included in the storage unit 202 are distributed to the administrator.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

1 写真シール作成装置
11 撮影ユニット
12 編集部
21 撮影部
81 撮影・表示ユニット
91 カメラ
92 カメラストロボ
93 タッチパネルモニタ
131 タブレット内蔵モニタ
132A,132B タッチペン
201 制御部
208 撮影部
209 編集部
210 事後接客部
301 撮影処理部
302 編集処理部
303 印刷処理部
304 事後接客処理部
311 進行制御部
312 撮影パラメータ設定部
313 ライブビュー表示制御部
314 撮影画像取得部
315 照明制御部
316 カメラ駆動制御部
317 クロマキー処理部
318 コーナーポイント検知部
319 コーナー画像生成部
320 合成処理部
321 顔認識部
351 進行制御部
352 編集準備処理部
353 入力受付制御部
354 編集画面表示制御部
355 落書き編集処理部
DESCRIPTION OF SYMBOLS 1 Photo sticker creation apparatus 11 Shooting unit 12 Editing unit 21 Shooting unit 81 Shooting / display unit 91 Camera 92 Camera strobe 93 Touch panel monitor 131 Built-in tablet monitor 132A, 132B Touch pen 201 Control unit 208 Shooting unit 209 Editing unit 210 Post customer service unit 301 Shooting Processing unit 302 Editing processing unit 303 Print processing unit 304 Post-service processing unit 311 Progress control unit 312 Shooting parameter setting unit 313 Live view display control unit 314 Captured image acquisition unit 315 Lighting control unit 316 Camera drive control unit 317 Chroma key processing unit 318 Corner Point detection unit 319 Corner image generation unit 320 Composition processing unit 321 Face recognition unit 351 Progress control unit 352 Edit preparation processing unit 353 Input reception control unit 354 Edit screen display control unit 355 drop Writing edit processing section

Claims (6)

撮影空間において利用者を撮影し、得られた撮影画像を加工した画像を所定のシール紙に印刷したり、通信ネットワークを介して接続されている携帯端末へ送信したりする写真シール作成装置であって、
複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込み手段と、
前記取り込み手段により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御手段と、
前記取り込み手段により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成手段と
を備え
前記合成手段は、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する
写真シール作成装置。
A photo sticker creation device that takes a picture of a user in a shooting space and prints an image obtained by processing the obtained shot image on a predetermined sticker sheet or transmits it to a mobile terminal connected via a communication network. And
Capture means for capturing an image including a plurality of users and photographing the plurality of users;
Live view display control means for controlling the display of the display unit so that the moving image captured by the capturing means is displayed in one area in real time and a plurality of synthesis images are displayed around the moving image. ,
Combining means for generating a plurality of synthesized images obtained by combining each of the images for synthesis with a plurality of images generated from the photographed images photographed by the capturing means ,
The synthesizing unit generates a first synthesized image by synthesizing the left user image in the moving image and the synthesizing image displayed on the left side of the moving image, and generates a first synthesized image in the moving image. A photographic sticker creating apparatus for generating a second composite image by combining a right user image and the composite image displayed on the right side of the moving image .
前記合成手段は、前記撮影画像から各前記利用者の画像を抽出し、各前記利用者の画像に各前記合成用画像を組み合わせることにより、複数の前記合成画像を生成する
請求項1に記載の写真シール作成装置。
The said synthetic | combination means produces | generates several said synthesized image by extracting each said user's image from the said picked-up image, and combining each said image for a synthesis | combination with each said user's image. Photo sticker creation device.
前記ライブビュー表示制御手段は、前記表示部の表示画面の中央に前記動画像をリアルタイムに表示させるとともに、前記動画像の左右に前記合成用画像を表示させ
請求項1または2に記載の写真シール作成装置。
The live view display control means, photo described in conjunction with displaying the moving image in real time the center of the display screen of the display unit, to claim 1 or 2, wherein the synthetic image to the left and right Ru to display of the moving image Seal making device.
前記撮影画像に対する編集入力を受け付ける編集処理手段と、
前記シール紙に画像を印刷する印刷手段と、
前記携帯端末へ画像を送信する送信手段と
をさらに備える請求項1乃至3に記載の写真シール作成装置。
Editing processing means for receiving an editing input for the captured image;
Printing means for printing an image on the sticker paper;
The photo sticker creating apparatus according to claim 1, further comprising: a transmitting unit that transmits an image to the portable terminal.
撮影空間において利用者を撮影し、得られた撮影画像を加工した画像を所定のシール紙に印刷したり、通信ネットワークを介して接続されている携帯端末へ送信したりする写真シール作成装置の画像処理方法であって、
複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込みステップと、
前記取り込みステップの処理により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御ステップと、
前記取り込みステップの処理により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成ステップと
を含み、
前記合成ステップにおいて、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する
画像処理方法。
An image of a photo sticker creation device that takes a picture of a user in a shooting space and prints an image obtained by processing the obtained shot image on a predetermined sticker sheet or transmits it to a mobile terminal connected via a communication network A processing method,
A capturing step of capturing an image including a plurality of users and photographing the plurality of users;
Live view display control for controlling the display of the display unit so that the moving image captured by the processing of the capturing step is displayed in real time in one area and a plurality of compositing images are displayed around the moving image. Steps,
Look including a combining step of generating a plurality of combined images by combining each of the combined images to the plurality of images generated from images captured by the process of the incorporation step,
In the synthesizing step, a first synthesized image is generated by synthesizing the left user image in the moving image and the synthesizing image displayed on the left side of the moving image. An image processing method for generating a second synthesized image by synthesizing a right user image and the synthesizing image displayed on the right side of the moving image .
撮影空間において利用者を撮影し、得られた撮影画像を加工した画像を所定のシール紙に印刷したり、通信ネットワークを介して接続されている携帯端末へ送信したりする処理をコンピュータに実行させるためのプログラムであって、
複数の利用者を含む画像を取り込み、前記複数の利用者を撮影する取り込みステップと、
前記取り込みステップの処理により取り込まれた動画像を1つの領域内にリアルタイムに表示させるとともに、前記動画像の周囲に複数の合成用画像を表示させるように表示部の表示を制御するライブビュー表示制御ステップと、
前記取り込みステップの処理により撮影された撮影画像から生成した複数の画像に各前記合成用画像を組み合わせた複数の合成画像を生成する合成ステップと
を含み、
前記合成ステップにおいて、前記動画像内の左側の利用者の画像と前記動画像の左側に表示されている前記合成用画像を合成することにより第1の合成画像を生成し、前記動画像内の右側の利用者の画像と前記動画像の右側に表示されている前記合成用画像を合成することにより第2の合成画像を生成する
処理をコンピュータに実行させるためのプログラム。
Causes a computer to execute processing for photographing a user in a photographing space and printing an image obtained by processing the obtained photographed image on a predetermined sticker sheet or transmitting it to a portable terminal connected via a communication network A program for
A capturing step of capturing an image including a plurality of users and photographing the plurality of users;
Live view display control for controlling the display of the display unit so that the moving image captured by the processing of the capturing step is displayed in real time in one area and a plurality of compositing images are displayed around the moving image. Steps,
Look including a combining step of generating a plurality of combined images by combining each of the combined images to the plurality of images generated from images captured by the process of the incorporation step,
In the synthesizing step, a first synthesized image is generated by synthesizing the left user image in the moving image and the synthesizing image displayed on the left side of the moving image. A program for causing a computer to execute a process of generating a second synthesized image by synthesizing the right user image and the synthesis image displayed on the right side of the moving image .
JP2013236789A 2013-11-15 2013-11-15 Photo sticker creation apparatus, image processing method, and program Active JP5904192B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013236789A JP5904192B2 (en) 2013-11-15 2013-11-15 Photo sticker creation apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013236789A JP5904192B2 (en) 2013-11-15 2013-11-15 Photo sticker creation apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012098524A Division JP5472365B2 (en) 2012-04-24 2012-04-24 Photo sticker creation apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2014075812A JP2014075812A (en) 2014-04-24
JP5904192B2 true JP5904192B2 (en) 2016-04-13

Family

ID=50749630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013236789A Active JP5904192B2 (en) 2013-11-15 2013-11-15 Photo sticker creation apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5904192B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6424587B2 (en) * 2014-04-25 2018-11-21 フリュー株式会社 Photo sticker creation apparatus and photo sticker creation method
JP5871087B1 (en) * 2015-04-24 2016-03-01 フリュー株式会社 Photo sticker making apparatus and method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193967A (en) * 2002-12-11 2004-07-08 Make Softwear:Kk Photoprint provider
JP2005079662A (en) * 2003-08-28 2005-03-24 Make Softwear:Kk Image editing method in photograph vending machine, photograph vending machine, and image editing program
JP5239318B2 (en) * 2007-09-12 2013-07-17 フリュー株式会社 Photo sticker making method and photo sticker making device
JP5168136B2 (en) * 2008-12-26 2013-03-21 フリュー株式会社 Photo sticker creation apparatus, photo sticker creation method, and program
JP5637346B2 (en) * 2009-04-24 2014-12-10 フリュー株式会社 Photo sticker creation apparatus, photo sticker creation method, and program
JP4919131B1 (en) * 2011-06-24 2012-04-18 フリュー株式会社 Image providing apparatus and method, and program

Also Published As

Publication number Publication date
JP2014075812A (en) 2014-04-24

Similar Documents

Publication Publication Date Title
JP5201430B1 (en) Photo sticker creation apparatus and method, and program
JP5418708B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP6395016B2 (en) Photo sticker creation device
JP6458460B2 (en) Image generating apparatus and method, and program
JP5472365B2 (en) Photo sticker creation apparatus, image processing method, and program
JP5630675B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP2014211642A (en) Photographing and editing device, processing method for photographing and editing device, and program
JP2013229848A (en) Photograph seal machine, processing method of the same and program
JP5904192B2 (en) Photo sticker creation apparatus, image processing method, and program
JP5120508B1 (en) Photo sticker creation apparatus and method, and program
JP6179655B2 (en) Photography game machine, control method, and program
JP6241689B2 (en) Image processing apparatus, image processing method, and program
JP6160470B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP5979463B1 (en) Photo sticker creation apparatus, information processing method, and program
JP5790683B2 (en) Photo sticker creating apparatus, processing method of photo sticker creating apparatus, and program
JP5445618B2 (en) Photo sticker creation apparatus and method, and program
JP6687855B2 (en) Photography amusement machine, control method, and program
JP6146268B2 (en) Photo sticker creation apparatus, image processing method, and program
JP5881183B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP6436368B2 (en) Photo sticker, control method and program
JP5720662B2 (en) Image processing apparatus, image processing method, and program
JP6057005B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP6842038B2 (en) Photographing game console and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160229

R150 Certificate of patent or registration of utility model

Ref document number: 5904192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250