JP2016028463A - Photograph seal creation device and display method - Google Patents

Photograph seal creation device and display method Download PDF

Info

Publication number
JP2016028463A
JP2016028463A JP2014152603A JP2014152603A JP2016028463A JP 2016028463 A JP2016028463 A JP 2016028463A JP 2014152603 A JP2014152603 A JP 2014152603A JP 2014152603 A JP2014152603 A JP 2014152603A JP 2016028463 A JP2016028463 A JP 2016028463A
Authority
JP
Japan
Prior art keywords
image
user
face
shooting
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014152603A
Other languages
Japanese (ja)
Other versions
JP6375755B2 (en
Inventor
岡田 常雄
Tsuneo Okada
常雄 岡田
優希 太治
Yuki Taji
優希 太治
恵 不破
Megumi Fuwa
恵 不破
さやか 葭本
Sayaka Yoshimoto
さやか 葭本
亜希 今平
Aki Imadaira
亜希 今平
中嶋 孝
Takashi Nakajima
孝 中嶋
仁志 飛田
Hitoshi Hida
仁志 飛田
塚田 正人
Masato Tsukada
正人 塚田
委公子 橘
Ikuko Tachibana
委公子 橘
礼子 箸尾
Reiko Hashio
礼子 箸尾
萌子 濱出
Moeko Hamaide
萌子 濱出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2014152603A priority Critical patent/JP6375755B2/en
Priority to US14/574,731 priority patent/US9519950B2/en
Publication of JP2016028463A publication Critical patent/JP2016028463A/en
Application granted granted Critical
Publication of JP6375755B2 publication Critical patent/JP6375755B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To more easily provide an interesting image.SOLUTION: A composite processing part recognizes the face of a user in a captured image captured by a camera that photographs the user as a subject to adjust the size and direction of an image for composition corresponding to a predetermined portion of the face of the user according to the size and direction of the recognized face of the user, and composes the image for composition at the predetermined portion of the face of the user in the captured image. A display control part controls display of the captured image having the image for composition composed at the predetermined portion of the face of the user. The present invention can be applied to a photograph seal creation device.SELECTED DRAWING: Figure 16

Description

本発明は、写真シール作成装置および表示方法に関し、特に、面白味のある画像を提供することができるようにする写真シール作成装置および表示方法に関する。   The present invention relates to a photographic sticker creation apparatus and a display method, and more particularly to a photographic sticker creation apparatus and a display method capable of providing an interesting image.

利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。   There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.

写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集済み画像をシール紙に印刷するという流れになる。   The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is the edited image, is printed on sticker paper.

このような写真シール機の中には、人物画像の身体部分、例えば顔の部分や頭の部分を特定し、特定された身体部分を除いた背景領域に装飾画像を付加するようにしたものがある(例えば、特許文献1参照)。これにより、顔の部分や頭の部分に装飾画像が重なることを避けることができる。   Some of these photo sticker machines specify a body part of a human image, for example, a face part or a head part, and add a decorative image to a background area excluding the specified body part. Yes (see, for example, Patent Document 1). Thereby, it is possible to avoid the decorative image from overlapping the face portion and the head portion.

さらに、人物の輪郭を検出し、検出された輪郭上に装飾画像を配置するようにした写真シール機がある(例えば、特許文献2参照)。   Furthermore, there is a photo sticker that detects the outline of a person and places a decorative image on the detected outline (see, for example, Patent Document 2).

また、写真シール機ではないが、写真画像中の顔領域を検出し、検出された顔領域を基準として、予め定められた相対位置に顔に関する飾り付け画像を配置するようにした画像処理装置が知られている(例えば、特許文献3参照)。   Also, an image processing apparatus that is not a photo sticker but detects a face area in a photographic image and arranges a decoration image related to the face at a predetermined relative position based on the detected face area is known. (For example, see Patent Document 3).

このように、撮影画像において、顔領域やその近傍に、様々なデザインの合成用画像を合成することで、面白味のある画像を利用者に提供することが行われている。   As described above, in a photographed image, an image having interestingness is provided to a user by synthesizing a synthesis image with various designs in the face area or the vicinity thereof.

特許第2985879号公報Japanese Patent No. 2985879 特開2008−203960号公報JP 2008-203960 A 特許第4621396号公報Japanese Patent No. 4621396

しかしながら、上述した特許文献では、装飾画像や飾り付け画像といった合成用画像は、人物の顔の大きさや向きによらずに合成されていた。   However, in the above-described patent document, the synthesis image such as the decoration image and the decoration image is synthesized regardless of the size and orientation of the person's face.

例えば、写真シール機において、撮影の際に表示されるライブビュー画像上に、合成用画像として、例えばメガネなどの利用者の顔に合成される前景画像が表示されている場合、利用者は、その前景画像に合わせて立ち位置や姿勢を変える必要があり、利用者にとって手間であった。   For example, in a photo sticker, when a foreground image to be combined with a user's face such as glasses is displayed as a composition image on a live view image displayed at the time of shooting, the user It was necessary for the user to change the standing position and posture according to the foreground image, which was troublesome for the user.

本発明は、このような状況に鑑みてなされたものであり、より簡単に、面白味のある画像を提供することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to more easily provide an interesting image.

本発明の一側面の写真シール作成装置は、利用者を被写体として撮影し、取得された撮影画像に対して、利用者による入力に応じた編集を施し、編集が施された前記撮影画像をシール紙に印刷する写真シール作成装置であって、前記利用者を被写体として撮影を行うカメラと、前記カメラにより取り込まれた取り込み画像における前記利用者の顔を認識することで、前記利用者の顔の所定の部位に対応する合成用画像を、認識された前記利用者の顔の大きさおよび向きに応じてその大きさおよび向きを調整し、前記取り込み画像における前記利用者の顔の所定の部位に合成する合成処理部と、前記利用者の顔の所定の部位に前記合成用画像が合成された前記取り込み画像の表示を制御する表示制御部とを備える。   According to another aspect of the present invention, there is provided a photo sticker creating apparatus that photographs a user as a subject, edits the acquired photographed image according to an input by the user, and seals the photographed image that has been edited. A photo sticker creating apparatus that prints on paper, wherein a camera that takes a photograph of the user as a subject, and the user's face in the captured image captured by the camera, The composition image corresponding to the predetermined part is adjusted in size and direction according to the recognized size and direction of the user's face, and is applied to the predetermined part of the user's face in the captured image. A synthesis processing unit for synthesis, and a display control unit for controlling display of the captured image in which the synthesis image is synthesized at a predetermined part of the user's face.

前記取り込み画像が、前記撮影画像が取得される前にリアルタイムで表示されるライブビュー画像である場合、前記合成処理部には、前記取り込み画像における前記利用者の顔を認識することで、前記合成用画像を、前記取り込み画像における前記利用者の動きに合わせて、前記取り込み画像における前記利用者の顔の所定の部位に合成させることができる。   When the captured image is a live view image that is displayed in real time before the captured image is acquired, the composition processing unit recognizes the user's face in the captured image, thereby combining the composition. The image for use can be combined with a predetermined part of the face of the user in the captured image in accordance with the movement of the user in the captured image.

前記合成処理部には、前記利用者毎に異なる前記合成用画像を、前記取り込み画像における前記利用者それぞれの顔の所定の部位に合成させることができる。   The synthesizing processing unit can synthesize the synthesizing image that is different for each user with a predetermined part of the face of each of the users in the captured image.

前記合成処理部には、前記利用者により選択された撮影に関するコースが所定のコースである場合に、前記合成用画像を、前記取り込み画像における前記利用者の顔の所定の部位に合成させることができる。   The synthesis processing unit may cause the synthesis image to be synthesized with a predetermined part of the user's face in the captured image when a course related to photographing selected by the user is a predetermined course. it can.

前記合成処理部には、撮影前に利用者により選択された、前記取り込み画像における前記利用者の背景となる背景画像に応じた前記合成用画像を、前記取り込み画像における前記利用者の顔の所定の部位に合成させることができる。   In the synthesis processing unit, the synthesis image corresponding to the background image that is the background of the user in the captured image, selected by the user before shooting, is stored in the predetermined image of the user's face in the captured image. Can be synthesized at the site.

前記合成処理部には、前記利用者の人数が所定人数より少ない場合に、前記合成用画像を、前記取り込み画像における前記利用者の顔の所定の部位に合成させることができる。   When the number of users is less than a predetermined number, the combining processing unit can combine the combining image with a predetermined part of the user's face in the captured image.

前記取り込み画像が、撮影結果としての前記撮影画像である場合、前記取り込み画像に対して、前記利用者による入力に応じた編集を施す編集手段をさらに設け、前記編集手段には、前記取り込み画像に合成されている前記合成用画像に対して、前記利用者による入力に応じた所定の編集を施させることができる。   When the captured image is the captured image as a captured result, an editing unit that edits the captured image in accordance with an input by the user is provided, and the editing unit includes the editing image. Predetermined editing according to the input by the user can be performed on the synthesized image.

本発明の一側面の表示方法は、利用者を被写体として撮影し、取得された撮影画像に対して、利用者による入力に応じた編集を施し、編集が施された前記撮影画像をシール紙に印刷する写真シール作成装置の表示方法であって、前記利用者を被写体として撮影を行うカメラにより取り込まれた取り込み画像における前記利用者の顔を認識することで、前記利用者の顔の所定の部位に対応する合成用画像を、認識された前記利用者の顔を顔の大きさおよび向きに応じてその大きさおよび向きを調整し、前記取り込み画像における前記利用者の顔の所定の部位に合成し、前記利用者の顔の所定の部位に前記合成用画像が合成された前記取り込み画像を表示するステップを含む。   According to the display method of one aspect of the present invention, a user is photographed as a subject, the obtained photographed image is edited according to an input by the user, and the photographed image that has been edited is applied to a sticker sheet. A method for displaying a photo sticker creating apparatus for printing, wherein a predetermined part of the user's face is recognized by recognizing the user's face in a captured image captured by a camera that captures the user as a subject. The synthesized image corresponding to the user's face is adjusted in accordance with the size and orientation of the recognized user's face according to the size and orientation of the face, and synthesized to a predetermined part of the user's face in the captured image And displaying the captured image obtained by synthesizing the synthesis image on a predetermined part of the user's face.

本発明の一側面においては、利用者を被写体として撮影を行うカメラにより取り込まれた取り込み画像における利用者の顔が認識されることで、利用者の顔の所定の部位に対応する合成用画像が、認識された利用者の顔を顔の大きさおよび向きに応じてその大きさおよび向きが調整され、取り込み画像における利用者の顔の所定の部位に合成され、利用者の顔の所定の部位に合成用画像が合成された取り込み画像が表示される。   In one aspect of the present invention, by recognizing a user's face in a captured image captured by a camera that captures a user as a subject, a composition image corresponding to a predetermined part of the user's face is obtained. The recognized user's face is adjusted in size and orientation according to the size and orientation of the face, and is synthesized with a predetermined part of the user's face in the captured image, and the predetermined part of the user's face The captured image in which the image for synthesis is combined is displayed.

本発明によれば、より簡単に、面白味のある画像を提供することが可能となる。   According to the present invention, an interesting image can be provided more easily.

本発明の一実施の形態に係る写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photograph sticker production apparatus which concerns on one embodiment of this invention. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 事前接客部の構成例を示す図である。It is a figure which shows the structural example of a prior customer service part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of an edit unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the structural example of the side surface of an edit unit. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 制御部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of a control part. 写真シール作成ゲーム処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of photograph sticker creation game processing. 事前接客処理について説明するフローチャートである。It is a flowchart explaining a prior customer service process. セット背景選択画面の例を示す図である。It is a figure which shows the example of a set background selection screen. 撮影処理について説明するフローチャートである。It is a flowchart explaining an imaging | photography process. 撮影画面の例を示す図である。It is a figure which shows the example of an imaging | photography screen. 本発明の写真シール作成装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the photograph sticker production apparatus of this invention. 表示処理について説明するフローチャートである。It is a flowchart explaining a display process. ライブビュー画像の例を示す図である。It is a figure which shows the example of a live view image. ライブビュー画像の例を示す図である。It is a figure which shows the example of a live view image. ライブビュー画像の例を示す図である。It is a figure which shows the example of a live view image. ライブビュー画像の例を示す図である。It is a figure which shows the example of a live view image. ライブビュー画像の例を示す図である。It is a figure which shows the example of a live view image. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 消しゴムボタンについて説明する図である。It is a figure explaining an eraser button. コラージュ撮影画像の例を示す図である。It is a figure which shows the example of a collage photography image. コラージュ撮影画像の例を示す図である。It is a figure which shows the example of a collage photography image. 撮影処理について説明するフローチャートである。It is a flowchart explaining an imaging | photography process. コース選択画面の例を示す図である。It is a figure which shows the example of a course selection screen. 編集処理について説明するフローチャートである。It is a flowchart explaining an edit process. 性別選択画面の例を示す図である。It is a figure which shows the example of a sex selection screen. セット背景選択画面の例を示す図である。It is a figure which shows the example of a set background selection screen. セット背景選択画面の例を示す図である。It is a figure which shows the example of a set background selection screen. セット背景選択画面の例を示す図である。It is a figure which shows the example of a set background selection screen. 撮影画像の例を示す図である。It is a figure which shows the example of a picked-up image. 撮影画像の例を示す図である。It is a figure which shows the example of a picked-up image. セット背景選択画面の例を示す図である。It is a figure which shows the example of a set background selection screen.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

<写真シール作成装置の外観構成>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<External structure of photo sticker creation device>
FIG. 1 and FIG. 2 are perspective views showing a configuration example of the appearance of the photographic sticker creating apparatus 1.

写真シール作成装置1は、撮影画像や編集済み画像を提供するゲーム機である。画像の提供は、シール紙に印刷した形で行われることもあるし、サーバに送信した画像を利用者の携帯端末上で閲覧可能にする形で行われることもある。写真シール作成装置1は、アミューズメント施設などの施設や店舗に設置される。利用者は、主に女子高生や若い女性が中心とされる。利用者は1人であることもあるが、主に、1組あたり2人や3人等の複数人である。   The photo sticker creating apparatus 1 is a game machine that provides a photographed image or an edited image. The provision of the image may be performed in a form printed on a sticker sheet or may be performed in such a manner that the image transmitted to the server can be viewed on the user's portable terminal. The photo sticker creating apparatus 1 is installed in a facility or store such as an amusement facility. Users are mainly high school girls and young women. Although there may be one user, it is mainly a plurality of people such as 2 or 3 people per group.

写真シール作成装置1で遊ぶ利用者は、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から選択した画像を、手書きの文字やスタンプ画像を合成して編集することにより、撮影画像を彩り豊かな画像にする。利用者は、撮影画像や編集済み画像が印刷されたシール紙を受け取って一連のゲームを終了させる。   A user who plays with the photo sticker creating apparatus 1 takes a picture of himself / herself as a subject, and edits an image selected from the shot images obtained by shooting by combining handwritten characters and stamp images. , Make the shot image rich and colorful. The user receives the sticker sheet on which the photographed image and the edited image are printed, and ends the series of games.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。   As shown in FIG. 1, the photo sticker creating apparatus 1 is basically configured by being installed in a state where a photographing unit 11 and an editing unit 12 are in contact with each other.

撮影ユニット11は、事前接客部20、撮影部21、および背景部22から構成される。事前接客部20は、撮影部21の両側面に設置されており、それぞれの前方の空間が、事前接客処理を行う事前接客空間となる。また、撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間が、撮影処理を行う撮影空間となる。   The photographing unit 11 includes a pre-service section 20, a photographing section 21, and a background section 22. The pre-service section 20 is installed on both side surfaces of the photographing section 21, and the respective front spaces are pre-service areas for performing pre-service processes. In addition, the photographing unit 21 and the background unit 22 are set apart by a predetermined distance, and a space formed between the photographing unit 21 and the background unit 22 becomes a photographing space for performing photographing processing.

事前接客部20は、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする事前接客処理を行う装置である。事前接客部20には、利用者による代金を受け取る硬貨投入口、各種の操作に用いられるタブレット内蔵モニタやタッチペンが設けられる。事前接客部20は、撮影空間の空き状況に応じて、適宜、事前接客空間にいる利用者を撮影空間へと案内する。   The pre-service section 20 is a device that performs pre-service processing that performs guidance for introducing a game provided by the photo sticker creation device 1 and performs various settings in shooting processing performed in a shooting space. The customer service unit 20 is provided with a coin slot for receiving a price from the user, a tablet built-in monitor used for various operations, and a touch pen. The prior customer service unit 20 appropriately guides the user in the prior customer service space to the photographing space according to the vacant state of the photographing space.

撮影部21は、利用者を被写体とした撮影処理を行う装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て右側の面を右側面、左側の面を左側面とすると、撮影部21の右側面が側面パネル41Aにより構成され、左側面が側面パネル41B(図3)により構成され、さらに、正面が正面パネル42により構成される。なお、側面パネル41A,41Bそれぞれには、上述した事前接客部20が設置される。   The photographing unit 21 is a device that performs photographing processing with a user as a subject. The photographing unit 21 is located in front of the user who has entered the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space. When the right side as viewed from the user in the shooting space is the right side and the left side is the left side, the right side of the shooting unit 21 is constituted by the side panel 41A, and the left side is constituted by the side panel 41B (FIG. 3). Further, the front surface is constituted by the front panel 42. In addition, the pre-service section 20 described above is installed on each of the side panels 41A and 41B.

背景部22は、正面を向いて撮影を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の右端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である側面パネル52A、および、背面パネル51の左端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である側面パネル52B(図3)から構成される。   The background portion 22 is attached to the right end of the rear panel 51, which is a plate-like member located on the back side of the user who is taking a picture facing the front, and has a plate shape with a narrower width than the side panel 41A. And a side panel 52B (FIG. 3), which is a plate-like member attached to the left end of the back panel 51 and having a narrower width than the side panel 41B.

撮影部21の右側面を構成する側面パネル41Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aは、上部が板状の部材である連結部23Aによって連結され、下部が、床面に設けた例えば金属製の部材である連結部23A’によって連結される。撮影部21の左側面を構成する側面パネル41Bと背景部22の側面パネル52Bも同様に、ほぼ同一平面に設けられ、上部において連結部23B(図示せず)によって連結され、下部において連結部23B’(図示せず)によって連結される。   The side panel 41A constituting the right side surface of the photographing unit 21 and the side panel 52A of the background unit 22 are provided on substantially the same plane. In the side panel 41A and the side panel 52A, the upper part is connected by a connecting part 23A which is a plate-like member, and the lower part is connected by a connecting part 23A 'which is a metal member provided on the floor surface. Similarly, the side panel 41B and the side panel 52B of the background unit 22 constituting the left side of the photographing unit 21 are also provided on substantially the same plane, and are connected by a connecting part 23B (not shown) in the upper part and the connecting part 23B in the lower part. Connected by '(not shown).

撮影部21の側面パネル41A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、撮影部21の側面パネル41B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。   An opening formed by being surrounded by the side panel 41A of the imaging unit 21, the connecting unit 23A, and the side panel 52A of the background unit 22 serves as an entrance to the imaging space. An opening formed by being surrounded by the side panel 41B of the photographing unit 21, the connecting part 23B, and the side panel 52B of the background 22 is also an entrance of the photographing space.

背景部22の上部には、背面パネル51、側面パネル52A、および側面パネル52Bに支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、撮影によって得られる撮影画像において利用者の背景に写る所定の色の背景カーテンが収納される。背景カーテンユニット25は、撮影と連動して、適宜、撮影空間内に、例えば緑色のクロマキー用のカーテンを下ろす。   The background curtain unit 25 is provided above the background portion 22 so as to be supported by the back panel 51, the side panel 52A, and the side panel 52B. The background curtain unit 25 stores a background curtain of a predetermined color that appears in the background of the user in a photographed image obtained by photographing. The background curtain unit 25 appropriately lowers, for example, a green chroma key curtain in the shooting space in conjunction with shooting.

なお、クロマキー用のカーテンを予め撮影空間の背面となる背面パネル51に張り付けるようにしてもよい。クロマキー用のカーテンを背景として撮影が行われる場合には、合成用の背景画像を複数種類用意し、撮影処理や編集処理においてクロマキー処理を行うことで、利用者が所望する背景画像をカーテンの部分に合成することができるようにする。   Note that a chroma key curtain may be previously attached to the back panel 51 which is the back of the shooting space. When shooting is performed using the chroma key curtain as a background, multiple types of composite background images are prepared, and the chroma key processing is performed in the shooting process and editing process, so that the background image desired by the user is displayed in the curtain part. To be able to synthesize.

撮影空間の上方には、撮影部21の正面、連結部23A、連結部23B、および背景カーテンユニット25に囲まれた天井が形成され、その天井の一部として天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられており、撮影空間の照明としても機能する。   Above the photographing space, a ceiling surrounded by the front of the photographing unit 21, the connecting part 23A, the connecting part 23B, and the background curtain unit 25 is formed, and a ceiling strobe unit 24 is provided as a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. Inside the ceiling strobe unit 24, a fluorescent lamp is provided in addition to the strobe, and also functions as illumination of the photographing space.

編集ユニット12は、撮影画像の編集処理を行う装置である。編集ユニット12は、一方の側面が撮影部21の背面に接するように撮影ユニット11に連結して設けられる。   The editing unit 12 is an apparatus that performs a captured image editing process. The editing unit 12 is provided so as to be connected to the photographing unit 11 so that one side surface is in contact with the back surface of the photographing unit 21.

図1および図2において見える編集ユニット12の構成を正面側の構成とすると、2組の利用者が同時に編集を行うことができるように、編集ユニット12の正面側と背面側には編集に用いられる構成がそれぞれ設けられる。   If the configuration of the editing unit 12 visible in FIGS. 1 and 2 is the front side configuration, the editing unit 12 is used for editing on the front side and the back side so that two sets of users can edit simultaneously. Each configuration is provided.

編集ユニット12の正面側は、床面に対して垂直な面であり、撮影部21の側面パネル41Aとほぼ平行な面である面61と、面61の上方に形成された斜面62から構成される。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の右側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の左側にも、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。   The front side of the editing unit 12 is a surface perpendicular to the floor surface, and includes a surface 61 that is substantially parallel to the side panel 41 </ b> A of the photographing unit 21, and a slope 62 formed above the surface 61. The The slope 62 is provided with a tablet built-in monitor and a touch pen as a configuration used for editing work. On the right side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. A columnar support portion 63 </ b> B that supports the other end of the lighting device 64 is also provided on the left side of the slope 62. A support portion 65 that supports the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを、上から見たときの形状がコの字状となるように組み合わせることによって構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端にレール26Cの両端が接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C so that the shape when viewed from above becomes a U-shape. One end of the rails 26A and 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, and both ends of the rail 26C are joined to the other end.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が撮影画像の編集を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the inside of the space in front of the editing unit 12 and the space in front of the back cannot be seen from the outside. A space in front of the editing unit 12 and a space behind the back of the editing unit 12 surrounded by a curtain attached to the curtain rail 26 serve as an editing space in which a user edits a captured image.

また、後述するが、編集ユニット12の右側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の右側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。   As will be described later, the right side surface of the editing unit 12 is provided with a discharge port through which printed sticker paper is discharged. The space in front of the right side surface of the editing unit 12 is a print waiting space where the user waits for the printed sticker sheet to be discharged.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成装置1を上から見た平面図である。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described. FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

まず、事前接客部20の前方の空間である事前接客空間A0−1または事前接客空間A0−2において硬貨投入口に代金を投入した利用者は、タブレット内蔵モニタに表示される画面に従って各種の設定を、タッチペンを用いて行う。事前接客空間A0−1,A0−2においては、例えば、撮影空間で行われる撮影に関する条件の選択などが事前接客作業として行われる。   First, in the advance customer service space A0-1 or advance customer service space A0-2, which is the space in front of the advance customer service section 20, the user who has paid the coin insertion slot makes various settings according to the screen displayed on the tablet built-in monitor. Is performed using a touch pen. In the pre-service spaces A0-1 and A0-2, for example, selection of conditions relating to shooting performed in the shooting space is performed as pre-service work.

事前接客作業を終えた利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影を行う。出入り口G1は側面パネル41Aと側面パネル52Aの間の開口であり、出入り口G2は側面パネル41Bと側面パネル52Bの間の開口である。   The user who has completed the customer service is formed between the photographing unit 21 and the background unit 22 from the entrance G1 as indicated by the white arrow # 1 or from the entrance G2 as indicated by the white arrow # 2. The camera enters the shooting space A1 and performs shooting using a camera or a touch panel monitor provided in the shooting unit 21. The doorway G1 is an opening between the side panel 41A and the side panel 52A, and the doorway G2 is an opening between the side panel 41B and the side panel 52B.

なお、事前接客空間A0−1と事前接客空間A0−2のそれぞれにおいて、2組の利用者が同時に事前接客作業を行うことが可能であるが、先に事前接客作業を終えた利用者が、撮影空間A1へと案内される。このとき、事前接客部20は、事前接客作業を終えていない利用者に対して、撮影処理に関するガイダンスを行うなどして、先に撮影空間A1に入った利用者が撮影を終えるまで待機させるようにする。   In addition, in each of the pre-serving space A0-1 and the pre-serving space A0-2, two sets of users can perform the pre-serving work at the same time. You are guided to the shooting space A1. At this time, the pre-service section 20 waits until the user who has entered the photographing space A1 finishes photographing by giving guidance regarding photographing processing to a user who has not finished pre-serving work. To.

撮影を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。   The user who has finished shooting uses the doorway G1 to move out of the shooting space A1 as indicated by the white arrow # 3 and moves to the editing space A2-1 or opens the doorway G2 as indicated by the white arrow # 4. Use to move out of the shooting space A1 and move to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間であり、編集空間A2−2は、編集ユニット12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は撮影画像の編集を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12, and the editing space A2-2 is an editing space on the back side of the editing unit 12. Which of the editing space A2-1 and the editing space A2-2 is to be moved is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the free one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing the captured image. The user of the editing space A2-1 and the user of the editing space A2-2 can edit simultaneously.

編集が終了した後、撮影画像や編集画像の印刷が開始される。画像の印刷が終了すると、編集空間A2−1での編集を終えた利用者は、白抜き矢印#5で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集を終えた利用者は、白抜き矢印#6で示すように編集空間A2−2から印刷待ち空間A3に移動する。   After the editing is completed, printing of the captured image and the edited image is started. When the printing of the image is completed, the user who has finished editing in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by a white arrow # 5. In addition, the user who has finished editing in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by a white arrow # 6.

印刷待ち空間A3に移動した利用者は、編集ユニット12の右側面に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。   The user who has moved to the print waiting space A3 receives the sticker paper from the discharge port provided on the right side of the editing unit 12, and finishes a series of photo sticker creation games.

次に、各装置の構成について説明する。   Next, the configuration of each device will be described.

<事前接客部の構成>
図4は、側面パネル41A(または側面パネル41B)に設置される事前接客部20の正面側の構成例を示す図である。
<Composition of the customer service department>
FIG. 4 is a diagram showing a configuration example of the front side of the pre-serving section 20 installed on the side panel 41A (or the side panel 41B).

事前接客部20の上方にはタブレット内蔵モニタ71が設けられる。タブレット内蔵モニタ71を挟んで左側にタッチペン72Aが設けられ、右側にタッチペン72Bが設けられる。タブレット内蔵モニタ71は、タッチペン72Aまたは72Bを用いて操作入力が可能なタブレットがディスプレイを露出するように設けられることによって構成される。タブレット内蔵モニタ71には、コース選択や背景選択などの事前接客処理に用いられる画面が表示される。2人の利用者が同時に事前接客作業を行う場合、タッチペン72Aはタブレット内蔵モニタ71に向かって左側にいる利用者により用いられ、タッチペン72Bはタブレット内蔵モニタ71に向かって右側にいる利用者により用いられる。   A tablet built-in monitor 71 is provided above the customer service unit 20. A touch pen 72A is provided on the left side of the tablet built-in monitor 71, and a touch pen 72B is provided on the right side. The tablet built-in monitor 71 is configured by providing a tablet capable of operating input using the touch pen 72A or 72B so that the display is exposed. On the tablet built-in monitor 71, a screen used for pre-service processing such as course selection and background selection is displayed. When two users perform pre-service work at the same time, the touch pen 72A is used by the user on the left side toward the monitor 71 with a built-in tablet, and the touch pen 72B is used by the user on the right side with respect to the monitor 71 with a built-in tablet. It is done.

タブレット内蔵モニタ71の下には、事前接客処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカ73が設けられ、スピーカ73の下には、利用者が硬貨を入れる硬貨投入返却口74が設けられる。   A speaker 73 is provided under the tablet built-in monitor 71 to output pre-service processing guidance voice, BGM (Back Ground Music), sound effects, and the like. Under the speaker 73, a user inserts a coin. A coin insertion / return port 74 is provided.

<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42が、箱状の形状を有するベース部43に取り付けられることによって構成される。
<Configuration of the shooting unit>
FIG. 5 is a diagram illustrating a configuration example of the front of the photographing unit 21. The photographing unit 21 is configured by attaching a side panel 41A, a side panel 41B, and a front panel 42 to a base part 43 having a box shape.

正面パネル42の中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91、タッチパネルモニタ92、および正面ストロボ93から構成される。   A camera unit 81 is provided at the center of the front panel 42. The camera unit 81 includes a camera 91, a touch panel monitor 92, and a front strobe 93.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91はCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。   The camera 91 is a single-lens reflex camera, for example, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 has an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the photographing space A1. A moving image (hereinafter also referred to as a live view image) captured by the camera 91 is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing such as when a user gives an instruction to shoot is stored as a photographic image.

カメラ91の上に設けられた正面ストロボ93は、乳白アクリル板よりなる横長楕円形の発光面1つと縦長楕円形の発光面2つを有する。正面ストロボ93は、カメラ91による撮影に合わせて発光することで、被写体としての利用者の顔付近を正面から照射する。   A front strobe 93 provided on the camera 91 has one horizontally long elliptical light emitting surface and two vertically elliptical light emitting surfaces made of a milky white acrylic plate. The front strobe 93 illuminates the vicinity of the user's face as a subject from the front by emitting light in accordance with shooting by the camera 91.

カメラユニット81の下に設けられたタッチパネルモニタ92は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。   The touch panel monitor 92 provided under the camera unit 81 is configured by a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUIs (Graphical User Interfaces) and accepts a user's selection operation. On the touch panel monitor 92, a moving image (live view image) and a still image (captured image) captured by the camera 91 are displayed.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、カメラ91による撮影に合わせて発光することで、上方から利用者を照射する。   Above the camera unit 81, an upper strobe 82 with a curved light emitting surface facing the user is installed. The upper strobe 82 illuminates the user from above by emitting light in accordance with shooting by the camera 91.

ベース部43の中央には利用者の下半身および足元を照射する足元ストロボ83が設けられる。   At the center of the base portion 43, a foot strobe 83 for irradiating the lower body and feet of the user is provided.

ベース部43の上面には、足元ストロボ83の上面を挟んでスペース84A,84Bが左右に形成される。スペース84A,84Bは、撮影を行う利用者が手荷物等を置くための荷物置き場として用いられる。図示はしないが、正面パネル42の例えば天井付近には、撮影処理の案内音声、BGM、効果音等の音を出力するスピーカも設けられる。   Spaces 84 </ b> A and 84 </ b> B are formed on the upper surface of the base portion 43 on both sides of the upper surface of the foot strobe 83. The spaces 84A and 84B are used as a luggage storage place for a user who takes a picture to put baggage or the like. Although not shown, a speaker that outputs sound such as guidance sound for shooting processing, BGM, and sound effects is also provided near the ceiling of the front panel 42, for example.

<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Configuration of background part>
FIG. 6 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

上述したように、背面パネル51の上方には背景カーテンユニット25が設けられる。背景カーテンユニット25のほぼ中央には、撮影空間A1内で撮影処理を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。   As described above, the background curtain unit 25 is provided above the back panel 51. Near the center of the background curtain unit 25, a back center strobe 101 that irradiates a user who is performing a photographing process in the photographing space A1 from the rear center is attached.

背面パネル51の、出入り口G1側の位置には、撮影空間A1内で撮影処理を行っている利用者を右後方から照射する背面右ストロボ102が取り付けられる。また、背面パネル51の、出入り口G2側の位置には、撮影空間A1内で撮影処理を行っている利用者を左後方から照射する背面左ストロボ103が取り付けられる。   A rear right strobe 102 for irradiating a user who is performing a photographing process in the photographing space A1 from the right rear is attached to a position of the rear panel 51 on the doorway G1 side. Further, a rear left strobe 103 that irradiates a user who is performing a photographing process in the photographing space A1 from the left rear is attached to the rear panel 51 on the doorway G2 side.

<編集ユニットの構成>
図7は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 7 is a diagram illustrating a configuration example of the editing unit 12 on the front side (editing space A2-1 side).

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided in the approximate center of the slope 62. A touch pen 132A is provided on the left side of the tablet built-in monitor 131, and a touch pen 132B is provided on the right side.

タブレット内蔵モニタ131は、タッチペン132Aまたはタッチペン132Bを用いて操作入力が可能なタブレットがディスプレイを露出するように設けられることによって構成される。タブレット内蔵モニタ131には、例えば撮影画像の編集に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。   The tablet built-in monitor 131 is configured by providing a tablet capable of operating input using the touch pen 132A or the touch pen 132B so that the display is exposed. On the tablet built-in monitor 131, for example, an editing screen used for editing a captured image is displayed. When two users perform editing work at the same time, the touch pen 132A is used by a user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by a user on the right side of the tablet built-in monitor 131. .

図8は、編集ユニット12の右側面の構成例を示す図である。   FIG. 8 is a diagram illustrating a configuration example of the right side surface of the editing unit 12.

編集ユニット12の右側面下方にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられており、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。   A seal paper discharge port 161 is provided below the right side surface of the editing unit 12. A printer is provided inside the editing unit 12, and an image showing a user of the editing space A2-1 or an image showing a user of the editing space A2-2 is printed on a sticker sheet with a predetermined layout. The paper is discharged from the sticker paper outlet 161.

<写真シール作成装置の内部構成>
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してあり、重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 9 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. In FIG. 9, the same components as those described above are denoted by the same reference numerals, and redundant description will be omitted as appropriate.

制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前接客部208A,208B、撮影部209、編集部210A,210B、および印刷部211の各構成も接続される。   The control unit 201 includes a CPU (Central Processing Unit) and the like, executes a program stored in a ROM (Read Only Memory) 206 and a storage unit 202, and controls the overall operation of the photo sticker creating apparatus 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. The control unit 201 is also connected with each configuration of the customer service units 208A and 208B, the photographing unit 209, the editing units 210A and 210B, and the printing unit 211.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報等を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 includes a nonvolatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 201. Information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば撮影画像や編集済み画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。   A communication unit 203 is an interface of a network such as the Internet, and communicates with an external device according to control by the control unit 201. For example, the communication unit 203 transmits a captured image or an edited image to the server. The image transmitted from the communication unit 203 is allocated and stored in a predetermined storage area in the server, and is displayed or downloaded on a mobile terminal that has accessed the server.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   A removable medium 205 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 204. Computer programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

事前接客部208Aは、事前接客空間A0−1にいる利用者を対象とした事前接客処理を行う。事前接客部208Aは、タブレット内蔵モニタ71、タッチペン72A,72B、スピーカ73、および硬貨処理部221から構成される。事前接客部208Bは、事前接客部208Aと同一の構成を有しており、事前接客空間A0−2にいる利用者を対象とした事前接客処理を行う。なお、以下、事前接客部208A,208Bを特に区別しない場合には、単に、事前接客部208という。   The pre-service section 208A performs pre-service processing for users in the pre-service space A0-1. The pre-service section 208A includes a tablet built-in monitor 71, touch pens 72A and 72B, a speaker 73, and a coin processing section 221. The pre-service section 208B has the same configuration as the pre-service section 208A and performs pre-service processing for users in the pre-service area A0-2. In the following description, the prior customer service sections 208A and 208B are simply referred to as the prior customer service section 208 unless otherwise distinguished.

タブレット内蔵モニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を検出する。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の選択処理が行われる。   The tablet built-in monitor 71 displays various selection screens under the control of the control unit 201, and detects user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the control unit 201, and various selection processes are performed.

硬貨処理部221は、硬貨投入返却口74に対する硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of coins into the coin insertion / return port 74. When the coin processing unit 221 detects that a predetermined amount of coins such as 400 yen has been inserted, the coin processing unit 221 outputs an activation signal indicating that to the control unit 201.

撮影部209は、撮影空間A1にいる利用者を対象とした撮影処理を行う。撮影部209は、背景制御部231、照明装置232、カメラ91、タッチパネルモニタ92、およびスピーカ233から構成される。   The photographing unit 209 performs photographing processing for a user in the photographing space A1. The photographing unit 209 includes a background control unit 231, a lighting device 232, a camera 91, a touch panel monitor 92, and a speaker 233.

背景制御部231は、制御部201から供給される背景制御信号に従って背景カーテンユニット25による背景カーテンの上げ下ろしを制御する。   The background control unit 231 controls the raising / lowering of the background curtain by the background curtain unit 25 according to the background control signal supplied from the control unit 201.

照明装置232は、撮影空間A1内の各ストロボであり、制御部201から供給される照明制御信号に従って発光する。撮影空間A1には、天井ストロボユニット24のストロボの他に、撮影部21の正面ストロボ93、上ストロボ82、足元ストロボ83、背景部22の背面中央ストロボ101、背面右ストロボ102、および背面左ストロボ103が設けられる。   The illumination device 232 is each strobe in the imaging space A1, and emits light according to an illumination control signal supplied from the control unit 201. In the photographing space A1, in addition to the strobe of the ceiling strobe unit 24, the front strobe 93, the upper strobe 82, the foot strobe 83, the back center strobe 101 of the background unit 22, the back right strobe 102, and the back left strobe 103 is provided.

カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた画像(画像データ)を制御部201に出力する。   The camera 91 shoots according to the shutter control by the control unit 201, and outputs an image (image data) obtained by the shooting to the control unit 201.

編集部210Aは、編集空間A2−1にいる利用者を対象とした編集処理を行う。編集部210Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ241から構成される。編集部210Bは、編集部210Aと同一の構成を有しており、編集空間A2−2にいる利用者を対象とした編集処理を行う。なお、以下、編集部210A,210Bを特に区別しない場合には、単に、編集部210という。   The editing unit 210A performs an editing process for a user in the editing space A2-1. The editing unit 210A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 241. The editing unit 210B has the same configuration as the editing unit 210A, and performs editing processing for the user in the editing space A2-2. Hereinafter, when the editing units 210A and 210B are not particularly distinguished, they are simply referred to as the editing unit 210.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を検出する。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。   The tablet built-in monitor 131 displays an editing screen according to control by the control unit 201, and detects a user operation on the editing screen. An input signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

印刷部211は、印刷待ち空間A3にいる利用者に印刷済みのシール紙を提供する印刷処理を行う。印刷部211は、プリンタ251を含むように構成される。プリンタ251にはシール紙ユニット252が装着される。   The printing unit 211 performs a printing process for providing a printed sticker sheet to a user in the print waiting space A3. The printing unit 211 is configured to include a printer 251. A sticker sheet unit 252 is attached to the printer 251.

プリンタ251は、制御部201から供給された印刷データに基づいて、撮影画像や編集済み画像をシール紙ユニット252に収納されているシール紙261に印刷し、シール紙排出口161に排出する。   Based on the print data supplied from the control unit 201, the printer 251 prints the photographed image or the edited image on the sticker paper 261 stored in the sticker paper unit 252 and discharges it to the sticker paper discharge port 161.

<制御部の構成>
図10は、制御部201の機能構成例を示すブロック図である。図10に示す機能ブロックのうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Configuration of control unit>
FIG. 10 is a block diagram illustrating a functional configuration example of the control unit 201. At least a part of the functional blocks shown in FIG. 10 is realized by a predetermined program being executed by the CPU in the control unit 201.

制御部201においては、事前接客処理部301、撮影処理部302、編集処理部303、および印刷処理部304が実現される。   In the control unit 201, a pre-service processing unit 301, a photographing processing unit 302, an editing processing unit 303, and a print processing unit 304 are realized.

事前接客処理部301は、事前接客部208の各部を制御し、事前接客処理を行う。撮影処理部302は、撮影部209の各部を制御し、撮影処理を行う。編集処理部303は、編集部210の各部を制御し、編集処理を行う。印刷処理部304は、印刷部211のプリンタ251を制御し、印刷処理を行う。   The pre-service processing unit 301 controls each part of the pre-service unit 208 and performs pre-service processing. The imaging processing unit 302 controls each unit of the imaging unit 209 and performs imaging processing. The editing processing unit 303 controls each unit of the editing unit 210 and performs editing processing. The print processing unit 304 controls the printer 251 of the printing unit 211 to perform print processing.

<写真シール作成装置の動作>
ここで、図11のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker creation device>
Here, with reference to the flowchart of FIG. 11, operation | movement of the photo sticker production apparatus 1 which provides a photo sticker production game is demonstrated.

ステップS1において、事前接客処理部301は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される起動信号に基づいて判定し、投入されたと判定するまで待機する。   In step S1, the pre-service processing unit 301 determines whether or not a predetermined amount of coins has been inserted based on an activation signal supplied from the coin processing unit 221, and waits until it is determined that the coins have been inserted.

ステップS1において、硬貨が投入されたと判定された場合、ステップS2において、事前接客処理部301は、事前接客空間A0−1と事前接客空間A0−2のうち、硬貨の投入がなされた方の事前接客空間に対応する事前接客部208を制御し、撮影条件の選択、さらには、撮影空間において流れるBGMの選択などを利用者に行わせることで、各種の設定を行う事前接客処理を行う。   If it is determined in step S1 that coins have been inserted, in step S2, the pre-service customer processing unit 301 performs advance advance of one of the pre-service spaces A0-1 and A0-2 in which coins have been inserted. By controlling the pre-serving section 208 corresponding to the customer service space, the user performs selection of shooting conditions and further selection of BGM flowing in the shooting space, thereby performing pre-service processing for performing various settings.

なお、撮影条件には、撮影空間で行われる撮影によって得られる撮影画像において被写体の背景となる背景画像やその背景画像を分類するカテゴリ、撮影画像に対して施される画像処理や撮影時の照明制御等によって決まる被写体の写りなどがある。   The shooting conditions include the background image that is the background of the subject in the shot image obtained by shooting performed in the shooting space, the category for classifying the background image, the image processing performed on the shot image, and the illumination at the time of shooting. There is a subject image determined by the control.

ステップS3において、事前接客処理部301は、事前接客作業を行っている利用者が、撮影空間A1へ移動可能であるか否かを判定する。具体的には、事前接客処理部301は、前の組の利用者の撮影作業の進行状況に基づいて、撮影空間A1が使用中であるか否かを判定し、撮影空間A1が使用中で、事前接客作業を行っている利用者の撮影空間A1への移動が不可能であると判定した場合、処理はステップS2に戻り、例えば撮影処理に関するガイダンス等を行うことで、事前接客処理を継続して行う。   In step S <b> 3, the pre-service processing unit 301 determines whether or not the user performing the pre-service service can move to the shooting space A <b> 1. Specifically, the customer service processing unit 301 determines whether or not the shooting space A1 is in use based on the progress of the shooting work of the previous group of users, and the shooting space A1 is in use. If it is determined that it is impossible for the user performing the pre-service operation to move to the shooting space A1, the process returns to step S2, and the pre-service process is continued by performing, for example, guidance regarding the shooting process. And do it.

そして、ステップS3において、撮影空間A1が使用中でなく、撮影空間A1へ移動可能であると判定された場合、処理はステップS4に進み、事前接客処理部301は、事前接客空間A0−1または事前接客空間A0−2にいる利用者に対して、撮影空間A1への移動を案内する。撮影空間A1への移動の案内は、事前接客部208のタブレット内蔵モニタ71に案内画面を表示させることによって、または音声をスピーカ73から出力させることによって行われる。   If it is determined in step S3 that the shooting space A1 is not in use and can be moved to the shooting space A1, the process proceeds to step S4, and the pre-service processing unit 301 selects the pre-service space A0-1 or The user in the pre-service space A0-2 is guided to move to the shooting space A1. Guidance of movement to the imaging space A1 is performed by displaying a guidance screen on the tablet built-in monitor 71 of the pre-service section 208 or by outputting sound from the speaker 73.

ステップS5において、撮影処理部302は、撮影部209を制御し、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ92にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影し、撮影画像を取得する撮影処理を行う。   In step S5, the imaging processing unit 302 controls the imaging unit 209 to display the moving image of the subject captured by the camera 91 on the touch panel monitor 92, and shoots the user in the imaging space A1 as the subject. A photographing process for acquiring a photographed image is performed.

撮影処理においては、例えば7回の撮影が行われ、撮影結果として7枚の撮影画像が得られる。もちろん、撮影が行われる回数は7回に限られない。   In the photographing process, for example, seven photographings are performed, and seven photographed images are obtained as photographing results. Of course, the number of times of shooting is not limited to seven.

ステップS6において、撮影処理部302は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部209のタッチパネルモニタ92に案内画面を表示させることによって、または音声をスピーカ233から出力させることによって行われる。   In step S6, the imaging processing unit 302 guides the user in the imaging space A1 to move to the editing space A2-1 or the editing space A2-2. The guidance for moving to the editing space A2-1 or the editing space A2-2 is performed by displaying a guidance screen on the touch panel monitor 92 of the photographing unit 209 or by outputting sound from the speaker 233.

ステップS7において、編集処理部303は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部210を制御し、撮影処理により得られた撮影画像に対して利用者に落書き編集を行わせ、落書き編集が施された編集済み画像を生成する編集処理を行う。編集処理においては、シール紙に印刷される編集済み画像や撮影画像の配置や、シール紙において編集済み画像や撮影画像が配置される領域以外の領域のデザイン(色や図柄を含む)を表すシールレイアウトも、利用者の選択によって決定される。   In step S <b> 7, the editing processing unit 303 controls the editing unit 210 corresponding to the editing space of the editing space A <b> 2-1 and the editing space A <b> 2-2 as the destination of the user who has finished the shooting process, The user performs a graffiti edit on the photographed image obtained by the photographing process, and performs an edit process for generating an edited image subjected to the graffiti edit. In the editing process, a sticker representing the layout (including color and design) of an area other than the area where the edited image or the photographed image is arranged on the sticker paper, or the arrangement of the edited image or the photographed image printed on the sticker paper. The layout is also determined by user selection.

なお、編集済み画像や撮影画像は、外部のサーバを介して、利用者の所有する携帯電話機等の携帯端末に送信される。そこで、編集処理においては、携帯端末が、サーバにアクセスするのに必要なURLが記載されたメールを受信するために必要な、携帯端末のメールアドレスを、利用者に入力させるようにする。   Note that the edited image and the captured image are transmitted to a mobile terminal such as a mobile phone owned by the user via an external server. Therefore, in the editing process, the mobile terminal is made to input a mail address of the mobile terminal that is necessary for the mobile terminal to receive a mail in which a URL necessary for accessing the server is described.

これにより、サーバは、利用者により入力されたメールアドレス宛てに、携帯端末がサーバにアクセスするのに必要なURLが記載されたメールを送信する。そして、そのURLに基づいて、利用者が所有する携帯端末が、インターネットなどのネットワークを介して、サーバにアクセスすることで、サーバに送信された編集済み画像や撮影画像が携帯端末に提供される。   As a result, the server transmits a mail describing a URL necessary for the mobile terminal to access the server to the mail address input by the user. Based on the URL, the portable terminal owned by the user accesses the server via a network such as the Internet, so that the edited image or the photographed image transmitted to the server is provided to the portable terminal. .

ステップS8において、印刷処理部304は、撮影処理により得られた撮影画像、または編集処理により得られた編集済み画像を、印刷画像としてプリンタ251に出力してシール紙に印刷する印刷処理を行う(開始する)。   In step S <b> 8, the print processing unit 304 performs a printing process in which the photographed image obtained by the photographing process or the edited image obtained by the editing process is output as a print image to the printer 251 and printed on the sticker paper ( Start).

印刷が終了すると、ステップS9において、プリンタ251は、画像が印刷されたシール紙をシール紙排出口161に排出し、処理を終了させる。このとき、編集処理部303は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して、印刷が終了した旨をタブレット内蔵モニタ131に表示させることで、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、音声をスピーカ241から出力させることによって行われるようにしてもよい。   When printing is completed, in step S9, the printer 251 discharges the sticker sheet on which the image is printed to the sticker paper discharge port 161, and ends the process. At this time, the editing processing unit 303 causes the user who has finished the editing processing in the editing space A2-1 or the editing space A2-2 to display that the printing is completed on the tablet built-in monitor 131, thereby waiting for printing. Guide the movement to the space A3. The guidance for movement to the print waiting space A3 may be performed by outputting sound from the speaker 241.

なお、編集処理を終えてからシール紙の印刷が終了するまでの時間、利用者に、所定のゲームを行わせるようにしてもよい。例えば、一見同一に見え、互いに相違する点を数か所含む2枚の画像をタブレット内蔵モニタ131に表示させ、所定時間内に、その相違する点を利用者に発見させる、いわゆる間違い探しを行わせるようにする。   Note that the user may be allowed to play a predetermined game during the time from the end of the editing process to the end of the sticker paper printing. For example, a so-called mistake search is performed in which two images that seem to be the same and include several different points are displayed on the tablet built-in monitor 131 and the user finds the different points within a predetermined time. I will let you.

これにより、利用者は、編集処理を終えてからシール紙の印刷が終了するまでの時間を退屈することなく過ごすことができる。   Accordingly, the user can spend the time from the end of the editing process to the end of the printing of the sticker paper without being bored.

<事前接客処理の流れ>
次に、図12のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS2の事前接客処理の流れを説明する。
<Flow of prior customer service>
Next, with reference to the flowchart of FIG. 12, the flow of the pre-service process in step S2 in the series of processes of the photo sticker creation game described above will be described.

事前接客処理が開始されると、事前接客処理部301は、タブレット内蔵モニタ71やスピーカ73等を制御して、写真シール作成ゲームの流れを案内する画像や音声を出力することにより、利用者に対して写真シール作成ゲームのガイダンスを行う。   When the pre-service processing is started, the pre-service processing unit 301 controls the tablet built-in monitor 71, the speaker 73, and the like, and outputs images and sounds that guide the flow of the photo sticker creation game to the user. Guidance on the photo sticker creation game is given.

そして、ステップS31において、事前接客処理部301が、背景コース選択画面をタブレット内蔵モニタ71に表示させ、タッチペン72A,72Bを用いた利用者からの指示を受け付けることで、利用者に、背景コースを選択させる。事前接客処理部301は、利用者からの指示の受け付け結果に基づいて、撮影条件の1つとして、複数の背景コースのうちのいずれか1つを選択する。背景コース選択画面は、撮影画像に合成される背景画像のタイプを決定する背景コースの選択に用いられる画面である。背景コースには、例えば、背景画像のタイプとして、背景画像が合成された撮影画像が、楽しく愉快な雰囲気の仕上がりとなる背景画像が提供される「エンジョイショット」コースと、背景画像が合成された撮影画像が、落ち着いたやや大人っぽい雰囲気の仕上がりとなる背景画像が提供される「キレイショット」コースとがある。   In step S31, the customer service processing unit 301 displays a background course selection screen on the monitor 71 with a built-in tablet and accepts an instruction from the user using the touch pens 72A and 72B, thereby giving the user a background course. Let them choose. The pre-service processing unit 301 selects one of a plurality of background courses as one of the shooting conditions based on the reception result of the instruction from the user. The background course selection screen is a screen used to select a background course that determines the type of background image to be combined with the photographed image. In the background course, for example, as a type of the background image, a photographed image in which the background image is synthesized is provided with a background image that provides a fun and pleasant atmosphere finish, and a background image is synthesized. There is a “Beautiful Shot” course in which the photographed image provides a background image with a calm and slightly matured finish.

ステップS32において、事前接客処理部301が、写りコース選択画面をタブレット内蔵モニタ71に表示させ、タッチペン72A,72Bを用いた利用者からの指示を受け付けることで、利用者に、写りコースを選択させる。事前接客処理部301は、利用者からの指示の受け付け結果に基づいて、撮影条件の1つとして、複数の写りコースのうちのいずれかを選択する。写りコース選択画面は、撮影画像における被写体の写りを決定する写りコースの選択に用いられる画面である。   In step S32, the pre-service processing unit 301 displays a reflection course selection screen on the tablet built-in monitor 71 and accepts an instruction from the user using the touch pens 72A and 72B, thereby allowing the user to select a reflection course. . The pre-service processing unit 301 selects one of a plurality of shooting courses as one of shooting conditions based on a result of receiving an instruction from the user. The reflection course selection screen is a screen used for selection of a reflection course that determines the reflection of a subject in a captured image.

ステップS33において、事前接客処理部301が、名前入力画面をタブレット内蔵モニタ71に表示させ、タッチペン72A,72Bを用いた利用者からの指示を受け付けることで、利用者それぞれの名前を入力させる。名前入力画面は、利用者による名前の入力に用いられる画面である。   In step S33, the customer service processing unit 301 displays a name input screen on the tablet built-in monitor 71 and accepts an instruction from the user using the touch pens 72A and 72B, thereby inputting each user's name. The name input screen is a screen used for inputting a name by the user.

ステップS34において、事前接客処理部301が、セット背景選択画面をタブレット内蔵モニタ71に表示させ、タッチペン72A,72Bを用いた利用者からの指示を受け付けることで、利用者に、セット背景を選択させる。事前接客処理部301は、利用者からの指示の受け付け結果に基づいて、撮影条件の1つとして、複数のセット背景のうちのいずれか1つを選択する。   In step S34, the customer service processing unit 301 displays a set background selection screen on the tablet built-in monitor 71 and accepts an instruction from the user using the touch pens 72A and 72B, thereby allowing the user to select a set background. . The prior customer service processing unit 301 selects any one of a plurality of set backgrounds as one of the shooting conditions based on the reception result of the instruction from the user.

なお、セット背景は、所定のテーマで統一された複数の背景画像を1組のセットとして構成され、ここでは、ステップS31において選択された背景コースに応じたタイプの背景画像から構成されるセット背景がセット背景選択画面に表示される。   The set background is configured as a set of a plurality of background images unified with a predetermined theme. Here, the set background is composed of a background image of a type corresponding to the background course selected in step S31. Is displayed on the set background selection screen.

図13は、セット背景の選択の際に表示されるセット背景選択画面の例を示す図である。   FIG. 13 is a diagram illustrating an example of a set background selection screen displayed when a set background is selected.

セット背景選択画面には、セット背景が、「おすすめ」、「カラー」、「デザイン」、「イベント」といったカテゴリ毎のボタン421乃至424によって切り替えて表示されるようになされており、図13の例では、「おすすめ」ボタン421が選択されている。「おすすめ」ボタン421が選択されているセット背景選択画面には、6つのセット背景431乃至436がそれぞれのテーマ毎に表示されている。   In the set background selection screen, the set background is switched and displayed by the buttons 421 to 424 for each category such as “recommended”, “color”, “design”, and “event”. Then, the “recommend” button 421 is selected. On the set background selection screen on which the “recommend” button 421 is selected, six set backgrounds 431 to 436 are displayed for each theme.

なお、図示はしないが、例えば「イベント」ボタン424が選択された場合のセット背景選択画面には、季節に応じたイベントや、誕生日などの記念日をテーマとしたセット背景が表示されるようになる。   Although not shown, for example, on the set background selection screen when the “event” button 424 is selected, a set background on the theme of an event according to the season or an anniversary such as a birthday is displayed. become.

図13のセット背景選択画面に表示されているセット背景は、ステップS31において背景コースとして「エンジョイショット」コースが選択された場合のセット背景とされる。「エンジョイショット」コースが選択された場合のセット背景を構成する背景画像には、撮影画像における被写体の背景に合成される画像に加え、被写体の前景に合成されるスタンプ画像やフレーム画像といった前景画像を含む背景画像が1,2枚程度用意されている。例えば、撮影処理において7回行われる撮影のうちの1回目から6回目の撮影に対応する6枚の背景画像のうち、2回目と6回目の撮影に対応する2枚の背景画像に前景画像が含まれるものとするが、6枚全ての背景画像に前景画像が含まれるようにしてもよい。   The set background displayed on the set background selection screen of FIG. 13 is the set background when the “enjoy shot” course is selected as the background course in step S31. The background image that constitutes the set background when the “Enjoy shot” course is selected includes foreground images such as a stamp image and a frame image combined with the background of the subject in addition to the image combined with the background of the subject in the captured image. About 1 or 2 background images are prepared. For example, foreground images are included in two background images corresponding to the second and sixth shootings out of six background images corresponding to the first to sixth shootings among the seven shootings performed in the shooting process. It is assumed that the foreground image is included in all six background images.

図12のフローチャートに戻り、ステップS35において、事前接客処理部301が、コラージュ撮影コース選択画面をタブレット内蔵モニタ71に表示させ、タッチペン72A,72Bを用いた利用者からの指示を受け付けることで、利用者に、コラージュ撮影の撮影コースを選択させる。事前接客処理部301は、利用者からの指示の受け付け結果に基づいて、撮影条件の1つとして、複数のコラージュ撮影の撮影コースのうちのいずれか1つを選択する。   Returning to the flowchart of FIG. 12, in step S <b> 35, the pre-service processing unit 301 displays a collage shooting course selection screen on the tablet built-in monitor 71 and accepts an instruction from the user using the touch pens 72 </ b> A and 72 </ b> B. Let the person choose a shooting course for collage shooting. The pre-service processing unit 301 selects one of a plurality of collage shooting courses as one of shooting conditions based on a result of receiving an instruction from the user.

コラージュ撮影とは、撮影処理において行われる7回の撮影のうちの7回目の撮影であり、この撮影により得られる7枚目の撮影画像が、所定のデザインが施されたデザイン画像上に配置されてなる合成画像であるコラージュ撮影画像を得るための撮影とされる。そして、コラージュ撮影コース選択画面は、コラージュ撮影画像に対して所定の画像処理を施すか否かを決定するコース選択に用いられる画面である。   Collage shooting is the seventh shooting out of the seven shootings performed in the shooting process, and the seventh shot image obtained by this shooting is arranged on a design image with a predetermined design. It is taken to obtain a collage photographed image that is a composite image. The collage shooting course selection screen is a screen used for course selection for determining whether or not to perform predetermined image processing on the collage shooting image.

ステップS36において、事前接客処理部301が、BGM選択画面をタブレット内蔵モニタ71に表示させ、タッチペン72A,72Bを用いた利用者からの指示を受け付けることで、利用者に、撮影空間において流れるBGMを選択させる。事前接客処理部301は、利用者からの指示の受け付け結果に基づいて、撮影空間において流れるBGMを選択する。   In step S36, the pre-service processing unit 301 displays a BGM selection screen on the tablet built-in monitor 71, and accepts an instruction from the user using the touch pens 72A and 72B, thereby allowing the user to receive the BGM flowing in the shooting space. Let them choose. The prior customer service processing unit 301 selects a BGM that flows in the imaging space based on the result of receiving an instruction from the user.

BGMが選択されると、処理は図11のステップS2に戻り、それ以降の処理が行われる。   When BGM is selected, the process returns to step S2 in FIG. 11, and the subsequent processes are performed.

<撮影処理の流れ>
次に、図14のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS5の撮影処理の流れを説明する。
<Flow of shooting process>
Next, the flow of the photographing process in step S5 in the series of processes of the photo sticker creation game described above will be described with reference to the flowchart of FIG.

撮影処理が開始されると、撮影処理部302が、「タッチしてね!」などといったメッセージをタッチパネルモニタ92に表示させ、利用者からの指示を受け付けることで、ステップS51において、撮影処理部302は、スピーカ233を介して、事前接客処理において利用者により選択されたBGM(楽曲)の出力を開始する。このとき、タッチパネルモニタ92には、利用者により選択された楽曲、すなわち、スピーカ233から出力される楽曲の楽曲名が表示されるようにする。   When the photographing process is started, the photographing processing unit 302 displays a message such as “Please touch!” On the touch panel monitor 92 and accepts an instruction from the user. Starts outputting the BGM (musical piece) selected by the user in the pre-service process via the speaker 233. At this time, the touch panel monitor 92 displays the music selected by the user, that is, the music name of the music output from the speaker 233.

なお、タッチパネルモニタ92に対する利用者の操作によってBGMの出力が開始されるのではなく、利用者の撮影空間への移動を検知してから所定の時間が経過したことによってBGMの出力が開始されるようにしてもよい。   The output of BGM is not started by the user's operation on the touch panel monitor 92, but the output of BGM is started when a predetermined time has elapsed since the movement of the user to the shooting space has been detected. You may do it.

続いて、撮影処理部302は、タッチパネルモニタ92やスピーカ233等を制御して、まっすぐ立っている利用者の顔および上半身がそのまままっすぐ写る画像を撮影するアップ撮影のガイダンスを行った後、ステップS52において、アップ撮影を行う。   Subsequently, the imaging processing unit 302 controls the touch panel monitor 92, the speaker 233, and the like to provide guidance for up-shooting that captures an image in which the face and upper body of the user standing upright are straight, and then step S52. In the up-shooting.

具体的には、撮影処理部302は、カメラ91を制御し、利用者の頭の上から腰付近までの範囲が写った画像の取り込みを開始させ、カメラ91により取り込まれた動画像(ライブビュー画像)をタッチパネルモニタ92に表示させる(ライブビュー表示を行う)。次に、撮影処理部302は、タッチパネルモニタ92にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。そして、撮影タイミングになったとき、撮影処理部302は、カメラ91を制御して撮影を行い、まっすぐ立っている利用者の顔および上半身がそのまままっすぐ写った静止画像であるアップ撮影画像を取得する。取得されたアップ撮影画像は、撮影結果としてタッチパネルモニタ92に表示される。   Specifically, the imaging processing unit 302 controls the camera 91 to start capturing an image showing a range from the top of the user's head to the vicinity of the waist, and a moving image (live view) captured by the camera 91 is started. Image) is displayed on the touch panel monitor 92 (live view display is performed). Next, the imaging processing unit 302 displays a countdown indicator on the touch panel monitor 92 and notifies the user of the imaging timing. When the shooting timing comes, the shooting processing unit 302 controls the camera 91 to perform shooting, and obtains an up shot image that is a still image in which the face and upper body of the user standing straight are directly reflected. . The acquired up-captured image is displayed on the touch panel monitor 92 as a shooting result.

ステップS52においてアップ撮影が2回行われると、撮影処理部302は、タッチパネルモニタ92やスピーカ233等を制御して、まっすぐ立っている利用者の顔および上半身が左右のどちらかに傾いて写る画像を撮影するななめ撮影のガイダンスを行った後、ステップS53において、2回のななめ撮影を行う。   When the up-shooting is performed twice in step S52, the shooting processing unit 302 controls the touch panel monitor 92, the speaker 233, and the like so that the face of the user standing upright and the upper body of the user are tilted to the left or right. After performing the guidance for the lick shooting for shooting, the lick shooting is performed twice in step S53.

ななめ撮影の詳細については、基本的にはアップ撮影と同様であるので、その説明は省略するが、ななめ撮影によって、まっすぐ立っている利用者の顔および上半身が左右のどちらかに傾いて写った静止画像であるななめ撮影画像が取得される。   The details of the licking are basically the same as the up-shooting, so the explanation is omitted. However, the licking shoots the face and upper body of the user standing upright. A licked image that is a still image is acquired.

ステップS53においてななめ撮影が2回行われると、撮影処理部302は、タッチパネルモニタ92やスピーカ233等を制御して、まっすぐ立っている利用者の全身が写る画像を撮影する全身撮影のガイダンスを行った後、ステップS54において、2回の全身撮影を行う。   When the slant photographing is performed twice in step S53, the photographing processing unit 302 controls the touch panel monitor 92, the speaker 233, and the like, and performs whole body photographing guidance for photographing an image showing the whole body of the user standing upright. After that, in step S54, the whole body imaging is performed twice.

全身撮影の詳細についてもまた、基本的にはアップ撮影と同様であるので、その説明は省略するが、全身撮影によって、まっすぐ立っている利用者の全身が写った静止画像である全身撮影画像が取得される。   The details of the whole body photography are also basically the same as the up photography, so the explanation is omitted, but the whole body photography shows a whole body photography image that is a still image of the whole body of a standing user. To be acquired.

このようにして、7回行われる撮影のうちの1回目乃至6回目の撮影が行われる。なお、この間も、スピーカ233を介して、事前接客処理において選択された楽曲がBGMとして出力されている。   In this way, the first to sixth shootings out of the seven shootings are performed. During this time, the music selected in the pre-service process is output as BGM via the speaker 233.

ここで、図15を参照して、1回目乃至6回目の撮影の際にタッチパネルモニタ92に表示される撮影画面の例について説明する。   Here, an example of a shooting screen displayed on the touch panel monitor 92 during the first to sixth shooting will be described with reference to FIG.

撮影画面の下側の領域には、事前接客処理において選択されたセット背景に含まれる6枚の背景画像それぞれに、モデルを被写体として撮影された6枚のモデル画像それぞれが合成された6枚のサンプル画像521−1乃至521−6が表示される。図15の例では、事前接客処理において選択されたセット背景431を構成する6枚の背景画像が、サンプル画像521−1乃至521−6にそれぞれ合成されて表示されている。   In the lower area of the shooting screen, there are six images obtained by combining each of the six background images included in the set background selected in the pre-service process and each of the six model images shot using the model as a subject. Sample images 521-1 to 521-6 are displayed. In the example of FIG. 15, six background images constituting the set background 431 selected in the pre-service process are combined with the sample images 521-1 to 521-6 and displayed.

サンプル画像521−1乃至521−6それぞれに合成されている背景画像は、1回目乃至6回目の撮影により得られる撮影画像のそれぞれに合成される。すなわち、例えば、サンプル画像521−1に合成されている背景画像は1回目の撮影により得られるアップ撮影画像に合成され、サンプル画像521−3に合成されている背景画像は3回目の撮影により得られるななめ撮影画像に合成され、サンプル画像521−5に合成されている背景画像は5回目の撮影により得られる全身撮影画像に合成される。   The background image combined with each of the sample images 521-1 to 521-6 is combined with each of the captured images obtained by the first to sixth capturing. That is, for example, the background image combined with the sample image 521-1 is combined with the up-captured image obtained by the first shooting, and the background image combined with the sample image 521-3 is acquired by the third shooting. The background image combined with the sampled licked image and combined with the sample image 521-5 is combined with the whole-body captured image obtained by the fifth imaging.

撮影画面においては、n(nは1乃至6の整数)回目の撮影が行われるときに、サンプル画像521−nが大きく表示されるとともに、撮影画面のほぼ中央に表示されるライブビュー画像表示領域522には、サンプル画像521−nに合成されている背景画像に、カメラ91により取り込まれたライブビュー画像が表示される。   On the shooting screen, when n (n is an integer from 1 to 6) shooting is performed, the sample image 521-n is displayed in a large size, and the live view image display area is displayed at approximately the center of the shooting screen. In 522, the live view image captured by the camera 91 is displayed on the background image synthesized with the sample image 521-n.

図15の例では、サンプル画像521−2が大きく表示され、ライブビュー画像表示領域522にはサンプル画像521−2に合成されている背景画像に、ライブビュー画像531−2が合成されて表示されている。すなわち、図15は、2回目の撮影が行われる際の撮影画面の例を示している。   In the example of FIG. 15, the sample image 521-2 is displayed in a large size, and the live view image 531-2 is combined with the background image combined with the sample image 521-2 and displayed in the live view image display area 522. ing. That is, FIG. 15 shows an example of a shooting screen when the second shooting is performed.

ここで、上述したように、2回目の撮影に対応する背景画像には、被写体の背景に合成される画像に加え、被写体の前景に合成される前景画像が含まれる。具体的には、図15の例では、ライブビュー画像531−2に映る2人の利用者それぞれの頭にキャップを模したスタンプ画像551が、ライブビュー画像のほぼ中央にハート型のスタンプ画像552が、それぞれ前景画像として合成されている。   Here, as described above, the background image corresponding to the second shooting includes the foreground image combined with the foreground of the subject in addition to the image combined with the background of the subject. Specifically, in the example of FIG. 15, a stamp image 551 imitating a cap on the head of each of the two users shown in the live view image 531-2 is a heart-shaped stamp image 552 in the approximate center of the live view image. Are synthesized as foreground images.

ライブビュー画像において、スタンプ画像551は、利用者それぞれの顔(頭)の大きさおよび向きに応じてその大きさおよび向きが調整されて、利用者それぞれの頭の位置に合成されている。一方、スタンプ画像552は、2人の利用者の位置、顔の大きさや向きによらず、予め決められた位置に合成されている。   In the live view image, the stamp image 551 is combined with the position of each user's head, with the size and orientation adjusted according to the size and orientation of each user's face (head). On the other hand, the stamp image 552 is synthesized at a predetermined position regardless of the positions of the two users and the size and orientation of the face.

なお、撮影画面におけるライブビュー画像表示領域522の左側には、サンプル画像521−1に合成されている背景画像に1回目の撮影により得られた撮影画像531−1に合成されて表示され、ライブビュー画像表示領域522の右側には、サンプル画像521−3に合成されている背景画像531−3、およびサンプル画像521−4に合成されている背景画像531−4が、3次元的に重畳しているように表示されている。   On the left side of the live view image display area 522 on the shooting screen, the background image combined with the sample image 521-1 is displayed by being combined with the shot image 531-1 obtained by the first shooting. On the right side of the view image display area 522, a background image 531-3 synthesized with the sample image 521-3 and a background image 531-4 synthesized with the sample image 521-4 are three-dimensionally superimposed. It is displayed as it is.

2回目の撮影が終わると、撮影の結果得られたアップ撮影画像は、撮影画面におけるライブビュー画像表示領域522の左側に、背景画像531−3,531−4と対称的に表示されるとともに、サンプル画像521−2が表示されていた領域にも、サンプル画像521−2に代わって、2回目の撮影により得られたアップ撮影画像が表示されるようになる。   When the second shooting is finished, the up shot image obtained as a result of shooting is displayed symmetrically with the background images 531-3 and 531-4 on the left side of the live view image display area 522 on the shooting screen. In the area where the sample image 521-2 was displayed, the up-captured image obtained by the second shooting is displayed instead of the sample image 521-2.

次いで、3回目の撮影が行われるときには、サンプル画像521−3が大きく表示されるとともに、ライブビュー画像表示領域522には、ライブビュー画像表示領域522の右側に表示されていた背景画像531−3が移動して、ライブビュー画像(被写体は図示せず)に合成されて表示されるようになる。   Next, when the third shooting is performed, the sample image 521-3 is displayed in a large size, and the background image 531-3 displayed on the right side of the live view image display area 522 is displayed in the live view image display area 522. Moves and is combined with a live view image (the subject is not shown) and displayed.

このようにして順次撮影が行われ、6回目の撮影が終わると、撮影処理部302は、タッチパネルモニタ92やスピーカ233等を制御して、コラージュ撮影のガイダンスを行った後、ステップS55において、7回目の撮影として、コラージュ撮影を行う。   In this way, when the shooting is performed sequentially and the sixth shooting is finished, the shooting processing unit 302 controls the touch panel monitor 92, the speaker 233, and the like to provide guidance for collage shooting. Collage shooting is performed as the second shooting.

コラージュ撮影により、被写体の画像が所定のデザインを施したデザイン画像上に配置されてなるコラージュ撮影画像が、7枚目の撮影画像として得られる。   By collage shooting, a collage shooting image in which an image of a subject is arranged on a design image having a predetermined design is obtained as a seventh shooting image.

7回目の撮影が終わると、ステップS56において、撮影処理部302が、目・明るさ選択画面をタッチパネルモニタ92に表示させ、利用者からの指示を受け付けることで、撮影画像における被写体(利用者)の目の大きさおよび肌の明るさを選択し、1枚目乃至7枚目の撮影画像における被写体の目の大きさおよび肌の明るさを、選択された目の大きさや肌の明るさに変更するように加工する。   When the seventh shooting is finished, in step S56, the shooting processing unit 302 displays an eye / brightness selection screen on the touch panel monitor 92, and accepts an instruction from the user, whereby the subject (user) in the shot image is displayed. The eye size and skin brightness of the subject are selected, and the eye size and skin brightness of the subject in the first to seventh photographed images are changed to the selected eye size and skin brightness. Process to change.

ステップS56の処理が終わって所定時間が経過した後、撮影処理部302は、スピーカ233を介して出力されている、事前接客処理において利用者により選択されたBGM(楽曲)の出力を停止する。その後、処理は図11のステップS5に戻り、それ以降の処理が行われる。   After a predetermined time has elapsed after the processing of step S56, the imaging processing unit 302 stops outputting the BGM (music) that is output via the speaker 233 and selected by the user in the pre-service process. Thereafter, the process returns to step S5 in FIG. 11, and the subsequent processes are performed.

上述したように、本実施の形態の写真シール作成装置においては、ライブビュー画像において、利用者の顔の所定の部位(器官)に対応するスタンプ画像が、利用者の顔の大きさと向きに応じてその大きさと向きが調整され、ライブビュー画像における利用者の顔に合成されて表示される。   As described above, in the photo sticker creating apparatus according to the present embodiment, in the live view image, the stamp image corresponding to a predetermined part (organ) of the user's face corresponds to the size and orientation of the user's face. The size and orientation of the image are adjusted and combined with the face of the user in the live view image.

そこで、以下においては、上述したようなライブビュー画像の表示を実現する構成および処理の流れについて説明する。   Therefore, in the following, a configuration and processing flow for realizing the display of the live view image as described above will be described.

<本発明の写真シール作成装置の機能構成例>
図16は、本発明の写真シール作成装置1の機能構成例を示すブロック図である。図16に示す機能ブロックのうちの合成処理部611および表示制御部612は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Functional Configuration Example of Photo Sticker Making Device of the Present Invention>
FIG. 16 is a block diagram showing a functional configuration example of the photo sticker creating apparatus 1 of the present invention. Of the functional blocks shown in FIG. 16, the composition processing unit 611 and the display control unit 612 are realized by a predetermined program being executed by the CPU in the control unit 201.

合成処理部611は、カメラ91により取り込まれた取り込み画像における利用者の顔の所定の部位に、その所定の部位に対応する合成用画像(スタンプ画像)を合成する。取り込み画像は、リアルタイムで表示される動画像であるライブビュー画像であってもよいし、利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像である撮影画像であってもよい。   The synthesis processing unit 611 synthesizes a synthesis image (stamp image) corresponding to a predetermined part of the user's face in the captured image captured by the camera 91. The captured image may be a live view image that is a moving image that is displayed in real time, or a captured image that is a still image captured by the camera 91 at a predetermined timing such as when shooting is instructed by the user. It may be.

表示制御部612は、合成処理部611によって、利用者の顔の所定の部位にスタンプ画像が合成された取り込み画像を、モニタ613に表示させる。   The display control unit 612 causes the monitor 613 to display a captured image in which the stamp image is combined with a predetermined part of the user's face by the combining processing unit 611.

モニタ613は、写真シール作成装置1が備えるタッチパネルモニタなどとして構成され、表示制御部612の制御に基づいた表示を行う。   The monitor 613 is configured as a touch panel monitor provided in the photo sticker creating apparatus 1 and performs display based on the control of the display control unit 612.

<本発明の写真シール作成装置による表示処理>
次に、図17のフローチャートを参照して、図16の写真シール作成装置1により実行される表示処理について説明する。図17の表示処理は、例えば、図15に示される撮影画面においてライブビュー画像531−2が表示される際に実行される。
<Display Process by Photo Sticker Making Device of the Present Invention>
Next, with reference to the flowchart of FIG. 17, the display process performed by the photo sticker creation apparatus 1 of FIG. 16 will be described. The display process in FIG. 17 is executed, for example, when the live view image 531-2 is displayed on the shooting screen shown in FIG.

ステップS71において、合成処理部611は、取り込み画像として、カメラ91により取り込まれたライブビュー画像における利用者の顔を認識する。顔認識は、顔の各部位(目や鼻など)の相対位置や大きさ、形状、顔の輪郭などの特徴を抽出することで行われる。顔認識によれば、顔の数(すなわち利用者の人数)、顔の向き、性別や年齢、表情などを推定することができる。   In step S71, the composition processing unit 611 recognizes the user's face in the live view image captured by the camera 91 as the captured image. Face recognition is performed by extracting features such as the relative position and size of each part of the face (such as eyes and nose), shape, and face contour. According to face recognition, the number of faces (that is, the number of users), face orientation, gender, age, facial expression, and the like can be estimated.

ステップS72において、合成処理部611は、利用者の顔の認識結果に基づいて、利用者が4人以下であるか否かを判定する。4人以下であると判定された場合、処理はステップS33に進む。   In step S72, the composition processing unit 611 determines whether there are four or less users based on the recognition result of the user's face. If it is determined that there are four or less, the process proceeds to step S33.

なお、利用者の顔の認識結果ではなく、既に行われた撮影により得られた撮影画像に写る人物の数により、利用者の人数が判定されるようにしてもよい。   It should be noted that the number of users may be determined based on the number of persons appearing in a captured image obtained by already performed shooting, instead of the recognition result of the user's face.

ステップS73において、合成処理部611は、利用者の顔の部位に対応するスタンプ画像を、ライブビュー画像において認識された利用者の顔の部位に合成する。このとき、合成処理部611は、認識された利用者の顔の大きさおよび向きに応じて、スタンプ画像の大きさおよび向きを調整して、そのスタンプ画像を、ライブビュー画像において対応する利用者の顔の部位に合成する。   In step S73, the composition processing unit 611 synthesizes the stamp image corresponding to the user's face part with the user's face part recognized in the live view image. At this time, the composition processing unit 611 adjusts the size and orientation of the stamp image in accordance with the recognized size and orientation of the user's face, and uses the stamp image in the user corresponding to the live view image. Synthesize to the face part of.

なお、利用者の顔の向きには、ライブビュー画像における2次元平面上の向きに加え、顔を左右に振る向きや、上下にうなずく向きも含まれる。この場合、スタンプ画像は、ライブビュー画像における2次元平面上の向きに加え、見た目上、奥行き方向にも変形するように、その向きが調整される。したがって、例えば、利用者の顔が斜め横を向いている場合に、その目の部分に合成されるスタンプ画像は、利用者の顔が正面を向いている場合に合成されるスタンプ画像と比べて、縦につぶれて見えるような形状となる。また、利用者の顔が斜め上を向いている場合に、その目の部分に合成されるスタンプ画像は、利用者の顔が正面を向いている場合に合成されるスタンプ画像と比べて、横につぶれて見えるような形状となる。   Note that the orientation of the user's face includes not only the orientation on the two-dimensional plane in the live view image, but also the orientation of shaking the face left and right and the orientation of nodding up and down. In this case, the orientation of the stamp image is adjusted so as to be deformed in the depth direction in addition to the orientation on the two-dimensional plane in the live view image. Therefore, for example, when the user's face is facing obliquely sideways, the stamp image combined with the eye portion is compared with the stamp image combined when the user's face is facing front. It becomes a shape that seems to collapse vertically. Also, when the user's face is facing diagonally upward, the stamp image that is combined with the eye portion is horizontal compared to the stamp image that is combined when the user's face is facing the front. The shape looks like it is crushed.

また、ここでは、スタンプ画像は、静止画像であるものとするが、アニメーション画像であってもよい。   Here, the stamp image is assumed to be a still image, but may be an animation image.

ステップS74において、表示制御部612は、スタンプ画像が合成されたライブビュー画像を、タッチパネルモニタ92として構成されるモニタ613に表示させる。   In step S <b> 74, the display control unit 612 displays the live view image combined with the stamp image on the monitor 613 configured as the touch panel monitor 92.

なお、ライブビュー画像は、リアルタイムで表示される動画像であるので、ステップS33においては、スタンプ画像は、ライブビュー画像における利用者の動きに合わせて(追従して)、その大きさおよび向きが調整されながら合成される。この場合、動画像を構成するフレーム画像のうちの所定枚数のフレーム画像毎に動き量の平均値を求め、その平均値に基づいて、スタンプ画像の大きさおよび向きを調整するようにしてもよい。   Since the live view image is a moving image displayed in real time, in step S33, the stamp image has a size and orientation that matches (follows) the movement of the user in the live view image. Synthesized while adjusting. In this case, an average value of the motion amount may be obtained for each predetermined number of frame images constituting the moving image, and the size and orientation of the stamp image may be adjusted based on the average value. .

一方、ステップS72において、利用者の人数が4人以下でない、すなわち5人より多いと判定された場合、ライブビュー画像上にはスタンプ画像が表示されず、処理は終了する。   On the other hand, if it is determined in step S72 that the number of users is not four or less, that is, more than five, no stamp image is displayed on the live view image, and the process ends.

以上の処理によれば、図15の撮影画面に表示されるライブビュー画像において、2人の利用者の動きに合わせて、利用者の頭それぞれに、利用者の顔の大きさおよび向きに応じたスタンプ画像551が合成されて表示されるようになるので、利用者に、ライブビュー画像上にあらかじめ表示されたスタンプ画像に合わせて立ち位置や姿勢を変えさせる必要もなく、より簡単に、面白味のある画像を提供することが可能となる。   According to the above processing, in the live view image displayed on the shooting screen of FIG. 15, each user's head is matched with the size and orientation of the user's face in accordance with the movement of the two users. Since the stamp image 551 is synthesized and displayed, there is no need for the user to change the standing position and posture according to the stamp image displayed in advance on the live view image, and it is easier and more interesting. It is possible to provide a certain image.

また、利用者の人数が多い場合に、利用者それぞれの顔にスタンプ画像が合成されると、最終的に得られる撮影画像の見た目が煩雑な印象になるおそれがある。そこで、以上の処理においては、利用者の人数が5人より多い場合には、スタンプ画像は表示されないようになされるので、最終的に得られる撮影画像の見た目が煩雑な印象になることを避けることができるようになる。   In addition, when the number of users is large and the stamp image is combined with each user's face, the appearance of the finally obtained captured image may be complicated. Therefore, in the above processing, when the number of users is more than five, the stamp image is not displayed, so that the appearance of the finally obtained captured image is avoided from being complicated. Will be able to.

なお、図15の例では、利用者それぞれの顔の位置に応じて、スタンプ画像の形状が変形されるようになされている。具体的には、利用者それぞれの顔の位置が所定の距離より近い場合、利用者それぞれの頭に合成されるスタンプ画像551のキャップのつばが、それぞれ外側(利用者のいない方向)に向くように、スタンプ画像551の形状が変形される。   In the example of FIG. 15, the shape of the stamp image is deformed according to the position of each user's face. Specifically, when the position of each user's face is closer than a predetermined distance, the cap collar of the stamp image 551 synthesized on each user's head is directed outward (in the direction where there is no user). In addition, the shape of the stamp image 551 is deformed.

これにより、利用者それぞれの頭に、スタンプ画像551同士が重なることなく合成されるようになる。   As a result, the stamp images 551 are combined with each other without overlapping each other.

なお、利用者の人数が3人以上の場合には、両端にいる利用者以外の利用者の頭に合成されるスタンプ画像551のキャップのつばが、少なくとも隣にいる利用者の頭に合成されるスタンプ画像551に重ならないように、その形状が変形されるようになされる。例えば、スタンプ画像として、髪型のポニーテールを模したスタンプ画像が利用者の頭に合成されるような場合でも、そのポニーテールの部分が、少なくとも隣にいる利用者の頭に合成されるスタンプ画像に重ならないように、その形状が変形されるようになされる。   When the number of users is three or more, the collars of the caps of the stamp image 551 that are combined with the heads of users other than the users at both ends are combined with at least the heads of the adjacent users. The shape is deformed so as not to overlap the stamp image 551. For example, even when a stamp image imitating a ponytail of a hairstyle is synthesized on the user's head as a stamp image, the ponytail portion overlaps at least the stamp image synthesized on the head of the adjacent user. The shape is deformed so that it does not become.

また、スタンプ画像551同士が重なった場合には、その旨を報知するメッセージが撮影画面上に表示されたり、音声がスピーカ233から出力されるようにしてもよいし、スタンプ画像551のいずれか一方の重なっている部分や全体が消去されるようにしてもよい。   In addition, when the stamp images 551 overlap with each other, a message notifying that effect may be displayed on the shooting screen, sound may be output from the speaker 233, or either one of the stamp images 551 may be displayed. The overlapping part or the whole may be erased.

さらに、利用者の顔の向きや大きさと、合成されるスタンプ画像の形状によっては、ライブビュー画像において、その合成されるスタンプ画像の一部が途切れて表示されるようにしてもよい。また、この場合、合成されるスタンプ画像の形状が適切になるように、「少し下がってね!」などと、利用者に立ち位置の変更を促すメッセージが撮影画面上に表示されたり、音声がスピーカ233から出力されるようにしてもよい。   Furthermore, depending on the orientation and size of the user's face and the shape of the combined stamp image, a part of the combined stamp image may be displayed in a live view image. Also, in this case, a message prompting the user to change the standing position is displayed on the shooting screen, such as “Please lower a little!” So that the shape of the combined stamp image is appropriate, You may make it output from the speaker 233. FIG.

以上においては、利用者の顔の所定の部位として、利用者の頭に合成されるスタンプ画像の例について説明してきたが、利用者の頭以外の他の部位に合成されるスタンプ画像が用意されるようにしてもよい。   In the above, an example of a stamp image synthesized on the user's head as a predetermined part of the user's face has been described, but a stamp image synthesized on other parts other than the user's head is prepared. You may make it do.

図18乃至図22は、他のスタンプ画像が合成されているライブビュー画像の例を示している。   18 to 22 show examples of live view images in which other stamp images are combined.

図18の例では、ライブビュー画像531に映る2人の利用者それぞれの両眼の部分に、炎を模したスタンプ画像631が、前景画像として合成されている。   In the example of FIG. 18, a stamp image 631 that imitates a flame is synthesized as a foreground image on both eyes of each of two users shown in the live view image 531.

ライブビュー画像531において、スタンプ画像631は、利用者それぞれの顔の大きさおよび向きに応じてその大きさおよび向きが調整されて、利用者それぞれの両眼の位置に合成されている。   In the live view image 531, the stamp image 631 is synthesized in the position of both eyes of each user, with the size and orientation adjusted according to the size and orientation of each user's face.

図19の例では、ライブビュー画像531に映る2人の利用者それぞれの両眼の部分に、サングラスを模したスタンプ画像632が、前景画像として合成されている。   In the example of FIG. 19, a stamp image 632 simulating sunglasses is synthesized as a foreground image on each of both eyes of two users shown in the live view image 531.

ライブビュー画像531において、スタンプ画像632は、利用者それぞれの顔の大きさおよび向きに応じてその大きさおよび向きが調整されて、利用者それぞれの両眼の位置に合成されている。   In the live view image 531, the stamp image 632 is combined with the position of both eyes of each user, with the size and orientation adjusted according to the size and orientation of each user's face.

図20の例では、ライブビュー画像531に映る2人の利用者それぞれの口の部分に、唇を模したスタンプ画像633が、前景画像として合成されている。   In the example of FIG. 20, a stamp image 633 simulating lips is synthesized as a foreground image on each mouth portion of two users shown in the live view image 531.

ライブビュー画像531において、スタンプ画像633は、利用者それぞれの顔の大きさおよび向きに応じてその大きさおよび向きが調整されて、利用者それぞれの口の位置に合成されている。   In the live view image 531, the stamp image 633 is synthesized in the position of each user's mouth, with the size and orientation adjusted according to the size and orientation of each user's face.

図21の例では、ライブビュー画像531に映る2人の利用者それぞれの頭の部分に、金髪の女性のかつらを模したスタンプ画像634が、前景画像として合成されている。   In the example of FIG. 21, a stamp image 634 simulating a blond female wig is synthesized as a foreground image on the head of each of the two users shown in the live view image 531.

ライブビュー画像531において、スタンプ画像634は、利用者それぞれの顔の大きさおよび向きに応じてその大きさおよび向きが調整されて、利用者それぞれの頭の位置に合成されている。   In the live view image 531, the stamp image 634 is combined with the position of the head of each user, with the size and orientation adjusted according to the size and orientation of each user's face.

なお、上述したスタンプ画像は、事前接客処理において選択されたセット背景によって決まるものとされるが、利用者が複数の場合には、利用者毎に異なるスタンプ画像が合成されるようにしてもよい。具体的には、利用者毎に、顔認識により識別された利用者それぞれの性別や年齢に応じたスタンプ画像が合成されるようにする。   The above-described stamp image is determined by the set background selected in the pre-service process. However, when there are a plurality of users, different stamp images may be combined for each user. . Specifically, a stamp image corresponding to the gender and age of each user identified by face recognition is synthesized for each user.

例えば、顔認識により、図22に示されるライブビュー画像531に映る2人の利用者のうち、右側の利用者が女性として識別され、左側の利用者が男性として識別された場合には、右側の利用者の頭の部分には、金髪の女性のかつらを模したスタンプ画像634が合成され、左側の利用者の頭の部分には、男性のかつらを模したスタンプ画像635が合成される。   For example, when two users appearing in the live view image 531 shown in FIG. 22 are identified by the face recognition, the right user is identified as a female and the left user is identified as a male. A stamp image 634 simulating a blond female wig is synthesized with the head portion of the user, and a stamp image 635 simulating a male wig is synthesized with the head portion of the left user.

なお、利用者それぞれの性別や年齢は、顔認識により識別されるのではなく、撮影前などに利用者自身に選択させるようにしてもよい。この場合、右側の利用者は女性で、左側の利用者は男性、などといった利用者の位置関係を変えないように、利用者に対して立ち位置を案内するガイダンスが出力されるようにする。   Note that the gender and age of each user may not be identified by face recognition, but may be selected by the user himself before shooting. In this case, guidance for guiding the user's standing position is output so as not to change the positional relationship of the user such that the right user is a female and the left user is a male.

また、上述したスタンプ画像以外にも、利用者の鼻の部分や耳の部分に合成されるスタンプ画像が用意されるようにしてもよい。   In addition to the above-described stamp image, a stamp image to be combined with the user's nose portion or ear portion may be prepared.

なお、ライブビュー画像において顔認識が正しく行われず、顔の部位の一部が検出されなかった場合には、検出された部位に対応するスタンプ画像が合成されるようにしてもよい。例えば、利用者が目を閉じている場合に、サングラスを模したスタンプ画像が合成されるのではなく、かつらを模したスタンプ画像が合成されるようにする。   If face recognition is not correctly performed in the live view image and a part of the face is not detected, a stamp image corresponding to the detected part may be synthesized. For example, when the user closes his eyes, a stamp image simulating sunglasses is not synthesized, but a stamp image simulating a wig is synthesized.

また、顔認識により利用者の笑顔のレベルを判定し、判定されたレベルによって合成されるスタンプ画像が変更されるようにしてもよい。   Further, the smile level of the user may be determined by face recognition, and the stamp image to be combined may be changed based on the determined level.

さらに、利用者それぞれの顔の位置に応じて、合成されるスタンプ画像が変更されるようにしてもよい。利用者それぞれの顔の位置が所定の距離より近い場合、利用者それぞれは、親しい友達同士またはカップルであると推測されるので、例えば、図15の例において、キャップを模したスタンプ画像551それぞれに代えて、2人の利用者の頭を覆う相合傘を模したスタンプ画像が合成されるようにしてもよい。   Furthermore, the stamp image to be combined may be changed according to the position of each user's face. When each user's face position is closer than a predetermined distance, each user is assumed to be a close friend or a couple. For example, in the example of FIG. 15, each stamp image 551 imitating a cap is used. Instead, a stamp image imitating a combined umbrella covering the heads of two users may be synthesized.

以上のようにして、より面白味のある画像を提供することが可能となる。   As described above, it is possible to provide a more interesting image.

以上においては、ライブビュー画像として、アップ撮影が行われる際のライブビュー画像の表示の例について説明してきたが、全身撮影が行われる際のライブビュー画像には、顔以外の、手や足、腰などの利用者の身体の所定の部位に対応するスタンプ画像(例えば、手袋やブーツ、しっぽなどを模したスタンプ画像)が合成されるようにしてもよい。この場合、ライブビュー画像において、利用者の身体を認識するために、肌色領域の識別や、モーションキャプチャなどを用いた人物検出処理の結果に基づいて、スタンプ画像が合成される。   In the above, an example of displaying a live view image when up-shooting is performed as a live view image has been described, but a live view image when performing full-body shooting includes hands, feet, A stamp image corresponding to a predetermined part of the user's body such as the waist (for example, a stamp image simulating gloves, boots, a tail, etc.) may be synthesized. In this case, in order to recognize the user's body in the live view image, the stamp image is synthesized based on the result of person detection processing using identification of the skin color area, motion capture, or the like.

なお、以上において、ライブビュー画像に表示されるスタンプ画像を表示させないようにするボタンを、撮影画面上に設けるようにしてもよい。   In the above description, a button for preventing the stamp image displayed in the live view image from being displayed may be provided on the shooting screen.

また、上述で説明したスタンプ画像は、撮影結果としての撮影画像にも合成され、そのスタンプ画像が合成された撮影画像は、編集処理における編集の対象となる。   In addition, the stamp image described above is also synthesized with a photographed image as a photographing result, and the photographed image obtained by synthesizing the stamp image is an object to be edited in the editing process.

<編集画面の例>
ここで、図23を参照して、編集処理において表示される編集画面の例について説明する。
<Example of editing screen>
Here, an example of an editing screen displayed in the editing process will be described with reference to FIG.

編集画面は、主な構成が、一部を除き左右に2つずつ設けられているが、図23に示される編集画面は、タブレット内蔵モニタ131に表示される編集画面の左半分のみを示している。   The editing screen is provided with two main configurations except for a part, but the editing screen shown in FIG. 23 shows only the left half of the editing screen displayed on the tablet built-in monitor 131. Yes.

編集対象画像表示領域711には、その上側に示される、7枚の撮影画像のうちの6枚の撮影画像に対応するサムネイル画像P1乃至P6の中から利用者が選択したサムネイル画像に対応する撮影画像が、編集対象画像として表示される。   In the image to be edited display area 711, a photograph corresponding to a thumbnail image selected by the user from thumbnail images P1 to P6 corresponding to six photographed images of the seven photographed images shown on the upper side is displayed. An image is displayed as an image to be edited.

図23の例では、編集対象画像における2人の利用者それぞれの頭の部分にスタンプ画像551が、編集対象画像のほぼ中央にスタンプ画像552がそれぞれ合成されている。   In the example of FIG. 23, the stamp image 551 is combined with the head portion of each of the two users in the editing target image, and the stamp image 552 is combined approximately at the center of the editing target image.

編集対象画像表示領域711の左側には、サーバに送信するための画像の編集を行うときに操作されるケータイおまけボタン712と、編集対象画像に対して、所定の落書き編集を1回の操作で行うときに操作される一発らくがきボタン713が表示される。   On the left side of the editing target image display area 711, a mobile phone bonus button 712 that is operated when editing an image to be transmitted to the server, and a predetermined graffiti editing for the editing target image can be performed by one operation. A one-time scribing button 713 operated when performing is displayed.

ケータイおまけボタン712が操作されると、ケータイおまけ(携帯端末用の待受画像や、メールやブログ等に添付される画像)の作成を行うことができる。また、一発らくがきボタン713が操作されると、複数の合成用画像が合成された編集済み画像を1回の操作で作成することができる。   When the mobile phone bonus button 712 is operated, a mobile phone bonus (a standby image for a mobile terminal or an image attached to an e-mail, a blog, or the like) can be created. Further, when the one-time scribing button 713 is operated, an edited image in which a plurality of compositing images are combined can be created by a single operation.

さらに、一発らくがきボタン713の下側には、7枚の撮影画像のうちの、サムネイル画像P1乃至P6として表示されない1枚の撮影画像に対して、その撮影画像専用の落書き編集を行うときに操作される特別らくがきボタン714が表示される。   Further, on the lower side of the one-time scribing button 713, when the graffiti editing dedicated to the photographed image is performed on one photographed image that is not displayed as the thumbnail images P1 to P6 among the seven photographed images. A special graffiti button 714 to be operated is displayed.

編集対象画像表示領域711の下側には、編集対象画像表示領域711に表示されている編集対象画像に対して、落書き編集を行うための編集機能を提供する編集ツールを利用者に選択させるための編集用パレット715が表示されている。   Below the editing target image display area 711, the user selects an editing tool that provides an editing function for performing graffiti editing on the editing target image displayed in the editing target image display area 711. The editing palette 715 is displayed.

編集用パレット715には、編集ツールが、「おすすめ」、「ペン」、「スタンプ」、「メッセージ」、「メイクアップ」、「いたずら」といったカテゴリ毎のタブで分類されて表示されるようになされており、図23の例では、「いたずら」タブが選択されている。   In the editing palette 715, editing tools are classified and displayed in tabs for each category such as “Recommendation”, “Pen”, “Stamp”, “Message”, “Makeup”, and “Prank”. In the example of FIG. 23, the “mischievous” tab is selected.

さらに、図23に示されるように、「いたずら」タブには、編集ツールが、「一発いたずら」、「いたずら」、「おそろい」、「ふきだし」、「サングラス・めがね」といった、種類毎のボタンで分類されて表示されるようになされており、図23の例では、編集用パレット715において、「一発いたずら」ボタンが選択されている。   Further, as shown in FIG. 23, the “mischievous” tab includes editing tools such as “one-shot mischief”, “mischievous”, “match”, “balloon”, and “sunglasses / glasses”. In the example of FIG. 23, the “one shot mischief” button is selected in the editing palette 715.

「一発いたずら」ボタンが選択されている編集用パレット715には、グループ毎に分類された複数のスタンプ画像の集合として、メガネスタンプ画像群731、つけ耳スタンプ画像群732、はなスタンプ画像群733、およびパーツスタンプ画像群734が表示されている。   In the editing palette 715 for which the “one shot mischief” button has been selected, as a set of a plurality of stamp images classified for each group, a glasses stamp image group 731, a fake ear stamp image group 732, and a Hana stamp image group 733 and a part stamp image group 734 are displayed.

ここでは、グループ(スタンプ画像群)それぞれに含まれるスタンプ画像として、編集対象画像における利用者の所定の部位、具体的には顔の部位に対応して分類されたスタンプ画像が表示される。そして、いずれかのスタンプ画像が選択されると、編集処理部303によって、顔認識処理に基づいて顔の各部位が認識された上で、選択されたスタンプ画像が、そのグループに対応する顔の部位に合成される。   Here, as the stamp images included in each group (stamp image group), stamp images classified according to a predetermined part of the user in the image to be edited, specifically, a part of the face, are displayed. When one of the stamp images is selected, each part of the face is recognized by the editing processing unit 303 based on the face recognition process, and the selected stamp image is displayed on the face corresponding to the group. Synthesized at the site.

例えば、メガネスタンプ画像群731は、編集対象画像における利用者の目の部分に合成される、メガネやサングラスを模したスタンプ画像のグループに分類される合成用画像からなる。編集用パレット715において、メガネスタンプ画像群731に含まれるいずれかのスタンプ画像が選択されると、そのスタンプ画像が、編集対象画像表示領域711に表示されている編集対象画像における利用者それぞれの目の部分に、一括して合成される。   For example, the glasses stamp image group 731 is composed of images for synthesis classified into a group of stamp images imitating glasses and sunglasses, which are synthesized with the eyes of the user in the editing target image. When one of the stamp images included in the glasses stamp image group 731 is selected in the editing palette 715, the stamp image is displayed on each of the user's eyes in the editing target image displayed in the editing target image display area 711. This part is synthesized in a lump.

なお、「一発いたずら」ボタンによる編集機能は、図16を参照して説明した構成において、取り込み画像を編集対象画像として、図17を参照して説明した表示処理が行われるようにすることで実現することができる。   Note that the editing function using the “one shot mischief” button is such that the display process described with reference to FIG. 17 is performed with the captured image as the editing target image in the configuration described with reference to FIG. Can be realized.

さて、編集対象画像表示領域711の右側上方には、撮影処理において利用者の顔の部位に合成されたその部位に対応するスタンプ画像の一部または全部を消去するための消しゴムボタン716が設けられている。   An eraser button 716 for erasing a part or all of the stamp image corresponding to the part of the user's face combined with the part of the user's face in the photographing process is provided above the right side of the edit target image display area 711. ing.

ここで、図24を参照して、消しゴムボタン716の詳細について説明する。   Here, the details of the eraser button 716 will be described with reference to FIG.

消しゴムボタン716には、くっつきイタズラ消しゴムボタン751、フレーム消しゴムボタン752、および専用消しゴムボタン753が設けられている。   The eraser button 716 is provided with a sticking and mischievous eraser button 751, a frame eraser button 752, and a dedicated eraser button 753.

くっつきイタズラ消しゴムボタン751は、撮影処理において利用者の顔の部位に合成されたその部位に対応するスタンプ画像を消去するためのボタンである。なお、撮影処理において利用者の顔の部位に合成されたその部位に対応するスタンプ画像を、以下適宜、くっつきイタズラという。   The sticking and mischievous eraser button 751 is a button for erasing a stamp image corresponding to the part of the user's face synthesized in the photographing process. Note that the stamp image corresponding to the part of the user's face in the imaging process is hereinafter referred to as “sticking mischief” as appropriate.

図24の左側に示されるように、くっつきイタズラ消しゴムボタン751に「くっつきイタズラ消す」と表示されている状態で、利用者の入力によりくっつきイタズラ消しゴムボタン751が押下されると、編集対象画像におけるくっつきイタズラが消去され、くっつきイタズラ消しゴムボタン751の表示が、図24の右側に示されるように、「くっつきイタズラ戻す」に変わる。   As shown on the left side of FIG. 24, when the sticking / erasing eraser button 751 is pressed by the user's input in a state where “sticking / erasing / erasing” button 751 is displayed, the sticking / erasing button 751 is stuck in the editing target image. The mischief is erased, and the display of the sticky mischief eraser button 751 changes to “return sticky mischief” as shown on the right side of FIG.

逆に、図24の右側に示されるように、くっつきイタズラ消しゴムボタン751に「くっつきイタズラ戻す」と表示されている状態で、利用者の入力によりくっつきイタズラ消しゴムボタン751が押下されると、編集対象画像において消去されたくっつきイタズラが再び表示され、くっつきイタズラ消しゴムボタン751の表示が、図24の左側に示されるように、「くっつきイタズラ消す」に変わる。   On the contrary, as shown in the right side of FIG. 24, when the sticking / erasing eraser button 751 is pressed by the user's input in the state where the sticking / erasing eraser button 751 is displayed as “return to sticking / missing”, the editing target is displayed. The stuck mischief erased in the image is displayed again, and the display of the stuck mischievous eraser button 751 changes to “tacking mischief mischief” as shown on the left side of FIG.

フレーム消しゴムボタン752は、くっつきイタズラに加えて、撮影処理において2人の利用者の位置、顔の大きさや向きによらず、予め決められた位置に合成されたスタンプ画像(例えばスタンプ画像552)を消去するためのボタンである。   The frame eraser button 752 displays a stamp image (for example, a stamp image 552) combined at a predetermined position in the shooting process regardless of the position of the two users and the size and orientation of the face in addition to the sticking and mischief. It is a button for deleting.

図24の左側に示されるように、フレーム消しゴムボタン752に「フレーム消す」と表示されている状態で、利用者の入力によりフレーム消しゴムボタン752が押下されると、編集対象画像における、撮影処理において合成されたスタンプ画像が全て消去され、フレーム消しゴムボタン752の表示が、図24の右側に示されるように、「フレーム戻す」に変わる。   As shown on the left side of FIG. 24, when the frame eraser button 752 is pressed by a user input while the frame eraser button 752 is displayed as “frame erase”, in the shooting process on the image to be edited. All the combined stamp images are erased, and the display of the frame eraser button 752 changes to “return to frame” as shown on the right side of FIG.

逆に、図24の右側に示されるように、フレーム消しゴムボタン752に「フレーム戻す」と表示されている状態で、利用者の入力によりフレーム消しゴムボタン752が押下されると、編集対象画像において消去された撮影処理において合成されたスタンプ画像が再び表示され、フレーム消しゴムボタン752の表示が、図24の左側に示されるように、「フレーム消す」に変わる。   On the contrary, as shown on the right side of FIG. 24, when the frame eraser button 752 is pressed by the user's input while “return frame” is displayed on the frame eraser button 752, the image to be edited is erased. The stamp image synthesized in the photographing process is displayed again, and the display of the frame eraser button 752 changes to “frame erase” as shown on the left side of FIG.

専用消しゴムボタン753は、くっつきイタズラを含む、撮影処理において合成されたスタンプ画像を部分的に消去するためのボタンである。タッチペン132Aまたは132Bにより、専用消しゴムボタン753が押下され、編集対象画像に合成されているくっつきイタズラなどの、撮影処理において合成されたスタンプ画像の一部が選択されることで、これらのスタンプ画像において選択された部分が消去される。   The dedicated eraser button 753 is a button for partially erasing the stamp image synthesized in the photographing process including the sticking-up mischief. When the dedicated eraser button 753 is pressed by the touch pen 132A or 132B and a part of the stamp image synthesized in the photographing process such as the sticking mischief synthesized in the image to be edited is selected, these stamp images The selected part is erased.

以上のように、撮影処理において合成されたスタンプ画像は、利用者の入力に応じて編集されるようになされている。   As described above, the stamp image synthesized in the photographing process is edited according to the user's input.

なお、編集用パレット715に表示されるスタンプ画像として、撮影処理において合成されたスタンプ画像(くっつきイタズラ)と同一のスタンプ画像を用意するようにし、そのスタンプ画像が選択されると、顔認識処理に基づいて顔の各部位が認識された上で、選択されたスタンプ画像が、対応する顔の部位に合成されるようにしてもよい。これにより、撮影処理において、くっつきイタズラが合成される位置がずれた場合であっても、編集処理においてその位置を適切な位置に修正することができるようになる。なお、編集処理においては、利用者の入力によって、くっつきイタズラが合成される位置が決定されるようにしてもよい。   It should be noted that, as a stamp image displayed on the editing palette 715, a stamp image identical to the stamp image (sticking mischief) synthesized in the photographing process is prepared, and when the stamp image is selected, the face recognition process is performed. The selected stamp image may be combined with the corresponding facial part after each part of the face is recognized based on the recognition result. As a result, even if the position at which the sticking mischief is combined is shifted in the photographing process, the position can be corrected to an appropriate position in the editing process. In the editing process, the position at which the sticking mischief is combined may be determined by a user input.

さらに、編集画面において、編集対象画像に合成されているスタンプ画像の位置を微調整するための微調整ボタンを設けるようにすることでも、撮影処理において、くっつきイタズラが合成される位置がずれた場合であっても、編集処理においてその位置を適切な位置に修正することができるようになる。   Furthermore, when the fine adjustment button for finely adjusting the position of the stamp image combined with the image to be edited is provided on the editing screen, the position where the sticking mischief is combined in the shooting process is shifted. Even so, the position can be corrected to an appropriate position in the editing process.

<コラージュ撮影画像の例>
上述したように、撮影処理においては、7回目の撮影としてコラージュ撮影が行われ、コラージュ撮影画像が得られる。
<Example of collage image>
As described above, in the shooting process, collage shooting is performed as the seventh shooting, and a collage shooting image is obtained.

ここで、図25および図26を参照して、コラージュ撮影画像の例について説明する。   Here, an example of a collage photographed image will be described with reference to FIGS. 25 and 26.

図25の例では、コラージュ撮影画像810の左側に、撮影画像811,812が、互いに隣接するように縦に配置され、コラージュ撮影画像810の右側に、撮影画像813,814,815が、互いに隣接するように縦に配置されている。撮影画像811,812と撮影画像813,814,815との間には、所定のデザインが施されたデザイン画像が配置されている。   In the example of FIG. 25, the captured images 811 and 812 are arranged vertically so as to be adjacent to each other on the left side of the collage captured image 810, and the captured images 813, 814, and 815 are adjacent to each other on the right side of the collage captured image 810. Are arranged vertically. A design image having a predetermined design is arranged between the captured images 811 and 812 and the captured images 813, 814 and 815.

撮影画像811乃至815は、いずれも7回目の撮影により得られた7枚目の撮影画像であり、撮影画像811乃至813,815はその一部分、撮影画像814はその全部とされる。なお、撮影画像811と撮影画像815とは、7枚目の撮影画像をある位置で分断した画像であり、撮影画像812と撮影画像813とは、7枚目の撮影画像を他のある位置で分断した画像である。すなわち、撮影画像811と撮影画像815とをそれぞれ組み合わせた画像、撮影画像812と撮影画像813とをそれぞれ組み合わせた画像は、いずれも7枚目の撮影画像となる。   The captured images 811 to 815 are all the seventh captured images obtained by the seventh capturing, and the captured images 811 to 813 and 815 are a part thereof, and the captured image 814 is all of them. The captured image 811 and the captured image 815 are images obtained by dividing the seventh captured image at a certain position, and the captured image 812 and the captured image 813 are the seventh captured image at another certain position. This is a divided image. That is, the image obtained by combining the photographed image 811 and the photographed image 815 and the image obtained by combining the photographed image 812 and the photographed image 813 are both the seventh photographed image.

図26の例では、コラージュ撮影画像820の左側に、撮影画像821が配置され、コラージュ撮影画像820の右側に、撮影画像822乃至824が、互いに隣接するように縦に配置されている。撮影画像821と撮影画像822乃至824との間には、所定のデザインが施されたデザイン画像が配置されている。   In the example of FIG. 26, the captured image 821 is disposed on the left side of the collage captured image 820, and the captured images 822 to 824 are vertically disposed on the right side of the collage captured image 820 so as to be adjacent to each other. A design image having a predetermined design is arranged between the captured image 821 and the captured images 822 to 824.

撮影画像821乃至824もまた、いずれも7回目の撮影により得られた7枚目の撮影画像であり、撮影画像822乃至824はその一部分、撮影画像821はその全部とされる。なお、撮影画像822乃至824は、いずれも7枚目の撮影画像の同一の一部分とされ、それぞれに異なる画像処理(画像の明るさや透明感、色調を変更するフィルタ加工)が施されている。   Each of the captured images 821 to 824 is also a seventh captured image obtained by the seventh capturing operation. The captured images 822 to 824 are a part of the captured image and the captured image 821 is the entire captured image. The photographed images 822 to 824 are all the same part of the seventh photographed image, and are each subjected to different image processing (filter processing for changing the brightness, transparency, and color tone of the image).

このように、本実施の形態の写真シール作成装置1におけるコラージュ撮影によれば、利用者に対して、従来にない仕上がりの画像を提供することができるようになる。   As described above, according to the collage shooting in the photo sticker creating apparatus 1 of the present embodiment, it is possible to provide a user with an image with a finish that has never been achieved.

なお、上述した例では、コラージュ撮影画像に配置される撮影画像は、7回目の撮影により得られた1枚の撮影画像を基にしたものとしたが、1回目から7回目の撮影により得られた7枚の撮影画像が配置されるようにしてもよい。   In the above-described example, the photographed image arranged in the collage photographed image is based on one photographed image obtained by the seventh photographing, but is obtained by the first to seventh photographing. Alternatively, seven photographed images may be arranged.

また、上述した例では、コラージュ撮影画像に配置される複数の撮影画像は、互いに隣接するように縦に配置されるものとしたが、横に配置されるようにしてもよいし、行列状に配置されるようにしてもよい。   In the above-described example, the plurality of photographed images arranged in the collage photographed image are arranged vertically so as to be adjacent to each other, but may be arranged horizontally or in a matrix form. It may be arranged.

また、7回目の撮影(コラージュ撮影)の際にも、ライブビュー画像に、所定のくっつきイタズラ(顔の所定の部位に対応するスタンプ画像)が合成されるようにしてもよい。この場合、コラージュ撮影画像には、くっつきイタズラの合成が反映される撮影画像と、くっつきイタズラの合成が反映されない撮影画像とが配置されるようにしてもよい。   Also, at the time of the seventh shooting (collage shooting), a predetermined sticking prank (a stamp image corresponding to a predetermined part of the face) may be combined with the live view image. In this case, in the collage photographed image, a photographed image that reflects the composition of the sticking and mischief and a photographed image that does not reflect the composition of the sticking and mischief may be arranged.

なお、以上のように、撮影処理より先に行われる事前接客処理において、背景画像(セット背景)を利用者に選択させた上で、撮影処理より後に行われる編集処理において、背景画像(セット背景)を利用者に再び選択させることで、撮影画像に合成された背景画像を変更させるようにしてもよい。   As described above, in the pre-service process performed before the shooting process, the background image (set background) is selected in the editing process performed after the shooting process after the user selects a background image (set background). ) May be selected again to change the background image combined with the captured image.

また、撮影処理より先に行われる事前接客処理において、背景画像(セット背景)を利用者に選択させるのではなく、撮影処理より後に行われる編集処理において、背景画像(セット背景)を利用者に選択させるようにしてもよい。   In addition, in the pre-service process performed before the shooting process, the user does not select the background image (set background), but in the editing process performed after the shooting process, the background image (set background) is displayed to the user. You may make it select.

この場合、例えば、セット背景選択画面に表示されるセット背景を構成する背景画像それぞれに、撮影処理により得られた撮影画像それぞれが合成されるようにしてもよい。   In this case, for example, each of the captured images obtained by the imaging process may be combined with each of the background images constituting the set background displayed on the set background selection screen.

<他の実施の形態>
ところで、上述した実施の形態の写真シール作成装置においては、事前接客部208において事前接客処理が行われるものとしたが、事前接客部208を設けず、事前接客処理が行われないようにしてもよい。この場合、硬貨投入返却口74が撮影部21に設けられ、硬貨処理部221が撮影部209に設けられるようにする。
<Other embodiments>
By the way, in the photo sticker creating apparatus of the above-described embodiment, the pre-serving process is performed in the pre-service section 208, but the pre-service section 208 is not provided and the pre-service process is not performed. Good. In this case, the coin insertion / return port 74 is provided in the photographing unit 21, and the coin processing unit 221 is provided in the photographing unit 209.

すなわち、図11のフローチャートを参照して説明した写真シール作成装置1の処理では、ステップS1において、撮影処理部302が、撮影空間において所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定する。硬貨が投入されたと判定された場合、ステップS2乃至S4はスキップされ、それ以降の撮影処理や編集処理が行われる。   That is, in the processing of the photo sticker creating apparatus 1 described with reference to the flowchart of FIG. 11, in step S1, the photographing processing unit 302 determines whether or not a predetermined amount of coins has been inserted in the photographing space. The determination is made based on the signal supplied from 221. If it is determined that a coin has been inserted, steps S2 to S4 are skipped, and the subsequent shooting process and editing process are performed.

<撮影処理の流れ>
ここで、図27のフローチャートを参照して、本実施の形態における撮影処理の流れについて説明する。
<Flow of shooting process>
Here, with reference to the flowchart of FIG. 27, the flow of the imaging process in the present embodiment will be described.

ステップS111において、撮影処理部302は、コース選択画面をタッチパネルモニタ92に表示させる。コース選択画面は、利用者の人数に応じた撮影コースの選択に用いられる画面である。   In step S <b> 111, the imaging processing unit 302 displays a course selection screen on the touch panel monitor 92. The course selection screen is a screen used for selecting a shooting course according to the number of users.

図28は、コース選択画面の例を示す図である。   FIG. 28 is a diagram illustrating an example of a course selection screen.

コース選択画面の中央上方には「撮りたいコースを選んでね」のメッセージが表示され、その下方左側には、2人用コースを選択するときに操作(選択)される選択ボタン901が設けられる。選択ボタン901には、2人用コースで撮影を行ったときに得られる画像のサンプルが表示されている。また、選択ボタン901の右側には、カップルコースを選択するときに操作される選択ボタン902が設けられる。選択ボタン902には、カップルコースで撮影を行ったときに得られる画像のサンプルが表示されている。   A message “Please select the course you want to shoot” is displayed at the upper center of the course selection screen, and a selection button 901 that is operated (selected) when selecting a two-person course is provided on the lower left side of the message. . The selection button 901 displays a sample of an image obtained when shooting is performed in a course for two people. A selection button 902 that is operated when selecting a couple course is provided on the right side of the selection button 901. The selection button 902 displays a sample of an image obtained when shooting is performed in a couple course.

コース選択画面の下方には、3人用コースを選択するときに操作される選択ボタン903、4人用コースを選択するときに操作される選択ボタン904、および、証明写真コースを選択するときに操作される選択ボタン905が、横に並んで設けられる。選択ボタン903には、3人用コースで撮影を行ったときに得られる画像のサンプルが表示され、選択ボタン904には、4人用コースで撮影を行ったときに得られる画像のサンプルが表示されている。また、選択ボタン905には、証明写真コースで撮影を行ったときに得られる画像のサンプルが表示されている。   Below the course selection screen, a selection button 903 that is operated when selecting a course for three persons, a selection button 904 that is operated when selecting a course for four persons, and an ID photo course are selected. A selection button 905 to be operated is provided side by side. The selection button 903 displays a sample of an image obtained when shooting in a course for three people, and the selection button 904 displays a sample of an image obtained when shooting in a course for four people. Has been. The selection button 905 displays a sample of an image obtained when the ID photo course is taken.

詳細な説明は省略するが、証明写真コースは、証明写真に利用可能な証明写真用画像の提供を受けるためのコースであり、証明写真コースにおいては、証明写真のためにあらかじめ決められたポーズをとって行う撮影、その撮影によって得られた撮影画像の中から選択された証明写真用画像の調整、そして、調整後の証明写真用画像の印刷の処理が行われる。   Although the detailed explanation is omitted, the ID photo course is a course for receiving ID photo images that can be used for ID photos. In the ID photo course, a predetermined pose for the ID photo is provided. The process of taking the image, adjusting the ID photo image selected from the photo images obtained by the image taking, and printing the adjusted ID photo image are performed.

なお、以下においては、証明写真コース以外の撮影コースが選択された場合の処理について説明する。   In the following, processing when a shooting course other than the ID photo course is selected will be described.

ステップS112において、撮影処理部302は、コース選択画面において選択されたコースに応じた撮影を行う。   In step S112, the imaging processing unit 302 performs imaging according to the course selected on the course selection screen.

例えば、2人用コース、カップルコース、および3人用コースが選択された場合には、全部で7回の撮影が行われ、4人用コースが選択された場合には、全部で6回の撮影が行われる。また、2人用コースおよびカップルコース、3人用コース、4人用コースのそれぞれのコースにおいて得られる撮影画像は、その縦横比がそれぞれ異なるものとなる。具体的には、人数が多いコースほど、得られる撮影画像は横長の画像となる。   For example, when a course for 2 people, a couple course, and a course for 3 people are selected, a total of 7 shootings are performed, and when a course for 4 people is selected, a total of 6 times is taken. Shooting is performed. In addition, the captured images obtained in the courses of two-person course, couple course, three-person course, and four-person course have different aspect ratios. Specifically, as the number of people increases, the obtained captured image becomes a horizontally long image.

それぞれのコースにおいて、1回目の撮影により得られた撮影画像は、後述する編集処理において行われるレタッチ処理の対象となる。レタッチ処理は、利用者の操作に基づいて、撮影画像における被写体(利用者)の所定の部分に対して加工を施す処理とされる。   In each course, a photographed image obtained by the first photographing is a target of a retouch process performed in an editing process described later. The retouch process is a process for processing a predetermined portion of a subject (user) in a captured image based on a user operation.

また、それぞれのコースにおいて、最後の撮影(すなわち、2人用コース、カップルコース、および3人用コースが選択された場合には7回目の撮影、4人用コースが選択された場合には6回目の撮影)は、携帯端末に送信するための画像を得るための撮影とされる。   Further, in each course, the last shooting (that is, the seventh shooting when the two-person course, the couple course, and the three-person course are selected, and the sixth shooting when the four-person course is selected). The second shooting) is shooting for obtaining an image to be transmitted to the mobile terminal.

なお、硬貨が投入されてから、1回目の撮影が行われるまでに所定の時間が経過した場合には、最後の撮影より1回前の撮影(すなわち、2人用コース、カップルコース、および3人用コースが選択された場合には6回目の撮影、4人用コースが選択された場合には5回目の撮影)はスキップされる。   If a predetermined time elapses after the coin is inserted and before the first shooting is performed, shooting one time before the last shooting (that is, two-person course, couple course, and 3 When the human course is selected, the sixth shooting is skipped, and when the four-person course is selected, the fifth shooting) is skipped.

以上のようにして、撮影処理が行われる。   The photographing process is performed as described above.

<編集処理の流れ>
次に、図29のフローチャートを参照して、本実施の形態における編集処理の流れについて説明する。
<Editing process flow>
Next, the flow of editing processing in the present embodiment will be described with reference to the flowchart in FIG.

編集処理が開始されると、ステップS131において、編集処理部303は、タブレット内蔵モニタ131に名前入力画面を表示させる。名前入力画面は、利用者の名前の入力に用いられる画面である。   When the editing process is started, in step S131, the editing processing unit 303 displays a name input screen on the tablet built-in monitor 131. The name input screen is a screen used for inputting a user's name.

ステップS132において、編集処理部303は、タブレット内蔵モニタ131に性別選択画面を表示させる。性別選択画面は、利用者の性別の選択に用いられる画面である。なお、性別選択画面は、撮影処理においてカップルコースが選択された場合のみ表示され、撮影処理において、2人用コース、3人用コース、または4人用コースが選択された場合には、ステップS132はスキップされる。   In step S <b> 132, the edit processing unit 303 displays a sex selection screen on the tablet built-in monitor 131. The gender selection screen is a screen used for selecting the gender of the user. The sex selection screen is displayed only when a couple course is selected in the shooting process. If a course for two, three, or four is selected in the shooting process, step S132 is displayed. Is skipped.

図30は、性別選択画面の例を示す図である。   FIG. 30 is a diagram illustrating an example of a sex selection screen.

性別選択画面の中央上方には「性別を選んでね」のメッセージが表示され、その下方には、顔画像表示領域911Lと顔画像表示領域911Rとが離れて設けられる。顔画像表示領域911Lは、撮影処理における1回目の撮影により得られた2人の利用者が写る撮影画像からトリミングされた、左側に写る人物の顔が拡大して表示される領域である。また、顔画像表示領域911Rは、右側に写る人物の顔が拡大して表示される領域である。   A message “Please choose gender” is displayed at the upper center of the gender selection screen, and a face image display area 911L and a face image display area 911R are provided separately below. The face image display area 911L is an area in which a face of a person shown on the left side, which is trimmed from a shot image showing two users obtained by the first shooting in the shooting process, is enlarged and displayed. The face image display area 911R is an area in which the face of a person shown on the right side is displayed in an enlarged manner.

また、顔画像表示領域911Lの左側、顔画像表示領域911Rの右側には、それぞれ性別選択ボタン912L,912Rが設けられる。性別選択ボタン912L,912Rは、それぞれ対応する顔画像表示領域911L,911Rに表示されている人物の性別を選択するためのボタンである。性別選択ボタン912L,912Rの一方において、「女」および「男」のいずれかが選択されると、性別選択ボタン912L,912Rの他方においては、性別選択ボタン912L,912Rの一方において選択されなかった性別が自動的に選択されるようになされる。   Gender selection buttons 912L and 912R are provided on the left side of the face image display area 911L and on the right side of the face image display area 911R, respectively. The sex selection buttons 912L and 912R are buttons for selecting the gender of the person displayed in the corresponding face image display areas 911L and 911R, respectively. When either “female” or “male” is selected on one of the sex selection buttons 912L, 912R, the other of the sex selection buttons 912L, 912R is not selected on one of the sex selection buttons 912L, 912R. The gender is automatically selected.

図30の例では、顔画像表示領域911Lに男性の顔が表示され、性別選択ボタン912Lにおいては「男」が選択されている。一方、顔画像表示領域911Rに女性の顔が表示され、性別選択ボタン912Rにおいては「女」が選択されている。   In the example of FIG. 30, a male face is displayed in the face image display area 911L, and “male” is selected in the sex selection button 912L. On the other hand, a female face is displayed in the face image display area 911R, and “female” is selected in the sex selection button 912R.

ここで選択された性別に基づいて、後述する落書き編集処理の際に、タブレット内蔵モニタ131に対する立ち位置に応じた編集ツールが提供されるようになる。   Based on the gender selected here, an editing tool corresponding to the standing position with respect to the tablet built-in monitor 131 is provided in the graffiti editing process described later.

ステップS133において、編集処理部303は、タブレット内蔵モニタ131にレタッチ画面を表示させる。レタッチ画面は、撮影画像に写る被写体(利用者)毎に、被写体の目の大きさや明るさ、顔の大きさ、肌の明るさの変更を受け付けるための画面である。レタッチ画面には、撮影処理における1回目の撮影により得られた撮影画像から被写体それぞれの顔の領域がトリミングされた画像が表示される。レタッチ画面に対して、利用者が所定の操作を行うことで、撮影画像それぞれにおける被写体の目の大きさや明るさ、顔の大きさ、肌の明るさを変更するレタッチ処理が施される。   In step S133, the edit processing unit 303 displays a retouch screen on the tablet built-in monitor 131. The retouch screen is a screen for accepting changes in the size and brightness of the subject's eyes, the size of the face, and the brightness of the skin for each subject (user) that appears in the captured image. On the retouch screen, an image obtained by trimming the face area of each subject from the photographed image obtained by the first photographing in the photographing process is displayed. When the user performs a predetermined operation on the retouch screen, a retouch process is performed to change the size and brightness of the subject's eyes, the size of the face, and the brightness of the skin in each captured image.

ステップS134において、編集処理部303は、タブレット内蔵モニタ131にセット背景選択画面を表示させる。   In step S134, the edit processing unit 303 displays a set background selection screen on the tablet built-in monitor 131.

セット背景が選択されると、タブレット内蔵モニタ131やスピーカ241などが制御されて、落書き作業の流れを案内する画像や音声が出力されることにより、利用者に対して落書き作業のガイダンスが行われる。   When the set background is selected, the tablet built-in monitor 131, the speaker 241 and the like are controlled, and images and voices for guiding the flow of the graffiti work are output, so that the graffiti work guidance is given to the user. .

その後、ステップS135において、編集処理部303は、タブレット内蔵モニタ131に編集画面を表示させる。   Thereafter, in step S135, the editing processing unit 303 displays an editing screen on the tablet built-in monitor 131.

そして、ステップS136において、編集処理部303は、編集部210Aまたは編集部210B(利用者が編集作業を行う方)の各部を制御して、利用者による撮影画像に対する落書き作業を受け付ける落書き編集処理を行う。   In step S136, the editing processing unit 303 controls each unit of the editing unit 210A or the editing unit 210B (one in which the user performs editing work), and performs a graffiti editing process for receiving a graffiti work on the photographed image by the user. Do.

落書き作業が終了すると、ステップS137において、編集処理部303は、タブレット内蔵モニタ131に分割数選択画面を表示させる。分割数選択画面は、シール紙の分割数を選択させるための画面であり、利用者によりシール紙の分割数が選択されることで、シールレイアウトが決定される。   When the graffiti work is completed, in step S137, the editing processing unit 303 displays a division number selection screen on the tablet built-in monitor 131. The division number selection screen is a screen for selecting the division number of the sticker paper, and the sticker layout is determined by the user selecting the division number of the sticker paper.

ステップS138において、編集処理部303は、タブレット内蔵モニタ131に携帯送信確認画面を表示させる。携帯送信確認画面は、撮影処理により得られた撮影画像や、編集処理により得られる編集済み画像を、外部のサーバを介して利用者の所有する携帯電話機等の携帯端末に送信するか否かを、利用者に選択させるための画面である。   In step S138, the edit processing unit 303 causes the tablet built-in monitor 131 to display a mobile transmission confirmation screen. The mobile transmission confirmation screen displays whether a captured image obtained by the photographing process or an edited image obtained by the editing process is transmitted to a portable terminal such as a cellular phone owned by the user via an external server. This is a screen for letting the user select.

以上のようにして、編集処理が行われる。   The editing process is performed as described above.

<セット背景選択画面の例>
ここで、図29の編集処理のステップS134において表示されるセット背景選択画面について説明する。
<Example of set background selection screen>
Here, the set background selection screen displayed in step S134 of the editing process of FIG. 29 will be described.

(2人用コース、3人用コース、または4人用コースのセット背景選択画面の例)
図31は、撮影処理において2人用コース、3人用コース、または4人用コースが選択された場合に表示されるセット背景選択画面の例を示している。
(Example of set background selection screen for 2-person course, 3-person course, or 4-person course)
FIG. 31 shows an example of a set background selection screen that is displayed when a course for two people, a course for three people, or a course for four people is selected in the photographing process.

セット背景選択画面の上方中央には、「好きなセット背景を選んでね」のメッセージが表示され、その下に、6枚の撮影画像が2行3列に配置されて表示される。上述したように、セット背景は、あらかじめ設定された背景画像のセットであり、所定のテーマに沿って選択された複数の背景画像から構成される。撮影画像が6枚の場合、1つのセット背景は6枚の背景画像の組み合わせによって構成される。利用者は、撮影画像921−1乃至921−6に合成するセット背景をセット背景選択画面において選択することができる。   In the upper center of the set background selection screen, a message “Please choose your favorite set background” is displayed, and below it, six captured images are displayed in 2 rows and 3 columns. As described above, the set background is a set of preset background images, and is composed of a plurality of background images selected along a predetermined theme. When there are six captured images, one set background is composed of a combination of six background images. The user can select a set background to be combined with the captured images 921-1 to 921-6 on the set background selection screen.

6枚の撮影画像の上段には、左から順に撮影画像921−1乃至921−3が配置され、下段には、左から順に撮影画像921−4乃至921−6が配置される。撮影画像921−1乃至921−6は、例えば撮影順に配置される。撮影画像921−1乃至921−6に写る利用者の背景は、背景画像が選択されることに応じて即時に変更される。   The photographed images 921-1 to 921-3 are arranged in order from the left in the upper part of the six photographed images, and the photographed images 921-4 to 921-6 are arranged in order from the left in the lower part. The captured images 921-1 to 921-6 are arranged in the order of shooting, for example. The background of the user shown in the captured images 921-1 to 921-6 is immediately changed according to the selection of the background image.

撮影画像921−1乃至921−6の下側には、選択肢としてのセット背景が表示される横長の領域であるセット背景パレット922が設けられ、撮影画像921−1乃至921−6の右側には、セット背景パレット922において選択されているセット背景を、撮影画像921−1乃至921−6に合成されるセット背景として決定するためのOKボタン923が設けられている。   Below the photographed images 921-1 to 921-6, a set background palette 922, which is a horizontally long area in which a set background as an option is displayed, is provided, and on the right side of the photographed images 921-1 to 921-6. In addition, an OK button 923 for determining the set background selected in the set background palette 922 as a set background to be combined with the captured images 921-1 to 921-6 is provided.

セット背景パレット922には、セット背景が、「いたずら」、「パステル」、「ビビッド」、「カラー」といったジャンル毎のタブに表示されるようになされており、図31の例では、「カラー」タブが選択されている。「カラー」タブには、「モノクロセット」、「グレーホワイトセット」、「ヌーディーセット」、「パステルセット」、「グレー×ピンクセット」、「パステルブルーセット」、「ミントパステルセット」、「モノトーンwallセット」の8つのセット背景931乃至938がテーマ毎に表示されている。   In the set background palette 922, the set background is displayed on tabs for each genre such as “naughty”, “pastel”, “vivid”, and “color”. In the example of FIG. The tab is selected. The “Color” tab includes “Monochrome Set”, “Gray White Set”, “Nudy Set”, “Pastel Set”, “Gray x Pink Set”, “Pastel Blue Set”, “Mint Pastel Set”, “Monotone Wall” Eight set backgrounds 931 to 938 of “set” are displayed for each theme.

「カラー」タブに表示されるセット背景931乃至938それぞれには、色の種類を表すテーマが与えられており、「カラー」タブに表示されるセット背景931乃至938は、それぞれテーマに合った、統一感のある6枚の背景画像が配置されて構成される。   Each of the set backgrounds 931 to 938 displayed on the “Color” tab is given a theme indicating the type of color, and each of the set backgrounds 931 to 938 displayed on the “Color” tab is in accordance with the theme. Six background images with a sense of unity are arranged.

さらに、セット背景パレット922の右下方には、人物ONボタン941および人物OFFボタン942が設けられている。人物ONボタン941が選択されると、セット背景パレット922に表示されているセット背景931乃至938に表示されているセット背景それぞれは、6枚の撮影画像が合成された状態で表示される。人物OFFボタン942が選択されると、それぞれのセット背景は、6枚の撮影画像が合成されていない状態で表示される。   Further, a person ON button 941 and a person OFF button 942 are provided on the lower right side of the set background palette 922. When the person ON button 941 is selected, each of the set backgrounds displayed on the set backgrounds 931 to 938 displayed on the set background palette 922 is displayed in a state where six photographed images are combined. When the person OFF button 942 is selected, each set background is displayed in a state in which six photographed images are not combined.

図31の例では、人物OFFボタン942が選択されており、セット背景パレット922に表示されているセット背景931乃至938それぞれは、6枚の撮影画像が合成されていない状態で表示されている。   In the example of FIG. 31, the person OFF button 942 is selected, and each of the set backgrounds 931 to 938 displayed on the set background palette 922 is displayed in a state where six photographed images are not combined.

図32は、図31の状態から人物ONボタン941が選択された場合のセット背景選択画面の例を示しており、セット背景パレット922に表示されているセット背景931乃至938それぞれは、6枚の撮影画像が合成された状態で表示されている。   FIG. 32 shows an example of a set background selection screen when the person ON button 941 is selected from the state of FIG. 31. Each of the set backgrounds 931 to 938 displayed on the set background palette 922 has six sheets. The captured image is displayed in a synthesized state.

このように、セット背景パレット922に表示される選択肢としてのセット背景それぞれを、撮影画像と合成させて表示させることで、利用者は、セット背景を合成させた後の撮影画像の仕上がりを確認しながら、セット背景を選択することができる。   Thus, by displaying each set background as an option displayed on the set background palette 922 in combination with the captured image, the user can confirm the finish of the captured image after combining the set background. The set background can be selected.

なお、セット背景において、背景画像それぞれは、合成される撮影画像の撮影順に配置されるものとする。   Note that, in the set background, the background images are arranged in the shooting order of the shot images to be combined.

図33は、セット背景パレット922において「いたずら」タブが選択されている場合のセット背景選択画面の例を示している。   FIG. 33 shows an example of a set background selection screen when the “mischievous” tab is selected in the set background palette 922.

「いたずら」タブには、「いたずらセット1」、「いたずらセット2」、「いたずらセット3」、「いたずらセット4」、「いたずらセット5」、「いたずらセット6」、「いたずらセット7」、「いたずらセット8」の8つのセット背景951乃至958がテーマ毎に表示されている。「いたずら」タブに表示されるセット背景951乃至958それぞれには、イラストや図柄によって面白さを表現する種々のテーマが与えられている。「いたずら」タブに表示されるセット背景951乃至958もまた、それぞれテーマに合った、統一感のある6枚の背景画像が配置されて構成される。   In the “Prank” tab, “Prank Set 1”, “Prank Set 2”, “Prank Set 3”, “Prank Set 4”, “Prank Set 5”, “Prank Set 6”, “Prank Set 7”, “ Eight set backgrounds 951 to 958 of “Naughty set 8” are displayed for each theme. Each of the set backgrounds 951 to 958 displayed on the “Naughty” tab is given various themes that express the fun with illustrations and designs. The set backgrounds 951 to 958 displayed on the “Mischief” tab are also configured by arranging six background images with a sense of unity that match each theme.

なお、セット背景パレット922において「いたずら」タブが選択されている場合、セット背景パレット922に、人物ONボタン941および人物OFFボタン942は設けられず、セット背景パレット922に表示されているセット背景951乃至958それぞれは、6枚の撮影画像が合成された状態で表示されている。   When the “mischievous” tab is selected in the set background palette 922, the set background palette 922 is not provided with the person ON button 941 and the person OFF button 942, and the set background 951 displayed on the set background palette 922 is displayed. Each of 958 to 958 is displayed in a state where six photographed images are combined.

すなわち、「いたずら」タブが選択されているセット背景パレット922において、セット背景951乃至958それぞれは、常に6枚の撮影画像が合成された状態で表示されることになる。   That is, in the set background palette 922 in which the “mischievous” tab is selected, each of the set backgrounds 951 to 958 is always displayed in a state where six captured images are combined.

また、「いたずら」タブが選択されているセット背景パレット922に表示されるセット背景を構成する背景画像として、撮影画像における被写体の背景に合成される画像に加え、被写体の前景に合成されるスタンプ画像やフレーム画像といった前景画像を含む背景画像が用意されている。この前景画像もまた、セット背景それぞれのテーマに合ったものとされる。なお、セット背景を構成する6枚全ての背景画像に前景画像が含まれるものとするが、6枚のうちの所定枚数の背景画像に前景画像が含まれるようにしてもよい。   Further, as a background image constituting the set background displayed on the set background palette 922 in which the “mischievous” tab is selected, in addition to an image combined with the background of the subject in the photographed image, a stamp combined with the foreground of the subject Background images including foreground images such as images and frame images are prepared. This foreground image is also adapted to the theme of each set background. It is assumed that the foreground image is included in all six background images constituting the set background, but the foreground image may be included in a predetermined number of background images among the six background images.

具体的には、図34に示されるように、図33のセット背景選択画面に表示される撮影画像921−1に写る2人の利用者それぞれの頭には、ウサギの耳を模したスタンプ画像961が、撮影画像921−1の下方には、ハート型のスタンプ画像962および所定の文字列を含むスタンプ画像963が、それぞれ前景画像として合成されている。   Specifically, as shown in FIG. 34, stamp images simulating the ears of rabbits are placed on the heads of the two users shown in the photographed image 921-1 displayed on the set background selection screen of FIG. 961 is below the photographed image 921-1, a heart-shaped stamp image 962 and a stamp image 963 including a predetermined character string are respectively synthesized as a foreground image.

撮影画像921−1において、スタンプ画像961は、利用者それぞれの顔(頭)の大きさおよび向きに応じてその大きさおよび向きが調整されて、利用者それぞれの頭の位置に合成されている。一方、スタンプ画像962,963は、2人の利用者の位置、顔の大きさや向きによらず、予め決められた位置に合成されている。   In the photographed image 921-1, the stamp image 961 is synthesized in the position of each user's head, with the size and orientation adjusted according to the size and orientation of each user's face (head). . On the other hand, the stamp images 962 and 963 are synthesized at predetermined positions regardless of the positions of the two users and the size and orientation of the faces.

また、図35に示されるように、図33のセット背景選択画面に表示される撮影画像921−4に写る2人の利用者それぞれの鼻と両頬には、犬や猫などの動物の鼻とひげを模したスタンプ画像971が、撮影画像921−4の下方には、所定の文字列を含むスタンプ画像972が、それぞれ前景画像として合成されている。   Further, as shown in FIG. 35, the nose and both cheeks of the two users shown in the captured image 921-4 displayed on the set background selection screen of FIG. 33 are the noses of animals such as dogs and cats. A stamp image 971 imitating a beard is combined with a stamp image 972 including a predetermined character string below the photographed image 921-4 as a foreground image.

撮影画像921−4において、スタンプ画像971は、利用者それぞれの顔の大きさおよび向きに応じてその大きさおよび向きが調整されて、利用者それぞれの鼻および両頬の位置に合成されている。一方、スタンプ画像972は、2人の利用者の位置、顔の大きさや向きによらず、予め決められた位置に合成されている。   In the photographed image 921-4, the size and direction of the stamp image 971 are adjusted according to the size and direction of each user's face, and are combined at the positions of the user's nose and both cheeks. . On the other hand, the stamp image 972 is synthesized at a predetermined position regardless of the positions of the two users and the size and orientation of the face.

なお、図34および図35を参照して説明したスタンプ画像の他にも、口紅を塗った唇を模したリップ画像や、利用者の頬に施されるチークを模したチーク画像など、化粧に関するスタンプ画像を用意してもよい。このようなスタンプ画像により、普段化粧をしない女子高生などの利用者に対して、利用者自身があたかも化粧を施したような撮影画像を提供することができ、利用者の満足度を向上させることができる。   In addition to the stamp image described with reference to FIGS. 34 and 35, the lip image imitating lipstick and the cheek image imitating the cheek applied to the user's cheek, etc. A stamp image may be prepared. With such a stamp image, it is possible to provide a photographed image as if the user himself / herself applied makeup to high school girls and other users who do not usually make up, and to improve user satisfaction Can do.

また、図34のスタンプ画像962,963や、図35のスタンプ画像972は、予め決められた位置に合成されるものとしたが、撮影画像における利用者の位置に応じて、例えば利用者の顔に重ならない位置などに配置されて合成されるようにしてもよい。   Further, the stamp images 962 and 963 in FIG. 34 and the stamp image 972 in FIG. 35 are synthesized at predetermined positions, but depending on the position of the user in the captured image, for example, the face of the user It may be arranged in a position where it does not overlap with the image.

なお、図33の例では、撮影画像921−1乃至921−3,921−5,921−6の被写体は、いずれも同一のポーズおよび配置で写っているが、実際にはそれぞれ異なるポーズおよび配置で写ることになる。したがって、前景画像としてのスタンプ画像は、撮影画像それぞれに写る被写体(利用者)のポーズや配置に応じた大きさ、向き、および位置に調整されて、撮影画像それぞれに合成されるようになる。   In the example of FIG. 33, the subjects of the captured images 921-1 to 921-3, 921-5, and 921-6 are all shown in the same pose and arrangement, but actually, different poses and arrangements are used. It will be reflected in. Therefore, the stamp image as the foreground image is adjusted to the size, orientation, and position according to the pose and arrangement of the subject (user) that appears in each captured image, and is combined with each captured image.

この「いたずら」タブにおける表示機能は、図16を参照して説明した構成において、取り込み画像を撮影画像として、図17を参照して説明した表示処理が行われるようにすることで実現することができる。   The display function in the “mischievous” tab can be realized by performing the display process described with reference to FIG. 17 using the captured image as the captured image in the configuration described with reference to FIG. it can.

なお、図31乃至図33の例において、セット背景パレット922において「パステル」タブまたは「ビビッド」タブが選択された場合には、「カラー」タブが選択された場合と同様、セット背景パレット922の右下方には、人物ONボタン941および人物OFFボタン942が表示されるものとする。   In the example of FIGS. 31 to 33, when the “pastel” tab or the “vivid” tab is selected in the set background palette 922, the case of the set background palette 922 is the same as when the “color” tab is selected. It is assumed that a person ON button 941 and a person OFF button 942 are displayed on the lower right.

また、図29の編集処理のステップS134において、セット背景選択画面が最初に表示された状態(初期状態)では、セット背景パレット922において「いたずら」タブが選択されているものとする。   Also, in step S134 of the editing process of FIG. 29, it is assumed that the “mischievous” tab is selected in the set background palette 922 when the set background selection screen is initially displayed (initial state).

以上においては、撮影処理において2人用コース、3人用コース、または4人用コースが選択された場合に表示されるセット背景選択画面の例について説明してきたが、以下においては、撮影処理においてカップルコースが選択された場合に表示されるセット背景選択画面の例について説明する。   In the above, the example of the set background selection screen displayed when the course for 2 persons, the course for 3 persons, or the course for 4 persons is selected in the shooting process has been described. An example of a set background selection screen displayed when a couple course is selected will be described.

(カップルコースのセット背景選択画面の例)
図36は、撮影処理においてカップルコースが選択された場合に表示されるセット背景選択画面の例を示している。
(Example of couple background set background selection screen)
FIG. 36 shows an example of a set background selection screen displayed when a couple course is selected in the shooting process.

図36に示されるセット背景選択画面は、図31などに示されるセット背景選択画面と基本的に同様にして構成されるが、セット背景パレット922において、「いたずら」タブ、「パステル」タブ、「ビビッド」タブ、および「カラー」タブに加え、「カップル」タブが設けられている点で異なる。   The set background selection screen shown in FIG. 36 is configured basically in the same manner as the set background selection screen shown in FIG. 31 and the like, but in the set background palette 922, the “naughty” tab, “pastel” tab, “ In addition to the “Vivid” tab and the “Color” tab, a “Couple” tab is provided.

図36の例では、「カップル」タブが選択されている。「カップル」タブには、上述した「いたずら」タブにも表示される「いたずらセット1」、「いたずらセット2」、「いたずらセット3」、「いたずらセット4」の4つのセット背景951乃至954に加え、「カップル」タブ独自の「カップルセット1」、「カップルセット2」、「カップルセット3」、「カップルセット4」の4つのセット背景981乃至984が表示されている。   In the example of FIG. 36, the “couple” tab is selected. In the “couple” tab, there are four set backgrounds 951 to 954 of “mischievous set 1”, “mischievous set 2”, “mischievous set 3”, and “mischievous set 4” displayed on the “mischievous” tab described above. In addition, four set backgrounds 981 to 984 of “couple set 1”, “couple set 2”, “couple set 3”, and “couple couple 4” unique to the “couple” tab are displayed.

「カップル」タブに表示されるセット背景981乃至984それぞれには、例えばカップルの中の良さを表すテーマが与えられている。「カップル」タブに表示されるセット背景981乃至984は、それぞれテーマに合った、統一感のある6枚の背景画像が配置されて構成される。   Each of the set backgrounds 981 to 984 displayed on the “Couple” tab is given, for example, a theme representing the goodness of the couple. The set backgrounds 981 to 984 displayed on the “Couple” tab are configured by arranging six background images with a sense of unity that match each theme.

また、セット背景パレット922の右下方には、人物ONボタン941および人物OFFボタン942が設けられている。人物ONボタン941および人物OFFボタン942により、セット背景パレット922に表示されているセット背景のうち、セット背景981乃至984それぞれを、6枚の撮影画像が合成された状態で表示させたり、6枚の撮影画像が合成されていない状態で表示させたりすることができる。   A person ON button 941 and a person OFF button 942 are provided at the lower right of the set background palette 922. With the person ON button 941 and the person OFF button 942, among the set backgrounds displayed on the set background palette 922, each of the set backgrounds 981 to 984 is displayed in a state where six photographed images are combined, or six sheets are displayed. Can be displayed in a state where the captured images are not synthesized.

なお、セット背景パレット922に表示されているセット背景のうち、セット背景951乃至954それぞれは、人物ONボタン941および人物OFFボタン942によらず、常に6枚の撮影画像が合成された状態で表示される。   Of the set backgrounds displayed on the set background palette 922, each of the set backgrounds 951 to 954 is displayed in a state in which six photographed images are always combined regardless of the person ON button 941 and the person OFF button 942. Is done.

このように、セット背景パレット922において「カップル」タブが選択されている場合、セット背景パレット922には、カップルについてのテーマに沿ったセット背景と、「いたずら」タブのテーマに沿ったセット背景とが混在して表示されるようになる。   As described above, when the “couple” tab is selected in the set background palette 922, the set background palette 922 includes a set background according to the theme about the couple, and a set background according to the theme of the “naughty” tab. Are displayed together.

この「カップル」タブにおける表示機能も、「いたずら」タブにおける表示機能と同様、図16を参照して説明した構成において、取り込み画像を撮影画像として、図17を参照して説明した表示処理が行われるようにすることで実現することができる。   The display function in the “couple” tab is the same as the display function in the “mischievous” tab, and the display process described with reference to FIG. 17 is performed using the captured image as the captured image in the configuration described with reference to FIG. It can be realized by making it.

なお、カップルコースにおいては、「いたずら」タブなどに表示されるセット背景を構成する、前景画像を含む背景画像が撮影画像に合成される際、その前景画像は、合成される被写体(利用者)の性別によって異なるものになる。例えば、撮影画像に、上述したリップ画像を含む背景画像が合成される場合、女性に利用者の唇の部分には、口紅を厚めに塗った唇を模したリップ画像が合成され、男性の利用者の唇の部分には、口紅を薄めに塗った唇をリップ画像が合成されるようにする。   In a couple course, when a background image including a foreground image that constitutes a set background displayed on a “mischief” tab or the like is combined with a photographed image, the foreground image is combined with a subject (user) It depends on gender. For example, when a background image including the above-described lip image is combined with a photographed image, a lip image imitating a lip with a thick lipstick is combined with a lip portion of a user for a woman, and the use of a man A lip image is synthesized on the lip portion of the person's lips with a lip painted thinly.

また、カップルコースにおいては、図29の編集処理のステップS134において、セット背景選択画面が最初に表示された状態(初期状態)では、セット背景パレット922において「カップル」タブが選択されているものとする。   In the couple course, when the set background selection screen is initially displayed (initial state) in step S134 of FIG. 29, the “couple” tab is selected in the set background palette 922. To do.

なお、本実施の形態におけるセット背景選択画面においては、セット背景パレット922に表示される所定のセット背景が選択された状態でOKボタン923が操作されることで、選択されたセット背景が、撮影画像に合成させるセット背景として決定されるものとする。なお、セット背景選択画面が表示されてから所定時間内にOKボタン923が操作されなかった場合、その時点で選択されているセット背景が、撮影画像に合成させるセット背景として決定されるものとする。   In the set background selection screen in the present embodiment, the OK button 923 is operated in a state where a predetermined set background displayed on the set background palette 922 is selected, so that the selected set background is captured. Assume that the set background to be combined with the image is determined. If the OK button 923 is not operated within a predetermined time after the set background selection screen is displayed, the set background selected at that time is determined as the set background to be combined with the captured image. .

また、上述した説明では、「いたずら」タブが選択されているセット背景パレット922には、人物ONボタン941および人物OFFボタン942が表示されないものとしたが、人物ONボタン941および人物OFFボタン942が表示されるようにしてもよい。この場合、人物OFFボタン942が選択されることにより、背景画像に合成された被写体(利用者)とともに、背景画像に含まれるスタンプ画像(前景画像)が表示されなくなるようにしてもよい。   In the above description, the person ON button 941 and the person OFF button 942 are not displayed on the set background palette 922 in which the “tamper” tab is selected. However, the person ON button 941 and the person OFF button 942 are not displayed. It may be displayed. In this case, by selecting the person OFF button 942, the stamp image (foreground image) included in the background image may not be displayed together with the subject (user) combined with the background image.

さらに、上述した説明では、撮影画像に写る被写体(利用者)それぞれに、顔の所定の部位に対応するスタンプ画像が合成されるものとするが、利用者が所定の人数より多い場合には、撮影画像上にスタンプ画像が合成されないようにしてもよいし、「いたずら」タブ自体が表示されないようにしてもよい。   Furthermore, in the above description, it is assumed that a stamp image corresponding to a predetermined part of the face is combined with each subject (user) shown in the captured image, but when there are more users than a predetermined number, The stamp image may not be combined with the photographed image, or the “mischievous” tab itself may not be displayed.

なお、以上においては、セット背景選択画面においてセット背景を選択させることで、複数の撮影画像に対応する背景画像を一括で選択させるようにしたが、複数の撮影画像に対応する背景画像を個別に選択させるようにしてもよい。   In the above, the background image corresponding to a plurality of photographed images is selected at a time by selecting the set background on the set background selection screen. However, the background images corresponding to the plurality of photographed images are individually selected. You may make it select.

さらに、上述で説明した前景画像を含む背景画像においては、背景画像と前景画像とは1対1で対応付けられているものとするが、1つの背景画像に対して、その背景画像のテイストに合致する複数の前景画像を対応付けるようにしてもよい。この場合、その背景画像については、複数の前景画像から、撮影画像に合成させる前景画像を利用者に選択させるようにする。   Further, in the background image including the foreground image described above, the background image and the foreground image are associated with each other on a one-to-one basis. A plurality of matching foreground images may be associated. In this case, with respect to the background image, the user selects a foreground image to be combined with a captured image from a plurality of foreground images.

また、事前接客処理が行われるようにし、その事前接客処理において、背景画像(セット背景)を利用者に選択させるようにした場合、図31などのセット背景選択画面には、利用者が写る撮影画像921−1乃至921−6に代えて、モデルを被写体としたモデル画像が表示されるようにしてもよい。ここで、モデル画像に、前景画像としてのスタンプ画像を含む背景画像が合成される場合、モデル画像において、そのスタンプ画像は、モデルそれぞれの顔の大きさおよび向きに応じてその大きさおよび向きが調整されて、モデルの顔の所定の位置に合成される。なお、撮影時のライブビュー画像は、例えば図15などを参照して説明した形態と同様にして表示される。   Further, when the pre-service process is performed and the user is allowed to select a background image (set background) in the pre-service process, the set background selection screen shown in FIG. Instead of the images 921-1 to 921-6, a model image with the model as a subject may be displayed. Here, when a background image including a stamp image as a foreground image is combined with a model image, in the model image, the stamp image has a size and direction corresponding to the size and orientation of each face of the model. It is adjusted and synthesized at a predetermined position of the model face. The live view image at the time of shooting is displayed in the same manner as described with reference to FIG.

以上においては、撮影画像として、アップ撮影が行われた場合の撮影画像の表示の例について説明してきたが、全身撮影が行われた場合の撮影画像には、顔以外の、手や足、腰などの利用者の身体の所定の部位に対応するスタンプ画像(例えば、手袋やブーツ、しっぽなどを模したスタンプ画像)が合成されるようにしてもよい。この場合、撮影画像において、利用者の身体を認識するために、肌色領域の識別や、所定の人物検出処理の結果に基づいて、スタンプ画像が合成される。   In the above, an example of displaying a captured image when the up-shooting is performed as the captured image has been described. However, the captured image when the whole-body shooting is performed includes hands, feet, and hips other than the face. A stamp image corresponding to a predetermined part of the user's body (for example, a stamp image imitating a glove, boot, tail, etc.) may be synthesized. In this case, in order to recognize the user's body in the captured image, the stamp image is synthesized based on the identification of the skin color area and the result of the predetermined person detection process.

さらに、以上においては、撮影コースによって撮影画像の縦横比が異なるため、その縦横比に応じて、「いたずら」タブに表示されるセット背景を構成する背景画像に含まれるスタンプ画像が変更されるようにしてもよい。例えば、撮影画像の縦横比が縦長である場合、「いたずら」タブに表示されるセット背景を構成する背景画像に含まれるスタンプ画像を縦方向に長さのあるスタンプ画像に代えるようにしてもよい。   Furthermore, in the above, since the aspect ratio of the photographed image differs depending on the photographing course, the stamp image included in the background image constituting the set background displayed on the “prank” tab is changed according to the aspect ratio. It may be. For example, when the aspect ratio of the photographed image is portrait, the stamp image included in the background image constituting the set background displayed on the “tamper” tab may be replaced with a stamp image having a length in the vertical direction. .

また、利用者の顔の所定の部位に対応するスタンプ画像は、レイヤ構造上、撮影画像より上層にあるので、そのスタンプ画像は、落書き編集処理の際に表示される編集画面において、利用者の操作によって選択可能に表示された上で、他の合成用画像(スタンプ画像など)と同様に拡大/縮小、移動、回転などすることができる。   Further, since the stamp image corresponding to a predetermined part of the user's face is in a layer structure and is higher than the photographed image, the stamp image is displayed on the editing screen displayed during the graffiti editing process. After being displayed so as to be selectable by an operation, it can be enlarged / reduced, moved, rotated, and the like in the same manner as other images for synthesis (stamp image or the like).

さらに、利用者の顔の所定の部位に対応するスタンプ画像を合成した撮影画像が、携帯端末に送信されるようにした場合、スタンプ画像をアニメーション画像とし、携帯端末に表示された撮影画像上で、スタンプ画像が動いて表示されるようにしてもよい。   Furthermore, when a shot image obtained by combining a stamp image corresponding to a predetermined part of the user's face is transmitted to the mobile terminal, the stamp image is used as an animation image on the shot image displayed on the mobile terminal. The stamp image may be moved and displayed.

なお、上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集済み画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとしたが、撮影画像や編集済み画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ったり、逆に、撮影画像や編集済み画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。   In the above-described embodiment, the photo sticker creating apparatus 1 employs a configuration in which the obtained photographed image or edited image is printed on a sticker sheet and transmitted to the server to be provided to the user's portable terminal. However, it is possible to adopt a configuration in which the photographed image or edited image is only provided to the user's mobile terminal by sending it to the server without printing it on the sticker paper, or conversely, the photographed image or edited image. It is also possible to adopt a configuration that only prints on a sticker sheet without transmitting to the server.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図9に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 9, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the main body of the apparatus. Disk), optical disk (including CD-ROM and DVD), magneto-optical disk (including MD), or removable media 205 made of semiconductor memory, etc., but also pre-installed in the main unit The ROM 206 that stores the program and the hard disk included in the storage unit 202 are distributed to the administrator.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではなく、例えば、所定のサイズの紙やフィルム、ポスター用の紙、テレホンカードなどのカード、あるいは、Tシャツなどの布地などに印刷するようにしてもよい。   In the above, the printing medium is not limited to sticker paper or photographic paper. For example, printing on a predetermined size of paper or film, poster paper, a card such as a telephone card, or a cloth such as a T-shirt. You may make it do.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

1 写真シール作成装置
11 撮影ユニット
12 編集ユニット
21 事前接客部
22 撮影部
23 背景部
201 制御部
208 事前接客部
209 撮影部
210 編集部
211 印刷部
301 事前接客処理部
302 撮影処理部
303 編集処理部
304 印刷処理部
611 合成処理部
612 表示制御部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 11 Shooting unit 12 Editing unit 21 Advance customer service part 22 Shooting part 23 Background part 201 Control part 208 Advance customer service part 209 Shooting part 210 Editing part 211 Printing part 301 Advance customer service part 302 Shooting process part 303 304 Print processing unit 611 Composition processing unit 612 Display control unit

Claims (8)

利用者を被写体として撮影し、取得された撮影画像に対して、利用者による入力に応じた編集を施し、編集が施された前記撮影画像をシール紙に印刷する写真シール作成装置であって、
前記利用者を被写体として撮影を行うカメラと、
前記カメラにより取り込まれた取り込み画像における前記利用者の顔を認識することで、前記利用者の顔の所定の部位に対応する合成用画像を、認識された前記利用者の顔の大きさおよび向きに応じてその大きさおよび向きを調整し、前記取り込み画像における前記利用者の顔の所定の部位に合成する合成処理部と、
前記利用者の顔の所定の部位に前記合成用画像が合成された前記取り込み画像の表示を制御する表示制御部と
を備える写真シール作成装置。
A photograph sticker creating apparatus that photographs a user as a subject, edits the acquired photographed image according to an input by the user, and prints the edited photographed image on a sticker sheet,
A camera for taking a picture of the user as a subject;
By recognizing the user's face in the captured image captured by the camera, an image for synthesis corresponding to a predetermined part of the user's face is recognized. And a composition processing unit that adjusts the size and orientation in accordance with the image and composes it on a predetermined part of the user's face in the captured image;
A photo sticker creating apparatus comprising: a display control unit configured to control display of the captured image in which the synthesis image is synthesized at a predetermined part of the user's face.
前記取り込み画像が、前記撮影画像が取得される前にリアルタイムで表示されるライブビュー画像である場合、
前記合成処理部は、前記取り込み画像における前記利用者の顔を認識することで、前記合成用画像を、前記取り込み画像における前記利用者の動きに合わせて、前記取り込み画像における前記利用者の顔の所定の部位に合成する
請求項1に記載の写真シール作成装置。
When the captured image is a live view image displayed in real time before the captured image is acquired,
The synthesis processing unit recognizes the user's face in the captured image, and matches the image for synthesis with the movement of the user in the captured image to match the user's face in the captured image. The photo sticker creating apparatus according to claim 1, wherein the photo sticker creating apparatus synthesizes the predetermined part.
前記合成処理部は、前記利用者毎に異なる前記合成用画像を、前記取り込み画像における前記利用者それぞれの顔の所定の部位に合成する
請求項1または2に記載の写真シール作成装置。
The photographic sticker creating apparatus according to claim 1, wherein the composition processing unit synthesizes the composition image that is different for each user with a predetermined part of the face of each of the users in the captured image.
前記合成処理部は、撮影前に利用者により選択された撮影に関するコースが所定のコースである場合に、前記合成用画像を、前記取り込み画像における前記利用者の顔の所定の部位に合成する
請求項1乃至3のいずれかに記載の写真シール作成装置。
The synthesizing processing unit synthesizes the synthesis image with a predetermined part of the user's face in the captured image when a course related to shooting selected by the user before shooting is a predetermined course. Item 4. The photo sticker creating apparatus according to any one of Items 1 to 3.
前記合成処理部は、前記利用者により選択された、前記取り込み画像における前記利用者の背景となる背景画像に応じた前記合成用画像を、前記取り込み画像における前記利用者の顔の所定の部位に合成する
請求項1乃至4のいずれかに記載の写真シール作成装置。
The composition processing unit selects the composition image selected by the user according to a background image serving as a background of the user in the captured image as a predetermined part of the user's face in the captured image. The photo sticker creating apparatus according to claim 1, wherein the photo sticker creating apparatus is combined.
前記合成処理部は、前記利用者の人数が所定人数より少ない場合に、前記合成用画像を、前記取り込み画像における前記利用者の顔の所定の部位に合成する
請求項1乃至5のいずれかに記載の写真シール作成装置。
6. The composition processing unit, when the number of users is less than a predetermined number, combines the composition image with a predetermined part of the user's face in the captured image. The photo sticker making apparatus as described.
前記取り込み画像が、撮影結果としての前記撮影画像である場合、
前記取り込み画像に対して、前記利用者による入力に応じた編集を施す編集手段をさらに備え、
前記編集手段は、前記取り込み画像に合成されている前記合成用画像に対して、前記利用者による入力に応じた所定の編集を施す
請求項1に記載の写真シール作成装置。
When the captured image is the captured image as a captured result,
An editing unit that edits the captured image according to input by the user,
The photo sticker creating apparatus according to claim 1, wherein the editing unit performs predetermined editing in accordance with an input by the user with respect to the combining image combined with the captured image.
利用者を被写体として撮影し、取得された撮影画像に対して、利用者による入力に応じた編集を施し、編集が施された前記撮影画像をシール紙に印刷する写真シール作成装置の表示方法であって、
前記利用者を被写体として撮影を行うカメラにより取り込まれた取り込み画像における前記利用者の顔を認識することで、前記利用者の顔の所定の部位に対応する合成用画像を、認識された前記利用者の顔を顔の大きさおよび向きに応じてその大きさおよび向きを調整し、前記取り込み画像における前記利用者の顔の所定の部位に合成し、
前記利用者の顔の所定の部位に前記合成用画像が合成された前記取り込み画像を表示する
ステップを含む表示方法。
In a display method of a photo sticker creating apparatus that takes a photograph of a user as a subject, edits the acquired photographed image according to an input by the user, and prints the edited photographed image on a sticker sheet. There,
By recognizing the user's face in a captured image captured by a camera that captures the user as a subject, a composite image corresponding to a predetermined part of the user's face is recognized. Adjusting the size and orientation of the person's face according to the size and orientation of the face, and synthesizing it to a predetermined part of the user's face in the captured image,
A display method including a step of displaying the captured image in which the synthesis image is synthesized at a predetermined part of the user's face.
JP2014152603A 2013-12-20 2014-07-28 Photo sticker creation apparatus and display method Expired - Fee Related JP6375755B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014152603A JP6375755B2 (en) 2014-07-10 2014-07-28 Photo sticker creation apparatus and display method
US14/574,731 US9519950B2 (en) 2013-12-20 2014-12-18 Image generating apparatus and image generating method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014142739 2014-07-10
JP2014142739 2014-07-10
JP2014152603A JP6375755B2 (en) 2014-07-10 2014-07-28 Photo sticker creation apparatus and display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018094647A Division JP6607281B2 (en) 2014-07-10 2018-05-16 Photo sticker creation apparatus, display method, and program

Publications (2)

Publication Number Publication Date
JP2016028463A true JP2016028463A (en) 2016-02-25
JP6375755B2 JP6375755B2 (en) 2018-08-22

Family

ID=55360811

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014152603A Expired - Fee Related JP6375755B2 (en) 2013-12-20 2014-07-28 Photo sticker creation apparatus and display method
JP2018094647A Active JP6607281B2 (en) 2014-07-10 2018-05-16 Photo sticker creation apparatus, display method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018094647A Active JP6607281B2 (en) 2014-07-10 2018-05-16 Photo sticker creation apparatus, display method, and program

Country Status (1)

Country Link
JP (2) JP6375755B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017032780A (en) * 2015-07-31 2017-02-09 株式会社メイクソフトウェア Photograph shooting play machine
JP2017228901A (en) * 2016-06-21 2017-12-28 株式会社メイクソフトウェア Image processing apparatus and computer program
JP2018023056A (en) * 2016-08-05 2018-02-08 フリュー株式会社 Photograph making game machine and display control method
JP2018031860A (en) * 2016-08-23 2018-03-01 フリュー株式会社 Photograph creating game machine, and information processing method
JP2018107765A (en) * 2016-12-28 2018-07-05 辰巳電子工業株式会社 Photographing amusement device, image display method, and image display program
JP2018137513A (en) * 2017-02-20 2018-08-30 大日本印刷株式会社 Photo taking device, photo taking method, and program
JP2019022041A (en) * 2017-07-14 2019-02-07 フリュー株式会社 Photograph creation game machine, display method, and program
JP2019192061A (en) * 2018-04-27 2019-10-31 フリュー株式会社 Photograph creation game machine, control method and program
CN110431838A (en) * 2017-03-22 2019-11-08 韩国斯诺有限公司 The method and system of the dynamic content of recognition of face video camera are provided
JP2019203996A (en) * 2018-05-24 2019-11-28 フリュー株式会社 Photograph creation game machine, display control method, and program
JP2019537758A (en) * 2017-06-12 2019-12-26 美的集団股▲フン▼有限公司Midea Group Co., Ltd. Control method, controller, smart mirror, and computer-readable storage medium
JP2020178191A (en) * 2019-04-16 2020-10-29 大日本印刷株式会社 Image processing device, photographing device, and program
JP2021016030A (en) * 2019-07-10 2021-02-12 フリュー株式会社 Image processing device, image processing method, and program
CN113613067A (en) * 2021-08-03 2021-11-05 北京字跳网络技术有限公司 Video processing method, device, equipment and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7401727B2 (en) * 2019-01-10 2023-12-20 フリュー株式会社 Image processing device, image processing method, and image processing program
KR102178396B1 (en) * 2019-11-28 2020-11-13 이민구 Method and apparatus for manufacturing image output based on augmented reality

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000022929A (en) * 1998-06-30 2000-01-21 Omron Corp Person image processor
JP2005242566A (en) * 2004-02-25 2005-09-08 Canon Inc Image composition device and method
US20080094364A1 (en) * 2005-05-25 2008-04-24 Vodafone K.K. Object outputting method and information processing apparatus
JP2011076277A (en) * 2009-09-30 2011-04-14 Dainippon Printing Co Ltd Stamp system, and method, program and storage medium for the same
JP2014042265A (en) * 2011-06-24 2014-03-06 Furyu Kk Image provision device and method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4351023B2 (en) * 2002-11-07 2009-10-28 パナソニック株式会社 Image processing method and apparatus
JP2004178163A (en) * 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd Image processing method and device
KR101240261B1 (en) * 2006-02-07 2013-03-07 엘지전자 주식회사 The apparatus and method for image communication of mobile communication terminal
JP5229910B2 (en) * 2008-08-08 2013-07-03 株式会社メイクソフトウェア Image processing apparatus, image output apparatus, image processing method, and computer program
JP5304751B2 (en) * 2010-08-06 2013-10-02 フリュー株式会社 Image creating apparatus and method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000022929A (en) * 1998-06-30 2000-01-21 Omron Corp Person image processor
JP2005242566A (en) * 2004-02-25 2005-09-08 Canon Inc Image composition device and method
US20080094364A1 (en) * 2005-05-25 2008-04-24 Vodafone K.K. Object outputting method and information processing apparatus
JP2011076277A (en) * 2009-09-30 2011-04-14 Dainippon Printing Co Ltd Stamp system, and method, program and storage medium for the same
JP2014042265A (en) * 2011-06-24 2014-03-06 Furyu Kk Image provision device and method, and program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017032780A (en) * 2015-07-31 2017-02-09 株式会社メイクソフトウェア Photograph shooting play machine
JP2017228901A (en) * 2016-06-21 2017-12-28 株式会社メイクソフトウェア Image processing apparatus and computer program
JP2018023056A (en) * 2016-08-05 2018-02-08 フリュー株式会社 Photograph making game machine and display control method
JP2018031860A (en) * 2016-08-23 2018-03-01 フリュー株式会社 Photograph creating game machine, and information processing method
JP2018107765A (en) * 2016-12-28 2018-07-05 辰巳電子工業株式会社 Photographing amusement device, image display method, and image display program
JP2018137513A (en) * 2017-02-20 2018-08-30 大日本印刷株式会社 Photo taking device, photo taking method, and program
JP2020514930A (en) * 2017-03-22 2020-05-21 スノー コーポレーション Method and system for providing dynamic content for a facial recognition camera
US11017567B2 (en) 2017-03-22 2021-05-25 Snow Corporation Dynamic content providing method and system for face recognition camera
CN110431838B (en) * 2017-03-22 2022-03-29 韩国斯诺有限公司 Method and system for providing dynamic content of face recognition camera
CN110431838A (en) * 2017-03-22 2019-11-08 韩国斯诺有限公司 The method and system of the dynamic content of recognition of face video camera are provided
JP2019537758A (en) * 2017-06-12 2019-12-26 美的集団股▲フン▼有限公司Midea Group Co., Ltd. Control method, controller, smart mirror, and computer-readable storage medium
JP2019022041A (en) * 2017-07-14 2019-02-07 フリュー株式会社 Photograph creation game machine, display method, and program
JP7032632B2 (en) 2017-07-14 2022-03-09 フリュー株式会社 Photographing game consoles, display methods, and programs
JP7140962B2 (en) 2018-04-27 2022-09-22 フリュー株式会社 Image processing device, control method, and program
JP2019192061A (en) * 2018-04-27 2019-10-31 フリュー株式会社 Photograph creation game machine, control method and program
JP7132492B2 (en) 2018-05-24 2022-09-07 フリュー株式会社 Image processing device, display control method, and program
JP2019203996A (en) * 2018-05-24 2019-11-28 フリュー株式会社 Photograph creation game machine, display control method, and program
JP2020178191A (en) * 2019-04-16 2020-10-29 大日本印刷株式会社 Image processing device, photographing device, and program
JP7293834B2 (en) 2019-04-16 2023-06-20 大日本印刷株式会社 Image processing device, photography device, program
JP2021016030A (en) * 2019-07-10 2021-02-12 フリュー株式会社 Image processing device, image processing method, and program
JP7290827B2 (en) 2019-07-10 2023-06-14 フリュー株式会社 Image processing device, image processing method, and program
CN113613067A (en) * 2021-08-03 2021-11-05 北京字跳网络技术有限公司 Video processing method, device, equipment and storage medium
WO2023011146A1 (en) * 2021-08-03 2023-02-09 北京字跳网络技术有限公司 Video processing method and apparatus, device, and storage medium
CN113613067B (en) * 2021-08-03 2023-08-22 北京字跳网络技术有限公司 Video processing method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP2018159932A (en) 2018-10-11
JP6607281B2 (en) 2019-11-20
JP6375755B2 (en) 2018-08-22

Similar Documents

Publication Publication Date Title
JP6607281B2 (en) Photo sticker creation apparatus, display method, and program
US9519950B2 (en) Image generating apparatus and image generating method
JP5423744B2 (en) Image providing apparatus and method, and program
JP6458460B2 (en) Image generating apparatus and method, and program
JP2015210513A (en) Photographic seal creation device
JP5660240B1 (en) Photo sticker creation device
JP2015210519A (en) Photographic seal creation device and image provision method
JP2017017409A (en) Imaging apparatus and imaging method
JP6558209B2 (en) Imaging device
JP5790812B2 (en) Photo sticker making apparatus and photo sticker making method
JP5700267B1 (en) Photo sticker making apparatus and photo sticker making method
JP5742922B1 (en) Image processing apparatus and method, and program
JP5904192B2 (en) Photo sticker creation apparatus, image processing method, and program
JP7132492B2 (en) Image processing device, display control method, and program
JP6855115B2 (en) Control method of photography game machine, photography game machine, and control program of photography game machine
JP6388178B2 (en) Image processing apparatus and method, and program
JP2015211460A (en) Photographic seal creation device and photographic seal creation method
JP5850281B2 (en) Photo sticker creation device
JP6146374B2 (en) Image processing apparatus and method, and program
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP5880746B2 (en) Image processing apparatus and method, and program
JP5780345B1 (en) Photo sticker creating apparatus and image processing method
JP2018151435A (en) Sticker making game machine and image processing method
JP2015211464A (en) Photographic seal creation device and photographic seal creation method
JP2016040618A (en) Image processing apparatus, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180709

R150 Certificate of patent or registration of utility model

Ref document number: 6375755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees