JP2019013013A - Photo sticker generation apparatus, photo sticker generation method, and program - Google Patents

Photo sticker generation apparatus, photo sticker generation method, and program Download PDF

Info

Publication number
JP2019013013A
JP2019013013A JP2018154112A JP2018154112A JP2019013013A JP 2019013013 A JP2019013013 A JP 2019013013A JP 2018154112 A JP2018154112 A JP 2018154112A JP 2018154112 A JP2018154112 A JP 2018154112A JP 2019013013 A JP2019013013 A JP 2019013013A
Authority
JP
Japan
Prior art keywords
user
editing
image
photographing
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018154112A
Other languages
Japanese (ja)
Other versions
JP6659980B2 (en
Inventor
真吾 ▲浜▼口
真吾 ▲浜▼口
Shingo Hamaguchi
隆彰 伊藤
Takaaki Ito
隆彰 伊藤
優美 山田
Yumi Yamada
優美 山田
恭子 多田
Kyoko Tada
恭子 多田
久美子 平田
Kumiko Hirata
久美子 平田
絵里香 高橋
Erika Takahashi
絵里香 高橋
礼子 箸尾
Reiko Hashio
礼子 箸尾
雅典 住永
Masanori Suminaga
雅典 住永
悠里 溝口
Yuri Mizoguchi
悠里 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Publication of JP2019013013A publication Critical patent/JP2019013013A/en
Application granted granted Critical
Publication of JP6659980B2 publication Critical patent/JP6659980B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To change a lip color to a selected color for each user who is photographed in an image to be edited.SOLUTION: A photographic processing unit performs identification photographing for identifying a user as at least one time of photographing among plural times of photographing of the user as a subject. A display control unit controls, in an editing screen to be used in the editing of a photographed image obtained by photographing, the display of a selection area for selecting the lip color of the user who is identified in the photographed image obtained by the identification photographing. The display control unit changes, in the editing screen, the lip color of the user in an editing area where the photographed image to be edited is displayed into a color selected in the selection area. The present invention can be applied, for example, to a photo sticker generation apparatus.SELECTED DRAWING: Figure 24

Description

本発明は、写真シール作成装置、写真シール作成方法、およびプログラムに関し、特に、編集対象画像に写る利用者の唇の色を選択された色に変更することができるようにする写真シール作成装置、写真シール作成方法、およびプログラムに関する。   The present invention relates to a photo sticker creating device, a photo sticker creating method, and a program, and in particular, a photo sticker creating device capable of changing the color of a user's lips in an image to be edited to a selected color, The present invention relates to a photo sticker creation method and program.

利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。   There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.

写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集済み画像をシール紙に印刷するという流れになる。   The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is the edited image, is printed on sticker paper.

このような写真シール機の中には、利用者により選択されたコースに応じて、利用者が撮影された撮影画像に対して、利用者の属性に応じた画像処理を施すようにしたものがある。(例えば、特許文献1参照)。   Among such photo sticker machines, there is one that performs image processing according to the user's attributes on the captured image taken by the user according to the course selected by the user. is there. (For example, refer to Patent Document 1).

しかしながら、特許文献1の写真シール機では、利用者は、コースを選択するだけで画像処理の内容を選択するわけではないので、どのような画像処理が施されるかを把握することなくゲームを進めることになる。したがって、撮影画像に施される画像処理の内容がいかにこだわりのあるものであっても、利用者が、最終的に得られる画像について、その画像処理の内容を特に意識することはない。   However, in the photo sticker of Patent Document 1, the user does not select the content of the image processing only by selecting the course, so that the user can play the game without grasping what image processing is performed. Will proceed. Therefore, no matter how particular the content of the image processing performed on the photographed image is, the user is not particularly aware of the content of the image processing for the finally obtained image.

また近年、写真シール機においては、撮影画像における利用者(被写体)の目を強調する画像処理として、利用者の目の大きさを変更することが行われている。   In recent years, in a photo sticker, the size of a user's eyes is changed as image processing for emphasizing the eyes of the user (subject) in a captured image.

しかしながら、撮影画像において、目だけが極端に大きくなってしまうと、いかにも加工を施したような、不自然な印象を与えてしまうことがあった。   However, in the captured image, if only the eyes become extremely large, an unnatural impression may be given as if processing has been performed.

特開2012−37735号公報JP 2012-37735 A

ところで、近年、利用者の唇を加工するレタッチ処理を行う写真シール機がある。   By the way, in recent years, there is a photo sticker machine that performs a retouch process for processing a user's lips.

本発明は、このような状況に鑑みてなされたものであり、編集対象画像に写る利用者毎に、唇の色を選択された色に変更することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to change the color of the lips to a selected color for each user who appears in the image to be edited.

本発明の一側面の写真シール作成装置は、利用者を被写体とした複数回の撮影のうちの少なくとも1回の撮影として、前記利用者を識別するための識別撮影を行う撮影処理部と、撮影により得られた撮影画像の編集に用いられる編集画面において、前記識別撮影により得られた前記撮影画像において識別された前記利用者の唇の色を選択させるための選択領域の表示を制御する表示制御部とを備え、前記表示制御部は、前記編集画面において、編集の対象となる前記撮影画像が表示される編集領域における前記利用者の唇の色を、前記選択領域において選択された色に変更する写真シール作成装置である。   According to another aspect of the present invention, there is provided a photo sticker creating apparatus, a photographing processing unit that performs identification photographing for identifying a user as at least one photographing among a plurality of photographings with a user as a subject, and photographing. Display control for controlling display of a selection area for selecting the color of the user's lips identified in the photographed image obtained by the identification photographing on an editing screen used for editing the photographed image obtained by The display control unit changes the color of the user's lips in the editing area where the captured image to be edited is displayed to the color selected in the selection area on the editing screen. This is a photo sticker creating apparatus.

本発明の一側面の写真シール作成方法は、写真シール作成装置が、利用者を被写体とした複数回の撮影のうちの少なくとも1回の撮影として、前記利用者を識別するための識別撮影を行い、撮影により得られた撮影画像の編集に用いられる編集画面において、前記識別撮影により得られた前記撮影画像において識別された前記利用者の唇の色を選択させるための選択領域を表示し、前記編集画面において、編集の対象となる前記撮影画像が表示される編集領域における前記利用者の唇の色を、前記選択領域において選択された色に変更する写真シール作成方法である。   In the photo sticker creating method of one aspect of the present invention, the photo sticker creating apparatus performs identification photographing for identifying the user as at least one photographing among a plurality of photographings with the user as a subject. In the editing screen used for editing the photographed image obtained by photographing, a selection area for selecting the color of the user's lips identified in the photographed image obtained by the identifying photographing is displayed. In the editing screen, the photo sticker creation method changes the color of the user's lips in the editing area where the photographed image to be edited is displayed to a color selected in the selection area.

本発明の一側面のプログラムは、コンピュータに、利用者を被写体とした複数回の撮影のうちの少なくとも1回の撮影として、前記利用者を識別するための識別撮影を行い、撮影により得られた撮影画像の編集に用いられる編集画面において、前記識別撮影により得られた前記撮影画像において識別された前記利用者の唇の色を選択させるための選択領域を表示し、前記編集画面において、編集の対象となる前記撮影画像が表示される編集領域における前記利用者の唇の色を、前記選択領域において選択された色に変更する処理を実行させるためのプログラムである。   The program according to one aspect of the present invention is obtained by performing, on a computer, identification shooting for identifying the user as at least one shooting among a plurality of shootings with a user as a subject. In the editing screen used for editing the photographed image, a selection area for selecting the color of the user's lips identified in the photographed image obtained by the identification photographing is displayed. It is a program for executing a process of changing the color of the user's lips in the editing area where the photographed image to be processed is displayed to the color selected in the selection area.

本発明の一側面においては、利用者を被写体とした複数回の撮影のうちの少なくとも1回の撮影として、前記利用者を識別するための識別撮影が行われ、撮影により得られた撮影画像の編集に用いられる編集画面において、前記識別撮影により得られた前記撮影画像において識別された前記利用者の唇の色を選択させるための選択領域が表示され、前記編集画面において、編集の対象となる前記撮影画像が表示される編集領域における前記利用者の唇の色が、前記選択領域において選択された色に変更される。   In one aspect of the present invention, identification shooting for identifying the user is performed as at least one of a plurality of shootings with a user as a subject, and a captured image obtained by shooting is captured. In the editing screen used for editing, a selection area for selecting the color of the user's lips identified in the photographed image obtained by the identification photographing is displayed, and is a target of editing in the editing screen. The color of the user's lips in the editing area where the captured image is displayed is changed to the color selected in the selection area.

本発明によれば、編集対象画像に写る利用者毎に、唇の色を選択された色に変更することが可能となる。   According to the present invention, the color of the lips can be changed to the selected color for each user who appears in the image to be edited.

本発明の一実施の形態に係る写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photograph sticker production apparatus which concerns on one embodiment of this invention. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集部の構成例を示す図である。It is a figure which shows the structural example of an edit part. 事後接客部の構成例を示す図である。It is a figure which shows the structural example of a customer service part after the fact. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 制御部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of a control part. 編集処理部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of an edit process part. 写真シール作成ゲーム処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of photograph sticker creation game processing. 編集処理について説明するフローチャートである。It is a flowchart explaining an edit process. レタッチ処理について説明するフローチャートである。It is a flowchart explaining a retouch process. 目および顔のレタッチ画面の例を示す図である。It is a figure which shows the example of the retouch screen of eyes and faces. まつ毛加工処理について説明するフローチャートである。It is a flowchart explaining an eyelash processing process. まつ毛のレタッチ画面の例を示す図である。It is a figure which shows the example of a retouch screen of eyelashes. 目の大きさの拡大とまつ毛の加工との違いについて説明する図である。It is a figure explaining the difference between expansion of the size of eyes, and processing of eyelashes. レタッチ処理について説明するフローチャートである。It is a flowchart explaining a retouch process. 目、顔、およびまつ毛のレタッチ画面の例を示す図である。It is a figure which shows the example of the retouch screen of eyes, a face, and eyelashes. 目、顔、およびまつ毛のレタッチ画面の他の例を示す図である。It is a figure which shows the other example of a retouch screen of eyes, a face, and eyelashes. 識別撮影のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen of identification imaging | photography. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集用パレットの例を示す図である。It is a figure which shows the example of the palette for edit. リップカラー変更処理について説明するフローチャートである。It is a flowchart explaining a lip color change process. 編集用パレットの他の例を示す図である。It is a figure which shows the other example of the palette for edit. 編集用パレットのさらに他の例を示す図である。It is a figure which shows the further another example of the palette for edit.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

[写真シール作成装置の外観構成]
図1は、写真シール作成装置1の外観の構成例を示す斜視図である。
[External structure of photo sticker creation device]
FIG. 1 is a perspective view showing a configuration example of the appearance of the photographic sticker creating apparatus 1.

写真シール作成装置1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機である。写真シール作成装置1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるが、主に2人または3人等の複数人である。   The photo sticker creating apparatus 1 is a game machine that allows a user to perform operations such as shooting and editing as a game and receives a price from the user instead of providing a shot image or an edited image. The photo sticker creating apparatus 1 is installed in a store such as a game center. There may be one user, but there are mainly two or three users.

写真シール作成装置1が提供するゲームで遊ぶ利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から選択した編集対象の画像に対して、背景や前景の画像となる合成用画像や手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。利用者は、編集済みの画像が印刷されたシール紙を受け取って一連のゲームを終了させることになる。   A user who plays in the game provided by the photo sticker creating apparatus 1 pays the price, takes a picture of himself as a subject, and selects an image to be edited selected from the shot images obtained by shooting. Editing is performed using an editing function for synthesizing a background image or foreground image, a handwritten line drawing, or a stamp image, thereby making the photographed image rich and colorful. The user receives the sticker sheet on which the edited image is printed and ends the series of games.

図1に示すように、写真シール作成装置1は、主に、撮影ユニット11、編集部12、および事後接客部13から構成される。撮影ユニット11と編集部12が接した状態で設置され、編集部12と事後接客部13が接した状態で設置される。   As shown in FIG. 1, the photo sticker creating apparatus 1 mainly includes a photographing unit 11, an editing unit 12, and a subsequent customer service unit 13. The photographing unit 11 and the editing unit 12 are installed in contact with each other, and the editing unit 12 and the subsequent customer service unit 13 are installed in contact with each other.

撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間である撮影空間において撮影処理が行われる。   The photographing unit 11 includes a photographing unit 21 and a background unit 22. The photographing unit 21 and the background unit 22 are installed with a predetermined distance apart, and photographing processing is performed in a photographing space that is a space formed between the photographing unit 21 and the background unit 22.

撮影部21は撮影処理を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影処理を行っている利用者の正面に位置する。撮影空間を正面に臨む面を構成する撮影部21の正面パネル41には、撮影処理時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て右側の面を右側面、左側の面を左側面とすると、撮影部21の右側面が側面パネル42Aにより構成され、左側面が側面パネル42B(図示せず)により構成される。   The photographing unit 21 is a device that allows a user to perform photographing processing. The photographing unit 21 enters the photographing space and is located in front of the user who is performing the photographing process. The front panel 41 of the photographing unit 21 that constitutes a surface facing the photographing space in front is provided with a touch panel monitor used by the user during photographing processing. When the right side when viewed from the user in the imaging space is the right side and the left side is the left side, the right side of the imaging unit 21 is constituted by a side panel 42A, and the left side is a side panel 42B (not shown). Consists of.

背景部22は、正面を向いて撮影処理を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の右端に取り付けられ、側面パネル42Aより横幅の狭い板状の部材である側面パネル52A、および、背面パネル51の左端に取り付けられ、側面パネル42Bより横幅の狭い板状の部材である側面パネル52B(図示せず)から構成される。   The background unit 22 is attached to the right end of the rear panel 51 and the rear panel 51, which are plate-like members positioned on the rear side of the user who is performing the photographing process facing the front, and has a narrower width than the side panel 42A. The side panel 52A (not shown) is a plate-like member that is attached to the left end of the rear panel 51 and is narrower than the side panel 42B.

撮影部21の右側面を構成する側面パネル42Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Aによって、それぞれの下部が、例えば金属製の略コの字型の部材である連結部23A’によって連結される。また、撮影部21の左側面を構成する側面パネル42Bと背景部22の側面パネル52Bは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Bによって、それぞれの下部が、例えば金属製の略コの字型の部材である連結部23B’(図示せず)によって連結される。   The side panel 42A constituting the right side surface of the photographing unit 21 and the side panel 52A of the background unit 22 are provided in substantially the same plane, and the respective upper portions are connected to each other by, for example, a connecting portion 23A having a plate-like member. It is connected by a connecting portion 23A ′, which is a metal substantially U-shaped member. Further, the side panel 42B constituting the left side surface of the photographing unit 21 and the side panel 52B of the background unit 22 are provided in substantially the same plane, and the lower portions thereof are connected by the connecting portions 23B, each of which is a plate-like member. For example, they are connected by a connecting portion 23B ′ (not shown) which is a substantially U-shaped member made of metal.

撮影部21の側面パネル42A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口G1となる。図示されないが、撮影部21の側面パネル42B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口G2となる。撮影空間の内部には床材27が設置される。利用者は、撮影空間に入り、床材27の上に立って撮影を行うことになる。   An opening formed by being surrounded by the side panel 42 </ b> A of the photographing unit 21, the connecting part 23 </ b> A, and the side panel 52 </ b> A of the background part 22 becomes an entrance G <b> 1 of the photographing space. Although not shown, an opening formed by being surrounded by the side panel 42B of the photographing unit 21, the connecting part 23B, and the side panel 52B of the background 22 is also an entrance G2 of the photographing space. A flooring 27 is installed inside the photographing space. The user enters the shooting space and stands on the flooring 27 to perform shooting.

背景部22の上部には、背面パネル51、側面パネル52A、および側面パネル52Bに支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、色または柄の異なる、背景に利用される巻き取り式の背景カーテンが複数収納される。背景カーテンユニット25は、撮影部21に設けられたカメラ等による撮影と連動して動作し、撮影の際に、例えば利用者により選択された色のカーテンを下ろし、その他のカーテンを巻き取る。   The background curtain unit 25 is provided above the background portion 22 so as to be supported by the back panel 51, the side panel 52A, and the side panel 52B. The background curtain unit 25 stores a plurality of winding-type background curtains having different colors or patterns and used for the background. The background curtain unit 25 operates in conjunction with photographing by a camera or the like provided in the photographing unit 21. At the time of photographing, for example, the curtain of the color selected by the user is lowered and the other curtains are wound up.

なお、背景カーテンユニット25に収納される背景カーテンとしては、複数枚のカーテンを1枚のクロマキー用のカーテンとして使用する昇降式カーテンを用意してもよい。また、クロマキー用のカーテンを予め撮影空間の背面となる背面パネル51に張り付けるとともに、合成用の背景画像を複数種類用意し、撮影処理や編集処理において、利用者が所望する背景画像をカーテンの部分に合成することができるようにしてもよい。   In addition, as a background curtain accommodated in the background curtain unit 25, an elevating curtain that uses a plurality of curtains as one chroma key curtain may be prepared. In addition, a curtain for the chroma key is pasted on the rear panel 51 which is the back of the shooting space in advance, and a plurality of types of background images for synthesis are prepared. It may be possible to synthesize it into parts.

撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景カーテンユニット25に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、フラッシュとして撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に、蛍光灯が設けられており、撮影空間の照明としても機能する。   An opening surrounded by the front panel 41 of the photographing unit 21, the connecting part 23A, the connecting part 23B, and the background curtain unit 25 is formed above the photographing space, and the ceiling strobe unit 24 covers the part of the opening. Provided. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light in the shooting space as a flash. In addition to the strobe, a fluorescent lamp is provided inside the ceiling strobe unit 24, and also functions as illumination for the photographing space.

編集部12は、撮影処理によって得られた画像を編集する処理である編集処理を利用者に行わせる装置である。編集部12は、一方の側面が撮影部21の正面パネル41の背面に接するように撮影ユニット11に連結して設けられる。編集部12には、編集処理時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。   The editing unit 12 is a device that allows a user to perform editing processing, which is processing for editing an image obtained by shooting processing. The editing unit 12 is provided so as to be connected to the photographing unit 11 so that one side surface thereof is in contact with the back surface of the front panel 41 of the photographing unit 21. The editing unit 12 is provided with a configuration such as a tablet built-in monitor used by the user during editing processing.

図1に示す編集部12の構成を正面側の構成とすると、2組の利用者が同時に編集処理を行うことができるように、編集部12の正面側と背面側には編集処理に用いられる構成がそれぞれ設けられる。   If the configuration of the editing unit 12 shown in FIG. 1 is a front-side configuration, the editing unit 12 is used for editing processing on the front side and the back side so that two sets of users can perform editing processing simultaneously. Each configuration is provided.

編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集作業に用いられる構成が斜面72に設けられる。斜面72の右側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。斜面72の左側にも、照明装置74の他端を支持する支持部73B(図2)が設けられる。さらに、支持部73Aの右側には、板状の形状を有し、事後接客部13が連結して設けられる支持部73Cが設けられる。また、支持部73Cの上面にはカーテンレール26を支持する支持部75が設けられる。   The front side of the editing unit 12 is a surface perpendicular to the floor surface, and is composed of a surface 71 that is substantially parallel to the side panel 42A, and a slope 72 formed above the surface 71. The configuration used is provided on the slope 72. On the right side of the slope 72, a support portion 73A having a columnar shape and supporting one end of the lighting device 74 is provided. A support portion 73 </ b> B (FIG. 2) that supports the other end of the lighting device 74 is also provided on the left side of the slope 72. Further, on the right side of the support portion 73A, there is provided a support portion 73C having a plate-like shape and provided by connecting the subsequent customer service portion 13. A support portion 75 that supports the curtain rail 26 is provided on the upper surface of the support portion 73C.

編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端に残りの一本のレール26Cの両端が接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C so that the shape when viewed from above is a U-shape. One end of the rails 26A and 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, respectively, and both ends of the remaining one rail 26C are joined to the other end.

カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集処理を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the inside of the space in front of the editing unit 12 and the space in front of the back cannot be seen from the outside. The space in front of the editing unit 12 and the space in front of the back of the editing unit 12 surrounded by the curtain attached to the curtain rail 26 are editing spaces in which the user performs editing processing.

図2は、写真シール作成装置1を別の角度から見た斜視図である。   FIG. 2 is a perspective view of the photo sticker creating apparatus 1 as seen from another angle.

事後接客部13は事後接客処理を利用者に行わせる装置である。事後接客処理には、撮影画像や編集済みの画像を携帯電話機などの携帯端末に送信する処理、ミニゲームを利用者に行わせる処理、アンケートに答えさせる処理などが含まれる。   The subsequent customer service unit 13 is a device that allows the user to perform the subsequent customer service process. Subsequent customer service processing includes processing for transmitting a photographed image or edited image to a mobile terminal such as a mobile phone, processing for allowing a user to play a mini game, processing for answering a questionnaire, and the like.

図2に示すように、事後接客部13は、所定の厚さを有する板状の筐体を有しており、編集部12の右側面に接合されて設けられる。事後接客部13の正面には、事後接客処理時に利用者により用いられるタブレット内蔵モニタや、撮影画像や編集済みの画像が印刷されたシール紙が排出される排出口などが設けられる。事後接客部13の正面前方の空間が、シール紙への印刷が終わるのを待っている利用者が事後接客処理を行う事後接客空間となる。   As shown in FIG. 2, the post-service unit 13 has a plate-shaped housing having a predetermined thickness, and is provided by being joined to the right side surface of the editing unit 12. On the front side of the post-service unit 13, there are provided a tablet built-in monitor used by the user at the time of post-service processing, a discharge port through which sticker paper on which a photographed image or an edited image is printed is discharged. The space in front of the front-end customer service unit 13 becomes a rear-end customer service space where a user waiting for printing on the sticker paper to perform post-service processing.

ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図3を参照して説明する。図3は、写真シール作成装置1を上から見た平面図である。   Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

写真シール作成装置1の利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影処理を行う。   The user of the photo sticker creating apparatus 1 is formed between the photographing part 21 and the background part 22 from the entrance G1 as indicated by the white arrow # 1 or from the entrance G2 as indicated by the white arrow # 2. The photographing space A1 is entered, and photographing processing is performed using a camera or a touch panel monitor provided in the photographing unit 21.

撮影処理を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。   The user who has finished the shooting process exits the shooting space A1 and moves to the editing space A2-1 using the doorway G1 as indicated by the white arrow # 3, or moves to the editing space A2-1 as indicated by the white arrow # 4. To leave the shooting space A1 and move to the editing space A2-2.

編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集処理を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集処理を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12, and the editing space A2-2 is an editing space on the back side of the editing unit 12. Which of the editing space A2-1 and the editing space A2-2 is moved is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the empty space of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing processing. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing processing at the same time.

編集処理が終了した後、撮影画像や編集済みの画像の中から選択された画像の印刷が開始される。画像の印刷中、編集処理を終えた利用者は、編集空間A2−1で編集処理を行っていた場合には白抜き矢印#5で示すように編集空間A2−1から事後接客空間A3に移動して事後接客処理を行う。また、編集処理を終えた利用者は、編集空間A2−2で編集処理を行っていた場合には白抜き矢印#6で示すように編集空間A2−2から事後接客空間A3に移動し、事後接客空間A3において事後接客処理を行う。   After the editing process is finished, printing of an image selected from the photographed image and the edited image is started. During printing of the image, the user who has finished the editing process moves from the editing space A2-1 to the subsequent customer service space A3 as indicated by the white arrow # 5 if the editing process has been performed in the editing space A2-1. Then, the customer service is processed after the fact. In addition, when the editing process is completed in the editing space A2-2, the user who has finished the editing process moves from the editing space A2-2 to the post-service area A3 as indicated by the white arrow # 6. Post service processing is performed in the customer service space A3.

画像の印刷が終了したとき、利用者は、事後接客部13に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。   When the printing of the image is finished, the user receives the sticker paper from the outlet provided in the post-service section 13 and finishes a series of photo sticker creation games.

次に、各装置の構成について説明する。   Next, the configuration of each device will be described.

[撮影部の構成]
図4は、撮影部21の正面の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bが、箱状の形状を有するベース部43に取り付けられることによって構成される。
[Configuration of shooting section]
FIG. 4 is a diagram illustrating a configuration example of the front of the photographing unit 21. The photographing unit 21 is configured by attaching a front panel 41, a side panel 42A, and a side panel 42B to a base unit 43 having a box shape.

正面パネル41は撮影空間A1で撮影処理を行う利用者の正面に位置し、側面パネル42Aと側面パネル42Bは、それぞれ、撮影空間A1で撮影処理を行う利用者の左側、右側に位置する。   The front panel 41 is positioned in front of the user who performs the shooting process in the shooting space A1, and the side panel 42A and the side panel 42B are positioned on the left side and the right side of the user who performs the shooting process in the shooting space A1, respectively.

正面パネル41の中央からやや上側には撮影・表示ユニット81が設けられる。撮影・表示ユニット81は、カメラ91、タッチパネルモニタ92、および正面ストロボ93から構成される。   A photographing / display unit 81 is provided slightly above the center of the front panel 41. The photographing / display unit 81 includes a camera 91, a touch panel monitor 92, and a front strobe 93.

カメラ91は、レンズやCCD(Charge Coupled Device)などの撮像素子により構成され、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像は、タッチパネルモニタ92にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた画像は撮影画像(静止画像)として保存される。   The camera 91 is configured by an imaging element such as a lens or a CCD (Charge Coupled Device), and photographs a user in the photographing space A1. The moving image captured by the camera 91 is displayed on the touch panel monitor 92 in real time. An image captured by the camera 91 at a predetermined timing such as when a user gives an instruction to shoot is saved as a photographic image (still image).

カメラ91の下側に設けられたタッチパネルモニタ92は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示し、利用者の選択操作をタッチパネルにより受け付ける機能とを備えている。タッチパネルモニタ92には、適宜、撮影結果としての静止画像や、背景等の画像が合成された後の動画像が表示される。   The touch panel monitor 92 provided on the lower side of the camera 91 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUI (Graphical User Interface) images and accepts a user's selection operation through the touch panel. ing. On the touch panel monitor 92, a still image as a photographing result and a moving image after an image such as a background is combined are displayed as appropriate.

カメラ91の上側および左右を囲むように半円状の発光面(乳白アクリル板)が設けられた正面ストロボ93は、内蔵されたストロボがカメラ91による撮影に合わせて発光することで、被写体としての利用者の顔付近を正面から照射する。   The front strobe 93 provided with a semicircular light emitting surface (milky acrylic board) so as to surround the upper and left and right sides of the camera 91 emits light in accordance with the photographing by the camera 91, so that it can be used as a subject. Irradiate the vicinity of the user's face from the front.

正面パネル41には、撮影・表示ユニット81の上方に右上ストロボ82および左上ストロボ83が設置される。右上ストロボ82は、内蔵されたストロボが発光することで、利用者を、利用者から見て右上前方から照射し、左上ストロボ83は、内蔵されたストロボが発光することで、利用者を、利用者から見て左上前方から照射する。   On the front panel 41, an upper right strobe 82 and an upper left strobe 83 are installed above the photographing / display unit 81. The upper right strobe 82 emits light from the built-in strobe to illuminate the user from the front right top, and the upper left strobe 83 uses the built-in strobe to light the user. Irradiate from the upper left front as seen from the person.

ベース部43には利用者の足元を照射する足元ストロボ84も設けられる。右上ストロボ82、左上ストロボ83、足元ストロボ84、および正面ストロボ93の内部には、ストロボの他に、蛍光灯を設けるようにし、天井ストロボユニット24の内部の蛍光灯と合わせて、撮影空間A1内の照明として用いられるようにしてもよい。各ストロボの発光量が調整されることによって、または、発光させるストロボの数が調整されることによって、利用者に照射される光が調整される。   The base unit 43 is also provided with a foot strobe 84 that irradiates the user's foot. In addition to the strobe, a fluorescent lamp is provided in the upper right strobe 82, the upper left strobe 83, the foot strobe 84, and the front strobe 93, and together with the fluorescent lamp in the ceiling strobe unit 24, the inside of the photographing space A1. You may make it use as illumination of this. The light emitted to the user is adjusted by adjusting the light emission amount of each strobe or by adjusting the number of strobes to emit light.

足元ストロボ84の右側には、利用者がお金を投入する硬貨投入返却口85が設けられる。   On the right side of the foot strobe 84, a coin insertion / return port 85 through which a user inserts money is provided.

ベース部43の上面の左右に形成されるスペース43Aおよび43Bは、撮影処理を行う利用者が手荷物等を置くための荷物置き場として用いられる。正面パネル41の例えば天井付近には、撮影処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカも設けられる。   Spaces 43A and 43B formed on the left and right sides of the upper surface of the base portion 43 are used as a luggage storage place for a user who performs a photographing process to place baggage and the like. For example, near the ceiling of the front panel 41, a speaker for outputting sound such as guidance sound for shooting processing, BGM (Back Ground Music), and sound effects is also provided.

[背景部の構成]
図5は、背景部22の撮影空間A1側の構成例を示す図である。
[Configuration of the background]
FIG. 5 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

上述したように、背面パネル51の上方には背景カーテンユニット25が設けられる。背景カーテンユニット25のほぼ中央には、撮影空間A1内で撮影処理を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。   As described above, the background curtain unit 25 is provided above the back panel 51. Near the center of the background curtain unit 25, a back center strobe 101 that irradiates a user who is performing a photographing process in the photographing space A1 from the rear center is attached.

背面パネル51の、出入り口G1側の位置には、撮影空間A1内で撮影処理を行っている利用者を右後方から照射する背面右ストロボ102が取り付けられる。また、背面パネル51の、出入り口G2側の位置には、撮影空間A1内で撮影処理を行っている利用者を左後方から照射する背面左ストロボ103が取り付けられる。   A rear right strobe 102 for irradiating a user who is performing a photographing process in the photographing space A1 from the right rear is attached to a position of the rear panel 51 on the doorway G1 side. Further, a rear left strobe 103 that irradiates a user who is performing a photographing process in the photographing space A1 from the left rear is attached to the rear panel 51 on the doorway G2 side.

[編集部の構成]
図6は、編集部12の背面側(編集空間A2−2側)の構成例を示す図である。
[Configuration of editorial department]
FIG. 6 is a diagram illustrating a configuration example of the editing unit 12 on the back side (editing space A2-2 side).

斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided at substantially the center of the slope 72. A touch pen 132A is provided on the left side of the tablet built-in monitor 131, and a touch pen 132B is provided on the right side.

タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、編集対象画像として選択された撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。   The tablet built-in monitor 131 is configured by superimposing a tablet capable of operation input using the touch pen 132A or 132B on a monitor such as an LCD. On the tablet built-in monitor 131, for example, an editing screen that is a screen used for editing a captured image selected as an image to be edited is displayed. When two people perform editing work simultaneously, the touch pen 132A is used by one user, and the touch pen 132B is used by the other user.

編集部12の左側には事後接客部13が設けられる。   On the left side of the editing unit 12, a post-service unit 13 is provided.

[事後接客部の構成]
図7は、事後接客部13の正面側の構成例を示す図である。
[Composition of the customer service department]
FIG. 7 is a diagram illustrating a configuration example of the front side of the post-service unit 13.

事後接客部13の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161は、利用者の指等を用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ161には、事後接客処理に用いられる画面が表示される。   A monitor 161 with a built-in tablet is provided at the upper center of the post-service section 13. The tablet built-in monitor 161 is configured by superimposing a tablet capable of operating input using a user's finger or the like on a monitor such as an LCD. On the tablet built-in monitor 161, a screen used for the subsequent customer service process is displayed.

タブレット内蔵モニタ161の下にはスピーカ162が設けられ、スピーカ162の下にはシール紙排出口163が設けられる。   A speaker 162 is provided below the tablet built-in monitor 161, and a sticker paper discharge port 163 is provided below the speaker 162.

スピーカ162は、事後接客処理の案内音声、BGM、効果音等の音を出力する。   The speaker 162 outputs sound such as guidance voice, background music, and sound effects for the post-service processing.

シール紙排出口163には、編集空間A2−1の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。   In the sticker paper outlet 163, sticker paper on which an image created by the user of the editing space A2-1 is edited or printed by the user of the editing space A2-2 is edited. The sticker paper on which the created image is printed is discharged. A printer is provided inside the editing unit 12, and printing of images is performed by the printer.

[写真シール作成装置の内部構成]
次に、写真シール作成装置1の内部構成について説明する。図8は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
[Internal configuration of photo sticker creation device]
Next, the internal configuration of the photo sticker creating apparatus 1 will be described. FIG. 8 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. The same code | symbol is attached | subjected to the same structure as the structure mentioned above. The overlapping description will be omitted as appropriate.

制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209、および事後接客部210の各構成も接続される。   The control unit 201 includes a CPU (Central Processing Unit) and the like, executes a program stored in a ROM (Read Only Memory) 206 and a storage unit 202, and controls the overall operation of the photo sticker creating apparatus 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. The control unit 201 is also connected with each configuration of the photographing unit 208, the editing unit 209, and the post-service unit 210.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報等を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 includes a nonvolatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 201. Information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。   A communication unit 203 is an interface of a network such as the Internet, and communicates with an external device according to control by the control unit 201.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   A removable medium 205 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 204. Computer programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

撮影部208は、撮影空間A1における撮影処理を行う構成である硬貨処理部221、背景制御部222、照明装置223、カメラ91、タッチパネルモニタ92、およびスピーカ224から構成される。   The imaging unit 208 includes a coin processing unit 221, a background control unit 222, a lighting device 223, a camera 91, a touch panel monitor 92, and a speaker 224 that are configured to perform imaging processing in the imaging space A1.

硬貨処理部221は、硬貨投入返却口85に対する硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of coins into the coin insertion / return port 85. When the coin processing unit 221 detects that a predetermined amount of coins such as 400 yen has been inserted, the coin processing unit 221 outputs an activation signal indicating that to the control unit 201.

背景制御部222は、制御部201より供給される背景制御信号に従って背景カーテンユニット25に収納されている背景カーテンの上げ下ろしを行う。背景カーテンの選択が利用者により手動で行われるようにしてもよい。   The background control unit 222 raises and lowers the background curtain stored in the background curtain unit 25 according to the background control signal supplied from the control unit 201. The background curtain may be manually selected by the user.

照明装置223は、撮影空間A1内の各ストロボの内部に設けられるストロボ(フラッシュ)であり、制御部201より供給される照明制御信号に従って発光する。上述したように、撮影空間A1には、天井ストロボユニット24のストロボの他に、撮影部21に設けられる右上ストロボ82、左上ストロボ83、足元ストロボ84、正面ストロボ93、背景部22に設けられる背面中央ストロボ101、背面右ストロボ102、背面左ストロボ103が設けられている。   The illumination device 223 is a strobe (flash) provided inside each strobe in the photographing space A1, and emits light according to an illumination control signal supplied from the control unit 201. As described above, in the shooting space A 1, in addition to the strobe of the ceiling strobe unit 24, the upper right strobe 82, the upper left strobe 83, the foot strobe 84, the front strobe 93, and the back provided on the background unit 22 are provided. A central strobe 101, a back right strobe 102, and a back left strobe 103 are provided.

カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像を制御部201に出力する。   The camera 91 shoots according to the control by the control unit 201 and outputs an image obtained by the shooting to the control unit 201.

編集部209Aは、編集空間A2−1における編集処理を行う構成として編集部12の正面側に設けられるタブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bも編集部209Aと同一の構成を有しており、編集空間A2−2における編集処理を行う。   The editing unit 209A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 231 provided on the front side of the editing unit 12 as a configuration for performing editing processing in the editing space A2-1. The editing unit 209B has the same configuration as the editing unit 209A, and performs editing processing in the editing space A2-2.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。   The tablet built-in monitor 131 displays an editing screen according to control by the control unit 201, and detects a user operation on the editing screen. A signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

事後接客部210は、事後接客空間A3における事後接客処理を行う構成であるタブレット内蔵モニタ161、スピーカ162、印刷処理を行う構成であるプリンタ241、およびシール紙ユニット242から構成される。   The subsequent customer service unit 210 includes a tablet built-in monitor 161 that is configured to perform the subsequent customer service in the subsequent customer service space A3, a speaker 162, a printer 241 that is configured to perform the printing process, and a sticker sheet unit 242.

プリンタ241は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ241に装着されたシール紙ユニット242に収納されているシール紙に印刷し、シール紙排出口163に排出する。   The printer 241 prints the photographed image or the edited image obtained by the editing process on the sticker paper stored in the sticker paper unit 242 attached to the printer 241 and discharges it to the sticker paper discharge port 163.

[制御部の構成]
次に、制御部201について説明する。図9は、制御部201がROM206などに格納されているプログラムを実行することにより実現される機能ブロックの構成例を示している。
[Configuration of control unit]
Next, the control unit 201 will be described. FIG. 9 shows a configuration example of functional blocks realized by the control unit 201 executing a program stored in the ROM 206 or the like.

制御部201は、写真シール作成ゲームを開始する際に投入される代金に関する処理や利用者グループを撮影する等の写真シール作成ゲームの撮影作業の工程に関する処理を行う撮影処理部301、撮影画像に対する落書き編集等の写真シール作成ゲームの編集作業の工程に関する処理を行う編集処理部302、シール紙の印刷等の写真シール作成ゲームの印刷の工程に関する処理を行う印刷処理部303、および、編集作業を終了した利用者グループを接客する写真シール作成ゲームの事後接客の工程に関する処理を行う事後接客処理部304を有する。   The control unit 201 performs a process related to a charge input when starting the photo sticker creation game and a process related to a photographing work process of the photo sticker creation game such as photographing a user group. An editing processing unit 302 that performs processing related to the editing work process of the photo sticker creation game such as graffiti editing, a printing processing unit 303 that performs processing related to the printing process of the photo sticker creation game such as printing of sticker paper, and editing work. A post-service processing unit 304 is provided for performing processing related to the post-service process of the photo sticker creation game that serves the finished user group.

このように、制御部201は、写真シール作成ゲームの各工程に関する処理の制御を行う。
[編集処理部の構成例]
In this manner, the control unit 201 controls processing related to each process of the photo sticker creation game.
[Configuration example of edit processing section]

図10は、編集処理部302の詳細な機能構成例を示すブロック図である。   FIG. 10 is a block diagram illustrating a detailed functional configuration example of the editing processing unit 302.

編集処理部302は、撮影画像取得部321、表示制御部322、入力受付部323、加工処理部324、落書き編集部325、および分割数設定部326から構成される。   The edit processing unit 302 includes a captured image acquisition unit 321, a display control unit 322, an input reception unit 323, a processing processing unit 324, a graffiti editing unit 325, and a division number setting unit 326.

撮影画像取得部321は、撮影空間A1における撮影処理により得られる撮影画像を取得する。   The captured image acquisition unit 321 acquires a captured image obtained by a capturing process in the capturing space A1.

表示制御部322は、タッチパネルモニタ92の表示を制御する。   The display control unit 322 controls display on the touch panel monitor 92.

入力受付部323は、タッチパネルモニタ92に表示される各種のGUIに対して利用者により行われる操作入力を受け付ける。   The input receiving unit 323 receives operation inputs performed by the user for various GUIs displayed on the touch panel monitor 92.

加工処理部324は、撮影画像に対して所定の加工を施す処理を行う。   The processing unit 324 performs processing for performing predetermined processing on the captured image.

落書き編集部325は、編集空間A2−1や編集空間A2−2において行われる、利用者による撮影画像に対する落書き編集作業に関する処理を行う。   The graffiti editing unit 325 performs processing related to the graffiti editing work on the photographed image by the user, which is performed in the editing space A2-1 and the editing space A2-2.

分割数設定部326は、シールレイアウトを決定するシール紙の分割数の設定に関する処理を行う。シールレイアウトは、写真シール作成ゲームの一連の処理において最終的に出力されるシール紙における画像(編集済み画像)の配置を示すものである。   The division number setting unit 326 performs processing relating to setting of the number of divisions of the sticker paper that determines the sticker layout. The sticker layout indicates an arrangement of images (edited images) on sticker paper that is finally output in a series of processes of the photo sticker creation game.

[写真シール作成装置の動作]
ここで、図11のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
[Operation of photo sticker creation device]
Here, with reference to the flowchart of FIG. 11, operation | movement of the photo sticker production apparatus 1 which provides a photo sticker production game is demonstrated.

ステップS1において、写真シール作成装置1の撮影処理部301は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。   In step S1, the imaging processing unit 301 of the photo sticker creating apparatus 1 determines whether or not a predetermined amount of coins has been inserted based on a signal supplied from the coin processing unit 221 until it is determined that the coins have been inserted. stand by.

ステップS1において、硬貨が投入されたと判定された場合、ステップS2において、撮影処理部301は、撮影部208を制御し、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ92にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影し、撮影画像を出力する撮影処理を行う。この撮影処理により得られた撮影画像は、記憶部202に記憶される。   If it is determined in step S1 that a coin has been inserted, in step S2, the imaging processing unit 301 controls the imaging unit 208 to display a moving image of the subject captured by the camera 91 on the touch panel monitor 92 in a live view. Then, a photographing process is performed in which a user in the photographing space A1 is photographed as a subject and a photographed image is output. A photographed image obtained by this photographing process is stored in the storage unit 202.

撮影処理においては、例えば6回の撮影が行われ、撮影結果として、6枚の撮影画像が得られる。もちろん、撮影が行われる回数は6回に限られない。   In the photographing process, for example, six photographings are performed, and six photographed images are obtained as photographing results. Of course, the number of times of shooting is not limited to six.

ステップS3において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ92に画面を表示させることによって、または音声をスピーカ224から出力させることによって行われる。   In step S3, the imaging processing unit 301 guides the user in the imaging space A1 to move to the editing space A2-1 or the editing space A2-2. The guidance for movement to the editing space A2-1 or the editing space A2-2 is performed by displaying a screen on the touch panel monitor 92 of the photographing unit 208 or by outputting sound from the speaker 224.

ステップS4において、編集処理部302は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部209を制御し、撮影処理により得られた撮影画像に対して利用者に落書き編集入力を行わせ、落書き編集が施された編集済み画像を出力する編集処理を行う。   In step S4, the editing processing unit 302 controls the editing unit 209 corresponding to the editing space of the editing space A2-1 and the editing space A2-2 that is the destination of the user who has finished the shooting process, The user performs a graffiti editing input on the photographed image obtained by the photographing process, and performs an editing process for outputting an edited image on which the graffiti editing has been performed.

ステップS5において、編集処理部302は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して事後接客空間A3への移動を案内する。事後接客空間A3への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。   In step S5, the editing processing unit 302 guides the user who has finished the editing process in the editing space A2-1 or the editing space A2-2 to move to the post-service space A3. The guidance of the movement to the post-service space A3 is performed by displaying a screen on the tablet built-in monitor 131 or by outputting sound from the speaker 231.

ステップS6において、印刷処理部303は、撮影処理により得られた撮影画像、または編集処理により得られた編集済み画像を、印刷画像としてプリンタ241に出力してシール紙に印刷する印刷処理を行う(開始する)。   In step S <b> 6, the print processing unit 303 performs a printing process in which the photographed image obtained by the photographing process or the edited image obtained by the editing process is output as a print image to the printer 241 and printed on the sticker paper ( Start).

また、タブレット内蔵モニタ161に表示される、事後接客処理の開始ボタンが選択されると、ステップS7において、事後接客処理部304は、印刷終了待機中の利用者に対する事後接客処理を行う。具体的には、事後接客処理部304は、撮影画像や編集済みの画像を、携帯送信用画像として携帯端末に送信する携帯送信ゲーム処理を事後接客処理として行う。   Further, when the post-service processing start button displayed on the tablet built-in monitor 161 is selected, in step S7, the post-service processing unit 304 performs post-service processing for a user who is waiting for completion of printing. Specifically, the post-service processing unit 304 performs a mobile transmission game process in which a captured image or an edited image is transmitted to the mobile terminal as a mobile transmission image as the post-service processing.

印刷が終了すると、ステップS8において、事後接客処理部304は、印刷が終了した旨をタブレット内蔵モニタ161に表示させ、プリンタ241は、画像が印刷されたシール紙をシール紙排出口163に排出し、処理を終了させる。   When the printing is completed, in step S8, the post-service processing unit 304 displays that the printing has been completed on the tablet built-in monitor 161, and the printer 241 discharges the sticker paper on which the image is printed to the sticker paper discharge port 163. The process is terminated.

[編集処理の流れ]
次に、図12のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS4の編集処理の流れを説明する。
[Editing process flow]
Next, the flow of the editing process in step S4 in the series of processes of the photo sticker creation game described above will be described with reference to the flowchart of FIG.

編集処理が開始されると、ステップS31において、撮影画像取得部321は、撮影処理部301により得られた、例えば6枚の撮影画像を、記憶部202から取得する。   When the editing process is started, the captured image acquisition unit 321 acquires, for example, six captured images obtained by the imaging processing unit 301 from the storage unit 202 in step S31.

ステップS32において、編集処理部302は、レタッチ処理を行う。レタッチ処理は、利用者の操作に基づいて、撮影画像における被写体(利用者)の所定の部分に対して加工を施す処理である。   In step S32, the edit processing unit 302 performs a retouch process. The retouch process is a process for processing a predetermined portion of a subject (user) in a captured image based on a user operation.

ステップS33において、表示制御部322は、タブレット内蔵モニタ131にGUIを表示し、入力受付部323は、利用者からの指示を受け付け、利用者それぞれの名前(おなまえ)を入力させる。   In step S33, the display control unit 322 displays a GUI on the tablet built-in monitor 131, and the input reception unit 323 receives an instruction from the user and inputs the name (name) of each user.

ステップS34において、表示制御部322は、タブレット内蔵モニタ131にGUIを表示し、入力受付部323は、利用者からの指示を受け付け、背景画像を選択させる。   In step S34, the display control unit 322 displays a GUI on the tablet built-in monitor 131, and the input reception unit 323 receives an instruction from the user and selects a background image.

ステップS35において、落書き編集部325は、タブレット内蔵モニタ131やスピーカ231等を制御して、落書き作業の流れを案内する画像や音声を出力することにより、利用者に対して落書き作業のガイダンスを行う。   In step S <b> 35, the graffiti editing unit 325 controls the tablet built-in monitor 131, the speaker 231, and the like, and outputs images and voices that guide the flow of the graffiti work, thereby giving the user a graffiti work guidance. .

ステップS36において、表示制御部322は、タブレット内蔵モニタ131に編集画面を表示する。   In step S <b> 36, the display control unit 322 displays an editing screen on the tablet built-in monitor 131.

ステップS37において、落書き編集部325は、編集部209Aまたは編集部209B(利用者が編集作業を行う方)の各部を制御して、利用者による撮影画像に対する落書き作業を受け付ける落書き編集処理を行う。すなわち、落書き編集部325は、利用者の編集入力によって、編集対象画像に合成用画像を合成する。   In step S <b> 37, the graffiti editing unit 325 controls each unit of the editing unit 209 </ b> A or the editing unit 209 </ b> B (one in which the user performs editing work), and performs graffiti editing processing that accepts the graffiti work on the photographed image by the user. That is, the graffiti editing unit 325 synthesizes the image for synthesis with the image to be edited by the user's editing input.

落書き作業が終了すると、ステップS38において、表示制御部322は、タブレット内蔵モニタ131にGUIを表示し、入力受付部323は、利用者からの指示を受け付け、シール紙の分割数を選択させる。そして、分割数設定部326は、利用者からの指示に応じて、シール紙の分割数を設定し、シールレイアウトを決定する。   When the graffiti work ends, in step S38, the display control unit 322 displays a GUI on the tablet built-in monitor 131, and the input reception unit 323 receives an instruction from the user and selects the number of divisions of the sticker paper. Then, the division number setting unit 326 sets the number of divisions of the sticker paper and determines the sticker layout in accordance with an instruction from the user.

その後、編集処理部302が、落書き編集処理の結果得られた編集済み画像を、記憶部202に保存(記憶)させると、図11のステップS4に戻り、それ以降の処理が行われる。   Thereafter, when the editing processing unit 302 saves (stores) the edited image obtained as a result of the graffiti editing processing in the storage unit 202, the process returns to step S4 in FIG. 11 and the subsequent processing is performed.

[レタッチ処理の詳細]
ここで、図13のフローチャートを参照して、図12のステップS32におけるレタッチ処理の詳細について説明する。
[Details of retouch processing]
Here, the details of the retouching process in step S32 of FIG. 12 will be described with reference to the flowchart of FIG.

ステップS51において、加工処理部324は、複数枚の撮影画像それぞれにおける利用者の目および顔を加工する。具体的には、加工処理部324は、複数枚の撮影画像それぞれにおける利用者の目の領域と顔の領域をそれぞれ抽出し、抽出したそれぞれの領域の画像に対して加工を施す。例えば、1枚の撮影画像について、目の領域が抽出された場合、加工処理部324は、その領域に含まれる目の大きさを例えば3段階で拡大し、それぞれの大きさに目が拡大された3枚の撮影画像を生成する。また、1枚の撮影画像について、顔の領域が抽出された場合、加工処理部324は、その領域に含まれる顔の大きさを例えば3段階で縮小し、それぞれの大きさに顔が縮小された3枚の撮影画像を生成する。   In step S51, the processing unit 324 processes the user's eyes and face in each of the plurality of captured images. Specifically, the processing unit 324 extracts a user's eye area and a face area in each of a plurality of captured images, and processes the extracted images in each area. For example, when an eye region is extracted from one photographed image, the processing unit 324 enlarges the size of the eye included in the region in, for example, three levels, and the eye is enlarged to each size. Three captured images are generated. In addition, when a face area is extracted from one captured image, the processing unit 324 reduces the size of the face included in the area in, for example, three stages, and the face is reduced to each size. Three captured images are generated.

ここで、3段階で拡大される目のうちの1つは、拡大されていない目としてもよく、3段階で縮小される顔のうちの1つは、縮小されていない顔としてもよい。   Here, one of the eyes enlarged in three stages may be an unenlarged eye, and one of the faces reduced in three stages may be an unreduced face.

また、上述した顔の加工では、顔の大きさを縮小するのみであったが、顔が整って見えるようになれば、顔を部分的に拡大したり縮小したりするようにしてもよい。   In the face processing described above, only the size of the face is reduced. However, the face may be partially enlarged or reduced if the face appears to be in order.

なお、本実施の形態においては、利用者が複数の場合、撮影処理部301は、1回の撮影により利用者毎の撮影画像を取得することができる。したがって、この場合、目および顔の加工は、利用者毎の撮影画像に対して行われる。   In the present embodiment, when there are a plurality of users, the photographing processing unit 301 can acquire a photographed image for each user by one photographing. Therefore, in this case, the processing of the eyes and face is performed on the captured image for each user.

ステップS52において、表示制御部322は、利用者による、撮影画像における利用者の目および顔の加工の度合いの選択を受け付ける選択画面である、目および顔のレタッチ画面を表示する。   In step S52, the display control unit 322 displays an eye and face retouch screen, which is a selection screen for accepting selection of the degree of processing of the user's eyes and face in the captured image by the user.

図14は、目および顔のレタッチ画面の例を示す図である。   FIG. 14 is a diagram illustrating an example of an eye and face retouch screen.

図14に示されるように、レタッチ画面510には、主な構成が、左右に2つずつ設けられている。これにより、基本的に同じ組の2人の利用者が同時に、撮影画像における利用者の目および顔の加工の度合いを選択することができる。   As shown in FIG. 14, the retouch screen 510 is provided with two main configurations on the left and right. Thereby, two users of basically the same set can simultaneously select the degree of processing of the user's eyes and face in the captured image.

加工対象画像表示領域511−1には、タブレット内蔵モニタ131に対して左側の利用者の撮影画像のうちの所定の1枚が表示され、加工対象画像表示領域511−2には、タブレット内蔵モニタ131に対して右側の利用者の撮影画像のうちの所定の1枚が表示される。   In the processing target image display area 511-1, a predetermined one of the captured images of the left user is displayed on the tablet built-in monitor 131, and in the processing target image display area 511-2, the tablet built-in monitor is displayed. A predetermined one of the captured images of the user on the right side with respect to 131 is displayed.

加工対象画像表示領域511−1の下側には、撮影画像における利用者の目の大きさを選択するための選択ボタン521−1乃至523−1、顔の大きさを選択するための選択ボタン531−1乃至533−1、および、選択された目の大きさおよび顔の大きさを確定するためのOKボタン541−1が設けられている。   Below the processing target image display area 511-1 are selection buttons 521-1 to 523-1 for selecting the size of the user's eyes in the captured image, and a selection button for selecting the size of the face. 531-1 to 533-1 and an OK button 541-1 for confirming the size of the selected eye and the size of the face are provided.

選択ボタン521−1乃至523−1には、それぞれ大きさの異なる目の領域の画像が表示されている。具体的には、選択ボタン521−1には、拡大されていない目の領域の画像が表示され、選択ボタン522−1には、やや拡大された目の領域の画像が表示されている。さらに、選択ボタン523−1には、選択ボタン521−2に表示されている目の領域の画像より拡大された目の領域の画像が表示されている。   The selection buttons 521-1 to 523-1 display images of eye regions having different sizes. Specifically, the selection button 521-1 displays an image of the eye region that is not enlarged, and the selection button 522-1 displays an image of the eye region that is slightly enlarged. Further, the selection button 523-1 displays an image of the eye region that is enlarged from the image of the eye region displayed on the selection button 521-2.

ここで、選択ボタン521−1乃至523−1に表示される画像は、ステップS51において生成された、3段階で目の大きさが拡大された3枚の撮影画像の目の領域部分であってもよいし、予め用意されたモデル画像について、3段階で目の大きさが拡大された画像の目の領域部分であってもよい。   Here, the images displayed on the selection buttons 521-1 to 523-1 are the eye region portions of the three photographed images generated in step S51 and enlarged in three stages. Alternatively, the model image prepared in advance may be an eye region portion of an image in which the eye size is enlarged in three stages.

そして、選択ボタン521−1乃至523−1のいずれかが選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者の目の領域が、ステップS51において生成された撮影画像のいずれかの目の領域部分に置き換わる。   When any one of the selection buttons 521-1 to 523-1 is selected, the area of the user's eye in the captured image displayed in the processing target image display area 511-1 is generated in step S51. Replaces any eye area portion of the image.

具体的には、選択ボタン521−1が選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者の目が、拡大されていない大きさの目(ナチュラルeye)となり、選択ボタン522−1が選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者の目は、やや拡大された大きさの目(おすすめeye)となり、選択ボタン523−1が選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者の目は、拡大された大きさの目(ボリュームeye)となる。   Specifically, when the selection button 521-1 is selected, the user's eyes in the captured image displayed in the processing target image display area 511-1 become an unmagnified eye (natural eye). When the selection button 522-1 is selected, the eyes of the user in the captured image displayed in the processing target image display area 511-1 become eyes with a slightly enlarged size (recommended eye), and the selection button 523 is selected. When −1 is selected, the user's eyes in the captured image displayed in the processing target image display area 511-1 become an enlarged eye (volume eye).

また、選択ボタン531−1乃至533−1には、それぞれ大きさの異なる顔の領域の画像が表示されている。具体的には、選択ボタン531−1には、縮小されていない顔の領域の画像が表示され、選択ボタン532−1には、やや縮小された顔の領域の画像が表示されている。さらに、選択ボタン533−1には、選択ボタン531−2に表示されている顔の領域の画像より縮小された顔の領域の画像が表示されている。   In addition, the selection buttons 531-1 to 533-1 display images of face regions having different sizes. Specifically, the selection button 531-1 displays an image of a face area that has not been reduced, and the selection button 532-1 displays an image of a face area that has been somewhat reduced. Further, on the selection button 533-1, an image of the face area reduced from the image of the face area displayed on the selection button 531-2 is displayed.

ここで、選択ボタン531−1乃至533−1に表示される画像は、ステップS51において生成された、3段階で顔の大きさが縮小された3枚の撮影画像の顔の領域部分であってもよいし、予め用意されたモデル画像について、3段階で顔の大きさが縮小された画像の顔の領域部分であってもよい。   Here, the images displayed on the selection buttons 531-1 to 533-1 are the face area portions of the three photographed images generated in step S51 and reduced in size in three steps. Alternatively, the model image prepared in advance may be a face region portion of an image whose face size is reduced in three stages.

そして、選択ボタン531−1乃至533−1のいずれかが選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者の顔の領域が、ステップS51において生成された撮影画像のいずれかの顔の領域部分に置き換わる。   When any one of the selection buttons 531-1 to 533-1 is selected, the area of the user's face in the captured image displayed in the processing target image display area 511-1 is generated in step S51. It replaces one of the facial regions of the image.

具体的には、選択ボタン531−1が選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者の顔が、縮小されていない大きさの顔(ナチュラルface)となり、選択ボタン532−1が選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者の顔は、やや縮小された大きさの顔(おすすめface)となり、選択ボタン533−1が選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者の顔は、縮小された大きさの顔(超小顔face)となる。   Specifically, when the selection button 531-1 is selected, the user's face in the captured image displayed in the processing target image display area 511-1 becomes a face (natural face) having a size that is not reduced. When the selection button 532-1 is selected, the user's face in the captured image displayed in the processing target image display area 511-1 becomes a slightly reduced face (recommended face), and the selection button 533 is selected. When −1 is selected, the user's face in the captured image displayed in the processing target image display area 511-1 becomes a face having a reduced size (ultra-small face).

タブレット内蔵モニタ131に対して左側の利用者は、選択ボタン521−1乃至523−1のいずれかを選択し、さらに、選択ボタン531−1乃至533−1のいずれかを選択し、OKボタン541−1を押下することで、加工対象画像表示領域511−1に表示される撮影画像における利用者の目の大きさおよび顔の大きさを変更することができる。   The user on the left side of the tablet built-in monitor 131 selects any one of the selection buttons 521-1 to 523-1, selects any one of the selection buttons 531-1 to 533-1, and then clicks an OK button 541. By pressing -1, it is possible to change the size of the user's eyes and the size of the face in the captured image displayed in the processing target image display area 511-1.

一方、加工対象画像表示領域511−2の下側には、撮影画像における目の大きさを選択するための選択ボタン521−2乃至523−2、顔の大きさを選択するための選択ボタン531−1乃至533−2、および、選択された目の大きさおよび顔の大きさを確定するためのOKボタン541−2が設けられているが、これらの機能は、基本的には、選択ボタン521−1乃至523−1、選択ボタン531−1乃至533−1、およびOKボタン541−1と同様である。   On the other hand, below the processing target image display area 511-2, selection buttons 521-2 to 523-2 for selecting the size of the eyes in the captured image, and a selection button 531 for selecting the size of the face. -1 to 533-2 and an OK button 541-2 for confirming the size of the selected eye and the size of the face are provided. This is the same as 521-1 to 523-1, selection buttons 531-1 to 533-1 and OK button 541-1.

つまり、タブレット内蔵モニタ131に対して右側の利用者は、選択ボタン521−2乃至523−2のいずれかを選択し、選択ボタン531−2乃至533−2のいずれかを選択し、OKボタン541−2を押下することで、撮影画像における利用者の目の大きさおよび顔の大きさを変更することができる。   That is, the user on the right side of the tablet built-in monitor 131 selects any one of the selection buttons 521-2 to 523-2, selects any one of the selection buttons 531-2 to 533-2, and then clicks an OK button 541. By pressing -2, the user's eye size and face size in the captured image can be changed.

このようにして、利用者の目の大きさおよび顔の大きさが変更された撮影画像が生成される。   In this way, a captured image in which the size of the user's eyes and the size of the face are changed is generated.

なお、OKボタン541−1およびOKボタン541−2のいずれかが押下されないで所定の時間が経過した場合、すなわち、タイムアウトした場合、対応する利用者の撮影画像における目の大きさおよび顔の大きさは、それぞれ所定の大きさ(例えば、おすすめeyeとおすすめface)に変更されるようになる。   When a predetermined time elapses without pressing either the OK button 541-1 or the OK button 541-2, that is, when a time-out occurs, the size of the eyes and the size of the face in the corresponding user's captured image. Each is changed to a predetermined size (for example, recommended eye and recommended face).

そして、OKボタン541−1およびOKボタン541−2が押下されるか、または、OKボタン541−1およびOKボタン541−2のいずれかが押下されないで所定の時間が経過する等した後、ステップS53において、加工処理部324は、複数枚の撮影画像それぞれにおける利用者のまつ毛部分を加工する。具体的には、加工処理部324は、利用者の目の大きさおよび顔の大きさが変更された撮影画像における利用者の目近傍の領域を抽出し、抽出した領域に含まれるまつ毛の量を例えば2段階で増量し、それぞれの量にまつ毛が増量された2枚の撮影画像を生成する。   Then, after the OK button 541-1 and the OK button 541-2 are pressed, or a predetermined time elapses without pressing any of the OK button 541-1 and the OK button 541-2, the step is performed. In S53, the processing unit 324 processes the user's eyelashes in each of the plurality of captured images. Specifically, the processing unit 324 extracts a region near the user's eyes in the captured image in which the size of the user's eyes and the size of the face are changed, and the amount of eyelashes included in the extracted region Is increased in two stages, for example, and two photographed images with the eyelashes increased in each amount are generated.

なお、まつ毛は、目の輪郭に沿ってその輪郭に対して略垂直に発達した体毛とされる。   The eyelashes are body hairs that have developed along the contours of the eyes substantially perpendicular to the contours of the eyes.

[まつ毛加工処理の詳細]
ここで、図15のフローチャートを参照して、まつ毛加工の処理の詳細について説明する。
[Details of eyelash processing]
Here, the details of the eyelash processing will be described with reference to the flowchart of FIG.

ステップS71において、加工処理部324は、撮影画像に対して顔認識を行う。   In step S71, the processing unit 324 performs face recognition on the captured image.

ステップS72において、加工処理部324は、撮影画像において顔認識された顔の領域から、目近傍の領域を抽出する。例えば、加工処理部324は、目の輪郭点を特定することで、目を含む矩形領域を抽出する。   In step S72, the processing unit 324 extracts a region in the vicinity of the eyes from the face region whose face is recognized in the captured image. For example, the processing unit 324 extracts a rectangular region including the eyes by specifying the outline points of the eyes.

ステップS73において、加工処理部324は、抽出した領域において、エッジ検出処理等を施すことにより、まつ毛部分を推測し、まつ毛のマスク画像(まつ毛マスク画像)を生成する。まつ毛部分の推測に際しては、例えば、目の輪郭近傍で黒色の色情報が抽出された複数の線分が並ぶ領域(線分領域)をまつ毛部分とする。   In step S <b> 73, the processing unit 324 performs an edge detection process or the like in the extracted region to estimate an eyelash portion, and generates a mask image of eyelashes (eyelash mask image). When estimating the eyelash part, for example, an area (line segment area) in which a plurality of line segments from which black color information is extracted in the vicinity of the outline of the eye is used as the eyelash part.

ステップS74において、加工処理部324は、生成したまつ毛マスク画像を用いて、撮影画像における利用者のまつ毛部分を加工する。具体的には、加工処理部324は、撮影画像において、まつ毛マスク画像に対応する領域に対して、所定の画像処理(コントラスト、明るさ、色調の変更、トーンカーブ補正等)を施すことにより、撮影画像におけるまつ毛部分を強調する(色を濃くする)。   In step S74, the processing unit 324 processes the user's eyelash portion in the captured image using the generated eyelash mask image. Specifically, the processing unit 324 performs predetermined image processing (contrast, brightness, tone change, tone curve correction, etc.) on the region corresponding to the eyelash mask image in the captured image, Emphasize the eyelashes in the captured image (make the color darker).

上述した処理によれば、まつ毛部分である線分領域の線分それぞれが拡大され、まつ毛1本1本を太くする加工が施される。   According to the above-described processing, each line segment of the line segment region that is the eyelash portion is enlarged, and processing for thickening each eyelash is performed.

なお、撮影画像のまつ毛マスク画像に対応する領域において、まつ毛マスク画像を、まつ毛部分である線分領域の線分が並ぶ方向に所定回数ずらして用いることで、まつ毛の本数を増やす加工が施されるようにしてもよい。   In the region corresponding to the eyelash mask image of the photographed image, the eyelash mask image is shifted by a predetermined number of times in the direction in which the line segments of the line segment region that is the eyelash part are arranged, thereby performing processing to increase the number of eyelashes. You may make it do.

さらに、まつ毛1本1本を太くする加工と、まつ毛の本数を増やす加工の両方が施されるようにしてもよい。   Furthermore, both the process of thickening each eyelash and the process of increasing the number of eyelashes may be performed.

このような処理により、撮影画像におけるまつ毛の量を増やす加工をことができる。   By such a process, the process which increases the amount of eyelashes in a picked-up image can be performed.

さて、図13のフローチャートに戻り、ステップS54において、表示制御部322は、撮影画像における利用者のまつ毛の加工の度合いの選択を受け付ける選択画面である、まつ毛のレタッチ画面を表示する。   Returning to the flowchart of FIG. 13, in step S <b> 54, the display control unit 322 displays a retouch screen for eyelashes, which is a selection screen for accepting selection of the degree of processing of the user's eyelashes in the captured image.

図16は、まつ毛のレタッチ画面の例を示す図である。   FIG. 16 is a diagram illustrating an example of a retouch screen for eyelashes.

図16に示されるように、レタッチ画面550には、レタッチ画面510と同様、主な構成が、左右に2つずつ設けられている。これにより、基本的に同じ組の2人の利用者が同時に撮影画像における利用者のまつ毛の加工の度合いを選択することができる。   As shown in FIG. 16, the retouch screen 550 is provided with two main components on the left and right, like the retouch screen 510. Thereby, two users of basically the same set can simultaneously select the degree of processing of the user's eyelashes in the captured image.

また、レタッチ画面550においては、レタッチ画面510と同様、加工対象画像表示領域511−1および加工対象画像表示領域511−2が表示される。   In addition, on the retouch screen 550, as with the retouch screen 510, a processing target image display area 511-1 and a processing target image display area 511-2 are displayed.

加工対象画像表示領域511−1の下側には、撮影画像における利用者のまつ毛の量を選択するための盛れるボタン551−1,552−1、および、加工前のまつ毛と加工後のまつ毛の見本となるサンプル画像が表示されるサンプル表示領域561−1が設けられている。   Below the processing target image display area 511-1, buttons 551-1 and 552-1 for selecting the amount of the user's eyelashes in the photographed image, and the eyelashes before processing and the eyelashes after processing. A sample display area 561-1 is provided in which a sample image serving as a sample is displayed.

盛れるボタン551−1は、撮影画像における利用者のまつ毛部分に加工を施す(まつ毛の量を増やす)ときに選択されるボタンであり、盛れるボタン552−1は、撮影画像における利用者のまつ毛部分に加工を施さないときに選択されるボタンである。   The button 551-1 that fills up is a button that is selected when the user's eyelash part in the photographed image is processed (increases the amount of eyelashes), and the button 552-1 that fills up is the button of the user in the photographed image. This button is selected when the eyelash part is not processed.

そして、盛れるボタン551−1,551−2のいずれかが選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者の目の領域が、ステップS53において生成された撮影画像のいずれかの目の領域部分に置き換わる。   Then, when any of the buttons 551-1 and 551-2 that are filled is selected, an area of the user's eyes in the captured image displayed in the processing target image display area 511-1 is generated in step S53. It replaces any eye area of the captured image.

具体的には、盛れるボタン551−1が選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者のまつ毛が増量された(ON)状態となり、選択ボタン552−1が選択されると、加工対象画像表示領域511−1に表示される撮影画像における利用者のまつ毛が増量されていない(OFF)状態となる。   Specifically, when the fill button 551-1 is selected, the user's eyelashes in the captured image displayed in the processing target image display area 511-1 are increased (ON), and the selection button 552 is selected. When 1 is selected, the user's eyelashes in the captured image displayed in the processing target image display area 511-1 are not increased (OFF).

タブレット内蔵モニタ131に対して左側の利用者は、盛れるボタン551−1,552−1のいずれかを選択することで、加工対象画像表示領域511−1に表示される撮影画像における利用者のまつ毛の量を変更する(まつ毛1本1本を太くしたり、まつ毛の本数を増やす)ことができる。   The user on the left side with respect to the tablet built-in monitor 131 selects one of the buttons 551-1 and 552-1 that is swelled, whereby the user in the captured image displayed in the processing target image display area 511-1 is displayed. The amount of eyelashes can be changed (one eyelash is made thicker or the number of eyelashes is increased).

なお、表示制御部322は、加工対象画像表示領域511−1に、まつ毛部分に加工が施されていない撮影画像を表示した状態で、まつ毛部分に対する加工の度合いの選択を受け付ける。すなわち、レタッチ画面550が最初に表示されたときには、加工対象画像表示領域511−1に表示される撮影画像は、まつ毛部分に加工が施されていない状態(選択ボタン552−1が選択された状態)で表示される。   In addition, the display control part 322 receives selection of the process degree with respect to an eyelash part in the state which displayed the picked-up image which is not processed to the eyelash part in the process target image display area 511-1. That is, when the retouch screen 550 is displayed for the first time, the photographed image displayed in the processing target image display area 511-1 is in a state in which the eyelash portion is not processed (the selection button 552-1 is selected). ) Is displayed.

これにより、利用者によって盛れるボタン551−1が選択されたときに、加工対象画像表示領域511−1に表示される撮影画像が、まつ毛部分に加工が施されていない状態からまつ毛部分に加工が施された状態に変化するようになり、利用者に対して、加工が施されることによるまつ毛部分の変化を強く印象づけることができるようになる。   Thereby, when the button 551-1 heaped up by the user is selected, the captured image displayed in the processing target image display area 511-1 is processed from the state where the eyelash portion is not processed to the eyelash portion. It will be changed to the state to which it was given, and a change of the eyelash part by processing can be impressed strongly to a user.

一方、加工対象画像表示領域511−2の下側には、撮影画像におけるまつ毛の量を選択するための盛れるボタン551−2,552−2、および、加工前のまつ毛と加工後のまつ毛の見本となるサンプル画像が表示されるサンプル表示領域561−2が設けられているが、これらの機能は、基本的には、盛れるボタン551−1,552−1、およびサンプル表示領域561−1と同様である。   On the other hand, on the lower side of the processing target image display area 511-2, buttons 551-2 and 552-2 for selecting the amount of eyelashes in the photographed image, and eyelashes before processing and eyelashes after processing are displayed. A sample display area 561-2 for displaying a sample image as a sample is provided, but these functions are basically based on buttons 551-1 and 552-1 that are prominent and a sample display area 561-1. It is the same.

タブレット内蔵モニタ131に対して右側の利用者は、盛れるボタン551−2,552−2のいずれかを押下することで、撮影画像における利用者のまつ毛の量を変更することができる。   The user on the right side of the tablet built-in monitor 131 can change the amount of the user's eyelashes in the photographed image by pressing one of the buttons 551-2 and 552-2 that are filled.

このようにして、利用者のまつ毛の量が変更された撮影画像が生成される。   In this way, a captured image in which the amount of the user's eyelashes is changed is generated.

そして、盛れるボタン551−2または552−2が押下されてから、所定の時間が経過する等した後、処理は、図12のステップS32に戻り、それ以降の処理が行われる。   Then, after a predetermined time elapses after the button 551-2 or 552-2 that has been pressed is pressed, the process returns to step S32 in FIG. 12, and the subsequent processes are performed.

従来は、撮影画像において目を強調するために、図17に示される目領域画像571に含まれる目の大きさを拡大することで、目強調画像572を生成することが行われていたが、撮影画像における利用者の顔の中で、目だけが極端に大きくなってしまうと、いかにも加工を施したような、不自然な印象を与えてしまうことがあった。   Conventionally, in order to emphasize the eyes in the captured image, the eye-enhanced image 572 is generated by enlarging the size of the eyes included in the eye region image 571 shown in FIG. In the user's face in the photographed image, if only the eyes become extremely large, an unnatural impression may be given as if processing has been performed.

一方、以上の処理によれば、目領域画像571のまつ毛部分に対して加工が施された目強調画像573が生成されるので、いかにも加工を施したような、不自然な印象を与えることなく、より自然に、目が強調された画像を提供することが可能となる。   On the other hand, according to the above processing, the eye emphasis image 573 in which the eyelash part of the eye region image 571 is processed is generated, so that it does not give an unnatural impression as if it had been processed. Thus, it is possible to provide an image in which eyes are emphasized more naturally.

また、以上の処理においては、目および顔の加工が行われた後に、まつ毛の加工が行われるので、利用者は、それぞれの加工において、どのような画像処理が施されるかを把握することができる。したがって、最終的に得られる画像において、その画像処理の内容を意識することが可能となり、結果として、利用者にとって印象に残る加工が施された、見栄えのよい画像を提供することが可能となる。   In the above processing, the eyelashes are processed after the eyes and face are processed, so the user must know what image processing is performed in each processing. Can do. Therefore, it is possible to be aware of the contents of the image processing in the finally obtained image, and as a result, it is possible to provide a good-looking image that has been subjected to processing that will leave an impression on the user. .

以上においては、目および顔のレタッチ画面が表示された後に、まつ毛のレタッチ画面が表示されるようにしたが、この順番は逆であってもよい。   In the above description, the eyelash retouch screen is displayed after the eye and face retouch screen is displayed, but this order may be reversed.

また、以上においては、レタッチ処理において、目および顔の加工と、まつ毛部分の加工とを、異なるレタッチ画面を表示させることで行わせるようにしたが、これらの加工を同一のレタッチ画面を表示させることで行わせるようにしてもよい。   In the above, in the retouching process, the processing of the eyes and face and the processing of the eyelashes are performed by displaying different retouching screens, but these processings are displayed on the same retouching screen. You may make it carry out.

[レタッチ処理の他の例]
ここで、図18のフローチャートを参照して、目および顔の加工と、まつ毛部分の加工とを、同一のレタッチ画面を表示させることで行わせるようしたレタッチ処理の例について説明する。
[Other examples of retouch processing]
Here, with reference to the flowchart of FIG. 18, an example of the retouching process in which the processing of the eyes and face and the processing of the eyelash part are performed by displaying the same retouching screen will be described.

ステップS91において、加工処理部324は、撮影画像における利用者の目、顔、およびまつ毛部分を加工する。これにより、例えば、3段階で目領域が拡大された3枚の撮影画像、3段階で顔領域が縮小された3枚の撮影画像、そして、2段階でまつ毛が増量された2枚の撮影画像が生成される。   In step S91, the processing unit 324 processes the user's eyes, face, and eyelash portions in the captured image. Thus, for example, three photographed images in which the eye area is enlarged in three stages, three photographed images in which the face area is reduced in three stages, and two photographed images in which the eyelashes are increased in two stages. Is generated.

ステップS92において、表示制御部322は、利用者による撮影画像における利用者の目、顔、およびまつ毛の加工の度合いの選択を受け付ける選択画面である、目、顔、およびまつ毛のレタッチ画面を表示する。   In step S92, the display control unit 322 displays an eye, face, and eyelash retouch screen that is a selection screen for accepting selection of the degree of processing of the user's eyes, face, and eyelashes in the captured image by the user. .

図19は、目、顔、およびまつ毛のレタッチ画面の例を示す図である。   FIG. 19 is a diagram illustrating an example of a retouch screen for eyes, a face, and eyelashes.

なお、図19のレタッチ画面580において、図14のレタッチ画面510に設けられている構成と同様の構成については、その説明を省略する。すなわち、図19のレタッチ画面580において、図14のレタッチ画面510と異なる点は、加工対象画像表示領域511−1の左側に、盛れるボタン581−1,582−1、および案内表示領域583−1が新たに設けられ、加工対象画像表示領域511−2の右側に、盛れるボタン581−2,582−2、および案内表示領域583−2が新たに設けられている点である。   In the retouch screen 580 in FIG. 19, the description of the same configuration as that provided in the retouch screen 510 in FIG. 14 is omitted. That is, the retouch screen 580 in FIG. 19 is different from the retouch screen 510 in FIG. 14 in that buttons 581-1 and 582-1 and a guidance display region 583 are arranged on the left side of the processing target image display area 511-1. 1 is newly provided, and buttons 581-2 and 582-2 and a guidance display area 583-2 that are prominent are newly provided on the right side of the processing target image display area 511-2.

なお、盛れるボタン581−1,582−1,581−2,582−2は、それぞれ、盛れるボタン551−1,552−1,551−2,552−2と同様の機能を有する。さらに、案内表示領域583−1,583−2には、盛れるボタン581−1,581−2が選択されることで、撮影画像における利用者のまつ毛部分が強調されることを案内する文言「“盛れるボタン”でもっと盛れる!」が表示されている。   Note that the buttons 581-1, 582-1, 581-2, and 582-2 that have the same functions as the buttons 551-1, 552-1, 551-2, and 552-2 that have increased. Furthermore, in the guidance display areas 583-1 and 583-2, a word “Guide” is provided to guide that the user's eyelashes in the captured image are emphasized by selecting the buttons 581-1 and 581-2 that are filled. “More buttons are available!” Is displayed.

タブレット内蔵モニタ131に対して左側の利用者は、選択ボタン521−1乃至523−1のいずれかを選択し、選択ボタン531−1乃至533−1のいずれかを選択し、さらに、盛れるボタン581−1,582−1のいずれかを選択することで、加工対象画像表示領域511−1に表示される撮影画像における利用者の目の大きさおよび顔の大きさ、およびまつ毛の量を変更することができる。   The user on the left side of the tablet built-in monitor 131 selects any one of the selection buttons 521-1 to 523-1, selects any one of the selection buttons 531-1 to 533-1, and further displays a button. By selecting one of 581-1 and 582-1, the size of the user's eyes, the size of the face, and the amount of eyelashes in the captured image displayed in the processing target image display area 511-1 are changed. can do.

同様に、タブレット内蔵モニタ131に対して右側の利用者は、選択ボタン521−2乃至523−2のいずれかを選択し、選択ボタン531−2乃至533−2のいずれかを選択し、さらに、盛れるボタン581−2,582−2のいずれかを選択することで、加工対象画像表示領域511−2に表示される撮影画像における利用者の目の大きさおよび顔の大きさ、およびまつ毛の量を変更することができる。   Similarly, the user on the right side of the tablet built-in monitor 131 selects one of the selection buttons 521-2 to 523-2, selects one of the selection buttons 531-2 to 533-2, By selecting one of the buttons 581-2 and 582-2 that can be filled, the size of the user's eyes and face in the captured image displayed in the processing target image display area 511-2, and the eyelashes The amount can be changed.

このようにして、利用者の目の大きさ、顔の大きさ、およびまつ毛の量が変更された撮影画像が生成される。   In this way, a captured image is generated in which the size of the user's eyes, the size of the face, and the amount of eyelashes are changed.

そして、OKボタン541−2および541−2が押下されるか、または、所定の時間が経過する等した後、処理は、図12のステップS32に戻り、それ以降の処理が行われる。   Then, after the OK buttons 541-2 and 541-2 are pressed or a predetermined time elapses, the process returns to step S32 in FIG. 12, and the subsequent processes are performed.

以上の処理によれば、1つのレタッチ画面において、目、顔、およびまつ毛部分の加工を行わせるようにしたので、利用者は、加工対象画像表示領域に表示される撮影画像を確認しながら目、顔、およびまつ毛をバランスよく変更することができ、結果として、利用者の所望する見栄えの画像を提供することが可能となる。   According to the above processing, since the eye, face, and eyelash part are processed on one retouch screen, the user can check the captured image displayed in the processing target image display area while checking the captured image. Thus, the face and the eyelashes can be changed in a balanced manner, and as a result, it is possible to provide an image that looks good for the user.

なお、レタッチ画面580における案内表示領域583−1,583−2に、図20に示されるように、加工前のまつ毛と加工後のまつ毛の見本となるサンプル画像が表示されるようにしてもよい。   In addition, as shown in FIG. 20, sample images that serve as sample eyelashes before and after processing may be displayed in the guidance display areas 583-1 and 583-2 on the retouch screen 580. .

また、上述した処理においては、目の大きさの3段階の変更と、まつ毛の量の2段階の変更とをあわせて、撮影画像における利用者の目に対して、6段階の加工を施すことが可能となり、利用者の所望する撮影画像を提供することができる。   In the above-described processing, a six-stage process is performed on the user's eyes in the photographed image by combining the three-stage change in eye size and the two-stage change in the amount of eyelashes. Thus, a photographed image desired by the user can be provided.

さらに、まつ毛の加工の度合いを2段階ではなく、3段階以上にしてもよい。これにより、撮影画像における利用者の目に対して、より多くの段階の加工を施すことが可能となり、より一層、利用者の所望する撮影画像を提供することができるようになる。   Furthermore, the degree of eyelash processing may be three or more, instead of two. As a result, it is possible to apply more stages of processing to the user's eyes in the captured image, and to provide a captured image desired by the user.

また、上述した処理においては、目、顔、およびまつ毛部分に対する加工の度合いを、それぞれ利用者に選択させるようにしたが、目、顔、およびまつ毛部分それぞれに対する加工の度合いが予め組み合わされた加工パターンを用意し、利用者に選択させるようにしてもよい。   Further, in the above-described processing, the user is allowed to select the degree of processing for the eyes, face, and eyelash portions, but the processing in which the degrees of processing for the eyes, face, and eyelash portions are combined in advance. A pattern may be prepared and the user may select it.

例えば、図19のレタッチ画面580上に、加工パターンとして、「クール」や「かわいい」等のジャンルを選択させる選択ボタンを設けるようにする。そして、例えば「クール」のボタンが選択された場合には、目の大きさ“ナチュラルeye”、顔の大きさ“ナチュラルface”、まつ毛“OFF”となるように、撮影画像における利用者の目、顔、およびまつ毛に対する加工が施され、「かわいい」のボタンが選択された場合には、目の大きさ“おすすめeye”、顔の大きさ“超小顔”、まつ毛“ON”となるように、撮影画像における利用者の目、顔、およびまつ毛に対する加工が施されるようにする。   For example, a selection button for selecting a genre such as “cool” or “cute” is provided on the retouch screen 580 of FIG. 19 as a processing pattern. For example, when the “cool” button is selected, the eyes of the user in the captured image are set so that the eye size is “natural eye”, the face size is “natural face”, and the eyelash is “OFF”. When the “cute” button is selected, the face size is “recommended eye”, the face size is “very small face”, and the eyelash is “ON”. In addition, the user's eyes, face, and eyelashes in the captured image are processed.

これにより、加工パターンとしての「クール」や「かわいい」等のジャンルで表されるイメージに合わせた加工を撮影画像に施すことができるとともに、利用者による選択の手間を低減し、操作時間の短縮を図ることができるようになる。   As a result, it is possible to process the captured image according to the image represented by a genre such as “cool” or “cute” as the processing pattern, reduce the user's selection effort, and shorten the operation time. Can be planned.

なお、このとき、レタッチ画面580においては、加工パターンによって選択されている加工の度合いに対応する選択ボタン(例えば、「クール」のボタンが選択された場合、選択ボタン521−1,531−1,582−1)をアクティブにするようにする。これにより、利用者に、どのような加工が撮影画像に施されるかを把握させることができる。   At this time, on the retouch screen 580, a selection button corresponding to the degree of processing selected by the processing pattern (for example, when a “Cool” button is selected, the selection buttons 521-1, 531-1, etc.). 582-1) is activated. Thereby, the user can grasp what kind of processing is performed on the captured image.

また、以上においては、目の大きさや顔の大きさ、まつ毛の有無を選択させる選択ボタンが選択される前に、目や顔、まつ毛の加工が施されるものとしたが、目の大きさや顔の大きさ、まつ毛の有無を選択ボタンが選択された後に、その選択ボタンに対応する加工が目や顔、まつ毛の加工が施されるようにしてもよい。   In the above, the eye, face, and eyelashes are processed before the selection button for selecting the size of the eye, the size of the face, and the presence or absence of eyelashes is selected. After the selection button for selecting the size of the face and the presence or absence of eyelashes is selected, the processing corresponding to the selection button may be processed for the eyes, face, and eyelashes.

さらに、以上においては、レタッチ画面において、目、顔、およびまつ毛に対する加工の度合いを受け付けるようにしたが、これらに限らず、チークの大きさや色味、肌の質感、鼻および唇の色や形状、大きさ、髪の毛の色味等を変更する加工の度合いを受け付けるようにしてもよい。   Further, in the above, the retouch screen accepts the degree of processing for eyes, face, and eyelashes, but is not limited to this, the size and color of teak, the texture of skin, the color and shape of nose and lips The degree of processing for changing the size, the color of the hair, and the like may be received.

さらに、以上においては、まつ毛に対する加工として、まつ毛の量を増やす加工が行われるものとしたが、まつ毛の色を、例えば、黒、グレー、ブラウン、ブルー等に変更する加工が行われるようにしてもよい。   Furthermore, in the above, processing for increasing the amount of eyelashes is performed as processing for eyelashes, but processing for changing the color of the eyelashes to, for example, black, gray, brown, blue, etc. Also good.

[唇を加工するレタッチ処理について]
以上においては、レタッチ処理として、利用者の操作に基づいて、撮影画像における利用者の目および顔を加工する処理について説明したが、他の部分を加工するようにしてもよい。
[About retouch processing to process lips]
In the above, the processing for processing the eyes and face of the user in the captured image based on the user's operation has been described as the retouch processing, but other portions may be processed.

例えば、利用者の唇を加工するレタッチ処理が行われるようにする。このレタッチ処理においては、撮影画像に写る利用者が個々に識別され、識別された利用者毎に、その唇が加工される。   For example, a retouch process for processing the user's lips is performed. In this retouching process, users appearing in the captured image are individually identified, and the lips are processed for each identified user.

[識別撮影]
まず、撮影処理において、撮影処理部301は、利用者を被写体とした複数回の撮影のうちの少なくとも1回の撮影として、利用者を識別するための識別撮影を行う。ここでは、複数回の撮影のうちの1回目の撮影として、識別撮影が行われるものとするが、複数回の撮影のうちのいずれの回の撮影として、識別撮影が行われるようにしてもよい。
[Identification shooting]
First, in the photographing process, the photographing processing unit 301 performs identification photographing for identifying a user as at least one photographing among a plurality of photographings with the user as a subject. Here, the identification shooting is performed as the first shooting of the plurality of shootings, but the identification shooting may be performed as any shooting of the plurality of shootings. .

識別撮影は、被写体となる利用者が複数の場合には、利用者それぞれの顔を識別し、さらに利用者の顔の各パーツ(目、口など)を認識するために行われる撮影である。この撮影により得られた撮影画像(以下、識別用画像という)は、編集処理において編集対象とされたり、印刷処理においてシール紙に印刷されることはなく、顔の識別や顔の各パーツの認識のためだけに利用される。   Identification photography is photography performed in order to identify each user's face and to recognize each part (eyes, mouth, etc.) of a user's face, when there are a plurality of users who are subjects. A photographed image (hereinafter referred to as an identification image) obtained by this photographing is not subject to editing in the editing process or printed on sticker paper in the printing process, so that the face is identified and each part of the face is recognized. Used only for.

このような目的から、上述した識別撮影のガイダンスでは、利用者に対して、正面を向いて撮影することを促す画面の表示や音声の出力が行われる。   For this purpose, in the above-described identification shooting guidance, a screen is displayed to prompt the user to take a picture and a sound is output.

ガイダンスが終了すると、撮影制御部301によって、カメラ91による動画像の撮影が開始され、撮影によって得られた利用者が映る動画像が、タッチパネルモニタ92上のライブビュー表示画面に表示される。   When the guidance is finished, shooting of the moving image by the camera 91 is started by the shooting control unit 301, and a moving image showing the user obtained by shooting is displayed on the live view display screen on the touch panel monitor 92.

図21は、識別撮影のライブビュー表示画面の例を示す図である。   FIG. 21 is a diagram illustrating an example of a live view display screen for identification photography.

ライブビュー表示画面の上方には、「最初にひとりひとりの顔を登録するよ!枠の中に入って前を向いて撮影してね!」のメッセージが表示される。そのメッセージの下に設けられた画像表示領域511,512には、2人の利用者それぞれが映る動画像がリアルタイムで表示される。また、画像表示領域511,512の下には、「登録した画像はシールに印刷されないよ!」のメッセージが表示される。   At the top of the live view display screen, the message “Register each face first! Take a picture in the frame and look forward!” Is displayed. In the image display areas 511 and 512 provided under the message, moving images showing the two users are displayed in real time. Also, a message “Registered image will not be printed on the sticker!” Is displayed below the image display areas 511 and 512.

カメラ91により撮影された動画像のうち、所定の範囲が切り出されて、画像表示領域511,512の表示に用いられる。2人の利用者は、画像表示領域511,512の表示を確認しながら、それぞれの顔が画像表示領域511,512に収まるように、顔の位置を調整する。   A predetermined range is cut out from the moving image photographed by the camera 91 and used to display the image display areas 511 and 512. The two users adjust the positions of the faces so that the respective faces fit in the image display areas 511 and 512 while confirming the display of the image display areas 511 and 512.

このようなライブビュー画像が所定の時間表示された後、撮影前のカウントダウンが開始され、撮影のタイミングになったとき、撮影制御部301は、識別用画像としての静止画像を取得する撮影を行い、識別撮影の撮影結果をタッチパネルモニタ92に表示させる。   After such a live view image is displayed for a predetermined time, a countdown before shooting starts, and when the shooting timing comes, the shooting control unit 301 performs shooting to acquire a still image as an identification image. Then, the photographing result of the identification photographing is displayed on the touch panel monitor 92.

以上のようにして、識別撮影が行われた後、通常の撮影が所定回数行われる。   As described above, after identification photography is performed, normal photography is performed a predetermined number of times.

識別撮影によって得られた識別用画像は、編集処理において、利用者の唇を加工するレタッチ処理に用いられる。なお、このレタッチ処理は、上述したレタッチ処理とは異なり、編集画面が操作されることで行われる。   The identification image obtained by the identification photographing is used in a retouch process for processing the user's lips in the editing process. Note that this retouching process is performed by operating the editing screen, unlike the above-described retouching process.

[編集画面の例]
図22は、利用者の唇を加工するレタッチ処理が実行される編集画面の例を示している。
[Example of edit screen]
FIG. 22 shows an example of an edit screen on which a retouch process for processing the user's lips is executed.

編集画面は、基本的に、主な構成が左右対象に設けられることによって構成される。左半分の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域であり、右半分の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような構成により、2人の利用者が同時に編集作業を行うことができる。   The edit screen is basically configured by providing the main configuration for the left and right objects. The left half area is an area used by a user on the left side toward the tablet built-in monitor 131, and the right half area is an area used by a user on the right side toward the tablet built-in monitor 131. With such a configuration, two users can perform editing work simultaneously.

以下においては、編集画面の左半分の領域について説明する。なお、編集画面の右半分の領域には、後述する左半分の領域に配置される構成と同じ構成が、位置を対称にして配置される。   In the following, the left half area of the editing screen will be described. In the right half area of the editing screen, the same arrangement as that arranged in the left half area described later is arranged symmetrically.

編集画面の左半分の領域の中央上方には、サムネイル画像表示領域711が設けられる。   A thumbnail image display area 711 is provided above the center of the left half area of the editing screen.

サムネイル画像表示領域711は、撮影画像を表すサムネイル画像の表示領域である。利用者(タブレット内蔵モニタ131に向かって左側にいる利用者)は、サムネイル画像表示領域711に表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択することができる。   The thumbnail image display area 711 is a display area for thumbnail images representing captured images. A user (a user on the left side of the tablet built-in monitor 131) can select a captured image to be edited by selecting a thumbnail image displayed in the thumbnail image display area 711.

編集画面の左半分の領域のほぼ中央には、編集領域712が形成される。   An edit area 712 is formed at substantially the center of the left half area of the edit screen.

編集領域712は、編集対象として選択された撮影画像(編集対象画像)の表示領域である。利用者は、タッチペン132Aを用いて編集ツールを選択し、編集領域712に表示された撮影画像の編集を行うことができる。   The edit area 712 is a display area for a captured image (edit target image) selected as an edit target. The user can select an editing tool using the touch pen 132 </ b> A and edit the captured image displayed in the editing area 712.

編集領域712の左側には、ペンパレット表示領域713が設けられる。   A pen palette display area 713 is provided on the left side of the editing area 712.

ペンパレット表示領域713は、手書き入力に用いられる合成用画像であるペン画像の選択に用いられるペンパレットの表示領域である。ペンパレット表示領域713には、ペン画像の線の種類、太さ、色の選択に用いられるボタンが複数表示される。ペンパレット表示領域713のペンパレットは、編集画面が表示されている間、常時表示される。   The pen pallet display area 713 is a display area of a pen pallet used for selecting a pen image that is a composition image used for handwriting input. In the pen palette display area 713, a plurality of buttons used to select the line type, thickness, and color of the pen image are displayed. The pen palette in the pen palette display area 713 is always displayed while the editing screen is displayed.

編集領域712の下方には、編集用パレット表示領域714が設けられる。   An editing palette display area 714 is provided below the editing area 712.

編集用パレット表示領域714は、スタンプ画像を主とした合成用画像の選択に用いられる編集用パレットの表示領域である。編集用パレットに表示される合成用画像はカテゴリ毎に分かれており、それぞれのカテゴリ名が付されたタブを選択することによって、編集用パレット表示領域714に表示させる合成用画像を切り替えることができるようになされている。   The editing pallet display area 714 is an editing pallet display area used for selecting a composite image mainly including a stamp image. The composition image displayed on the editing palette is divided into categories, and the composition image displayed in the editing palette display area 714 can be switched by selecting a tab with each category name. It is made like that.

具体的には、図22の例では、スタンプ画像は、"RECOMMEND","STAMP","MESSAGE","MAKE"、および"PATTERN"の5つのカテゴリに分かれており、そのうちの"RECOMMEND"のカテゴリ名が付されたタブが選択されている。   Specifically, in the example of FIG. 22, the stamp image is divided into five categories of “RECOMMEND”, “STAMP”, “MESSAGE”, “MAKE”, and “PATTERN”, of which “RECOMMEND” The tab with the category name is selected.

さらに、図22の例では、"RECOMMEND"のカテゴリに分類されているスタンプ画像は、「スタンプ1」、「スタンプ2」、「おななえ」、および「日付」の4つの小カテゴリにさらに分かれており、そのうちの「スタンプ1」の小カテゴリ名が付されたボタンが選択されている。   Further, in the example of FIG. 22, the stamp images classified into the “RECOMMEND” category are further divided into four small categories “stamp 1”, “stamp 2”, “name”, and “date”. Among them, the button with the small category name “stamp 1” is selected.

ところで、図22の例では、編集用パレットにおいて"MAKE"のカテゴリ名が付されたタブが選択されることで、利用者の唇を加工するレタッチ処理が行われる。   By the way, in the example of FIG. 22, a retouch process for processing the user's lips is performed by selecting a tab with the category name “MAKE” in the editing palette.

[編集用パレットの例]
図23は、利用者の唇を加工するレタッチ処理が行われる際の編集用パレットの例を示している。
[Example of editing palette]
FIG. 23 shows an example of an editing palette when a retouch process for processing the user's lips is performed.

図23の例では、"MAKE"のカテゴリに分類されているスタンプ画像は、「リップ」、「チーク&つけま」、「なりきり」、および「変身」の4つの小カテゴリにさらに分かれており、そのうちの「リップ」の小カテゴリ名が付されたボタンが選択されている。   In the example of FIG. 23, the stamp images classified into the “MAKE” category are further divided into four sub-categories of “lip”, “teak & tsukema”, “narikiri”, and “transformation”. The button with the small category name “Lip” is selected.

図23に示される編集用パレットには、上述した識別撮影により得られた識別用画像において識別された利用者それぞれの顔画像721−1,721−2が、互いに間隔を空けて左右に並んで表示される。   In the editing palette shown in FIG. 23, the face images 721-1 and 721-2 of the respective users identified in the identification image obtained by the identification photography described above are arranged side by side with a space between each other. Is displayed.

顔画像721−1,721−2それぞれの下方には、顔画像721−1,721−2それぞれに対応する利用者の唇の色を選択させるための選択領域722−1,722−2が設けられる。   Below the face images 721-1 and 721-2, selection areas 722-1 and 722-2 for selecting the color of the user's lips corresponding to the face images 721-1 and 721-2 are provided. It is done.

選択領域722−1,722−2には、識別された利用者それぞれの唇の色を個別に選択させるための複数のアイコンが表示される。具体的には、選択領域722−1,722−2には、各種の唇の色(リップカラー)を示すアイコンが表示される。   In the selection areas 722-1 and 722-2, a plurality of icons for individually selecting the lip colors of the identified users are displayed. Specifically, icons indicating various lip colors (lip colors) are displayed in the selection areas 722-1 and 722-2.

例えば、選択領域722−1において、リップカラーがピンク色のアイコンが選択された場合、編集領域712に表示されている編集対象画像において、顔画像721−1に対応する利用者の唇の色が、ピンク色に変更される。また、選択領域722−2において、リップカラーが赤色のアイコンが選択された場合、編集領域712に表示されている編集対象画像において、顔画像721−2に対応する利用者の唇の色が、赤色に変更される。   For example, when an icon having a pink lip color is selected in the selection area 722-1, the color of the user's lips corresponding to the face image 721-1 in the editing target image displayed in the editing area 712 is displayed. The color is changed to pink. In addition, when an icon with a red lip color is selected in the selection area 722-2, the color of the user's lips corresponding to the face image 721-2 in the editing target image displayed in the editing area 712 is It is changed to red.

このようにして、選択領域においてリップカラーのアイコンが選択される度に、編集対象画像において、アイコンが選択された選択領域に対応する利用者の唇の色が、選択されたアイコンで示される色に変更される。   In this way, each time a lip color icon is selected in the selected area, the color of the user's lips corresponding to the selected area where the icon is selected in the image to be edited is the color indicated by the selected icon. Changed to

なお、編集用パレットに表示される顔画像は、編集領域712に表示される編集対象画像と比べて小さい。したがって、利用者は、編集作業を行う際、より大きい編集対象画像を見ることになる。そこで、選択領域においてリップカラーのアイコンが選択されても、その選択領域に対応する顔画像の唇の色は変更されないものとする。   Note that the face image displayed in the editing palette is smaller than the editing target image displayed in the editing area 712. Therefore, the user sees a larger image to be edited when performing the editing work. Therefore, even if a lip color icon is selected in the selection area, the lip color of the face image corresponding to the selection area is not changed.

なお、選択領域においてリップカラーのアイコンが選択されることで、その選択領域に対応する顔画像の唇の色が変更されるようにしてもよい。この場合、利用者は、編集用パレット内での視線の移動だけで、変更後の唇の色を確認することができる。   Note that the lip color of the face image corresponding to the selected area may be changed by selecting the lip color icon in the selected area. In this case, the user can confirm the color of the lip after the change only by moving the line of sight within the editing palette.

また、編集用パレットに表示される顔画像を、識別用画像において識別された利用者それぞれの顔画像ではなく、編集領域712に表示される編集対象画像から抽出された利用者それぞれの顔画像としてもよい。これにより、利用者は、編集領域712に表示される編集対象画像と、編集用パレットに表示される顔画像のいずれでも、変更後の唇の色を確認することができる。   Further, the face image displayed on the editing palette is not the face image of each user identified in the identification image, but the face image of each user extracted from the image to be edited displayed in the editing area 712. Also good. As a result, the user can check the color of the lips after the change in both the editing target image displayed in the editing area 712 and the face image displayed in the editing palette.

さて、リップOFFボタン723−1が操作されると、編集領域712に表示されている編集対象画像において、顔画像721−1に対応する利用者の唇の色が最初の状態(色が変更される前の状態)に戻る。同様に、リップOFFボタン723−2が操作されると、編集領域712に表示されている編集対象画像において、顔画像721−2に対応する利用者の唇の色が最初の状態(色が変更される前の状態)に戻る。   When the lip OFF button 723-1 is operated, the color of the user's lips corresponding to the face image 721-1 in the editing target image displayed in the editing area 712 is in the initial state (the color is changed). Return to the previous state. Similarly, when the lip OFF button 723-2 is operated, in the editing target image displayed in the editing area 712, the color of the user's lips corresponding to the face image 721-2 is in the initial state (the color is changed). Return to the state before

また、リップ消しゴム724が操作され、編集対象画像において色が変更されている唇の部分がタッチペンでなぞられると、利用者の区別なく、その部分の色が最初の状態(色が変更される前の状態)に戻る。   Further, when the lip eraser 724 is operated and the lip portion whose color is changed in the image to be edited is traced with the touch pen, the color of the portion is changed to the initial state (before the color is changed) without distinguishing the user. Return to the state.

[リップカラー変更処理について]
ここで、図24のフローチャートを参照して、上述したリップカラーが変更される処理の詳細について説明する。
[About lip color change processing]
Here, with reference to the flowchart of FIG. 24, the detail of the process which changes the lip color mentioned above is demonstrated.

この処理は、表示制御部322の制御により、編集対象画像として選択された撮影画像が編集領域712に表示され、図23に示される編集用パレットが編集用パレット表示領域714に表示された状態で実行される。   In this process, the captured image selected as the image to be edited is displayed in the editing area 712 under the control of the display control unit 322, and the editing palette shown in FIG. 23 is displayed in the editing palette display area 714. Executed.

まず、ステップS111において、編集処理部302は、識別撮影により得られた識別用画像に基づいて、編集対象画像に写る利用者それぞれを識別する。   First, in step S111, the editing processing unit 302 identifies each user who appears in the editing target image based on the identification image obtained by identification photographing.

次に、ステップS112において、入力受付部323は、編集用パレット(図23)において、識別された利用者に対応する選択領域に表示されるリップカラーのアイコンのいずれかが選択されたか否かを判定する。   Next, in step S112, the input receiving unit 323 determines whether any of the lip color icons displayed in the selection area corresponding to the identified user is selected in the editing palette (FIG. 23). judge.

リップカラーのアイコンのいずれかが選択されるまで、ステップS112の処理は繰り返される。そして、リップカラーのアイコンのいずれかが選択されたと判定されると、処理はステップS113に進む。   The process of step S112 is repeated until one of the lip color icons is selected. If it is determined that one of the lip color icons is selected, the process proceeds to step S113.

ステップS113において、加工処理部324は、編集対象画像において、選択されたアイコンに対応する利用者の唇の色を、選択されたアイコンで示される色に変更する。   In step S113, the processing unit 324 changes the color of the user's lips corresponding to the selected icon to the color indicated by the selected icon in the editing target image.

具体的には、加工処理部324は、編集対象画像において、対応する利用者の唇の形状や位置を認識する。そして、加工処理部324は、認識された形状で、選択されたアイコンで示される色の合成用画像を、編集対象画像において認識された位置に合成することで、唇の色を変更する。なお、単に、編集対象画像において認識された唇の領域の色情報を変更することで、唇の色が変更されるようにしてもよい。   Specifically, the processing unit 324 recognizes the shape and position of the corresponding user's lips in the editing target image. Then, the processing unit 324 changes the color of the lips by synthesizing the synthesis image of the color indicated by the selected icon with the recognized shape at the position recognized in the editing target image. Note that the color of the lips may be changed simply by changing the color information of the lip area recognized in the image to be edited.

以上の処理によれば、編集対象画像に写る利用者毎に、唇の色を選択された色に変更することができる。   According to the above processing, the lip color can be changed to the selected color for each user who appears in the image to be edited.

なお、以上においては、編集用パレットにおいて、利用者それぞれの唇の色を個別に選択させるようにしたが、利用者それぞれの唇の色を一括して選択させるようにしてもよい。   In the above description, the lip color of each user is individually selected in the editing palette. However, the lip color of each user may be selected collectively.

[編集用パレットの他の例]
図25は、利用者それぞれの唇の色を一括して選択させるようにした編集用パレットの例を示している。
[Other examples of editing palette]
FIG. 25 shows an example of an editing palette in which the lip colors of the users are selected at once.

図25に示される編集用パレットには、利用者の唇の色を選択させるための選択領域731が設けられる。   The editing palette shown in FIG. 25 is provided with a selection area 731 for selecting the color of the user's lips.

選択領域731には、識別された利用者それぞれの唇の色を一括して選択させるための複数のアイコンが表示される。具体的には、選択領域731には、識別用画像において識別された2人の利用者それぞれのリップカラーの組み合わせを示す正方形が左右に2つ並んで構成されるアイコンが表示される。   The selection area 731 displays a plurality of icons for collectively selecting the lip colors of the identified users. Specifically, in the selection area 731, an icon is displayed that is formed by arranging two squares indicating the combination of lip colors of the two users identified in the identification image.

例えば、選択領域731において、左側の正方形がピンク色で、右側の正方形が赤色のアイコンが選択された場合、編集領域712に表示されている編集対象画像において、識別用画像において識別された2人の利用者のうち、左側の利用者の唇の色がピンク色に変更され、右側の利用者の唇の色が赤色に変更される。   For example, in the selection area 731, when the left square is pink and the right square is a red icon, two people identified in the identification image in the editing target image displayed in the editing area 712 are selected. Among the users, the lip color of the left user is changed to pink, and the lip color of the right user is changed to red.

このとき、編集対象画像における利用者の配置(左右の位置)に関わらず、識別用画像において識別された利用者毎に、その唇の色がアイコンで示されるそれぞれの色に変更される。   At this time, the color of the lips is changed to each color indicated by the icon for each user identified in the identification image, regardless of the user arrangement (left and right positions) in the editing target image.

このようにして、選択領域においてリップカラーの組み合わせを示すアイコンが選択される度に、編集対象画像における利用者それぞれの唇の色が、選択されたアイコンで示されるそれぞれの色に一括して変更される。   In this way, each time an icon indicating a combination of lip colors is selected in the selection area, the lip color of each user in the image to be edited is collectively changed to the respective color indicated by the selected icon. Is done.

利用者それぞれの唇の色が個別に選択されるようにした場合、利用者は、自身の唇の色のみを選択し、一緒に写る他の利用者の唇の色を選択しないおそれがある。そこで、利用者それぞれの唇の色を一括で選択させることで、利用者に、自身の唇の色とともに、一緒に写る他の利用者の唇の色を選択させることができる。   When the color of each user's lips is selected individually, the user may select only the color of his / her lips, and may not select the color of the lips of other users who appear together. Therefore, by selecting the color of each user's lips in a lump, the user can select the color of the lips of other users that appear together with the color of his / her lips.

なお、図25に示される編集用パレットには、識別用画像において識別された利用者それぞれの顔画が表示されない分、より多くのアイコンが表示されるようにできる。これにより、唇の色を、より一層様々な色に変更することができる。   Note that more icons can be displayed in the editing palette shown in FIG. 25 because the facial images of the users identified in the identification image are not displayed. Thereby, the color of the lips can be changed to various colors.

さて、入れ替えボタン732が操作されると、選択領域731に表示される全てのアイコンにおけるリップカラーの組み合わせが、左右で入れ替わる。   Now, when the replacement button 732 is operated, the lip color combinations in all the icons displayed in the selection area 731 are switched on the left and right.

また、リップOFFボタン733が操作されると、編集領域712に表示されている編集対象画像において、利用者それぞれの唇の色が最初の状態(色が変更される前の状態)に戻る。   Further, when the lip OFF button 733 is operated, the color of each user's lips returns to the initial state (the state before the color is changed) in the editing target image displayed in the editing area 712.

さらに、リップ消しゴム734が操作され、編集対象画像において色が変更されている唇の部分がタッチペンでなぞられると、利用者の区別なく、その部分の色が最初の状態(色が変更される前の状態)に戻る。   Further, when the lip eraser 734 is operated and the lip part whose color is changed in the image to be edited is traced with the touch pen, the color of the part is changed to the initial state (before the color is changed) without distinguishing the user. Return to the state.

なお、以上においては、利用者が2人であるものとして説明してきたが、利用者の人数によって、選択領域731に表示されるアイコンの形態が変わるようにしてもよい。   In the above description, it is assumed that there are two users. However, the form of the icon displayed in the selection area 731 may be changed depending on the number of users.

例えば、利用者が3人の場合、識別用画像において識別された3人の利用者それぞれのリップカラーの組み合わせを示す正方形が左右に3つ並んで構成されるアイコンが表示されるようにする。   For example, when there are three users, an icon is displayed in which three squares indicating combinations of lip colors of the three users identified in the identification image are arranged side by side.

通常、編集作業に用いられるタッチペンは2本であるので、利用者が3人の場合、そのうちの1人は編集作業に参加できず、他の2人の編集作業の様子を見るだけとなる。そこで、上述したように、3人の利用者それぞれのリップカラーの組み合わせを示すアイコンを用意することで、タッチペンを操作しない利用者に対して、編集作業に参加した印象を与え、その利用者が、編集作業を行っている他の利用者とともに編集作業を楽しむことができる。   Usually, since there are two touch pens used for the editing work, when there are three users, one of them cannot participate in the editing work and only looks at the editing work of the other two persons. Therefore, as described above, by preparing an icon indicating the combination of the lip colors of each of the three users, the user who does not operate the touch pen is given an impression of participating in the editing work. The editing work can be enjoyed together with other users who are doing the editing work.

なお、利用者が3人以上の場合には、識別用画像において識別された利用者それぞれのリップカラーの組み合わせを示す正方形が人数分並んで構成されるアイコンが表示されるものとする。   When there are three or more users, it is assumed that an icon is formed in which squares indicating combinations of lip colors of the users identified in the identification image are arranged for the number of people.

さらに、図示はしないが、上述した編集用パレットに、ランダムボタンが設けられるようにしてもよい。ランダムボタンが押下されると、選択領域に表示されているいずれかのアイコンが無作為的に選択されて、編集対象画像における利用者それぞれの唇の色が、無作為に選択されたアイコンに示される色に変更される。これにより、意外性があり面白味のある画像を利用者に提供することができる。   Furthermore, although not shown, a random button may be provided on the editing palette described above. When the random button is pressed, one of the icons displayed in the selection area is randomly selected, and the color of each user's lips in the image to be edited is shown in the randomly selected icon. The color is changed. As a result, an unexpected and interesting image can be provided to the user.

以上においては、編集用パレットの選択領域に、リップカラーを示すアイコンのみが表示されるようにしたが、唇のつやの具合を選択させるリップグロスアイコンが、さらに表示されるようにしてもよい。例えば、リップグロスアイコンとして、唇をつやつやした印象にするためのアイコン(つやアイコン)と、逆に唇のつやを抑えてマットな印象にするためのアイコン(マットアイコン)とが表示されるようにする。この場合、リップカラーを示すアイコンが選択された後、つやアイコンまたはマットアイコンが選択されるようにする。   In the above, only the icon indicating the lip color is displayed in the selection area of the editing palette. However, a lip gloss icon for selecting the glossiness of the lips may be further displayed. For example, as a lip gloss icon, an icon (matte icon) for making a lip glossy impression and an icon (matte icon) for reducing a lip gloss and making a matte impression are displayed. To do. In this case, after the icon indicating the lip color is selected, the glossy icon or the mat icon is selected.

また、編集用パレットの選択領域に、リップカラーを示すアイコンに代えて、カラーパレットが表示されるようにしてもよい。カラーパレットは、円状のものであっても、マトリクス状のものであってもよい。この場合、編集対象画像における利用者の唇の色が、カラーパレットにおいて利用者に指定された色に変更される。   In addition, a color palette may be displayed in the selection area of the editing palette instead of the icon indicating the lip color. The color palette may be circular or matrix. In this case, the color of the user's lips in the image to be edited is changed to the color designated by the user in the color palette.

また、以上においては、利用者の唇を加工するレタッチ処理として、唇の色を変更する処理が行われるものとしたが、唇の大きさや形状(口角の上がり具合、上唇や下唇の形状等)、位置を変更する処理が行われるようにしてもよい。   Also, in the above, as a retouching process for processing the user's lips, the process of changing the color of the lips is performed. ), A process of changing the position may be performed.

さらに、以上においては、識別撮影により識別された利用者それぞれの唇の色が、利用者毎に選択された色に変更されるものとしたが、唇以外の顔の各パーツ(目、頬、鼻等)に合成される合成用画像が、利用者毎に選択された色、大きさ、形状等に変更されるようにしてもよい。   Further, in the above description, the lip color of each user identified by identification shooting is changed to the color selected for each user. However, each part of the face other than the lips (eyes, cheeks, The composition image synthesized on the nose or the like may be changed to the color, size, shape, or the like selected for each user.

例えば、合成用画像として、つけまつ毛やマスカラ、頬紅、さらには、顔に施されるハイライトやシェーディング、ノーズシャドウを模したスタンプ画像が、利用者毎に選択された色、大きさ、形状等に変更されるようにする。   For example, as a composite image, false eyelashes, mascara, blusher, and a stamp image simulating highlights, shading, and nose shadows applied to the face, the color, size, shape, etc. selected for each user To be changed to

[編集用パレットのさらに他の例]
ところで、以上においては、利用者の唇を加工するレタッチ処理が行われる際の編集用パレットの例について説明したが、ここでは、図26を参照して、さらに他の編集用パレットの例について説明する。
[Another example of editing palette]
By the way, in the above, the example of the editing palette when the retouching process for processing the user's lips has been described, but here, another example of the editing palette will be described with reference to FIG. To do.

図26の例では、"MAKE"のカテゴリ名が付されたタブが選択され、さらに、「なりきり」の小カテゴリ名が付されたボタンが選択されている。   In the example of FIG. 26, a tab with a category name “MAKE” is selected, and a button with a small category name “Narikiri” is selected.

図26に示される編集用パレットの左端には、利用者の撮影画像741が表示される。撮影画像741は、例えば、識別された2人の利用者のうち、編集画面の左右それぞれに表示される編集用パレットを操作する利用者自身が写る画像とされる。   A captured image 741 of the user is displayed at the left end of the editing palette shown in FIG. The captured image 741 is, for example, an image that shows the user who operates the editing palette displayed on the left and right of the editing screen among the two identified users.

撮影画像741の右方には、選択領域742が設けられる。選択領域742には、3種類のセットスタンプ画像が表示されている。セットスタンプ画像は、利用者の顔の各パーツに対応するスタンプ画像のセットである。   A selection area 742 is provided on the right side of the captured image 741. In the selection area 742, three types of set stamp images are displayed. The set stamp image is a set of stamp images corresponding to each part of the user's face.

選択領域742の右方には、選択領域743が設けられる。選択領域743には、3種類のセットスタンプ画像に対応するデザインのスタンプ画像が表示されている。   A selection area 743 is provided on the right side of the selection area 742. In the selection area 743, stamp images having designs corresponding to three types of set stamp images are displayed.

ここで、選択領域742において、3種類のセットスタンプ画像のうちのいずれかが選択されると、編集領域712に表示されている編集対象画像において、撮影画像741に対応する利用者(すなわち、セットスタンプ画像を選択した利用者)の顔の各パーツ(具体的には、鼻、頬、および頭の部分)に、選択されたセットスタンプ画像が合成される。なお、セットスタンプ画像を構成する、顔の各パーツに対応するスタンプ画像それぞれは、編集対象画像において利用者の顔認識処理が行われることで、顔の各パーツに合成される。   Here, when one of the three types of set stamp images is selected in the selection area 742, the user corresponding to the captured image 741 (that is, the set image) in the editing target image displayed in the editing area 712. The selected set stamp image is synthesized with each part (specifically, the nose, cheek, and head) of the face of the user who has selected the stamp image. Each stamp image corresponding to each part of the face constituting the set stamp image is synthesized with each part of the face by performing the face recognition process of the user on the editing target image.

このとき、編集領域712に表示されている編集対象画像において、撮影画像741に対応しない利用者の顔には、セットスタンプ画像は合成されない。   At this time, in the editing target image displayed in the editing area 712, the set stamp image is not combined with the face of the user that does not correspond to the captured image 741.

このようにして、識別された利用者毎に、選択されたセットスタンプ画像が合成される。   In this way, the selected set stamp image is synthesized for each identified user.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図8に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 8, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the apparatus main body, and is a magnetic disk (flexible disk) on which the program is recorded. Disk), optical disk (including CD-ROM and DVD), magneto-optical disk (including MD), or removable media 205 made of semiconductor memory, etc., but also pre-installed in the main unit The ROM 206 that stores the program and the hard disk included in the storage unit 202 are distributed to the administrator.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではなく、例えば、所定のサイズの紙やフィルム、ポスター用の紙、テレホンカードなどのカード、あるいは、Tシャツなどの布地などに印刷するようにしてもよい。   In the above, the printing medium is not limited to sticker paper or photographic paper. For example, printing on a predetermined size of paper or film, poster paper, a card such as a telephone card, or a cloth such as a T-shirt. You may make it do.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

1 写真シール作成装置
11 撮影ユニット
12 編集部
13 事後接客部
201 制御部
208 撮影部
209 編集部
210 事後接客部
301 撮影処理部
302 編集処理部
303 印刷処理部
304 事後接客処理部
321 撮影画像取得部
322 表示制御部
323 入力受付部
324 加工処理部
325 落書き編集部
326 分割数設定部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 11 Shooting unit 12 Editing part 13 Subsequent customer service part 201 Control part 208 Imaging | photography part 209 Editing part 210 Subsequent customer service part 301 Imaging | photography process part 302 Editing process part 303 Print process part 304 Subsequent customer service part 321 Photographed image acquisition part 322 Display control unit 323 Input reception unit 324 Processing processing unit 325 Graffiti editing unit 326 Division number setting unit

Claims (8)

利用者を被写体とした複数回の撮影のうちの少なくとも1回の撮影として、前記利用者を識別するための識別撮影を行う撮影処理部と、
撮影により得られた撮影画像の編集に用いられる編集画面において、前記識別撮影により得られた前記撮影画像において識別された前記利用者の唇の色を選択させるための選択領域の表示を制御する表示制御部と
を備え、
前記表示制御部は、前記編集画面において、編集の対象となる前記撮影画像が表示される編集領域における前記利用者の唇の色を、前記選択領域において選択された色に変更する
写真シール作成装置。
A photographing processing unit that performs identification photographing for identifying the user as at least one photographing among a plurality of photographings with the user as a subject;
Display for controlling display of a selection area for selecting the color of the user's lips identified in the photographed image obtained by the identification photographing on the editing screen used for editing the photographed image obtained by photographing. A control unit and
The display control unit changes the color of the user's lips in the editing area where the photographed image to be edited is displayed on the editing screen to a color selected in the selection area. .
前記表示制御部は、前記利用者が複数の場合、前記識別撮影により得られた前記撮影画像において識別された複数の前記利用者の唇の色を、前記利用者毎に選択させるための前記選択領域の表示を制御する
請求項1に記載の写真シール作成装置。
The display control unit, when there are a plurality of users, the selection for selecting, for each user, a plurality of lip colors of the users identified in the photographed image obtained by the identification photographing. The photo sticker creating apparatus according to claim 1, wherein display of the area is controlled.
前記選択領域には、識別された前記利用者それぞれの唇の色を個別に選択させるための複数のアイコンが前記利用者毎に表示される
請求項2に記載の写真シール作成装置。
The photo sticker creating apparatus according to claim 2, wherein a plurality of icons for individually selecting the lip colors of the identified users are displayed in the selection area for each of the users.
前記選択領域には、前記利用者毎に表示される前記アイコンに対応して、前記識別撮影により得られた前記撮影画像が前記利用者毎に表示される
請求項3に記載の写真シール作成装置。
The photo sticker creating apparatus according to claim 3, wherein the photographed image obtained by the identification photographing is displayed for each user corresponding to the icon displayed for each user in the selection area. .
前記選択領域には、識別された前記利用者それぞれの唇の色を一括して選択させるための複数のアイコンが表示される
請求項2に記載の写真シール作成装置。
The photo sticker creating apparatus according to claim 2, wherein a plurality of icons are displayed in the selection area for collectively selecting the lip colors of the identified users.
前記選択領域には、前記アイコンで示される前記利用者それぞれの唇の色の組み合わせを変更するためのボタンがさらに表示される
請求項5に記載の写真シール作成装置。
6. The photo sticker creating apparatus according to claim 5, wherein a button for changing a combination of lip colors of each of the users indicated by the icon is further displayed in the selection area.
写真シール作成装置が、
利用者を被写体とした複数回の撮影のうちの少なくとも1回の撮影として、前記利用者を識別するための識別撮影を行い、
撮影により得られた撮影画像の編集に用いられる編集画面において、前記識別撮影により得られた前記撮影画像において識別された前記利用者の唇の色を選択させるための選択領域を表示し、
前記編集画面において、編集の対象となる前記撮影画像が表示される編集領域における前記利用者の唇の色を、前記選択領域において選択された色に変更する
写真シール作成方法。
Photo sticker making device
As at least one shooting among a plurality of shootings with a user as a subject, identification shooting for identifying the user is performed,
In the editing screen used for editing the captured image obtained by photographing, a selection area for selecting the color of the user's lips identified in the photographed image obtained by the identification photographing is displayed.
A photo sticker creation method for changing a color of the user's lips in an editing area where the photographed image to be edited is displayed on the editing screen to a color selected in the selection area.
コンピュータに、
利用者を被写体とした複数回の撮影のうちの少なくとも1回の撮影として、前記利用者を識別するための識別撮影を行い、
撮影により得られた撮影画像の編集に用いられる編集画面において、前記識別撮影により得られた前記撮影画像において識別された前記利用者の唇の色を選択させるための選択領域を表示し、
前記編集画面において、編集の対象となる前記撮影画像が表示される編集領域における前記利用者の唇の色を、前記選択領域において選択された色に変更する
処理を実行させるためのプログラム。
On the computer,
As at least one shooting among a plurality of shootings with a user as a subject, identification shooting for identifying the user is performed,
In the editing screen used for editing the captured image obtained by photographing, a selection area for selecting the color of the user's lips identified in the photographed image obtained by the identification photographing is displayed.
A program for executing processing for changing a color of the user's lips in an editing area where the captured image to be edited is displayed on the editing screen to a color selected in the selection area.
JP2018154112A 2013-11-21 2018-08-20 Photo sticker making device, photo sticker making method, and program Active JP6659980B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013241395 2013-11-21
JP2013241395 2013-11-21

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014236387A Division JP6414681B2 (en) 2013-11-21 2014-11-21 Photo sticker creation apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2019013013A true JP2019013013A (en) 2019-01-24
JP6659980B2 JP6659980B2 (en) 2020-03-04

Family

ID=53533974

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014236387A Active JP6414681B2 (en) 2013-11-21 2014-11-21 Photo sticker creation apparatus, image processing method, and program
JP2018154112A Active JP6659980B2 (en) 2013-11-21 2018-08-20 Photo sticker making device, photo sticker making method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014236387A Active JP6414681B2 (en) 2013-11-21 2014-11-21 Photo sticker creation apparatus, image processing method, and program

Country Status (1)

Country Link
JP (2) JP6414681B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043797A (en) * 2019-09-12 2021-03-18 フリュー株式会社 Image processing device, image processing method, and image processing program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027258A (en) * 2015-07-17 2017-02-02 フリュー株式会社 Information distribution device, communication terminal, information distribution system, information distribution device control method, communication terminal control method, control program, and recording medium
JP6245530B2 (en) * 2015-07-31 2017-12-13 株式会社メイクソフトウェア Photo game machine
JP2017102642A (en) * 2015-12-01 2017-06-08 カシオ計算機株式会社 Image processor, image processing method and program
JP6810336B2 (en) * 2016-06-24 2021-01-06 フリュー株式会社 Photo creation game console and display method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030007A (en) * 2002-06-24 2004-01-29 Digital Fashion Ltd Makeup simulation apparatus, makeup simulation method, makeup simulation program and recording medium with program recorded thereon
JP2008003724A (en) * 2006-06-20 2008-01-10 Kao Corp Cosmetics simulation system
JP2012237957A (en) * 2011-04-28 2012-12-06 Furyu Kk Photo sticker machine, and processing method and program for the machine

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2875044B1 (en) * 2004-09-07 2007-09-14 Oreal METHOD AND APPARATUS FOR GENERATING A SYNTHESIS IMAGE OF AT LEAST ONE CILN FRA
JP4833322B2 (en) * 2009-06-26 2011-12-07 株式会社バンダイナムコゲームス Image generating apparatus and print sticker manufacturing method
JP2013222034A (en) * 2012-04-16 2013-10-28 Ims:Kk Photo seal discharging device and control method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030007A (en) * 2002-06-24 2004-01-29 Digital Fashion Ltd Makeup simulation apparatus, makeup simulation method, makeup simulation program and recording medium with program recorded thereon
JP2008003724A (en) * 2006-06-20 2008-01-10 Kao Corp Cosmetics simulation system
JP2012237957A (en) * 2011-04-28 2012-12-06 Furyu Kk Photo sticker machine, and processing method and program for the machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021043797A (en) * 2019-09-12 2021-03-18 フリュー株式会社 Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP6414681B2 (en) 2018-10-31
JP6659980B2 (en) 2020-03-04
JP2015122741A (en) 2015-07-02

Similar Documents

Publication Publication Date Title
JP5447276B2 (en) Image editing apparatus and method, and program
JP6659980B2 (en) Photo sticker making device, photo sticker making method, and program
JP6115774B2 (en) Image editing apparatus, image editing method, and program
JP5447183B2 (en) Photo sticker creation apparatus and method, and program
JP5748651B2 (en) Image processing apparatus, image processing method, and program
JP6810336B2 (en) Photo creation game console and display method
JP5549727B2 (en) Photo sticker making apparatus and method
JP5472767B2 (en) Image processing apparatus and image processing method
JP5569502B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2017121044A (en) Photo seal producing apparatus and image processing method
JP2010109651A (en) Sticker photo creation apparatus, method, and program
JP5541545B1 (en) Photo sticker creation apparatus and method, and program
JP2018022126A (en) Photograph creation game machine and imaging method
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP5505751B2 (en) Image editing apparatus and method, and program
JP5790812B2 (en) Photo sticker making apparatus and photo sticker making method
JP2012142772A (en) Image processing system and image processing method
JP2020144780A (en) Image processing device, image processing method, and image processing program
JP6048754B2 (en) Photo sticker creation apparatus, image editing method, and program
JP5545507B2 (en) Image processing apparatus, image processing method, and program
JP2018106678A (en) Sticker making game machine and image processing method
JP5578381B1 (en) Photo sticker creation apparatus and method, and program
JP6982230B2 (en) Photographing game console and image processing method
JP5975190B1 (en) Image processing apparatus and image processing method
JP2014170234A (en) Photograph seal creation apparatus, photograph seal creation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R150 Certificate of patent or registration of utility model

Ref document number: 6659980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250