JP6853475B2 - Photo creation game console and display method - Google Patents

Photo creation game console and display method Download PDF

Info

Publication number
JP6853475B2
JP6853475B2 JP2016202230A JP2016202230A JP6853475B2 JP 6853475 B2 JP6853475 B2 JP 6853475B2 JP 2016202230 A JP2016202230 A JP 2016202230A JP 2016202230 A JP2016202230 A JP 2016202230A JP 6853475 B2 JP6853475 B2 JP 6853475B2
Authority
JP
Japan
Prior art keywords
image
user
displayed
recognition
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016202230A
Other languages
Japanese (ja)
Other versions
JP2018064220A (en
Inventor
恭子 多田
恭子 多田
高橋 健太
健太 高橋
亜希 今平
亜希 今平
久美子 平田
久美子 平田
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2016202230A priority Critical patent/JP6853475B2/en
Publication of JP2018064220A publication Critical patent/JP2018064220A/en
Application granted granted Critical
Publication of JP6853475B2 publication Critical patent/JP6853475B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Description

本技術は、写真作成ゲーム機および表示方法に関し、特に、所望のスタイルを選択することができるようにする写真作成ゲーム機および表示方法に関する。 The present technology relates to a photo-creating game machine and a display method, and particularly to a photo-creating game machine and a display method that enable a desired style to be selected.

従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。 Conventionally, a photo sticker machine installed in an amusement facility or the like is known. The photo sticker machine photographs the user and edits the photographed image according to the operation of the user. The photo sticker machine prints the edited photographed image on the sticker paper.

近年、写真シール機においては、撮影画像に対して適切な画像処理を施すために、撮影画像に対する顔認識が行われている。 In recent years, in a photo sticker machine, face recognition is performed on a photographed image in order to perform appropriate image processing on the photographed image.

例えば、特許文献1には、顔を認識するための認識撮影により得られた画像から顔を検出・登録し、登録された顔と、その後の撮影により得られた撮影画像における顔とを照合することが開示されている。これにより、撮影画像に写る利用者毎の顔に、目の大きさや形状を変更する画像処理を施すことが可能となる。 For example, in Patent Document 1, a face is detected and registered from an image obtained by recognition imaging for recognizing a face, and the registered face is collated with a face in a captured image obtained by subsequent imaging. Is disclosed. This makes it possible to perform image processing for changing the size and shape of the eyes on the face of each user in the captured image.

特許第5418708号公報Japanese Patent No. 5418708

しかしながら、特許文献1の構成では、撮影画像に写る利用者の全身に画像処理を施すことはできなかった。 However, in the configuration of Patent Document 1, it is not possible to perform image processing on the whole body of the user appearing in the captured image.

これに対して、近年、利用者の全身が写る全身画像について、複数種類のスタイルのうちのいずれかを選択させるようにした写真シール機がある。この写真シール機においては、選択されたスタイルに応じて、全身画像に写る利用者の全身に画像処理が施される。 On the other hand, in recent years, there is a photo sticker machine that allows a user to select one of a plurality of styles for a full-body image showing the whole body of a user. In this photo sticker machine, image processing is performed on the whole body of the user reflected in the whole body image according to the selected style.

しかしながら、利用者毎にスタイルを選択することはできず、複数の利用者の全身に一律に同じ画像処理が施されてしまっていた。 However, it is not possible to select a style for each user, and the same image processing is uniformly applied to the whole body of a plurality of users.

本技術は、このような状況に鑑みてなされたものであり、利用者毎に所望のスタイルを選択することができるようにするものである。 The present technology has been made in view of such a situation, and makes it possible to select a desired style for each user.

本技術の写真作成ゲーム機は、利用者の全身を被写体とした撮影を行う撮影制御部と、撮影により得られた撮影画像のうちの所定枚数の撮影画像において人物を認識する認識部と、前記撮影画像が表示される第1の領域と、前記認識部による認識結果に基づいて前記利用者の全身が写る前記撮影画像に施される画像処理の度合いを選択するためのボタンが表示される第2の領域とを有する画面を表示する表示制御部とを備え、前記表示制御部は、前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記撮影画像を、異なる度合いの前記画像処理が施された前記撮影画像に切り替える。 The photo creation game machine of the present technology includes a shooting control unit that shoots the whole body of the user as a subject, a recognition unit that recognizes a person in a predetermined number of shot images among the shot images obtained by shooting, and the above. A first area in which the captured image is displayed and a button for selecting the degree of image processing applied to the captured image in which the entire body of the user is captured based on the recognition result by the recognition unit are displayed. The display control unit includes a display control unit that displays a screen having two areas, and the display control unit displays the captured image displayed in the first area each time the button in the second area is operated. Is switched to the captured image that has undergone the image processing to a different degree.

本技術の表示方法は、利用者の全身を被写体とした撮影を行い、撮影により得られた撮影画像のうちの所定枚数の撮影画像において人物を認識し、前記撮影画像が表示される第1の領域と、前記人物の認識結果に基づいて前記利用者の全身が写る前記撮影画像に施される画像処理の度合いを選択するためのボタンが表示される第2の領域とを有する画面を表示し、前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記撮影画像を、異なる度合いの前記画像処理が施された前記撮影画像に切り替えるステップを含む。 The display method of the present technology is a first method in which a photograph is taken with the whole body of the user as a subject, a person is recognized in a predetermined number of captured images among the captured images obtained by the imaging, and the captured image is displayed. Display a screen having an area and a second area in which a button for selecting the degree of image processing applied to the captured image showing the whole body of the user based on the recognition result of the person is displayed. Each time the button in the second region is operated, the step of switching the captured image displayed in the first region to the captured image subjected to the image processing to a different degree is included.

本技術においては、利用者の全身を被写体とした撮影が行われ、撮影により得られた撮影画像のうちの所定枚数の撮影画像において人物が認識され、前記撮影画像が表示される第1の領域と、前記認識部による認識結果に基づいて前記利用者の全身が写る前記撮影画像に施される画像処理の度合いを選択するためのボタンが表示される第2の領域とを有する画面が表示され、前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記撮影画像が、異なる度合いの前記画像処理が施された前記撮影画像に切り替わる。 In the present technology, shooting is performed with the whole body of the user as a subject, a person is recognized in a predetermined number of shot images among the shot images obtained by the shooting, and the shot image is displayed in the first region. And a screen having a second area in which a button for selecting the degree of image processing applied to the captured image in which the whole body of the user is captured based on the recognition result by the recognition unit is displayed is displayed. Each time the button in the second region is operated, the captured image displayed in the first region is switched to the captured image subjected to the image processing to a different degree.

本技術によれば、利用者毎に所望のスタイルを選択することが可能となる。 According to this technique, it is possible to select a desired style for each user.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the appearance of the photograph sticker making apparatus of this technology. 利用者の移動について説明する図である。It is a figure explaining the movement of a user. 撮影部の構成例を示す図である。It is a figure which shows the structural example of the photographing part. 背景部の構成例を示す図である。It is a figure which shows the structural example of the background part. 編集ユニットの構成例を示す図である。It is a figure which shows the configuration example of an editing unit. 編集ユニットの右側面の構成例を示す図である。It is a figure which shows the configuration example of the right side surface of an editing unit. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the structural example inside the photographic sticker making apparatus. 制御部の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of a control part. 撮影処理部の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the photographing processing part. 編集処理部の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of an editing processing part. 写真シール作成ゲーム処理について説明するフローチャートである。It is a flowchart explaining the photo sticker making game process. 撮影処理について説明するフローチャートである。It is a flowchart explaining the shooting process. 認識撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of recognition shooting. 認識撮影時のライブビュー表示画面の他の例を示す図である。It is a figure which shows another example of the live view display screen at the time of recognition shooting. 認識撮影時のライブビュー表示画面のさらに他の例を示す図である。It is a figure which shows still another example of the live view display screen at the time of recognition shooting. 編集処理について説明するフローチャートである。It is a flowchart explaining the editing process. レタッチ画面の一例を示す図である。It is a figure which shows an example of a retouch screen. レタッチ画面の他の例を示す図である。It is a figure which shows another example of a retouch screen. レタッチ画面のさらに他の例を示す図である。It is a figure which shows still another example of a retouch screen. 立ち位置の入れ替わりについて説明する図である。It is a figure explaining the exchange of the standing position. 認証処理の一例について説明するフローチャートである。It is a flowchart explaining an example of an authentication process. 顔認証信頼度について説明する図である。It is a figure explaining the face recognition reliability. 顔認証について説明する図である。It is a figure explaining face recognition. 認証処理の他の例について説明するフローチャートである。It is a flowchart explaining another example of an authentication process. 全身画像に施される画像処理の例について説明する図である。It is a figure explaining an example of image processing applied to a whole body image. 全身画像に施される画像処理の他の例について説明する図である。It is a figure explaining another example of image processing applied to a whole body image. 全身画像に施される画像処理のさらに他の例について説明する図である。It is a figure explaining still another example of image processing applied to a whole body image. 全身撮影の種類について説明する図である。It is a figure explaining the type of whole body photography. レタッチ画面のさらに他の例を示す図である。It is a figure which shows still another example of a retouch screen. 撮影処理の流れについて説明するフローチャートである。It is a flowchart explaining the flow of a shooting process. アップ画像用の認識撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of recognition shooting for a close-up image. レタッチ画面のさらに他の例を示す図である。It is a figure which shows still another example of a retouch screen. レタッチ画面のさらに他の例を示す図である。It is a figure which shows still another example of a retouch screen. レタッチ画面のさらに他の例を示す図である。It is a figure which shows still another example of a retouch screen. レタッチ画面のさらに他の例を示す図である。It is a figure which shows still another example of a retouch screen. レタッチ画面のさらに他の例を示す図である。It is a figure which shows still another example of a retouch screen. レタッチ画面のさらに他の例を示す図である。It is a figure which shows still another example of a retouch screen. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集画面の他の例を示す図である。It is a figure which shows another example of an edit screen. 編集画面のさらに他の例を示す図である。It is a figure which shows still another example of an edit screen. 認識撮影時のライブビュー表示画面のさらに他の例を示す図である。It is a figure which shows still another example of the live view display screen at the time of recognition shooting. 出力されるシール紙の例を示す図である。It is a figure which shows the example of the sticker paper which is output.

以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present technology is applied will be described in detail with reference to the drawings.

<写真シール作成装置の外観構成>
図1は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance configuration of photo sticker making device>
FIG. 1 is a perspective view showing a configuration example of the appearance of the photo sticker making device 1.

写真シール作成装置1は、撮影画像や編集済み画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1は、アミューズメント施設や店舗に設置される。写真シール作成装置1の利用者は、主に女子高生や女子大生などの若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、1人の利用者がゲームを楽しむこともできる。 The photo sticker creation device 1 is a game machine that provides a photographed image and an edited image. The photo sticker creating device 1 provides an image to a user by printing the image on a sticker paper or transmitting the image to a server so that the image can be viewed on the user's mobile terminal. The photo sticker making device 1 is installed in an amusement facility or a store. The users of the photo sticker making device 1 are mainly young women such as high school girls and female college students. In the photo sticker creating device 1, a plurality of users, such as two or three people, can enjoy the game per group. Of course, one user can also enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creating device 1, the user takes a picture by himself / herself as a subject. By editing, the user synthesizes a composite image such as handwritten characters or a stamp image with an image selected from the captured images obtained by shooting. As a result, the captured image is edited into a colorful image. The user receives a sticker paper on which the edited image, which is an edited image, is printed, and ends the series of games.

写真シール作成装置1は、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有する。 The photo sticker creating device 1 is configured by being installed in a state where the photographing unit 11 and the editing unit 12 are in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected. The photographing unit 11 has a box-shaped housing having a size large enough for a person to enter.

撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は離れて設置される。撮影部21と背景部22の間に設けられる空間が、利用者が撮影作業を行う撮影空間となる。 The shooting unit 11 is composed of a shooting unit 21 and a background unit 22. The photographing unit 21 and the background unit 22 are installed separately. The space provided between the shooting unit 21 and the background unit 22 is a shooting space for the user to perform shooting work.

撮影部21は、利用者を被写体として撮影する装置である。撮影空間に臨む撮影部21の正面にはカメラなどが設けられる。撮影部21の、編集ユニット12と接する面には正面パネル41が設けられる。撮影空間にいる利用者から見て右側の面を右側面、左側の面を左側面とすると、撮影部21の右側面が側面パネル42Aにより構成され、左側面が側面パネル42B(図2)により構成される。 The photographing unit 21 is a device that photographs a user as a subject. A camera or the like is provided in front of the shooting unit 21 facing the shooting space. A front panel 41 is provided on the surface of the photographing unit 21 in contact with the editing unit 12. Assuming that the right side surface is the right side surface and the left side surface is the left side surface when viewed from the user in the shooting space, the right side surface of the photographing unit 21 is composed of the side panel 42A, and the left side surface is formed by the side panel 42B (FIG. 2). It is composed.

背景部22は、それぞれ板状の部材である背面パネル51、側面パネル52A、および側面パネル52B(図2)から構成される。背面パネル51は、正面を向いている利用者の背面側に位置する。側面パネル52Aは、背面パネル51の右端に取り付けられ、側面パネル52Bは、背面パネル51の左端に取り付けられる。 The background portion 22 is composed of a back panel 51, a side panel 52A, and a side panel 52B (FIG. 2), which are plate-shaped members, respectively. The back panel 51 is located on the back side of the user facing the front. The side panel 52A is attached to the right end of the back panel 51, and the side panel 52B is attached to the left end of the back panel 51.

側面パネル42Aと側面パネル52Aは、所定の間隔をあけてほぼ同一平面に設けられる。側面パネル42Aと側面パネル52Aの上部は、板状の部材である連結部31Aによって連結される。また、側面パネル42Aと側面パネル52Aの下部は、床面に設けられた例えば金属製の部材である連結部34によって連結される。 The side panel 42A and the side panel 52A are provided on substantially the same plane with a predetermined interval. The upper part of the side panel 42A and the side panel 52A is connected by a connecting portion 31A which is a plate-shaped member. Further, the side panel 42A and the lower portion of the side panel 52A are connected by a connecting portion 34, which is a metal member, for example, provided on the floor surface.

側面パネル42Bと側面パネル52Bも同様にほぼ同一平面に設けられる。側面パネル42Bと側面パネル52Bの上部は連結部31Bによって連結される。側面パネル42Aと側面パネル52Aの下部は、床面に設けた金属製の部材(図示せず)によって連結される。 Similarly, the side panel 42B and the side panel 52B are provided on substantially the same plane. The upper part of the side panel 42B and the side panel 52B is connected by the connecting portion 31B. The side panel 42A and the lower portion of the side panel 52A are connected by a metal member (not shown) provided on the floor surface.

側面パネル42A、連結部31A、および側面パネル52Aに囲まれることによって形成される開口が、撮影空間の出入り口となる。また、側面パネル42B、連結部31B、および側面パネル52Bに囲まれることによって形成される開口もまた、撮影空間の出入り口となる。 The opening formed by being surrounded by the side panel 42A, the connecting portion 31A, and the side panel 52A serves as an entrance / exit of the photographing space. Further, the opening formed by being surrounded by the side panel 42B, the connecting portion 31B, and the side panel 52B also serves as an entrance / exit of the photographing space.

撮影空間の上方には、撮影部21の正面パネル41、連結部31A、連結部31B、および背景部22の背面パネル51に囲まれる開口が形成される。その開口には、その一部を覆うように天井ストロボユニット32が設けられる。天井ストロボユニット32の一端は連結部31Aに固定され、他端は連結部31Bに固定される。 An opening surrounded by the front panel 41 of the photographing unit 21, the connecting portion 31A, the connecting portion 31B, and the back panel 51 of the background portion 22 is formed above the photographing space. A ceiling strobe unit 32 is provided in the opening so as to cover a part of the opening. One end of the ceiling strobe unit 32 is fixed to the connecting portion 31A, and the other end is fixed to the connecting portion 31B.

天井ストロボユニット32は、撮影空間内に向けて光を照射するストロボ発光管を内蔵する。天井ストロボユニット32の内部には、ストロボ発光管の他に蛍光灯が設けられている。これにより、天井ストロボユニット32は、撮影空間の照明としても機能する。 The ceiling strobe unit 32 has a built-in strobe arc tube that irradiates light toward the inside of the photographing space. Inside the ceiling strobe unit 32, a fluorescent lamp is provided in addition to the strobe arc tube. As a result, the ceiling strobe unit 32 also functions as lighting for the shooting space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル41に接するようにして、撮影ユニット11に連結している。 The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 so that one side surface is in contact with the front panel 41 of the photographing unit 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集を行うことができる。 Assuming that the configuration of the editing unit 12 shown in FIG. 1 is the configuration on the front side, the configuration used in the editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can edit at the same time.

編集ユニット12の正面側は、面12Aと、面12Aの上方に形成された斜面12Bから構成される。面12Aは、床面に対して垂直であり、撮影部21の側面パネル42Aとほぼ平行な面である。斜面12Bには、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。 The front side of the editing unit 12 is composed of a surface 12A and a slope 12B formed above the surface 12A. The surface 12A is perpendicular to the floor surface and substantially parallel to the side panel 42A of the photographing unit 21. A monitor with a built-in tablet and a touch pen are provided on the slope 12B as a configuration used for editing work.

斜面12Bの上方右側には、照明装置73の一端を支持する柱状の支持部71A(図5)が設けられる。斜面12Bの左側には、照明装置73の他端を支持する柱状の支持部71Bが設けられる。支持部71Aの右側には板状のパネル72が設けられる。パネル72の上面にはカーテンレール75を支持する支持部74が設けられる。 On the upper right side of the slope 12B, a columnar support portion 71A (FIG. 5) for supporting one end of the lighting device 73 is provided. On the left side of the slope 12B, a columnar support portion 71B that supports the other end of the lighting device 73 is provided. A plate-shaped panel 72 is provided on the right side of the support portion 71A. A support portion 74 for supporting the curtain rail 75 is provided on the upper surface of the panel 72.

編集ユニット12の上方にはカーテンレール75が取り付けられる。カーテンレール75は、3本のレール75A乃至75Cが組み合わされて構成される。3本のレール75A乃至75Cは、上から見たときの形状がコの字状となるように組み合わされる。平行に設けられるレール75Aとレール75Bの一端は、連結部31Aと連結部31Bにそれぞれ固定され、レール75Aとレール75Bの他端は、レール75Cの両端にそれぞれ接合される。 A curtain rail 75 is attached above the editing unit 12. The curtain rail 75 is configured by combining three rails 75A to 75C. The three rails 75A to 75C are combined so that the shape when viewed from above is U-shaped. One ends of the rail 75A and the rail 75B provided in parallel are fixed to the connecting portion 31A and the connecting portion 31B, respectively, and the other ends of the rail 75A and the rail 75B are joined to both ends of the rail 75C, respectively.

カーテンレール75には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 75 so that the space in front of the front and the space in front of the back of the editing unit 12 cannot be seen from the outside. The space in front of the front and the space behind the back of the editing unit 12 surrounded by the curtain are the editing spaces in which the user performs editing work.

また、後述するが、編集ユニット12の右側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の右側面前方の空間が、印刷が終了するのを利用者が待つ印刷待ち空間となる。 Further, as will be described later, a discharge port for discharging the printed sticker paper is provided on the right side surface of the editing unit 12. The space in front of the right side of the editing unit 12 is a print waiting space in which the user waits for printing to finish.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the movement of the user accompanying it will be described.

図2は、写真シール作成装置1を上から見た平面図である。 FIG. 2 is a plan view of the photo sticker creating device 1 as viewed from above.

まず、利用者は、白抜き矢印#1で示されるように出入り口G1から、または白抜き矢印#2で示されるように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入る。出入り口G1は側面パネル42Aと側面パネル52Aの間の開口であり、出入り口G2は側面パネル42Bと側面パネル52Bの間の開口である。利用者は、撮影空間A1において、撮影部21に設けられたカメラやタッチパネルモニタなどを利用して撮影作業を行う。 First, the user can use the shooting space formed between the shooting unit 21 and the background unit 22 from the entrance / exit G1 as indicated by the white arrow # 1 or from the entrance / exit G2 as indicated by the white arrow # 2. Enter A1. The doorway G1 is an opening between the side panel 42A and the side panel 52A, and the doorway G2 is an opening between the side panel 42B and the side panel 52B. The user performs shooting work in the shooting space A1 by using a camera, a touch panel monitor, or the like provided in the shooting unit 21.

撮影作業を終えた利用者は、白抜き矢印#3で示されるように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、白抜き矢印#4で示されるように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。 The user who has completed the shooting work either exits the shooting space A1 from the entrance / exit G1 and moves to the editing space A2-1 as indicated by the white arrow # 3, or the entrance / exit G2 as indicated by the white arrow # 4. Exits the shooting space A1 and moves to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。 The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the vacant one of the two editing spaces is guided as the destination.

編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。 The user who has moved to the editing space A2-1 or the editing space A2-2 starts the editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#5で示されるように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#6で示されるように編集空間A2−2から印刷待ち空間A3に移動する。印刷待ち空間A3に移動した利用者は、印刷が終了するのを待つ間、例えば、サーバに送信する画像の選択や、利用者が持つ携帯端末のメールアドレスの入力を事後選択作業として行う。 After the editing work is completed, printing of the edited image is started. When printing is started, the user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the white arrow # 5. Further, the user who has completed the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 6. While waiting for the printing to finish, the user who has moved to the print waiting space A3 performs, for example, selection of an image to be transmitted to the server and input of the e-mail address of the mobile terminal owned by the user as a post-selection operation.

印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。 When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side surface of the editing unit 12, and ends a series of photo sticker creation games.

次に、各部の構成について説明する。 Next, the configuration of each part will be described.

<撮影部の構成>
図3は、撮影部21の正面の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bに囲まれるようにして構成される。
<Structure of shooting section>
FIG. 3 is a diagram showing a configuration example of the front surface of the photographing unit 21. The photographing unit 21 is configured to be surrounded by the front panel 41, the side panel 42A, and the side panel 42B.

正面パネル41のほぼ中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91、正面ストロボユニット92、およびタッチパネルモニタ93から構成される。 A camera unit 81 is provided substantially in the center of the front panel 41. The camera unit 81 includes a camera 91, a front strobe unit 92, and a touch panel monitor 93.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91はCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ93にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。 The camera 91 is, for example, a single-lens reflex camera, and is mounted inside the camera unit 81 so that the lens is exposed. The camera 91 has an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the photographing space A1. The moving image captured by the camera 91 (hereinafter, also referred to as a live view image) is displayed on the touch panel monitor 93 in real time. A still image captured by the camera 91 at a predetermined timing such as when shooting is instructed is saved as a shot image.

正面ストロボユニット92は、カメラ91の上方に設けられる。正面ストロボユニット92は、他のストロボユニットと同様にカメラ91による撮影に合わせて発光する。正面ストロボユニット92は、被写体としての利用者の顔付近に、その正面から光を照射する。 The front strobe unit 92 is provided above the camera 91. Like the other strobe units, the front strobe unit 92 emits light in accordance with the shooting by the camera 91. The front strobe unit 92 irradiates light from the front of the user's face as a subject.

タッチパネルモニタ93は、カメラ91の下方に設けられる。タッチパネルモニタ93は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ93は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIパーツを表示することで、利用者の選択操作を受け付ける機能とを備える。タッチパネルモニタ93には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。 The touch panel monitor 93 is provided below the camera 91. The touch panel monitor 93 is composed of a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated on the monitor. The touch panel monitor 93 has a function as a live view monitor that displays a moving image captured by the camera 91, and a function that accepts a user's selection operation by displaying various GUI parts. A moving image (live view image) or a still image (photographed image) captured by the camera 91 is displayed on the touch panel monitor 93.

正面パネル41において、カメラユニット81の上方には上ストロボユニット82が設置される。また、カメラユニット81の左方には左ストロボユニット83が設置され、カメラユニット81の右方には右ストロボユニット84が設置される。さらに、カメラユニット81の下方には箱状の足元ストロボユニット85が設置される。 In the front panel 41, the upper strobe unit 82 is installed above the camera unit 81. Further, the left strobe unit 83 is installed on the left side of the camera unit 81, and the right strobe unit 84 is installed on the right side of the camera unit 81. Further, a box-shaped foot strobe unit 85 is installed below the camera unit 81.

上ストロボユニット82は、前方上側から利用者に光を照射する。左ストロボユニット83は、前方左側から利用者に光を照射する。右ストロボユニット84は、前方右側から利用者に光を照射する。足元ストロボユニット85は、利用者の足元に光を照射する。 The upper strobe unit 82 irradiates the user with light from the front upper side. The left strobe unit 83 irradiates the user with light from the front left side. The right strobe unit 84 irradiates the user with light from the front right side. The foot strobe unit 85 irradiates the user's feet with light.

上ストロボユニット82、左ストロボユニット83、右ストロボユニット84、および足元ストロボユニット85の内部には蛍光灯が設けられる。これらの蛍光灯は、天井ストロボユニット32内部の蛍光灯とあわせて、撮影空間A1内の照明として用いられる。各蛍光灯の発光量が調整されることによって、または、発光する蛍光灯の数が調整されることによって、撮影空間A1内の明るさが適宜調整される。 Fluorescent lamps are provided inside the upper strobe unit 82, the left strobe unit 83, the right strobe unit 84, and the foot strobe unit 85. These fluorescent lamps are used as illumination in the photographing space A1 together with the fluorescent lamps inside the ceiling strobe unit 32. The brightness in the photographing space A1 is appropriately adjusted by adjusting the amount of light emitted from each fluorescent lamp or by adjusting the number of fluorescent lamps that emit light.

足元ストロボユニット85の右側および左側には、足元ストロボユニット85より高さの低い箱状部86A,86Bが設けられる。箱状部86A,86Bそれぞれの上面は、利用者が手荷物などを置くための荷物置き場となる。 Box-shaped portions 86A and 86B having a height lower than that of the foot strobe unit 85 are provided on the right side and the left side of the foot strobe unit 85. The upper surface of each of the box-shaped portions 86A and 86B serves as a luggage storage place for the user to put baggage and the like.

さらに、箱状部86Aには、利用者が硬貨を投入する硬貨投入口87が設けられる。 Further, the box-shaped portion 86A is provided with a coin insertion slot 87 for inserting coins by the user.

また、図示はしないが、正面パネル41の例えば天井付近にはスピーカが設けられる。そのスピーカは、撮影作業に関する案内音声、BGM、効果音などを出力する。 Although not shown, a speaker is provided on the front panel 41, for example, near the ceiling. The speaker outputs guidance voice, BGM, sound effect, etc. related to shooting work.

<背景部の構成>
図4は、背景部22の撮影空間A1側の構成例を示す図である。
<Structure of background part>
FIG. 4 is a diagram showing a configuration example of the background portion 22 on the shooting space A1 side.

背面パネル51の上方中央には背面上ストロボユニット121が設けられる。また、背面パネル51の上方右側(図中、左側)には背面右ストロボユニット122が設けられ、背面パネル51の上方左側(図中、右側)には背面左ストロボユニット123が設けられる。 A rear upper strobe unit 121 is provided in the upper center of the back panel 51. Further, a rear right strobe unit 122 is provided on the upper right side (left side in the drawing) of the back panel 51, and a rear left strobe unit 123 is provided on the upper left side (right side in the drawing) of the back panel 51.

背面上ストロボユニット121は、後方上側から利用者に光を照射する。背面右ストロボユニット122は、後方右側から利用者に光を照射する。背面左ストロボユニット123は、後方左側から利用者に光を照射する。 The rear upper strobe unit 121 irradiates the user with light from the rear upper side. The rear right strobe unit 122 irradiates the user with light from the rear right side. The rear left strobe unit 123 irradiates the user with light from the rear left side.

背面パネル51の撮影空間A1側(図中、手前側)の面には、背面カーテン124が貼り付けられる。背面カーテン124の色は、例えば緑色とされる。また、図示はしないが、側面パネル52A,52Bそれぞれの撮影空間A1側にも、背面カーテン124と同様の側面カーテンが貼り付けられる。側面カーテンの色は、背面カーテン124の色と同一とする。 The back curtain 124 is attached to the surface of the back panel 51 on the shooting space A1 side (front side in the drawing). The color of the back curtain 124 is, for example, green. Further, although not shown, a side curtain similar to the back curtain 124 is attached to the shooting space A1 side of each of the side panels 52A and 52B. The color of the side curtain is the same as the color of the back curtain 124.

これらのカーテンはクロマキー用のカーテンとして用いられる。これにより、撮影画像に対してクロマキー処理を施し、利用者が所望する背景画像を、撮影画像の背景部分に合成することができる。なお、これらのカーテンの色は、クロマキー処理を行うことができる色であればよく、青色など、その他の色であってもよい。 These curtains are used as chroma key curtains. As a result, the captured image can be subjected to chroma key processing, and the background image desired by the user can be combined with the background portion of the captured image. The color of these curtains may be any color that can be subjected to chroma key processing, and may be another color such as blue.

<編集ユニットの構成>
図5は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Structure of editing unit>
FIG. 5 is a diagram showing a configuration example of the front side (editing space A2-1 side) of the editing unit 12.

斜面12Bのほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。 A tablet built-in monitor 131 is provided substantially in the center of the slope 12B. A touch pen 132A is provided on the left side of the tablet built-in monitor 131. A touch pen 132B is provided on the right side of the tablet built-in monitor 131.

タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 The tablet built-in monitor 131 is configured by providing the tablet so as to expose the display. The tablet enables operation input using the touch pen 132A or the touch pen 132B. The tablet built-in monitor 131 displays, for example, an editing screen used for editing work. When two users edit at the same time, the touch pen 132A is used by the user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side of the tablet built-in monitor 131. ..

図6は、編集ユニット12の右側面の構成例を示す図である。 FIG. 6 is a diagram showing a configuration example of the right side surface of the editing unit 12.

編集ユニット12の右側面の一部を構成するパネル72には、タブレット内蔵モニタ141が設けられる。タブレット内蔵モニタ141には、事後選択作業に用いられる画面が表示される。 A tablet built-in monitor 141 is provided on the panel 72 that forms a part of the right side surface of the editing unit 12. The screen used for the post-selection work is displayed on the tablet built-in monitor 141.

編集ユニット12の右側面の下部には、シール紙排出口142が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウト(以下、シールレイアウトという)でシール紙に印刷され、シール紙排出口142から排出される。 A sticker paper discharge port 142 is provided at the lower part of the right side surface of the editing unit 12. A printer is provided inside the editing unit 12. The printer prints an image of the user of the editing space A2-1 or an image of the user of the editing space A2-2 on the sticker paper in a predetermined layout (hereinafter referred to as a sticker layout), and ejects the sticker paper. It is discharged from the outlet 142.

タブレット内蔵モニタ141の下方には、スピーカ143が設けられる。スピーカ143は、事後選択作業に関する案内音声、BGM、効果音等などを出力する。 A speaker 143 is provided below the tablet built-in monitor 141. The speaker 143 outputs guidance voice, BGM, sound effect, etc. regarding the post-selection work.

<写真シール作成装置の内部構成>
図7は、写真シール作成装置1の内部の構成例を示すブロック図である。図7において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker making device>
FIG. 7 is a block diagram showing an example of the internal configuration of the photo sticker creating device 1. In FIG. 7, the same components as those described above are designated by the same reference numerals. Duplicate explanations will be omitted as appropriate.

制御部201は、CPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209A,209B、および事後選択部210の各構成も接続される。 The control unit 201 is composed of a CPU (Central Processing Unit) and the like. The control unit 201 executes a program stored in the ROM (Read Only Memory) 206 or the storage unit 202, and controls the overall operation of the photo sticker creation device 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. Each configuration of the photographing unit 208, the editing units 209A and 209B, and the post-selection unit 210 is also connected to the control unit 201.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。 The storage unit 202 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 202 stores various setting information and the like supplied from the control unit 201. The information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。 The communication unit 203 is an interface of a network such as the Internet. The communication unit 203 communicates with an external device according to the control by the control unit 201. The communication unit 203 transmits, for example, a photographed image or an edited image selected by the user to the server. The image transmitted from the communication unit 203 is allocated and stored in a predetermined storage area in the server, and is displayed or downloaded to the mobile terminal that has accessed the server.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。 A removable media 205 made of an optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 204. The programs and data read from the removable media 205 by the drive 204 are supplied to the control unit 201, and are stored or installed in the storage unit 202.

ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。 The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

撮影部208は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部208は、硬貨処理部221、照明装置222、カメラ91、タッチパネルモニタ93、およびスピーカ223から構成される。 The shooting unit 208 realizes shooting processing for the user in the shooting space A1. The photographing unit 208 includes a coin processing unit 221, a lighting device 222, a camera 91, a touch panel monitor 93, and a speaker 223.

硬貨処理部221は、硬貨投入口87への硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。 The coin processing unit 221 detects the insertion of coins into the coin insertion slot 87. When the coin processing unit 221 detects that a predetermined amount of coins such as 400 yen has been inserted, the coin processing unit 221 outputs an activation signal instructing the start of the game to the control unit 201.

照明装置222は、撮影空間A1内の各ストロボユニットであり、制御部201から供給される照明制御信号に従って発光する。 The lighting device 222 is each strobe unit in the photographing space A1 and emits light according to a lighting control signal supplied from the control unit 201.

カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。 The camera 91 shoots according to the shutter control by the control unit 201, and outputs the captured image (image data) obtained by the shooting to the control unit 201.

編集部209Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部209Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部209Aと同一の構成を有する。なお、以下、編集部209A,209Bを特に区別しない場合には、単に、編集部209という。 The editorial unit 209A realizes an editing process for a user in the editing space A2-1. The editorial unit 209A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 231. The editorial unit 209B realizes an editing process for a user in the editing space A2-2, and has the same configuration as the editorial unit 209A. Hereinafter, when the editorial units 209A and 209B are not particularly distinguished, they are simply referred to as the editorial unit 209.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。 The tablet built-in monitor 131 displays the edit screen according to the control by the control unit 201, and accepts the user's operation on the edit screen. An input signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

事後選択部210は、印刷待ち空間A3にいる利用者を対象とした事後選択処理を実現する。事後選択処理は、事後選択作業を利用者に行わせるための処理である。事後選択部210は、タブレット内蔵モニタ141、スピーカ143、およびプリンタ241から構成される。プリンタ241にはシール紙ユニット242が装着される。 The post-selection unit 210 realizes post-selection processing for the user in the print waiting space A3. The post-selection process is a process for allowing the user to perform the post-selection work. The post-selection unit 210 includes a tablet built-in monitor 141, a speaker 143, and a printer 241. A sticker paper unit 242 is attached to the printer 241.

タブレット内蔵モニタ141は、制御部201による制御に従って各種の選択画面等を表示し、その画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。 The tablet built-in monitor 141 displays various selection screens and the like according to the control by the control unit 201, and accepts the user's operation on the screens. An input signal representing the content of the user's operation is supplied to the control unit 201, and various settings are made.

プリンタ241は、制御部201から供給された印刷データに基づいて、シール紙ユニット242に収納されているシール紙に編集画像を印刷する。プリンタ241は、編集画像を所定のシールレイアウトで印刷したシール紙を、シール紙排出口142に排出する。 The printer 241 prints the edited image on the sticker paper stored in the sticker paper unit 242 based on the print data supplied from the control unit 201. The printer 241 discharges the sticker paper on which the edited image is printed in a predetermined sticker layout to the sticker paper discharge port 142.

<制御部の構成>
図8は、制御部201の機能構成例を示すブロック図である。図8に示す機能部のうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Structure of control unit>
FIG. 8 is a block diagram showing a functional configuration example of the control unit 201. At least a part of the functional units shown in FIG. 8 is realized by executing a predetermined program by the CPU in the control unit 201.

制御部201は、撮影処理部301、編集処理部302、印刷処理部303、および事後選択処理部304から構成される。 The control unit 201 includes a shooting processing unit 301, an editing processing unit 302, a printing processing unit 303, and a post-selection processing unit 304.

撮影処理部301は、撮影部208の各部を制御することで、撮影処理を行う。編集処理部302は、編集部209の各部を制御することで、編集処理を行う。印刷処理部303は、事後選択部210のプリンタ241を制御することで、印刷処理を行う。事後選択処理部304は、事後選択部210のタブレット内蔵モニタ141を制御することで、事後選択処理を行う。 The shooting processing unit 301 performs shooting processing by controlling each unit of the shooting unit 208. The editing processing unit 302 performs editing processing by controlling each unit of the editing unit 209. The print processing unit 303 performs the printing process by controlling the printer 241 of the post-selection unit 210. The post-selection processing unit 304 performs post-selection processing by controlling the tablet built-in monitor 141 of the post-selection unit 210.

<撮影処理部の構成例>
図9は、撮影処理部301の機能構成例を示すブロック図である。
<Structure example of shooting processing unit>
FIG. 9 is a block diagram showing a functional configuration example of the photographing processing unit 301.

撮影処理部301は、表示制御部311、撮影制御部312、認識部313、および登録部314から構成される。 The shooting processing unit 301 is composed of a display control unit 311, a shooting control unit 312, a recognition unit 313, and a registration unit 314.

表示制御部311は、タッチパネルモニタ93の表示を制御する。例えば、表示制御部311は、タッチパネルモニタ93に、カメラ91に取り込まれたライブビュー画像を表示させたり、撮影結果である撮影画像を表示させたりする。 The display control unit 311 controls the display of the touch panel monitor 93. For example, the display control unit 311 causes the touch panel monitor 93 to display a live view image captured by the camera 91, or to display a captured image which is a captured result.

撮影制御部312は、カメラ91を制御することで、利用者を被写体とした撮影を行い、ライブビュー画像や撮影画像を生成する。また、撮影制御部312は、複数回の撮影のうちの少なくとも1回の撮影を、人物を認識するための認識撮影として行う。 By controlling the camera 91, the shooting control unit 312 shoots a user as a subject and generates a live view image or a shot image. Further, the shooting control unit 312 performs at least one shooting out of the plurality of shootings as a recognition shooting for recognizing a person.

認識部313は、認識撮影により得られた認識用画像において人物を認識する。 The recognition unit 313 recognizes a person in the recognition image obtained by the recognition photographing.

登録部314は、認識部313による認識に成功した人物の全身画像を、認識撮影以外の撮影(以下、通常撮影ともいう)により得られた撮影画像に写る人物と照合するための画像として、データベースに登録する。データベースは、例えば記憶部202に構築される。 The registration unit 314 is a database as an image for collating a whole body image of a person who has been successfully recognized by the recognition unit 313 with a person appearing in a photographed image obtained by photography other than recognition photography (hereinafter, also referred to as normal photography). Register with. The database is built in, for example, the storage unit 202.

<編集処理部の構成例>
図10は、編集処理部302の機能構成例を示すブロック図である。
<Structure example of editing processing unit>
FIG. 10 is a block diagram showing a functional configuration example of the editing processing unit 302.

編集処理部302は、表示制御部321、編集制御部322、認証部323、画像処理部324、および通信制御部325から構成される。 The editing processing unit 302 is composed of a display control unit 321, an editing control unit 322, an authentication unit 323, an image processing unit 324, and a communication control unit 325.

表示制御部321は、タブレット内蔵モニタ131の表示を制御する。例えば、表示制御部321は、タブレット内蔵モニタ131に、撮影画像に施される画像処理の度合いを選択するための選択画面や、撮影画像を対象とした編集作業のための編集画面を表示させる。 The display control unit 321 controls the display of the tablet built-in monitor 131. For example, the display control unit 321 causes the tablet built-in monitor 131 to display a selection screen for selecting the degree of image processing applied to the captured image and an editing screen for editing work on the captured image.

編集制御部322は、編集画面に対する利用者の操作に応じて、撮影画像に編集を施す。具体的には、編集制御部322は、編集画面において利用者により選択された合成用画像を、撮影画像の所定の位置に合成する。 The editing control unit 322 edits the captured image according to the user's operation on the editing screen. Specifically, the editing control unit 322 synthesizes the compositing image selected by the user on the editing screen at a predetermined position of the captured image.

認証部323は、登録部314によりデータベースに登録された全身画像を用いて、撮影画像における利用者を認証する。具体的には、認証部323は、撮影画像において人物を認識し、認識された人物とデータベースに登録された全身画像とを照合することで、撮影画像における利用者を認証する。 The authentication unit 323 authenticates the user in the captured image using the whole body image registered in the database by the registration unit 314. Specifically, the authentication unit 323 recognizes a person in the captured image, and authenticates the user in the captured image by collating the recognized person with the whole body image registered in the database.

画像処理部324は、タブレット内蔵モニタ131に表示される、撮影画像に施される画像処理の度合いを選択するための選択画面に対する選択操作に基づいて、選択された度合いの画像処理を撮影画像に施す。 The image processing unit 324 applies the selected degree of image processing to the captured image based on the selection operation on the selection screen for selecting the degree of image processing applied to the captured image displayed on the tablet built-in monitor 131. Give.

通信制御部325は、通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。例えば、通信制御部325は、通信部203を制御することで、撮影処理において得られた撮影画像や、編集処理において得られた編集画像を、外部のサーバへ送信する。 The communication control unit 325 controls the communication unit 203 and performs processing related to communication via a network such as the Internet. For example, the communication control unit 325 controls the communication unit 203 to transmit the photographed image obtained in the photographing process and the edited image obtained in the editing process to an external server.

<写真シール作成装置の動作>
ここで、図11のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。図11の処理は、所定の金額分の硬貨が硬貨投入口87に投入されたときに開始される。
<Operation of photo sticker making device>
Here, the operation of the photo sticker creation device 1 that provides the photo sticker creation game will be described with reference to the flowchart of FIG. The process of FIG. 11 is started when a predetermined amount of coins is inserted into the coin slot 87.

ステップS1において、撮影処理部301は、撮影部208を制御することで、撮影処理を行う。具体的には、撮影処理部301は、カメラ91に取り込まれた被写体のライブビュー画像をタッチパネルモニタ93に表示させ、撮影空間A1にいる利用者を被写体とした撮影を行い、撮影画像を生成する。 In step S1, the photographing processing unit 301 performs the photographing process by controlling the photographing unit 208. Specifically, the shooting processing unit 301 displays a live view image of the subject captured by the camera 91 on the touch panel monitor 93, shoots the user in the shooting space A1 as the subject, and generates a shot image. ..

ステップS2において、編集処理部302は、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部209を制御することで、編集処理を行う。具体的には、編集処理部302は、撮影処理により得られた撮影画像について利用者に編集作業を行わせることで、編集が施された編集画像を生成する。 In step S2, the editing processing unit 302 performs the editing process by controlling the editing unit 209 corresponding to the editing space of the user who has finished the shooting process and is the destination of the movement. Specifically, the editing processing unit 302 generates an edited image by having the user edit the photographed image obtained by the photographing process.

ステップS3において、印刷処理部303は、プリンタ241を制御することで、印刷処理を開始する。具体的には、印刷処理部303は、編集処理により得られた編集画像を、プリンタ241に出力してシール紙に印刷させる。なお、撮影処理により得られた撮影画像が、シール紙に印刷されるようにしてもよい。 In step S3, the print processing unit 303 starts the print process by controlling the printer 241. Specifically, the print processing unit 303 outputs the edited image obtained by the editing process to the printer 241 and prints it on the sticker paper. The photographed image obtained by the photographing process may be printed on the sticker paper.

ステップS4において、事後選択処理部304は、タブレット内蔵モニタ141を制御することで、事後選択処理を行う。具体的には、事後選択処理部304は、印刷が終わるのを待っている利用者に事後選択作業を行わせ、選択された撮影画像や編集画像を利用者の携帯端末に送信するために、その画像をサーバに送信する。 In step S4, the post-selection processing unit 304 performs post-selection processing by controlling the tablet built-in monitor 141. Specifically, the post-selection processing unit 304 causes the user waiting for the printing to finish the post-selection work, and transmits the selected photographed image or edited image to the user's mobile terminal. Send the image to the server.

印刷が終了すると、ステップS5において、プリンタ241は、印刷済みのシール紙をシール紙排出口142に排出し、処理を終了させる。 When printing is completed, in step S5, the printer 241 discharges the printed sticker paper to the sticker paper discharge port 142, and ends the process.

<撮影処理の詳細>
次に、図12のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS1の撮影処理の詳細について説明する。
<Details of shooting process>
Next, with reference to the flowchart of FIG. 12, the details of the shooting process of step S1 in the series of processes of the above-mentioned photo sticker creation game will be described.

撮影処理が開始されると、ステップS11において、表示制御部311は、人数選択画面をタッチパネルモニタ93に表示させる。 When the shooting process is started, in step S11, the display control unit 311 displays the number of people selection screen on the touch panel monitor 93.

人数選択画面は、利用者の人数の選択に用いられる画面である。選択される利用者の人数には、「2人」と「3人以上」とがある。人数選択画面には、「2人」および「3人以上」それぞれを選択するための2つのボタンが表示される。 The number of people selection screen is a screen used for selecting the number of users. The number of users selected includes "2 people" and "3 or more people". On the number of people selection screen, two buttons for selecting "two people" and "three or more people" are displayed.

人数選択画面において、人数を選択するためのボタンのいずれかが選択されると、認識撮影の仕方を説明する画面がタッチパネルモニタ93に表示されるなどしてガイダンスが出力される。その後、ステップS12において、撮影制御部312は、認識撮影を行う。認識撮影の詳細については後述する。なお、人数選択画面において、人数を選択するためのボタンのいずれもが選択されずに所定時間が経過した(タイムアウトになった)場合には、写真シール作成装置1の利用者として最も多い「2人」が選択されたものとして処理が進む。 When any of the buttons for selecting the number of people is selected on the number of people selection screen, guidance is output such that a screen explaining how to perform recognition shooting is displayed on the touch panel monitor 93. After that, in step S12, the imaging control unit 312 performs recognition imaging. The details of the recognition shooting will be described later. When the predetermined time has elapsed (timed out) without selecting any of the buttons for selecting the number of people on the number of people selection screen, "2" is the most common user of the photo sticker creation device 1. The process proceeds assuming that "People" is selected.

認識撮影が終了すると、ステップS13において、表示制御部311は、写りコース選択画面をタッチパネルモニタ93に表示させる。 When the recognition shooting is completed, in step S13, the display control unit 311 displays the image course selection screen on the touch panel monitor 93.

写りコース選択画面は、撮影画像に写る被写体の写りを決定する写りコースの選択に用いられる画面である。写りコースには、「Lightコース」と「Clearコース」とがある。Lightコースは、肌の色を若干黄みを帯びた色にすることで、撮影画像に写る被写体の肌の質感を自然でうるおいのあるものとするための写りコースである。Clearコースは、肌の色を若干青みを帯びた色にすることで、撮影画像に写る被写体の肌の質感を色白で透明感のあるものとするための写りコースである。 The image course selection screen is a screen used for selecting an image course that determines the image of a subject in a captured image. There are "Light course" and "Clear course" in the image course. The Light course is a shooting course for making the texture of the skin of the subject in the captured image natural and moist by making the skin color slightly yellowish. The Clear course is a shooting course for making the texture of the skin of the subject in the captured image fair and transparent by making the skin color slightly bluish.

写りコースにより決定される被写体の写りは、撮影画像に対して施される画像処理によって決定される。例えば、被写体の写りは、撮影画像における人物領域の彩度、明度、シャープネス、コントラストなどの少なくともいずれかを調整することで決定される。また、被写体の写りは、撮影空間A1内の各ストロボユニットの発光を制御することで決定されるようにしてもよい。 The image of the subject determined by the image course is determined by the image processing applied to the captured image. For example, the appearance of a subject is determined by adjusting at least one of saturation, brightness, sharpness, contrast, and the like of a person area in a captured image. Further, the image of the subject may be determined by controlling the light emission of each strobe unit in the shooting space A1.

写りコース選択画面が操作されることによって、いずれかの写りコースが選択されると、撮影(通常撮影)の仕方を説明する画面がタッチパネルモニタ93に表示されるなどしてガイダンスが出力される。その後、ライブビュー表示画面がタッチパネルモニタ93に表示される。 When any of the shooting courses is selected by operating the shooting course selection screen, guidance is output such that a screen explaining how to shoot (normal shooting) is displayed on the touch panel monitor 93. After that, the live view display screen is displayed on the touch panel monitor 93.

その状態で撮影タイミングになったとき、ステップS14において、撮影制御部312は、1回目の撮影を行う。撮影によって得られた撮影画像は、撮影結果としてタッチパネルモニタ93に表示される。利用者は、1回目の撮影結果を確認しながら、次の撮影の準備を行うことができる。 When the shooting timing is reached in that state, in step S14, the shooting control unit 312 performs the first shooting. The captured image obtained by photographing is displayed on the touch panel monitor 93 as a photographing result. The user can prepare for the next shooting while checking the result of the first shooting.

そして、2回目以降の撮影が行われる。すなわち、2回目の撮影タイミングになったとき、ステップS15において、撮影制御部312は、2回目の撮影を行う。 Then, the second and subsequent shootings are performed. That is, when the second shooting timing is reached, in step S15, the shooting control unit 312 performs the second shooting.

同様にして、ステップS16乃至S18において、撮影制御部312は、それぞれ3乃至5回目の撮影を行う。 Similarly, in steps S16 to S18, the imaging control unit 312 performs the third to fifth imaging, respectively.

なお、1乃至5回目の撮影としては、それぞれアップ撮影が行われるようにもできるし、全身撮影が行われるようにもできる。 As the 1st to 5th shootings, close-up shooting can be performed or whole-body shooting can be performed.

アップ撮影は、顔を中心として、利用者のほぼ胸から上の範囲(上半身)が写る画像であるアップ画像を得るための撮影である。全身撮影は、利用者の全身が写る画像である全身画像を得るための撮影である。全身撮影においては、斜め上から見た利用者の全身が写る画像が得られるようにもできるし、正面から見た利用者の全身が写る画像が得られるようにもできる。 The close-up shooting is a shooting for obtaining a close-up image, which is an image in which the area (upper body) above the chest of the user is captured, centering on the face. The whole body photography is an image taken to obtain a whole body image which is an image showing the whole body of the user. In full-body photography, it is possible to obtain an image showing the whole body of the user viewed from diagonally above, or to obtain an image showing the whole body of the user viewed from the front.

以下においては、1乃至5回目の撮影として、正面から見た利用者の全身が写る画像を得るための正面全身撮影が行われるものとして説明する。 In the following, as the 1st to 5th shootings, it will be described that the front whole body shooting is performed in order to obtain an image showing the whole body of the user viewed from the front.

このようにして、ステップS14乃至S18において5回の撮影が行われた後、ステップS19において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ93に案内画面を表示させることによって、または音声をスピーカ223から出力させることによって行われる。 In this way, after the shooting is performed five times in steps S14 to S18, in step S19, the shooting processing unit 301 tells the user in the shooting space A1 the editing space A2-1 or the editing space A2. Guide the move to -2. Guidance for moving to the editing space A2-1 or the editing space A2-2 is performed by displaying the guidance screen on the touch panel monitor 93 of the photographing unit 208 or by outputting the sound from the speaker 223.

<認識撮影の詳細>
上述したように、認識撮影は、人物を認識するために行われる撮影であり、認識撮影により得られた認識用画像は、人物を認識するために用いられる。
<Details of recognition shooting>
As described above, the recognition imaging is an imaging performed to recognize a person, and the recognition image obtained by the recognition imaging is used to recognize a person.

このような目的から、認識撮影のガイダンスでは、利用者に対して、正面を向いて撮影することを促す画面の表示や音声の出力が行われる。 For this purpose, in the recognition shooting guidance, a screen is displayed and a voice is output to encourage the user to face the front and shoot.

そのガイダンスが終了すると、撮影制御部312によって、カメラ91による動画像の撮影が開始され、撮影によって得られた動画像がライブビュー表示画面に表示される。 When the guidance is completed, the shooting control unit 312 starts shooting a moving image by the camera 91, and the moving image obtained by the shooting is displayed on the live view display screen.

図13は、認識撮影のライブビュー表示画面の例を示す図である。 FIG. 13 is a diagram showing an example of a live view display screen for recognition shooting.

ライブビュー表示画面の上部には、「枠の中に入って前を向いて撮影してね」のメッセージが表示され、その下に設けられた画像表示領域411,412には、2人の利用者それぞれが映る動画像がリアルタイムで表示される。 At the top of the live view display screen, the message "Enter the frame and shoot forward" is displayed, and the image display areas 411 and 412 provided below it are used by two people. A moving image of each person is displayed in real time.

カメラ91に取り込まれた動画像から、所定の範囲が切り出されて、画像表示領域411,412の表示に用いられる。2人の利用者は、画像表示領域411,412の表示を確認しながら、それぞれの全身が画像表示領域411,412の枠に収まるように、立ち位置を調整する。これにより、認識用画像における認識の精度を確保することができる。 A predetermined range is cut out from the moving image captured by the camera 91 and used for displaying the image display areas 411 and 412. While checking the display of the image display areas 411 and 412, the two users adjust their standing positions so that their entire bodies fit within the frame of the image display areas 411 and 412. As a result, the accuracy of recognition in the recognition image can be ensured.

このようなライブビュー画像が所定時間表示された後、撮影前のカウントダウンが開始され、撮影のタイミングになったとき、撮影制御部312は、認識用画像としての静止画像を取得する撮影を行う。 After the live view image is displayed for a predetermined time, the countdown before shooting is started, and when the shooting timing comes, the shooting control unit 312 takes a picture to acquire a still image as a recognition image.

その後、認識部313は、撮影により得られた認識用画像において人物を認識し、登録部314は、認識部313による認識に成功した人物の全身画像をデータベースに登録する。 After that, the recognition unit 313 recognizes the person in the recognition image obtained by photographing, and the registration unit 314 registers the whole body image of the person successfully recognized by the recognition unit 313 in the database.

なお、図13のライブビュー表示画面において、2人の利用者それぞれが個別に映る動画像が表示される画像表示領域411,412が設けられるものとしたが、図14に示されるように、2人の利用者が一緒に映る動画像が表示される1つの画像表示領域413のみが設けられるようにしてもよい。 In the live view display screen of FIG. 13, image display areas 411 and 412 are provided in which moving images of each of the two users are individually displayed. However, as shown in FIG. 14, 2 Only one image display area 413 may be provided on which a moving image in which a human user is displayed is displayed.

図14の例においては、画像表示領域413上に、2人の利用者の全身が収まるべき位置を示す矩形の枠421,422が表示され、2人の利用者は、枠421,422の表示を確認しながら、それぞれの全身が枠421,422に収まるように、立ち位置を調整するようになる。なお、図14の例では、枠421,422それぞれの形状は、矩形であるものとしたが、直立する人物をかたどったような形状であってもよい。 In the example of FIG. 14, rectangular frames 421 and 422 indicating positions where the whole bodies of the two users should fit are displayed on the image display area 413, and the two users display the frames 421 and 422. While checking, the standing position will be adjusted so that each whole body fits in the frames 421 and 422. In the example of FIG. 14, the shapes of the frames 421 and 422 are rectangular, but they may be shaped like an upright person.

また、図14の枠421,422の表示に代えて、枠421,422に対応する領域外の領域の透過度を高くするようにしてもよい。この場合、2人の利用者は、自身の全身がよりはっきりと映る領域内の表示を確認しながら、それぞれの全身がその領域に収まるように、立ち位置を調整するようになる。 Further, instead of displaying the frames 421 and 422 in FIG. 14, the transparency of the region outside the region corresponding to the frames 421 and 422 may be increased. In this case, the two users will adjust the standing position so that each whole body fits in the area while checking the display in the area where the whole body is reflected more clearly.

さらに、図15に示されるように、画像表示領域413上に、2人の利用者の顔が収まるべき位置を示す枠431,432が表示されるようにしてもよい。この場合、2人の利用者は、それぞれの顔が枠431,432に収まるように顔の位置を調整することで、立ち位置を調整するようになる。 Further, as shown in FIG. 15, frames 431 and 432 indicating positions where the faces of the two users should be accommodated may be displayed on the image display area 413. In this case, the two users adjust the standing position by adjusting the position of the face so that their faces fit in the frames 431 and 432.

また、ライブビュー画像において顔認識が行われるようにして、認識に成功している顔に対して、枠431,432のような枠が表示されるようにしてもよい。ここで、認識に失敗するような位置に、利用者の顔が移動するなどした場合には、ライブビュー画像において、顔の認識に成功する位置に顔を誘導するための表示がなされるようにしてもよい。 Further, the face recognition may be performed in the live view image so that a frame such as frames 431 and 432 is displayed for the face that has been successfully recognized. Here, when the user's face moves to a position where recognition fails, a display for guiding the face to a position where face recognition succeeds is made in the live view image. You may.

さらに、ライブビュー画像に対して上述した枠などを表示せず、顔認識により認識された顔を含む領域が切り出されて表示されるようにしてもよい。 Further, the above-mentioned frame or the like may not be displayed on the live view image, and the area including the face recognized by face recognition may be cut out and displayed.

また、顔認識は、ライブビュー画像の原画像全体を、複数の領域に区画し、区画された領域毎に行われるようにする。例えば、利用者が2人の場合には、ライブビュー画像の原画像全体を左右半分の領域に区画し、左右それぞれの領域について、顔認識が行われるようにする。 Further, the face recognition is performed by dividing the entire original image of the live view image into a plurality of areas and performing each of the divided areas. For example, when there are two users, the entire original image of the live view image is divided into left and right halves, and face recognition is performed for each of the left and right areas.

なお、利用者が3人以上の場合、ライブビュー画像において、利用者同士の顔の一部が重なってしまい、顔認識に失敗するおそれがある。そこで、認識撮影は、人数選択画面において「2人」が選択された場合にのみ行われるようにしてもよい。なお、人数選択画面において「3人以上」が選択された場合には、後述する画像処理が、利用者毎ではなく、全ての利用者に対して一括して施されるようにする。以下においては、主に、人数選択画面において「2人」が選択された場合の例について説明する。 When there are three or more users, some of the faces of the users may overlap each other in the live view image, and face recognition may fail. Therefore, the recognition shooting may be performed only when "two people" is selected on the number of people selection screen. When "3 or more people" is selected on the number of people selection screen, the image processing described later is performed not for each user but for all users at once. In the following, an example in which "2 people" is selected on the number of people selection screen will be mainly described.

<編集処理の詳細>
次に、図16のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS2の編集処理の詳細について説明する。
<Details of editing process>
Next, with reference to the flowchart of FIG. 16, the details of the editing process of step S2 in the series of processes of the above-mentioned photo sticker creation game will be described.

編集処理が開始されると、ステップS31において、表示制御部321は、タブレット内蔵モニタ131にレタッチガイダンス画面を表示させる。 When the editing process is started, in step S31, the display control unit 321 causes the tablet built-in monitor 131 to display the retouch guidance screen.

レタッチガイダンス画面は、撮影画像に写る利用者の全身を、自分のなりたいスタイルに仕上げるためのレタッチ機能を利用者に案内するための画面である。 The retouch guidance screen is a screen for guiding the user to the retouch function for finishing the whole body of the user in the captured image in the style that he / she wants to be.

レタッチガイダンス画面が所定時間表示された後、処理はステップS32に進む。 After the retouch guidance screen is displayed for a predetermined time, the process proceeds to step S32.

ステップS32において、表示制御部321は、タブレット内蔵モニタ131にレタッチ画面を表示させる。 In step S32, the display control unit 321 causes the tablet built-in monitor 131 to display the retouch screen.

レタッチ画面は、レタッチ機能を提供するための画面であり、撮影画像に写る利用者の全身またはその一部に施される画像処理の度合いを選択するための画面である。レタッチ機能を提供する画像処理の種類としては、脚の長さを変える処理や、脚の細さを変える処理、身長を変える処理などがある。 The retouch screen is a screen for providing a retouch function, and is a screen for selecting the degree of image processing applied to the whole body or a part of the user in the captured image. Types of image processing that provide the retouch function include processing for changing the length of the legs, processing for changing the thinness of the legs, and processing for changing the height.

また、レタッチ画面として、画像処理の種類毎に1つの画面が表示されるようにしてもよいし、複数種類の画像処理について1つの画面が表示されるようにしてもよい。レタッチ画面の例については後述する。 Further, as the retouch screen, one screen may be displayed for each type of image processing, or one screen may be displayed for a plurality of types of image processing. An example of the retouch screen will be described later.

レタッチ画面において、レタッチ機能を提供する画像処理の度合いが選択されると、処理はステップS33に進む。 When the degree of image processing that provides the retouch function is selected on the retouch screen, the process proceeds to step S33.

ステップS33において、表示制御部321は、タブレット内蔵モニタ131に背景選択画面を表示させる。 In step S33, the display control unit 321 causes the tablet built-in monitor 131 to display the background selection screen.

背景選択画面は、撮影により得られた撮影画像の背景となる背景画像の選択に用いられる画面である。背景選択画面には、背景画像が複数枚表示される。利用者は、その複数枚の背景画像の中から、撮影処理において行われる撮影により得られた撮影画像の枚数と同じ数の背景画像を選択することができる。なお、背景選択画面には、撮影画像において人物の前景となる前景画像を含む背景画像が表示されるようにしてもよいし、前景画像のみからなる画像が表示されるようにしてもよい。 The background selection screen is a screen used for selecting a background image to be a background of a photographed image obtained by photographing. A plurality of background images are displayed on the background selection screen. The user can select the same number of background images as the number of captured images obtained by the photographing performed in the photographing process from the plurality of background images. The background selection screen may display a background image including a foreground image that is the foreground of a person in the captured image, or may display an image consisting of only the foreground image.

本実施の形態の撮影処理においては、合計5回の通常撮影が行われるので、利用者は、背景選択画面に表示される複数枚の背景画像の中から、1乃至5回目の撮影により得られた5枚の撮影画像に対応する5枚の背景画像を選択することができる。なお、利用者が、背景選択画面において、5枚の背景画像がセットになったセット背景を選択することで、5枚の撮影画像についての背景画像が一括して選択されるようにしてもよい。 In the shooting process of the present embodiment, a total of five normal shots are taken, so that the user can obtain the first to fifth shots from the plurality of background images displayed on the background selection screen. It is possible to select five background images corresponding to the five captured images. The user may select a set background in which five background images are set on the background selection screen so that the background images for the five captured images are collectively selected. ..

背景選択画面において、5枚の背景画像が選択されると、処理はステップS34に進む。 When five background images are selected on the background selection screen, the process proceeds to step S34.

ステップS34において、表示制御部321は、タブレット内蔵モニタ131に名前入力画面を表示させる。 In step S34, the display control unit 321 causes the tablet built-in monitor 131 to display the name input screen.

名前入力画面は、利用者による名前の入力に用いられる画面である。名前入力画面には、名前の入力に用いることが可能なひらがなを選択するためのボタンと、選択されたボタンに対応する文字列が表示されるテキストボックスが表示される。 The name input screen is a screen used for a user to input a name. On the name input screen, a button for selecting hiragana that can be used for inputting a name and a text box displaying a character string corresponding to the selected button are displayed.

名前入力画面において、名前の入力が終了すると、処理はステップS35に進む。 When the name input is completed on the name input screen, the process proceeds to step S35.

ステップS35において、表示制御部321は、タブレット内蔵モニタ131に編集画面を表示させる。 In step S35, the display control unit 321 causes the tablet built-in monitor 131 to display the edit screen.

編集画面は、編集対象となる撮影画像の編集に用いられる画面である。編集画面には、編集対象となる撮影画像と、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)が表示される。 The edit screen is a screen used for editing a captured image to be edited. On the editing screen, the captured image to be edited and various editing tools (composite images) such as stamp images and pen images used for editing are displayed.

利用者がタッチペン132A,132Bを用いて、スタンプ画像やペン画像などを編集対象となる撮影画像上の所定の位置へ重畳することで、編集対象となる撮影画像に対する合成用画像の合成が行われる。 When the user superimposes a stamp image, a pen image, or the like on a predetermined position on the captured image to be edited using the touch pens 132A and 132B, the composite image is combined with the captured image to be edited. ..

すなわち、ステップS36において、編集制御部322は、利用者の操作に応じて、編集対象となる撮影画像に編集を施す。 That is, in step S36, the editing control unit 322 edits the captured image to be edited according to the operation of the user.

なお、編集画面において、編集対象となる撮影画像は、レタッチ画面において先に選択された度合いの画像処理が施された状態で表示される。これにより、利用者は、レタッチ画面で選択した度合いの画像処理が施された撮影画像を確認しながら、編集作業を行うことができる。 On the edit screen, the captured image to be edited is displayed in a state where the image processing to the degree previously selected on the retouch screen has been performed. As a result, the user can perform editing work while checking the captured image that has undergone image processing to the degree selected on the retouch screen.

編集作業が終了すると、ステップS37において、表示制御部321は、タブレット内蔵モニタ131に分割数選択画面を表示させる。 When the editing work is completed, in step S37, the display control unit 321 causes the tablet built-in monitor 131 to display the division number selection screen.

分割数選択画面は、最終的に出力されるシール紙の分割数やシールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚のシール紙に配置される編集画像(撮影画像)の枚数や位置、大きさを決定するレイアウト(配置パターン)である。ここで、利用者により選択されたシールレイアウトに従って編集画像が配置されてなる画像をレイアウト画像という。 The number of divisions selection screen is a screen used for selecting the number of divisions of the sticker paper to be finally output and the sticker layout. The sticker layout is a layout (arrangement pattern) that determines the number, position, and size of edited images (photographed images) arranged on one sticker paper. Here, an image in which the edited image is arranged according to the sticker layout selected by the user is referred to as a layout image.

したがって、分割数選択画面には、1乃至5回目の撮影により得られた5枚の撮影画像それぞれに編集が施された編集画像が、異なるシールレイアウトで配置されたレイアウト画像が複数表示される。 Therefore, on the division number selection screen, a plurality of layout images in which edited images are edited for each of the five captured images obtained by the first to fifth shots and arranged in different sticker layouts are displayed.

分割数選択画面において、レイアウト画像のいずれかが選択されると、処理はステップS38に進む。 When any of the layout images is selected on the division number selection screen, the process proceeds to step S38.

ステップS39において、編集処理部302は、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、編集部209のタブレット内蔵モニタ131に案内画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。 In step S39, the editing processing unit 302 guides the user who has completed the editing work to move to the print waiting space A3. Guidance for moving to the print waiting space A3 is performed by displaying a guidance screen on the tablet built-in monitor 131 of the editorial unit 209 or by outputting voice from the speaker 231.

<レタッチ画面の例>
ここで、上述した編集処理のステップS32において表示されるレタッチ画面の例について説明する。
<Example of retouch screen>
Here, an example of the retouch screen displayed in step S32 of the editing process described above will be described.

図17は、レタッチ画面の一例として表示される脚の長さ選択画面を示す図である。 FIG. 17 is a diagram showing a leg length selection screen displayed as an example of the retouch screen.

脚の長さ選択画面においては、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ脚の長さを同時に選択することができる。 In the leg length selection screen, the main configurations are provided symmetrically. With such a screen configuration, two users can select the leg lengths at the same time.

脚の長さ選択画面において、左右それぞれの領域の上側には、画像表示領域511L,511Rが設けられる。画像表示領域511L,511Rには、認識撮影により得られた認識用画像において認識部313による認識に成功した人物の全身画像がそれぞれ表示される。 In the leg length selection screen, image display areas 511L and 511R are provided above the left and right areas. In the image display areas 511L and 511R, whole body images of a person who has succeeded in recognition by the recognition unit 313 in the recognition image obtained by the recognition photography are displayed, respectively.

画像表示領域511L,511Rそれぞれの下方には、選択領域512L,512Rが設けられる。選択領域512L,512Rそれぞれには、通常撮影により得られた5枚の撮影画像(全身画像)それぞれに写る利用者の脚の長さを選択するためのボタン521−1乃至521−3が設けられる。 Below each of the image display areas 511L and 511R, selection areas 512L and 512R are provided. Each of the selection areas 512L and 512R is provided with buttons 521-1 to 521-3 for selecting the length of the user's leg to be captured in each of the five captured images (whole body images) obtained by normal photographing. ..

ボタン521−1乃至521−3それぞれは、脚の長さを変える画像処理の度合いに対応する。ボタン521−1は、脚の長さとして「ナチュラル」を選択するためのボタンであり、ボタン521−2は、脚の長さとして「おすすめ」を選択するためのボタンであり、ボタン521−3は、脚の長さとして「モデル」を選択するためのボタンである。「ナチュラル」は、脚の長さを自然な長さに伸ばす画像処理に対応し、「モデル」は、脚の長さをモデル並みに伸ばす画像処理に対応する。また、「おすすめ」は、脚の長さを、「ナチュラル」と「モデル」の中間となる長さに伸ばす画像処理に対応する。なお、モデル並みの脚の長さとは、例えば、股下が身長の46%乃至48%程度となる脚の長さとされる。 Each of the buttons 521-1 to 521-3 corresponds to the degree of image processing that changes the length of the leg. Button 521-1 is a button for selecting "natural" as the leg length, and button 521-2 is a button for selecting "recommended" as the leg length, and button 521-3. Is a button for selecting "model" as the leg length. "Natural" corresponds to image processing that extends the leg length to a natural length, and "model" corresponds to image processing that extends the leg length to the same level as the model. In addition, "recommended" corresponds to image processing that extends the leg length to a length intermediate between "natural" and "model". The leg length equivalent to that of the model is defined as, for example, a leg length in which the inseam is about 46% to 48% of the height.

また、ボタン521−1乃至521−3それぞれには、撮影画像において、その画像処理が施される利用者の部分に対応する画像が表示される。具体的には、ボタン521−1には、「ナチュラル」の脚の長さに変える画像処理の結果を表す脚の部分の画像が表示され、ボタン521−2には、「おすすめ」の脚の長さに変える画像処理の結果を表す脚の部分の画像が表示される。また、ボタン521−3には、「モデル」の脚の長さに変える画像処理の結果を表す脚の部分の画像が表示される。 In addition, each of the buttons 521-1 to 521-3 displays an image corresponding to the portion of the user to which the image processing is performed in the captured image. Specifically, the button 521-1 displays an image of the leg portion showing the result of the image processing to change the leg length to the "natural", and the button 521-2 displays the image of the "recommended" leg. The image of the leg part showing the result of the image processing to be changed to the length is displayed. Further, the button 521-3 displays an image of the leg portion showing the result of the image processing to be changed to the leg length of the "model".

このように、選択領域に表示される各ボタンに、脚の部分の画像が表示されることで、画像処理の対象となる領域が明確になり、利用者は、全身のうちのどの部分が変更されるかを容易に確認することができる。 In this way, by displaying the image of the leg part on each button displayed in the selection area, the area to be image processed becomes clear, and the user can change which part of the whole body. It can be easily confirmed whether or not it is done.

なお、ボタン521−1乃至521−3それぞれに表示される画像は、あらかじめ用意されたモデルの脚の部分の画像であってもよいし、選択領域512L,512Rそれぞれに対応する画像表示領域511L,511Rに表示されている利用者の脚の部分の画像であってもよい。また、ボタン521−1乃至521−3それぞれに画像は表示されず、対応する脚の長さを表す文字列のみが表示されるようにしてもよい。なお、ボタン521−1乃至521−3の形状は、図17に示されるような矩形に限らず、任意の形状とすることができる。 The image displayed on each of the buttons 521-1 to 521-3 may be an image of the leg portion of the model prepared in advance, or the image display area 511L corresponding to each of the selection areas 512L and 512R, It may be an image of the leg portion of the user displayed on the 511R. Further, the image may not be displayed on each of the buttons 521-1 to 521-3, and only the character string representing the corresponding leg length may be displayed. The shapes of the buttons 521-1 to 521-3 are not limited to the rectangle as shown in FIG. 17, and may be any shape.

ボタン521−1乃至521−3のいずれかが選択されると、表示制御部321は、画像表示領域511L,511Rに表示されている全身画像を、選択されたボタンに対応する脚の長さに変える画像処理が施された全身画像に切り替える。 When any of the buttons 521-1 to 521-3 is selected, the display control unit 321 shifts the whole body image displayed in the image display areas 511L and 511R to the leg length corresponding to the selected button. Switch to a full-body image with image processing to change.

具体的には、脚の長さ選択画面左側の選択領域512Lにおいて、ボタン521−1乃至521−3のいずれかが選択される毎に、画像表示領域511Lに表示されている全身画像が、選択されたボタンに対応する脚の長さに変える画像処理が施された全身画像に切り替わる。同様に、脚の長さ選択画面右側の選択領域512Rにおいて、ボタン521−1乃至521−3のいずれかが選択される毎に、画像表示領域511Rに表示されている全身画像が、選択されたボタンに対応する脚の長さに変える画像処理が施された全身画像に切り替わる。 Specifically, in the selection area 512L on the left side of the leg length selection screen, every time any of the buttons 521-1 to 521-3 is selected, the whole body image displayed in the image display area 511L is selected. It switches to a full-body image that has undergone image processing to change the leg length corresponding to the button. Similarly, in the selection area 512R on the right side of the leg length selection screen, every time any of the buttons 521-1 to 521-3 is selected, the whole body image displayed in the image display area 511R is selected. It switches to a full-body image with image processing that changes to the leg length corresponding to the button.

なお、画像表示領域511L,511Rに表示される全身画像は、いずれの処理も施されていない全身画像に、ボタン521−1乃至521−3それぞれに対応する度合いの画像処理が施されたものがあらかじめ用意されることで、ボタン521−1乃至521−3のいずれかが選択される毎に切り替わって表示される。しかしながら、これに限らず、ボタン521−1乃至521−3のいずれかが選択される毎に、画像処理部324により、いずれの処理も施されていない全身画像に、選択されたボタンに対応する度合いの画像処理が施されて表示されるようにしてもよい。 The whole body image displayed in the image display areas 511L and 511R is a whole body image that has not been subjected to any processing and has been subjected to image processing to a degree corresponding to each of the buttons 521-1 to 521-3. By being prepared in advance, each time any of the buttons 521-1 to 521-3 is selected, the display is switched. However, not limited to this, each time any of the buttons 521-1 to 521-3 is selected, the image processing unit 324 corresponds to the selected button for the whole body image to which no processing has been performed. It may be displayed after being subjected to some degree of image processing.

このようにして、利用者は、画像表示領域511L,511Rに表示されている全身画像の変化を確認することで、所望の脚の長さを選択することができる。 In this way, the user can select the desired leg length by confirming the change in the whole body image displayed in the image display areas 511L and 511R.

ボタン521−1乃至521−3の下方には、OKボタン522が設けられる。 An OK button 522 is provided below the buttons 521-1 to 521-3.

ボタン521−1乃至521−3のいずれかが選択された状態で、OKボタン522が押下されることで、脚の長さを変える画像処理の度合いが決定され、撮影画像それぞれに写る利用者の脚の部分に対して、決定された度合いの画像処理が施される。 By pressing the OK button 522 with any of the buttons 521-1 to 521-3 selected, the degree of image processing for changing the leg length is determined, and the user's image in each captured image is determined. A determined degree of image processing is applied to the leg portion.

具体的には、脚の長さ選択画面左側の選択領域512Lにおいて、ボタン521−1乃至521−3のいずれかが選択された状態で、OKボタン522が押下された場合、撮影画像それぞれの左側に写る利用者の脚の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。同様にして、脚の長さ選択画面右側の選択領域512Rにおいて、ボタン521−1乃至521−3のいずれかが選択された状態で、OKボタン522が押下された場合、撮影画像それぞれの右側に写る利用者の脚の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。 Specifically, when the OK button 522 is pressed while any of the buttons 521-1 to 521-3 is selected in the selection area 512L on the left side of the leg length selection screen, the left side of each captured image. The part of the user's leg reflected in the image is subjected to image processing to the extent corresponding to the selected button. Similarly, in the selection area 512R on the right side of the leg length selection screen, when the OK button 522 is pressed while any of the buttons 521-1 to 521-3 is selected, the right side of each captured image is displayed. Image processing is applied to the legs of the user in the image to the extent corresponding to the selected button.

なお、脚の長さ選択画面の中心よりやや上の位置には、両矢印の形状の入れ替えボタン513が設けられる。撮影空間においてカメラ91に向かう2人の利用者の左右の位置と、編集空間においてタブレット内蔵モニタ131に向かう2人の利用者の左右の位置とが異なってしまう場合がある。この場合、利用者のいずれかが、入れ替えボタン513を操作することで、脚の長さ選択画面の左右と利用者とが一対一の対応関係となり、利用者それぞれが、立ち位置を変えることなく、自身についての画像処理の度合いを選択することができる。 A switch button 513 in the shape of a double-headed arrow is provided at a position slightly above the center of the leg length selection screen. The left and right positions of the two users facing the camera 91 in the shooting space may be different from the left and right positions of the two users facing the tablet built-in monitor 131 in the editing space. In this case, when one of the users operates the replacement button 513, the left and right sides of the leg length selection screen and the user have a one-to-one correspondence relationship, and each user does not change the standing position. , You can select the degree of image processing for yourself.

図18は、レタッチ画面の一例として表示される脚の細さ選択画面を示す図である。 FIG. 18 is a diagram showing a leg thinness selection screen displayed as an example of the retouch screen.

脚の細さ選択画面は、基本的には、図17の脚の長さ選択画面と同様の構成を有し、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ脚の細さを同時に選択することができる。 The leg thinness selection screen basically has the same configuration as the leg length selection screen of FIG. 17, and the main configurations are provided symmetrically. With such a screen configuration, two users can select the thinness of the legs at the same time.

脚の細さ選択画面において、左右それぞれの領域の上側には、図17の脚の長さ選択画面と同様、画像表示領域511L,511Rが設けられる。 In the leg thinness selection screen, image display areas 511L and 511R are provided on the upper side of each of the left and right areas, as in the leg length selection screen of FIG.

画像表示領域511L,511Rそれぞれの下方には、選択領域531L,531Rが設けられる。選択領域531L,531Rそれぞれには、通常撮影により得られた5枚の撮影画像(全身画像)それぞれに写る利用者の脚の細さを選択するためのボタン541−1乃至541−3が設けられる。 Below each of the image display areas 511L and 511R, selection areas 531L and 531R are provided. Each of the selection areas 531L and 531R is provided with buttons 541-1 to 541-3 for selecting the thinness of the user's legs to be captured in each of the five captured images (whole body images) obtained by normal photographing. ..

ボタン541−1乃至541−3それぞれは、脚の細さを変える画像処理の度合いに対応する。ボタン541−1は、脚の細さとして「ナチュラル」を選択するためのボタンであり、ボタン541−2は、脚の細さとして「おすすめ」を選択するためのボタンであり、ボタン541−3は、脚の細さとして「モデル」を選択するためのボタンである。「ナチュラル」は、脚の細さを自然な細さにする画像処理に対応し、「モデル」は、脚の細さをモデル並みに細くする画像処理に対応する。また、「おすすめ」は、脚の細さを、「ナチュラル」と「モデル」の中間となる細さにする画像処理に対応する。 Each of the buttons 541-1 to 541-3 corresponds to the degree of image processing that changes the thinness of the leg. Button 541-1 is a button for selecting "natural" as the thinness of the leg, and button 541-2 is a button for selecting "recommended" as the thinness of the leg, and button 541-3. Is a button for selecting "model" as the thinness of the legs. "Natural" corresponds to image processing that makes the thinness of the legs natural, and "model" corresponds to image processing that makes the thinness of the legs as thin as the model. In addition, "recommended" corresponds to image processing that makes the thinness of the legs intermediate between "natural" and "model".

また、ボタン541−1乃至541−3それぞれには、撮影画像において、その画像処理が施される利用者の部分に対応する画像が表示される。具体的には、ボタン541−1には、「ナチュラル」の脚の細さに変える画像処理の結果を表す脚の部分の画像が表示され、ボタン521−2には、「おすすめ」の脚の細さに変える画像処理の結果を表す脚の部分の画像が表示される。また、ボタン521−3には、「モデル」の脚の細さに変える画像処理の結果を表す脚の部分の画像が表示される。 In addition, each of the buttons 541-1 to 541-3 displays an image corresponding to the portion of the user to which the image processing is performed in the captured image. Specifically, the button 541-1 displays an image of the leg part showing the result of the image processing to change the leg thinness to "natural", and the button 521-2 displays the image of the "recommended" leg. The image of the leg part showing the result of the image processing to be changed to fineness is displayed. Further, the button 521-3 displays an image of the leg portion showing the result of the image processing for changing the leg thinness of the "model".

なお、ボタン541−1乃至541−3それぞれに表示される画像は、あらかじめ用意されたモデルの脚の部分の画像であってもよいし、選択領域531L,531Rそれぞれに対応する画像表示領域511L,511Rに表示されている利用者の脚の部分の画像であってもよい。また、ボタン541−1乃至541−3それぞれに画像は表示されず、対応する脚の細さを表す文字列のみが表示されるようにしてもよい。なお、ボタン541−1乃至541−3の形状は、図18に示されるような矩形に限らず、任意の形状とすることができる。 The image displayed on each of the buttons 541-1 to 541-3 may be an image of the leg portion of the model prepared in advance, or the image display area 511L corresponding to each of the selection areas 531L and 531R, It may be an image of the leg portion of the user displayed on the 511R. Further, the image may not be displayed on each of the buttons 541-1 to 541-3, and only the character string representing the corresponding thinness of the leg may be displayed. The shape of the buttons 541-1 to 541-3 is not limited to the rectangle as shown in FIG. 18, and may be any shape.

ボタン541−1乃至541−3のいずれかが選択されると、表示制御部321は、画像表示領域511L,511Rに表示されている全身画像を、選択されたボタンに対応する脚の細さに変える画像処理が施された全身画像に切り替える。 When any of the buttons 541-1 to 541-3 is selected, the display control unit 321 shifts the whole body image displayed in the image display areas 511L and 511R to the thinness of the legs corresponding to the selected button. Switch to a full-body image with image processing to change.

具体的には、脚の細さ選択画面左側の選択領域531Lにおいて、ボタン541−1乃至541−3のいずれかが選択される毎に、画像表示領域511Lに表示されている全身画像が、選択されたボタンに対応する脚の細さに変える画像処理が施された全身画像に切り替わる。同様に、脚の細さ選択画面右側の選択領域531Rにおいて、ボタン541−1乃至541−3のいずれかが選択される毎に、画像表示領域511Rに表示されている全身画像が、選択されたボタンに対応する脚の細さに変える画像処理が施された全身画像に切り替わる。 Specifically, every time any of the buttons 541-1 to 541-3 is selected in the selection area 531L on the left side of the leg thinness selection screen, the whole body image displayed in the image display area 511L is selected. It switches to a full-body image that has undergone image processing to change the leg thinness corresponding to the button. Similarly, in the selection area 531R on the right side of the leg thinness selection screen, every time any of the buttons 541-1 to 541-3 is selected, the whole body image displayed in the image display area 511R is selected. It switches to a full-body image with image processing that changes the leg thinness corresponding to the button.

ここでも、画像表示領域511L,511Rに表示される全身画像は、いずれの処理も施されていない全身画像に、ボタン541−1乃至541−3それぞれに対応する度合いの画像処理が施されたものがあらかじめ用意されることで、ボタン541−1乃至541−3のいずれかが選択される毎に切り替わって表示される。しかしながら、これに限らず、ボタン541−1乃至541−3のいずれかが選択される毎に、画像処理部324により、いずれの処理も施されていない全身画像に、選択されたボタンに対応する度合いの画像処理が施されて表示されるようにしてもよい。 Here, too, the whole-body image displayed in the image display areas 511L and 511R is a whole-body image that has not been subjected to any processing and has been subjected to image processing to a degree corresponding to each of the buttons 541-1 to 541-3. Is prepared in advance, so that each time any of the buttons 541-1 to 541-3 is selected, the button is switched and displayed. However, not limited to this, each time any of the buttons 541-1 to 541-3 is selected, the image processing unit 324 corresponds to the selected button for the whole body image to which no processing has been performed. It may be displayed after being subjected to some degree of image processing.

このようにして、利用者は、画像表示領域511L,511Rに表示されている全身画像の変化を確認することで、所望の脚の細さを選択することができる。 In this way, the user can select the desired leg thinness by confirming the change in the whole body image displayed in the image display areas 511L and 511R.

ボタン541−1乃至541−3の下方には、OKボタン542が設けられる。 An OK button 542 is provided below the buttons 541-1 to 541-3.

ボタン541−1乃至541−3のいずれかが選択された状態で、OKボタン542が押下されることで、脚の細さを変える画像処理の度合いが決定され、撮影画像それぞれに写る利用者の脚の部分に対して、決定された度合いの画像処理が施される。 By pressing the OK button 542 with any of the buttons 541-1 to 541-3 selected, the degree of image processing for changing the thinness of the legs is determined, and the user's image in each captured image is determined. A determined degree of image processing is applied to the leg portion.

具体的には、脚の細さ選択画面左側の選択領域531Lにおいて、ボタン541−1乃至541−3のいずれかが選択された状態で、OKボタン542が押下された場合、撮影画像それぞれの左側に写る利用者の脚の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。同様にして、脚の細さ選択画面右側の選択領域531Rにおいて、ボタン541−1乃至541−3のいずれかが選択された状態で、OKボタン542が押下された場合、撮影画像それぞれの右側に写る利用者の脚の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。 Specifically, when the OK button 542 is pressed while any of the buttons 541-1 to 541-3 is selected in the selection area 531L on the left side of the leg thinness selection screen, the left side of each captured image. The part of the user's leg reflected in the image is subjected to image processing to the extent corresponding to the selected button. Similarly, when the OK button 542 is pressed while any of the buttons 541-1 to 541-3 is selected in the selection area 531R on the right side of the leg thinness selection screen, the right side of each captured image is displayed. Image processing is applied to the legs of the user in the image to the extent corresponding to the selected button.

なお、脚の細さ選択画面の中心よりやや上の位置には、図17の脚の長さ選択画面と同様、入れ替えボタン513が設けられる。 A replacement button 513 is provided at a position slightly above the center of the leg thinness selection screen, as in the leg length selection screen of FIG.

以上の構成によれば、脚の長さ選択画面や脚の細さ選択画面において、利用者それぞれが、脚の長さや脚の細さを変える画像処理の度合いを選択することができるので、利用者の全身が写る撮影画像について、利用者毎に所望のスタイルを選択することが可能となる。 According to the above configuration, each user can select the degree of image processing for changing the leg length and the leg thinness on the leg length selection screen and the leg thinness selection screen. It is possible to select a desired style for each user for a photographed image showing the whole body of the person.

なお、図17および図18の例では、選択領域に、画像処理の度合いを選択するためのボタンが、GUIとして設けられるものとしたが、これらのボタンに代えて、スライダが設けられるようにしてもよい。これにより、ボタンと比べてより細かく、画像処理の度合いを選択(設定)することができ、より利用者の好みにあった画像を提供することができる。 In the examples of FIGS. 17 and 18, buttons for selecting the degree of image processing are provided as a GUI in the selection area, but a slider is provided instead of these buttons. May be good. As a result, the degree of image processing can be selected (set) in more detail than the button, and an image more suitable for the user's preference can be provided.

また、上述した脚の長さ選択画面や脚の細さ選択画面において、利用者それぞれが選択する脚の長さや脚の細さによっては、撮影画像に写る2人の利用者の脚の長さや細さに大きな差が生じ、撮影画像の見た目が不自然になるおそれがある。そこで、脚の長さ選択画面や脚の細さ選択画面において、利用者それぞれの全身画像が表示される画像表示領域に加え、2人の利用者が写る撮影画像(脚の長さや細さが変更された撮影画像)が表示される領域を設けるようにしてもよい。これにより、利用者は、撮影画像に写る2人の利用者の状態を確認することができ、撮影画像の見た目が不自然になるのを防ぐことができるようになる。 In addition, depending on the leg length and leg thinness selected by each user on the leg length selection screen and leg thinness selection screen described above, the leg lengths of the two users shown in the captured image may be increased. There is a risk that the fineness will vary greatly and the captured image will look unnatural. Therefore, on the leg length selection screen and the leg thinness selection screen, in addition to the image display area in which the whole body image of each user is displayed, the photographed image (the leg length and thinness) of two users is captured. An area for displaying the changed captured image) may be provided. As a result, the user can confirm the state of the two users reflected in the captured image, and can prevent the captured image from becoming unnatural in appearance.

ところで、利用者が、スマートフォンなどの携帯端末を用いて自分自身を撮影する、いわゆる「自撮り」によれば、利用者は、好きなときに好きな場所で、自分自身を撮影することができる。特に近年は、1人の利用者が、自身を含む複数人で「自撮り」を行うこともよく見受けられる。 By the way, according to the so-called "selfie" in which a user takes a picture of himself / herself using a mobile terminal such as a smartphone, the user can take a picture of himself / herself at any time and place. .. Especially in recent years, it is often seen that one user takes a "selfie" with multiple people including himself.

「自撮り」においては、利用者が、手にした携帯端末を、例えば自身の頭の斜め上に掲げることで撮影が行われる。そのため、被写体となる利用者自身と、携帯端末に内蔵されるカメラとの距離は、腕の長さ以上にはならないため、広角レンズを搭載したカメラであっても、得られる画像においては顔が大きく写り、全身が写る画像を得ることは難しい。 In "selfie", the user takes a picture by holding the mobile terminal in his / her hand, for example, diagonally above his / her head. Therefore, the distance between the user who is the subject and the camera built into the mobile terminal is not longer than the length of the arm, so even if the camera is equipped with a wide-angle lens, the face will appear in the obtained image. It is difficult to obtain a large image that shows the whole body.

したがって、携帯端末で、利用者の全身が写る画像を得るためには、カメラとの距離が適度に保たれた位置にある鏡に写る利用者の全身を撮影するか、または、第三者に撮影してもらうしかない。 Therefore, in order to obtain an image of the whole body of the user on the mobile terminal, the whole body of the user reflected in the mirror at a position kept at an appropriate distance from the camera is photographed, or a third party is asked. I have no choice but to have them photographed.

一方、写真シール作成装置1によれば、被写体となる利用者とカメラとの距離を適度に保ちつつ、整った光学環境の中で、利用者の全身を写す全身撮影が行われるので、完成度の高い全身画像を、利用者に提供することができる。 On the other hand, according to the photo sticker creating device 1, the whole body of the user is photographed in a well-organized optical environment while maintaining an appropriate distance between the user who is the subject and the camera. It is possible to provide a user with a high-quality full-body image.

さらに、本実施の形態によれば、得られる全身画像について、利用者毎に所望のスタイルを選択することができるので、利用者の満足度をより向上させることができる。 Further, according to the present embodiment, a desired style can be selected for each user with respect to the obtained whole body image, so that the satisfaction level of the user can be further improved.

以上においては、撮影画像に写る利用者の全身のうち、脚の部分に施される画像処理の度合いを選択するためのレタッチ画面の例について説明してきた。これに限らず、レタッチ画面において、撮影画像に写る利用者の全身のうち、顔の部分に施される画像処理の度合いが選択されるようにしてもよい。 In the above, an example of a retouch screen for selecting the degree of image processing applied to the leg portion of the user's whole body reflected in the captured image has been described. Not limited to this, on the retouch screen, the degree of image processing applied to the face portion of the whole body of the user reflected in the captured image may be selected.

顔の部分に施される画像処理の種類としては、目の大きさ、肌の明るさ、肌の色、顔の大きさ、髪の色、メイクの濃淡などを変える処理がある。これらの処理は、認識用画像や撮影画像における利用者の顔を認識することで、実現可能とされる。 The types of image processing applied to the face portion include processing for changing the size of the eyes, the brightness of the skin, the color of the skin, the size of the face, the color of the hair, and the shade of makeup. These processes can be realized by recognizing the user's face in the recognition image or the captured image.

図19は、レタッチ画面の一例として表示される目の大きさ選択画面を示す図である。 FIG. 19 is a diagram showing an eye size selection screen displayed as an example of the retouch screen.

目の大きさ選択画面もまた、基本的には、図17の脚の長さ選択画面と同様の構成を有し、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ目の大きさを同時に選択することができる。 The eye size selection screen also basically has the same configuration as the leg length selection screen of FIG. 17, and the main configurations are provided symmetrically. With such a screen configuration, two users can select the eye size at the same time.

目の大きさ選択画面において、左右それぞれの領域の上側には、図17の脚の長さ選択画面と同様、画像表示領域511L,511Rが設けられる。 In the eye size selection screen, image display areas 511L and 511R are provided on the upper side of each of the left and right areas, as in the leg length selection screen of FIG.

画像表示領域511L,511Rそれぞれの下方には、選択領域551L,551Rが表示される。選択領域551L,551Rそれぞれには、撮影処理により得られた5枚の撮影画像(全身画像)それぞれに写る利用者の目の大きさを選択するためのボタン561−1乃至561−3が設けられる。 Below each of the image display areas 511L and 511R, the selection areas 551L and 551R are displayed. Each of the selection areas 551L and 551R is provided with buttons 561-1 to 561-3 for selecting the size of the user's eyes to be captured in each of the five captured images (whole body images) obtained by the photographing process. ..

ボタン561−1乃至561−3それぞれは、目の大きさを変える画像処理の度合いに対応する。ボタン561−1は、目の大きさとして「ナチュラル」を選択するためのボタンであり、ボタン561−2は、目の大きさとして「おすすめ」を選択するためのボタンであり、ボタン561−3は、目の大きさとして「ボリューム」を選択するためのボタンである。「ナチュラル」は、目の大きさを自然な大きさにする画像処理に対応し、「ボリューム」は、目の大きさを十分な大きさにする画像処理に対応する。また、「おすすめ」は、目の大きさを、「ナチュラル」と「ボリューム」の中間となる大きさにする画像処理に対応する。 Each of the buttons 561-1 to 561-3 corresponds to the degree of image processing that changes the size of the eyes. Button 561-1 is a button for selecting "natural" as the eye size, and button 561-2 is a button for selecting "recommended" as the eye size, and button 561-3. Is a button for selecting "volume" as the eye size. "Natural" corresponds to image processing that makes the size of the eyes natural, and "volume" corresponds to image processing that makes the size of the eyes sufficiently large. In addition, "recommended" corresponds to image processing in which the size of the eyes is set to an intermediate size between "natural" and "volume".

また、ボタン561−1乃至561−3それぞれには、撮影画像において、その画像処理が施される利用者の部分に対応する画像が表示される。具体的には、ボタン561−1には、「ナチュラル」の目の大きさに変える画像処理の結果を表す目の部分の画像が表示され、ボタン561−2には、「おすすめ」の目の大きさに変える画像処理の結果を表す目の部分の画像が表示される。また、ボタン561−3には、「ボリューム」の目の大きさに変える画像処理の結果を表す目の部分の画像が表示される。 Further, each of the buttons 561-1 to 561-3 displays an image corresponding to the portion of the user to which the image processing is performed in the captured image. Specifically, the button 561-1 displays an image of the eye part showing the result of the image processing to change the eye size to "natural", and the button 561-2 displays the image of the "recommended" eye. The image of the eye part showing the result of the image processing to be changed to the size is displayed. Further, the button 561-3 displays an image of the eye portion showing the result of the image processing for changing the size of the "volume" eye.

なお、ボタン561−1乃至561−3それぞれに表示される画像は、あらかじめ用意されたモデルの目の部分の画像であってもよいし、選択領域551L,551Rそれぞれに対応する画像表示領域511L,511Rに表示されている利用者の目の部分の画像であってもよい。また、ボタン561−1乃至561−3それぞれに画像は表示されず、対応する目の大きさを表す文字列のみが表示されるようにしてもよい。なお、ボタン561−1乃至561−3の形状は、図19に示されるような矩形に限らず、任意の形状とすることができる。 The image displayed on each of the buttons 561-1 to 561-3 may be an image of the eye portion of the model prepared in advance, or the image display area 511L corresponding to each of the selection areas 551L and 551R, It may be an image of the user's eye portion displayed on the 511R. Further, the image may not be displayed on each of the buttons 561-1 to 561-3, and only the character string representing the corresponding eye size may be displayed. The shapes of the buttons 561-1 to 561-3 are not limited to the rectangle as shown in FIG. 19, and may be any shape.

ボタン561−1乃至561−3のいずれかが選択されると、表示制御部321は、画像表示領域511L,511Rに表示されている全身画像を、選択されたボタンに対応する目の大きさに変える画像処理が施された全身画像に切り替える。 When any of the buttons 561-1 to 561-3 is selected, the display control unit 321 displays the whole body image displayed in the image display areas 511L and 511R in the size of the eyes corresponding to the selected button. Switch to a full-body image with image processing to change.

具体的には、目の大きさ選択画面左側の選択領域551Lにおいて、ボタン561−1乃至561−3のいずれかが選択される毎に、画像表示領域511Lに表示されている全身画像が、選択されたボタンに対応する目の大きさに変える画像処理が施された全身画像に切り替わる。同様に、目の大きさ選択画面右側の選択領域551Rにおいて、ボタン561−1乃至561−3のいずれかが選択される毎に、画像表示領域511Rに表示されている全身画像が、選択されたボタンに対応する目の大きさに変える画像処理が施された全身画像に切り替わる。 Specifically, in the selection area 551L on the left side of the eye size selection screen, every time any of the buttons 561-1 to 561-3 is selected, the whole body image displayed in the image display area 511L is selected. It switches to a full-body image that has undergone image processing to change the size of the eyes corresponding to the button. Similarly, in the selection area 551R on the right side of the eye size selection screen, every time any of the buttons 561-1 to 561-3 is selected, the whole body image displayed in the image display area 511R is selected. It switches to a full-body image that has undergone image processing to change the size of the eyes to correspond to the button.

ここでも、画像表示領域511L,511Rに表示される全身画像は、いずれの処理も施されていない全身画像に、ボタン561−1乃至561−3それぞれに対応する度合いの画像処理が施されたものがあらかじめ用意されることで、ボタン561−1乃至561−3のいずれかが選択される毎に切り替わって表示される。しかしながら、これに限らず、ボタン561−1乃至561−3のいずれかが選択される毎に、画像処理部324により、いずれの処理も施されていない全身画像に、選択されたボタンに対応する度合いの画像処理が施されて表示されるようにしてもよい。 Here, too, the whole-body image displayed in the image display areas 511L and 511R is a whole-body image that has not been subjected to any processing and has been subjected to image processing to a degree corresponding to each of the buttons 561-1 to 561-3. Is prepared in advance, so that each time any of the buttons 561-1 to 561-3 is selected, the button is switched and displayed. However, not limited to this, each time any of the buttons 561-1 to 561-3 is selected, the image processing unit 324 corresponds to the selected button for the whole body image to which no processing is performed. It may be displayed after being subjected to some degree of image processing.

このようにして、利用者は、画像表示領域511L,511Rに表示されている全身画像の変化を確認することで、所望の目の大きさを選択することができる。 In this way, the user can select the desired eye size by confirming the change in the whole body image displayed in the image display areas 511L and 511R.

ボタン561−1乃至561−3の下方には、OKボタン562が設けられる。 An OK button 562 is provided below the buttons 561-1 to 561-3.

ボタン561−1乃至561−3のいずれかが選択された状態で、OKボタン562が押下されることで、目の大きさを変える画像処理の度合いが決定され、撮影画像それぞれに写る利用者の目の部分に対して、決定された度合いの画像処理が施される。 By pressing the OK button 562 while any of the buttons 561-1 to 561-3 is selected, the degree of image processing for changing the size of the eyes is determined, and the user's image in each captured image is determined. A determined degree of image processing is applied to the eye portion.

具体的には、目の大きさ選択画面左側の選択領域551Lにおいて、ボタン561−1乃至561−3のいずれかが選択された状態で、OKボタン562が押下された場合、撮影画像それぞれの左側に写る利用者の目の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。同様にして、目の大きさ選択画面右側の選択領域551Rにおいて、ボタン561−1乃至561−3のいずれかが選択された状態で、OKボタン562が押下された場合、撮影画像それぞれの右側に写る利用者の目の部分に対して、選択されたボタンに対応する度合いの画像処理が施される。 Specifically, when the OK button 562 is pressed while any of the buttons 561-1 to 561-3 is selected in the selection area 551L on the left side of the eye size selection screen, the left side of each captured image. The part of the user's eyes reflected in the image is subjected to image processing to the extent corresponding to the selected button. Similarly, in the selection area 551R on the right side of the eye size selection screen, when the OK button 562 is pressed while any of the buttons 561-1 to 561-3 is selected, the right side of each captured image is displayed. The part of the user's eyes that appears is subjected to image processing to the extent that it corresponds to the selected button.

なお、図19の例では、画像表示領域511L,511Rに表示されている全身画像に目の大きさを変える画像処理が施されるものとしたが、全身画像全体に対して、画像処理が施される目の部分が小さいため、利用者にとっては、目の大きさがどのように変化したかがわかりにくい。そこで、画像表示領域511L,511Rにアップ画像が表示され、そのアップ画像に目の大きさを変える画像処理が施されるようにしてもよい。これにより、利用者にとって、目の大きさがどのように変化したかがわかりやすくなる。 In the example of FIG. 19, it is assumed that the whole body images displayed in the image display areas 511L and 511R are subjected to image processing for changing the size of the eyes, but the entire whole body image is subjected to image processing. Since the part of the eye that is formed is small, it is difficult for the user to understand how the size of the eye has changed. Therefore, the close-up image may be displayed in the image display areas 511L and 511R, and the close-up image may be subjected to image processing for changing the size of the eyes. This makes it easier for the user to understand how the size of the eyes has changed.

さて、上述したレタッチ画面により提供されるレタッチ機能においては、認識撮影と通常撮影とで、2人の利用者の左右の立ち位置が同じであることが前提とされている。 By the way, in the retouch function provided by the above-mentioned retouch screen, it is premised that the left and right standing positions of the two users are the same for the recognition shooting and the normal shooting.

すなわち、認識撮影により得られた認識用画像と、通常撮影により得られた撮影画像とにおいて、2人の利用者の左右の立ち位置が同じであることで、それぞれの利用者がレタッチ画面において選択した画像処理が、撮影画像に写る自分自身に施されるようになる。 That is, since the left and right standing positions of the two users are the same in the recognition image obtained by the recognition shooting and the shot image obtained by the normal shooting, each user selects on the retouch screen. The image processing that has been performed will be applied to oneself that appears in the captured image.

しかしながら、図20に示されるように、認識用画像において認識された人物の全身画像N11,N12それぞれに写る利用者の立ち位置が、撮影画像P11において左右に入れ替わった場合、一方の利用者がレタッチ画面において選択した画像処理は、撮影画像P11に写る他方の利用者に施されてしまう。 However, as shown in FIG. 20, when the standing positions of the users reflected in the whole body images N11 and N12 of the person recognized in the recognition image are switched to the left and right in the captured image P11, one user retouches. The image processing selected on the screen is applied to the other user who appears in the captured image P11.

そこで、認識撮影により認識された利用者それぞれを、撮影画像において認証することで、一方の利用者がレタッチ画面において選択した画像処理が、通常撮影での立ち位置によらず、撮影画像に写るその利用者自身に施されるようにすることができる。 Therefore, by authenticating each user recognized by the recognition shooting in the shot image, the image processing selected by one user on the retouch screen is reflected in the shot image regardless of the standing position in the normal shooting. It can be applied to the user himself.

具体的には、認識撮影において認識された利用者にIDを割り当て、通常撮影により得られた撮影画像において、IDが割り当てられた利用者が、どの部分に写っているのかが特定される。このような認証処理は、例えば、所定回数の通常撮影が全て終了した後に行われるか、通常撮影により1枚の撮影画像が得られる毎に行われる。 Specifically, an ID is assigned to the user recognized in the recognition shooting, and in the shot image obtained by the normal shooting, the part to which the user to which the ID is assigned appears is specified. Such an authentication process is performed, for example, after all the normal shootings of a predetermined number of times are completed, or every time one shot image is obtained by the normal shooting.

<認証処理の例1>
まず、図21のフローチャートを参照して、認証処理の第1の例について説明する。図21の処理は、例えば、認識撮影が行われた後から、通常撮影が終了するまでの間に行われてもよいし、通常撮影が終了し、レタッチ画面が表示される前までの間に行われてもよい。
<Example 1 of authentication processing>
First, a first example of the authentication process will be described with reference to the flowchart of FIG. The process of FIG. 21 may be performed, for example, after the recognition shooting is performed and before the normal shooting is finished, or before the normal shooting is finished and the retouch screen is displayed. It may be done.

ステップS51において、撮影処理部301の認識部313は、認識撮影により得られた認識用画像において、人物の顔を認識する。認識撮影の際、所定の枠内に利用者それぞれの全身が収まるようにして撮影が行われるため、その枠内にある顔が、それぞれの利用者の顔として認識される。なお、顔の認識は、認識用画像の原画像に対して行われてもよいし、原画像から所定領域が切り出された切り出し画像に対して行われてもよい。 In step S51, the recognition unit 313 of the shooting processing unit 301 recognizes the face of a person in the recognition image obtained by the recognition shooting. At the time of recognition shooting, since the shooting is performed so that the whole body of each user fits within a predetermined frame, the face within the frame is recognized as the face of each user. The face recognition may be performed on the original image of the recognition image, or may be performed on the cut-out image in which a predetermined area is cut out from the original image.

ステップS52において、登録部314は、認識部313により認識された顔にIDを割り当て、その顔を含む人物の全身画像を登録する。 In step S52, the registration unit 314 assigns an ID to the face recognized by the recognition unit 313, and registers the whole body image of the person including the face.

具体的には、まず、利用者(被写体)の顔の輪郭点が全て抽出される。このように輪郭点が抽出されるため、例えば、顔の部分に手があったり、横顔であったりすると、正確に輪郭を抽出できない可能性がある。 Specifically, first, all the contour points of the face of the user (subject) are extracted. Since the contour points are extracted in this way, for example, if there is a hand on the face or a profile, the contour may not be extracted accurately.

しかしながら、本実施の形態のように認識撮影を行うことで、通常撮影のときとは異なり、利用者が、正面を向いた状態で、かつポーズをとらない状態で撮影を行う可能性が高くなる。すなわち、顔の部分に手があったり、横向きであったりする状態ではなく、顔の輪郭を抽出しやすい状態で認識撮影が行われる可能性が高くなる。 However, by performing the recognition shooting as in the present embodiment, unlike the normal shooting, the user is more likely to shoot in a state of facing the front and in a state of not posing. .. That is, there is a high possibility that the recognition shooting is performed in a state in which the outline of the face can be easily extracted, not in a state in which the face portion has a hand or is turned sideways.

これにより、輪郭点の抽出も正確に行うことができる。抽出された輪郭点により顔認証信頼度が算出される。そして、顔認証信頼度が最も高い顔の座標情報が確認され、その顔の中点が画像内の左側にあるか、右側にあるかで、利用者が認識される。例えば、図22に示されるように、利用者が検出され、顔認証信頼度がそれぞれ算出されたとする。すなわち、画面内の右側に位置する利用者の顔認証信頼度が700と算出され、画面内の左側に位置する利用の顔認証信頼度が650と算出されたとする。図中の矩形は、顔領域の部分を示している。 As a result, the contour points can be extracted accurately. The face recognition reliability is calculated from the extracted contour points. Then, the coordinate information of the face having the highest face recognition reliability is confirmed, and the user is recognized depending on whether the midpoint of the face is on the left side or the right side in the image. For example, as shown in FIG. 22, it is assumed that the user is detected and the face recognition reliability is calculated respectively. That is, it is assumed that the face authentication reliability of the user located on the right side of the screen is calculated to be 700, and the face authentication reliability of the user located on the left side of the screen is calculated to be 650. The rectangle in the figure shows a part of the face area.

このような場合、顔認証信頼度が最も高い顔は、画像の中央を境界として、右半分に存在する顔であり、右の利用者として確定される。そして、右の利用者がID=0と設定される。残りの利用者は、左の利用者とされ、ID=1と設定される。IDが割り当てられた利用者の顔の情報、例えば、抽出された輪郭点の位置関係に加え、認識された顔および顔よりも下の領域を含む画像、すなわち全身画像が、認識結果としてデータベースに登録される。 In such a case, the face with the highest face recognition reliability is the face existing in the right half with the center of the image as the boundary, and is determined as the right user. Then, the user on the right is set to ID = 0. The remaining users are left users and ID = 1 is set. In addition to the information on the face of the user to whom the ID is assigned, for example, the positional relationship of the extracted contour points, the recognized face and the image including the area below the face, that is, the whole body image are stored in the database as the recognition result. be registered.

なお、2人の利用者が写っている画像であるため、一方の利用者の顔にIDが割り当てられた時点で、他方のIDを割り当てるようにしても良い。 Since the image shows two users, the other ID may be assigned when the ID is assigned to the face of one user.

また、輪郭点全域ではなく、目、鼻、口、耳などの顔の器官だけを抽出してもよいし、顔の輪郭だけが抽出されてもよい。また、まず画像の最も左の利用者を認識し、次に右の利用者を認識する、という流れで処理が行われるようにしてもよい。この場合、左の1名が認識され、認識された人物以外の人物が認識される、という流れになる。 Further, not the entire contour point but only facial organs such as eyes, nose, mouth, and ears may be extracted, or only the contour of the face may be extracted. Further, the process may be performed in a flow of first recognizing the leftmost user of the image and then recognizing the right user. In this case, the one person on the left is recognized, and a person other than the recognized person is recognized.

ステップS53において、編集処理部302の認証部323は、撮影画像を取得する。認証部323は、通常撮影が行われる度に撮影画像を取得するようにしてもよいし、通常撮影が全て終了した後に、全ての撮影画像を取得するようにしてもよい。 In step S53, the authentication unit 323 of the editing processing unit 302 acquires the captured image. The authentication unit 323 may acquire the captured image every time the normal shooting is performed, or may acquire all the captured images after all the normal shooting is completed.

ステップS54において、認証部323は、取得された撮影画像から、1つの顔を検出し、データベースに登録されている情報との比較を行う。 In step S54, the authentication unit 323 detects one face from the acquired captured image and compares it with the information registered in the database.

そして、ステップS55において、認証部323は、比較結果を用いて、ID毎に顔照合信頼度を算出する。 Then, in step S55, the authentication unit 323 calculates the face matching reliability for each ID using the comparison result.

例えば、図23に示されるような画像が、撮影画像として取得されたとする。まず、撮影画像内の右側に位置する利用者が検出される。ここでの検出は、ステップS51において実行される認識と同様に、例えば、顔の輪郭点を抽出したり、顔の器官を抽出したりすることで行われる。 For example, it is assumed that an image as shown in FIG. 23 is acquired as a captured image. First, the user located on the right side of the captured image is detected. The detection here is performed, for example, by extracting the contour points of the face or extracting the organs of the face, as in the recognition performed in step S51.

そして、検出された顔の情報と、データベースに登録されている顔の情報(認識結果)とが比較される。例えば、データベースに登録されている顔の情報が、顔の輪郭点の位置関係に関する情報であった場合、検出された顔の輪郭点の位置関係の情報が生成され、生成された情報と、登録されている情報とが比較される。 Then, the detected face information and the face information (recognition result) registered in the database are compared. For example, when the face information registered in the database is information related to the positional relationship of the facial contour points, the detected facial contour point positional relationship information is generated, and the generated information and registration The information is compared.

まず、データベース内のID=0の情報と、検出された顔の情報とが比較され、顔照合信頼度が算出される。顔照合信頼度は、ID=0が割り当てられた利用者との照合結果が、どれだけ信頼できるかを示す値であり、この数値が高いほど、データベースに登録された顔と類似していることを示す。顔照合信頼度は、例えば0乃至1000の値をとり得る値とされる。 First, the information of ID = 0 in the database is compared with the detected face information, and the face matching reliability is calculated. The face matching reliability is a value indicating how reliable the matching result with the user to which ID = 0 is assigned, and the higher this value is, the more similar the face is to the face registered in the database. Is shown. The face matching reliability is set to a value that can take a value of 0 to 1000, for example.

図23においては、右側に位置する利用者のID=0との顔照合信頼度は、710と算出されている。また、同様に、ID=1との顔照合信頼度は、650と算出されている。このように、1つの顔に対して、ID毎に顔照合信頼度が算出される。 In FIG. 23, the face matching reliability with the user ID = 0 located on the right side is calculated to be 710. Similarly, the face matching reliability with ID = 1 is calculated to be 650. In this way, the face matching reliability is calculated for each ID for one face.

そして、ステップS56において、認証部323は、顔照合信頼度が高いIDをその画像の利用者のIDとして確定する。図23の例では、撮影画像内の右側に位置する利用者は、ID=0との顔照合信頼度の方が、ID=1との顔照合信頼度よりも高いので、右側に位置する利用者は、ID=0が割り当てられた利用者であると判断される。よって、図23に示された撮影画像においては、右側に位置する利用者は、ID=0が割り当てられた利用者であると確定される。 Then, in step S56, the authentication unit 323 determines an ID having high face matching reliability as the ID of the user of the image. In the example of FIG. 23, the user located on the right side in the captured image has a higher face matching reliability with ID = 0 than the face matching reliability with ID = 1, so that the user is located on the right side. The person is determined to be a user to which ID = 0 is assigned. Therefore, in the captured image shown in FIG. 23, the user located on the right side is determined to be the user to which ID = 0 is assigned.

ステップS57において、撮影画像内に他の顔があるか否かが判断される。上述した例では、右側に位置する利用者に対する処理が終了しただけであるので、まだ左側に位置する利用者の顔は処理していないと判断され、処理はステップS55に戻る。 In step S57, it is determined whether or not there is another face in the captured image. In the above example, since the processing for the user located on the right side is only completed, it is determined that the face of the user located on the left side has not been processed yet, and the processing returns to step S55.

左側に位置している利用者の顔に対しても、右側に位置している利用者の顔に対する処理と同様の処理が行われることで、ID毎の顔照合信頼度が算出される。図23の例では、左側に位置する利用者のID=0との顔照合信頼度は700であり、ID=1との顔照合信頼度は800であると算出されている。 The face matching reliability for each ID is calculated by performing the same processing on the face of the user located on the left side as on the face of the user located on the right side. In the example of FIG. 23, the face matching reliability with the user ID = 0 located on the left side is calculated to be 700, and the face matching reliability with the ID = 1 is calculated to be 800.

よって、図23の例では、撮影画像内の左側に位置する利用者は、ID=0との顔照合信頼度の方が、ID=1との顔照合信頼度よりも低いので、左側に位置する利用者は、ID=1の利用者であると判断される。よって、図23に示される撮影画像においては、左側に位置する利用者は、ID=1が割り当てられた利用者であると確定される。 Therefore, in the example of FIG. 23, the user located on the left side in the captured image is located on the left side because the face matching reliability with ID = 0 is lower than the face matching reliability with ID = 1. The user who does this is determined to be a user with ID = 1. Therefore, in the captured image shown in FIG. 23, the user located on the left side is determined to be the user to which ID = 1 is assigned.

このようにして、撮影画像内の利用者毎にIDが割り当てられる。仮に、2人の利用者がデータベースに登録されている状態で、3人の利用者が検出された場合、その中の1人の利用者の顔照合信頼度は、他の利用者の顔照合信頼度よりも低い値となる。そのような他の利用者よりも低い顔照合信頼度が算出された利用者は、データベースに登録されていない利用者であるとして処理される。 In this way, an ID is assigned to each user in the captured image. If three users are detected while two users are registered in the database, the face matching reliability of one of them is the face matching of another user. The value is lower than the reliability. A user whose face matching reliability is calculated to be lower than that of other users is treated as a user who is not registered in the database.

このようにして、撮影画像内の利用者毎にIDを割り当てる処理が、全ての撮影画像に対して行われる。例えば、通常撮影により5枚の撮影画像が取得される場合、5枚の撮影画像が処理されたと判断されるまで、まだIDが割り振られていない撮影画像に対する処理が繰り返される。 In this way, the process of assigning an ID to each user in the captured image is performed for all the captured images. For example, when five captured images are acquired by normal shooting, the processing for the captured images for which an ID has not yet been assigned is repeated until it is determined that the five captured images have been processed.

その結果、撮影画像毎に、撮影画像内の利用者に対してIDが割り当てられ、同一のIDは、同一の利用者であるとして処理される。このようにして、撮影画像毎に、データベースに登録されている利用者との照合が行われることで、撮影画像毎に、どの利用者が、どの立ち位置で撮影されているかを判断することができる。 As a result, an ID is assigned to each user in the captured image for each captured image, and the same ID is processed as being the same user. In this way, by collating each photographed image with the user registered in the database, it is possible to determine which user is photographed in which standing position for each photographed image. it can.

例えば、ID=0が割り当てられた利用者Aが、脚の長さを「おすすめ」に変更するという指示を出したとき、各撮影画像において、ID=0が割り当てられた画像に対して、脚の長さを「おすすめ」に変更するための画像処理が実行される。 For example, when the user A to which the ID = 0 is assigned gives an instruction to change the leg length to "recommended", the leg is assigned to the image to which the ID = 0 is assigned in each captured image. Image processing is performed to change the length of.

利用者の立ち位置は、全ての撮影画像において同じであるとは限らない。すなわち、例えば、1回目の撮影で左側に立っていた利用者が、2回目の撮影では右側に立ち位置を変えているような場合もある。このような立ち位置の変更があったような場合でも、撮影画像毎に利用者を認証しているため、適切に画像処理を施すことが可能となる。すなわち、立ち位置などに関係なく、利用者が所望した画像処理を、利用者毎に施すことが可能となる。 The standing position of the user is not always the same in all the captured images. That is, for example, a user standing on the left side in the first shooting may change the standing position to the right side in the second shooting. Even if the standing position is changed in this way, since the user is authenticated for each captured image, it is possible to appropriately perform image processing. That is, it is possible to perform the image processing desired by the user for each user regardless of the standing position or the like.

以上においては、利用者の顔を認識することで、撮影画像に写る利用者を認証する処理について説明したが、利用者の全身を認識することで、撮影画像に写る利用者を認証することもできる。 In the above, the process of authenticating the user appearing in the photographed image by recognizing the user's face has been described, but it is also possible to authenticate the user appearing in the photographed image by recognizing the whole body of the user. it can.

<認証処理の例2>
次に、図24のフローチャートを参照して、認証処理の第2の例について説明する。図24の処理もまた、例えば、認識撮影が行われた後から、通常撮影が終了するまでの間に行われてもよいし、通常撮影が終了し、レタッチ画面が表示される前までの間に行われてもよい。
<Example 2 of authentication processing>
Next, a second example of the authentication process will be described with reference to the flowchart of FIG. 24. The process of FIG. 24 may also be performed, for example, after the recognition shooting is performed and before the normal shooting is finished, or before the normal shooting is finished and the retouch screen is displayed. May be done in.

ステップS71において、撮影処理部301の認識部313は、認識撮影により得られた認識用画像において、人物の全身を認識する。ここでは、認識用画像として距離画像が生成され、生成された距離画像から人物領域が抽出されることで、人物の全身が認識される。ここで、距離画像は、例えば、TOF(Time of Flight)方式により、照射光と反射光との位相差を用いて、撮影空間A1内の対象物までの距離を示す距離値を、距離画像の各画素の画素値として算出することで生成される。TOF方式に限らず、ストラクチャ光照明方式やInfraredDepth方式、ステレオカメラ方式などの公知の方式より、距離画像が生成されるようにしてもよい。 In step S71, the recognition unit 313 of the imaging processing unit 301 recognizes the whole body of the person in the recognition image obtained by the recognition imaging. Here, a distance image is generated as a recognition image, and a person area is extracted from the generated distance image to recognize the whole body of the person. Here, the distance image uses, for example, a TOF (Time of Flight) method to obtain a distance value indicating the distance to an object in the photographing space A1 by using the phase difference between the irradiation light and the reflected light. It is generated by calculating as the pixel value of each pixel. Not limited to the TOF method, a distance image may be generated by a known method such as a structure light illumination method, an InfraredDepth method, or a stereo camera method.

ステップS72において、登録部314は、認識部313により認識された人物の全身にIDを割り当て、その全身画像を登録する。 In step S72, the registration unit 314 assigns an ID to the whole body of the person recognized by the recognition unit 313, and registers the whole body image.

ここでは、まず、利用者(被写体)の全身の輪郭点が全て抽出される。抽出された輪郭点により全身認証信頼度が算出される。全身認証信頼度が最も高い全身の座標情報が確認され、その全身の中点が画像内の左側にあるか、右側にあるかで、利用者が認識され、IDが割り当てられる。IDが割り当てられた利用者の全身画像に加え、全身の輪郭点の位置関係や、輪郭点で囲まれる領域に含まれる肌色領域を示す情報が、認識結果としてデータベースに登録される。 Here, first, all the contour points of the whole body of the user (subject) are extracted. The whole body authentication reliability is calculated from the extracted contour points. Whole body authentication The coordinate information of the whole body with the highest reliability is confirmed, and the user is recognized and an ID is assigned depending on whether the midpoint of the whole body is on the left side or the right side in the image. In addition to the whole body image of the user to which the ID is assigned, the positional relationship of the contour points of the whole body and the information indicating the skin color area included in the area surrounded by the contour points are registered in the database as the recognition result.

なお、輪郭点全域ではなく、レタッチ機能を提供する画像処理の対象となる脚などの部分だけが抽出されてもよい。 It should be noted that not the entire contour point, but only the portion such as the leg that is the target of the image processing that provides the retouch function may be extracted.

ステップS73において、編集処理部302の認証部323は、撮影画像を取得する。認証部323は、通常撮影が行われる度に撮影画像を取得するようにしてもよいし、通常撮影が全て終了した後に、全ての撮影画像を取得するようにしてもよい。 In step S73, the authentication unit 323 of the editing processing unit 302 acquires the captured image. The authentication unit 323 may acquire the captured image every time the normal shooting is performed, or may acquire all the captured images after all the normal shooting is completed.

ステップS74において、認証部323は、取得された撮影画像から、1つの全身を検出し、データベースに登録されている情報との比較を行う。 In step S74, the authentication unit 323 detects one whole body from the acquired captured image and compares it with the information registered in the database.

ステップS75において、認証部323は、比較結果を用いて、ID毎に全身照合信頼度を算出する。全身照合信頼度の算出は、上述した顔照合信頼度の算出と同様にして行われる。 In step S75, the authentication unit 323 calculates the whole body verification reliability for each ID using the comparison result. The calculation of the whole body matching reliability is performed in the same manner as the calculation of the face matching reliability described above.

ステップS76において、認証部323は、全身照合信頼度が高いIDをその画像の利用者のIDとして確定する。 In step S76, the authentication unit 323 determines an ID having high reliability of whole body verification as the ID of the user of the image.

ステップS77において、撮影画像内に他の全身があるか否かが判断される。撮影画像において、上述した処理がされていない全身があると判断された場合、ステップS75に戻り、それ以降の処理が繰り返される。 In step S77, it is determined whether or not there is another whole body in the captured image. If it is determined in the captured image that there is a whole body that has not been subjected to the above-mentioned processing, the process returns to step S75, and the subsequent processing is repeated.

このようにして、撮影画像内の利用者毎にIDが割り当てられる処理が、全ての撮影画像に対して行われる。例えば、通常撮影により5枚の撮影画像が取得される場合、5枚の撮影画像が処理されたと判断されるまで、まだIDが割り振られていない撮影画像に対する処理が繰り返される。 In this way, the process of assigning an ID to each user in the captured image is performed for all the captured images. For example, when five captured images are acquired by normal shooting, the processing for the captured images for which an ID has not yet been assigned is repeated until it is determined that the five captured images have been processed.

その結果、撮影画像毎に、撮影画像内の利用者に対してIDが割り当てられ、同一のIDは、同一の利用者であるとして処理される。このようにして、撮影画像毎に、データベースに登録されている利用者との照合が行われることで、撮影画像毎に、どの利用者が、どの立ち位置で撮影されているかを判断することができる。 As a result, an ID is assigned to each user in the captured image for each captured image, and the same ID is processed as being the same user. In this way, by collating each photographed image with the user registered in the database, it is possible to determine which user is photographed in which standing position for each photographed image. it can.

なお、図24の処理によれば、顔の認識に失敗するような場合であっても、利用者の全身を認識することができるので、より確実に利用者を認証することができるようになる。 According to the process of FIG. 24, even if the face recognition fails, the whole body of the user can be recognized, so that the user can be authenticated more reliably. ..

<レタッチ機能を提供する画像処理の種類>
上述した例において、レタッチ機能を提供する画像処理は、撮影画像における人物の顔や全身が認識されることで適切に施される。
<Types of image processing that provide a retouch function>
In the above-described example, the image processing that provides the retouch function is appropriately performed by recognizing the face or the whole body of the person in the captured image.

ここでは、レタッチ機能を提供する画像処理の種類について説明する。 Here, the types of image processing that provide the retouch function will be described.

・顔認識に関する画像処理
目の大きさ、肌の明るさ、肌の色、顔の大きさ、髪の色、メイクの濃淡などを変える処理がある。これらの処理は、撮影画像における利用者の顔を認識することで、実現可能とされる。例えば、目の大きさを変える画像処理は、撮影画像における顔領域から目領域を抽出し、抽出された領域の拡大率を調整することで実現される。
-Image processing related to face recognition There is processing to change eye size, skin brightness, skin color, face size, hair color, shade of makeup, etc. These processes can be realized by recognizing the user's face in the captured image. For example, image processing for changing the size of the eyes is realized by extracting the eye region from the face region in the captured image and adjusting the enlargement ratio of the extracted region.

・全身認識に関する画像処理
以上においては、特に、利用者の全身についてのレタッチ機能を提供する構成について説明してきた。そこで、全身認識に関する画像処理の種類について詳細に説明する。
-Image processing related to whole body recognition In the above, the configuration that provides the retouch function for the whole body of the user has been described in particular. Therefore, the types of image processing related to whole body recognition will be described in detail.

(脚の長さ・脚の細さ)
脚の長さを変える処理は、足先から腰の領域を特定し、その領域を上下方向に伸長することで実現される。また、脚の細さを変える処理は、足先から腰の領域を特定し、その領域の境界部分を内側に向かう方向に移動することで実現される。
(Leg length / thinness of legs)
The process of changing the length of the leg is realized by identifying the area of the waist from the toes and extending the area in the vertical direction. Further, the process of changing the thinness of the legs is realized by identifying the area of the waist from the toes and moving the boundary portion of the area inward.

これらの処理は、利用者が直立し脚が真っ直ぐな状態でなければ、適切に施されない。例えば、膝から足先が水平になるように、片方の脚の膝を曲げるようなポーズで写った場合、脚の長さや脚の細さを変える処理により、曲げた方の膝から足先が太くなったり短くなってしまう。そこで、全身の輪郭点に基づいて、脚が真っ直ぐな状態でないと判定された場合には、脚の長さや脚の細さを変える処理が施されないようにしてもよい。 These processes are not performed properly unless the user is upright and the legs are straight. For example, if the image is taken in a pose that bends the knee of one leg so that the tip of the foot is horizontal from the knee, the tip of the foot will move from the bent knee by the process of changing the length of the leg and the thinness of the leg. It gets thicker or shorter. Therefore, if it is determined that the legs are not in a straight state based on the contour points of the whole body, the process of changing the length of the legs or the thinness of the legs may not be performed.

また、これらの処理は、利用者がロングスカートなどを着用している場合にも、適切に施されない。この場合、脚の長さや脚の細さを変える処理により、ロングスカートの柄や模様が長くなったり細くなってしまう。そこで、肌色領域を特定し、その領域のみに脚の長さや脚の細さを変える処理が施されるようにしてもよい。さらに、スカートの柄の有無などに応じて、長くする量や細くする量が変更されるようにしてもよい。 In addition, these treatments are not properly performed even when the user is wearing a long skirt or the like. In this case, the pattern or pattern of the long skirt becomes longer or thinner due to the process of changing the length of the legs or the thinness of the legs. Therefore, a skin color region may be specified, and a process of changing the length of the leg or the thinness of the leg may be applied only to that region. Further, the amount of lengthening and the amount of thinning may be changed depending on the presence or absence of the handle of the skirt.

さらに、これらの処理が、足先にまで施されることで、利用者が着用している靴やサンダルなどが変形してしまうおそれがある。そこで、足首からつま先までの領域をさらに特定し、その領域については、脚の長さや脚の細さを変える処理が施されないようにしたり、処理の度合いを弱めるようにしてもよい。 Furthermore, if these treatments are applied to the toes, the shoes and sandals worn by the user may be deformed. Therefore, the area from the ankle to the toe may be further specified, and the area may not be subjected to the process of changing the length of the leg or the thinness of the leg, or the degree of the process may be weakened.

(身長)
身長を変える処理は、頭から足先までの人物領域を特定し、その領域を上下方向に伸長または短縮することで実現される。人物領域は、クロマキー処理により人物マスク画像を生成することで特定されるようにすることもできる。身長を変える処理によれば、低身長の利用者の身長を高くすることはもちろん、高身長の利用者の身長を低くすることもできる。
(height)
The process of changing the height is realized by identifying a person area from the head to the toes and extending or shortening the area in the vertical direction. The person area can also be specified by generating a person mask image by chroma key processing. According to the process of changing the height, not only the height of the short user can be increased, but also the height of the tall user can be decreased.

(二の腕)
上腕(いわゆる二の腕)を細くする処理は、肌色領域と顔領域の位置から上腕が含まれる領域を推定し、その境界部分を内側に向かう方向に移動することで実現される。この処理によれば、撮影画像における利用者の上腕を細くすることができる。
(Upper arm)
The process of thinning the upper arm (so-called upper arm) is realized by estimating the area including the upper arm from the positions of the skin color area and the face area and moving the boundary portion inward. According to this process, the upper arm of the user in the captured image can be thinned.

(腰のくびれ)
腰のくびれを強調する処理は、撮影画像における顔を除いた人物領域の略全ての領域を、人物領域の内側(中心)に向かう方向に移動することで実現される。この処理によれば、撮影画像に写る利用者のスタイルのより良いものにすることができる。
(Waist constriction)
The process of emphasizing the waist is realized by moving substantially the entire area of the person area except the face in the captured image toward the inside (center) of the person area. According to this process, it is possible to improve the style of the user reflected in the captured image.

(首の長さ)
全身画像に対して、人物の顔を小さくする小顔処理が施された場合、相対的に首が長く見えてしまう。そこで、人物の全身に対する顔の大きさ(長さ)に応じて、首の長さを変更する処理を施すことができるようにする。
(Neck length)
When a small face treatment is applied to the whole body image to make the person's face smaller, the neck looks relatively long. Therefore, it is possible to perform a process of changing the length of the neck according to the size (length) of the face with respect to the whole body of the person.

(全身)
上述した「脚の長さ・脚の細さ」、「身長」、「二の腕」、「腰のくびれ」、「首の長さ」を変える処理それぞれが、互いに組み合わされて施されるようにしてもよい。例えば、レタッチ画面において、「モデル」ボタンが選択された場合には、脚を長くする処理、脚を細くする処理、身長を高くする処理の3処理が組み合わされて施されるようにする。また、レタッチ画面において、「ナチュラル」ボタンが選択された場合には、脚を細くする処理のみが施されるようにする。
(Whole body)
The above-mentioned processes for changing "leg length / thinness", "height", "upper arm", "waist constriction", and "neck length" are performed in combination with each other. May be good. For example, when the "model" button is selected on the retouch screen, three processes of lengthening the legs, thinning the legs, and increasing the height are performed in combination. In addition, when the "natural" button is selected on the retouch screen, only the process of thinning the legs is performed.

これにより、レタッチ画面において選択に要する時間を短縮させることができ、ゲームの回転率の向上を図ることができる。 As a result, the time required for selection on the retouch screen can be shortened, and the turnover rate of the game can be improved.

また、1つのレタッチ画面において、上述した複数の処理毎のボタンが表示されるようにしてもよい。この場合、決められた順番で処理を選択させるために、選択させる処理の度合いに対応するボタン以外は表示されないようにし、いずれかのボタンが選択される毎に順次、決められた順番に従って、処理の度合いに対応するボタンが表示されるようにしてもよい。 Further, the buttons for each of the plurality of processes described above may be displayed on one retouch screen. In this case, in order to select the processes in the determined order, only the buttons corresponding to the degree of the selected process are displayed, and each time any button is selected, the processes are sequentially processed according to the determined order. Buttons corresponding to the degree of may be displayed.

(肌の明るさ)
肌の明るさを変える処理は、利用者毎に異なる度合いで施された場合、撮影画像全体が不自然な仕上がりになるおそれがあったため、従来、複数の利用者に一括して施されていた。しかしながら、近年、携帯端末において、撮影画像から1人の利用者の部分だけを切り出して利用することが行われていることから、肌の明るさを変える処理が、利用者毎に異なる度合いで施されるようにしてもよい。なお、この処理は、他の処理と組み合わせた場合、肌の明るさの違いが利用者に伝わりにくくなるおそれがあるので、レタッチ画面として、肌の明るさ選択画面が単独で表示されるようにしてもよい。
(Brightness of the skin)
If the process of changing the brightness of the skin is applied to different degrees for each user, the entire captured image may have an unnatural finish, so it has been applied to multiple users at once. .. However, in recent years, in mobile terminals, only one user's part is cut out from a photographed image and used, so that the process of changing the brightness of the skin is performed to a different degree for each user. It may be done. When this process is combined with other processes, it may be difficult to convey the difference in skin brightness to the user. Therefore, the skin brightness selection screen is displayed independently as the retouch screen. You may.

(背面と床面との境界線)
撮影画像(全身画像)に写る利用者の背景領域に、背面(背面パネル51)と床面との境界を模した境界線を含む背景画像を合成することができるようにしてもよい。この場合、さらに、その境界線の高さ(上下方向の位置)を変える処理が施されるようにしてもよい。
(Boundary line between the back and the floor)
A background image including a boundary line imitating the boundary between the back surface (rear panel 51) and the floor surface may be combined with the background area of the user reflected in the captured image (whole body image). In this case, a process of changing the height (position in the vertical direction) of the boundary line may be further performed.

例えば、図25左側に示される全身画像P21には、背面と床面との境界を模した境界線b11を含む背景画像が合成されているものとする。この全身画像P21に、図25右側に示されるように、境界線b11より高い位置にある境界線b12を含む背景画像が合成されることで、画像の奥行き感を強調することができる。この境界線が、全身画像において高い位置にあるほど、背面と床面との境界が遠くにあるように見え、画像の奥行き感を増すことができる。 For example, it is assumed that the whole body image P21 shown on the left side of FIG. 25 is composed of a background image including a boundary line b11 that imitates the boundary between the back surface and the floor surface. As shown on the right side of FIG. 25, the whole body image P21 is combined with a background image including the boundary line b12 at a position higher than the boundary line b11, so that the sense of depth of the image can be emphasized. The higher this boundary line is in the whole body image, the farther the boundary line between the back surface and the floor surface appears to be, and the deeper the image can be.

(合成用画像)
合成用画像のうち、利用者の全身に合成される合成用画像の位置や大きさを変える処理を、利用者毎に施すようにしてもよい。
(Image for composition)
Among the composite images, a process of changing the position and size of the composite image synthesized on the whole body of the user may be performed for each user.

例えば、利用者の腰回りに合成される浮き輪を模した合成用画像が、利用者の身長に応じた位置に合成されるようにする。具体的には、図26に示されるように、利用者の身長が低い場合、浮き輪を模した合成用画像f11は、低い位置に合成される。利用者の身長が中程度の場合、浮き輪を模した合成用画像f12は、中程度の位置に合成される。そして、利用者の身長が高い場合、浮き輪を模した合成用画像f13は、高い位置に合成される。 For example, a composite image that imitates a floating ring that is composited around the user's waist is composited at a position that corresponds to the height of the user. Specifically, as shown in FIG. 26, when the height of the user is short, the composite image f11 imitating a floating ring is composited at a low position. When the height of the user is medium, the composite image f12 imitating a floating ring is composited at a medium position. Then, when the user is tall, the composite image f13 imitating a floating ring is composited at a high position.

また、利用者の腰回りに合成される浮き輪を模した合成用画像が、利用者の体型に応じたサイズで合成されるようにしてもよい。具体的には、図27に示されるように、利用者の体型が小さい場合、浮き輪を模した合成用画像f21は、小さいサイズで合成される。利用者の体型が中程度の場合、浮き輪を模した合成用画像f22は、中程度のサイズで合成される。そして、利用者の体型が大きい場合、浮き輪を模した合成用画像f23は、大きいサイズで合成される。 Further, the composite image imitating the floating ring synthesized around the waist of the user may be composited in a size corresponding to the body shape of the user. Specifically, as shown in FIG. 27, when the user's body shape is small, the composite image f21 imitating a floating ring is composited in a small size. When the user's body shape is medium, the composite image f22 that imitates a floating ring is composited in a medium size. Then, when the user's body shape is large, the composite image f23 imitating a floating ring is composited in a large size.

(写り方)
被写体となる利用者に照射される光の光量や向き、瞳に写り込むキャッチライトの大きさなど、撮影空間A1内に設けられている照明装置(各ストロボ)により実現される光学環境に依存する写り方を、画像処理により変えるようにしてもよい。
(How to see)
It depends on the optical environment realized by the lighting device (each strobe) provided in the shooting space A1, such as the amount and direction of the light emitted to the user who is the subject and the size of the catch light reflected in the pupil. The appearance may be changed by image processing.

<全身撮影の種類>
以上においては、通常撮影として、正面から見た利用者の全身が写る画像を得るための正面全身撮影が行われるものとした。正面全身撮影によれば、図28左側に示される全身画像P31が得られる。全身画像P31は、利用者の全身がバランスよく写り、落ち着いた印象の画像となる。
<Type of whole body photography>
In the above, as a normal shooting, it is assumed that the front whole body shooting is performed in order to obtain an image showing the whole body of the user viewed from the front. According to the frontal whole body photography, the whole body image P31 shown on the left side of FIG. 28 is obtained. The whole body image P31 gives a calm impression by showing the whole body of the user in a well-balanced manner.

もちろん、通常撮影として、斜め上から見た利用者の全身が写る画像を得るための上から全身撮影が行われるようにしてもよい。上から全身撮影によれば、図28中央に示される全身画像P32が得られる。全身画像P32は、利用者の顔が強調された、ポップな印象の画像となる。 Of course, as a normal shooting, the whole body shooting may be performed from above in order to obtain an image showing the whole body of the user viewed from diagonally above. According to the whole body photography from above, the whole body image P32 shown in the center of FIG. 28 is obtained. The whole body image P32 is an image with a pop impression in which the user's face is emphasized.

さらに、通常撮影として、斜め下から見た利用者の全身が写る画像を得るための下から全身撮影が行われるようにしてもよい。下から全身撮影によれば、図示はしないが、得られる全身画像は、利用者の顔が小さく、かつ脚が長く写り、スタイリッシュな印象の画像となる。 Further, as a normal shooting, the whole body shooting may be performed from below in order to obtain an image showing the whole body of the user viewed from diagonally below. According to a full-body image taken from below, although not shown, the obtained full-body image gives a stylish impression with the user's face being small and the legs being long.

なお、全身撮影により、図28右側に示されるような、利用者の全身のうちの膝辺りから上が写る全身画像P33が得られるようにしてもよい。上述した正面全身撮影、上から全身撮影、および下から全身撮影それぞれは、カメラ91の高さを変えることなく、カメラ91のレンズとして広角レンズを用いた上で、そのレンズの光軸の角度を変えるようにし、得られる画像の切り出し範囲を調整することで実現される。 It should be noted that the whole body image P33 may be obtained by taking a whole body image, as shown on the right side of FIG. In each of the above-mentioned frontal whole body photography, whole body photography from above, and whole body photography from below, the angle of the optical axis of the lens is changed after using a wide-angle lens as the lens of the camera 91 without changing the height of the camera 91. This is achieved by changing the image and adjusting the cropping range of the obtained image.

<レタッチ画面の表示タイミング>
以上においては、レタッチ画面は、編集処理において表示されるものとしたが、レタッチ画面に認識用画像を表示するためには、認識撮影が終了していればよいので、撮影処理において表示されるようにしてもよい。また、レタッチ画面にモデル画像が表示される場合には、いずれの撮影が行われていなくてもよいので、撮影処理の前に表示されるようにしてもよい。この場合、撮影空間A1の外側で事前の選択を行うための事前選択部において、事前選択処理が行われる中で、レタッチ画面が表示されるようにしてもよい。
<Display timing of retouch screen>
In the above, the retouch screen is supposed to be displayed in the editing process, but in order to display the recognition image on the retouch screen, it is sufficient that the recognition shooting is completed, so that it is displayed in the shooting process. You may do it. Further, when the model image is displayed on the retouch screen, it is not necessary that any shooting has been performed, so that the model image may be displayed before the shooting process. In this case, the retouch screen may be displayed while the preselection process is being performed in the preselection unit for performing the preselection outside the shooting space A1.

<人数に応じたレタッチ画面の表示態様>
また、以上においては、2人の利用者が同時に操作可能なレタッチ画面の例について説明してきたが、人数に応じた表示態様のレタッチ画面が表示されるようにしてもよい。
<Display mode of retouch screen according to the number of people>
Further, although the example of the retouch screen that can be operated by two users at the same time has been described above, the retouch screen of the display mode according to the number of people may be displayed.

例えば、利用者が3人の場合には、図29に示されるようなレタッチ画面(脚の長さ選択画面)が表示されるようにする。なお、ここでは、利用者が3人であっても、認識撮影が行われるものとする。 For example, when there are three users, the retouch screen (leg length selection screen) as shown in FIG. 29 is displayed. Here, it is assumed that recognition photography is performed even if there are three users.

図29の脚の長さ選択画面においては、図17の脚の長さ選択画面にも設けられている画像表示領域511Lおよび選択領域512Lと、画像表示領域511Rおよび選択領域512Rとの間に、画像表示領域511Mおよび選択領域512Mが設けられている。 In the leg length selection screen of FIG. 29, between the image display area 511L and the selection area 512L, which are also provided in the leg length selection screen of FIG. 17, and the image display area 511R and the selection area 512R, An image display area 511M and a selection area 512M are provided.

画像表示領域511Mには、画像表示領域511L,511Rと同様、認識撮影により得られた認識用画像において認識部313による認識に成功した人物の全身画像が表示される。 Similar to the image display areas 511L and 511R, the image display area 511M displays a full-body image of a person who has been successfully recognized by the recognition unit 313 in the recognition image obtained by recognition imaging.

また、選択領域512Mには、選択領域512L,512Rそれぞれと同様、撮影画像(全身画像)に写る利用者の脚の長さを選択するためのボタン521−1乃至521−3と、OKボタン522とが設けられる。 Further, in the selection area 512M, as in the selection areas 512L and 512R, buttons 521-1 to 521-3 for selecting the length of the user's leg to be captured in the captured image (whole body image), and an OK button 522. And are provided.

図29のような画面構成により、3人の利用者がそれぞれ脚の長さを同時に選択することができる。 With the screen configuration as shown in FIG. 29, each of the three users can select the leg length at the same time.

<アップ撮影と全身撮影>
以上においては、通常撮影として全身撮影(正面全身撮影)のみが行われるものとしたが、全身撮影に加え、アップ撮影が行われるようにしてもよい。この場合、全身画像に加えてアップ画像が得られるので、認識撮影として、全身画像用の認識撮影に加え、アップ画像用の認識撮影が行われるようにすることで、アップ画像および全身画像それぞれについてのレタッチ機能を提供することができるようになる。
<Close-up shooting and full-body shooting>
In the above, it is assumed that only whole body photography (front whole body photography) is performed as normal photography, but close-up photography may be performed in addition to whole body photography. In this case, since a close-up image can be obtained in addition to the full-body image, the close-up image and the full-body image can be obtained by performing the recognition shooting for the close-up image in addition to the recognition shooting for the full-body image. It will be possible to provide the retouching function of.

ここで、図30のフローチャートを参照して、アップ撮影と全身撮影とが行われる場合の撮影処理の流れについて説明する。図30の例では、図12のフローチャートを参照して説明した人数選択画面および写りコース選択画面の表示のステップの説明は省略する。 Here, with reference to the flowchart of FIG. 30, the flow of the photographing process when close-up photography and whole-body photography are performed will be described. In the example of FIG. 30, the description of the display steps of the number of people selection screen and the image course selection screen described with reference to the flowchart of FIG. 12 will be omitted.

ステップS91において、撮影制御部312は、アップ画像用の認識撮影を行う。 In step S91, the imaging control unit 312 performs recognition imaging for a close-up image.

具体的には、認識撮影のガイダンスが終了した後、撮影制御部312によって、カメラ91による動画像の撮影が開始され、撮影によって得られた動画像がライブビュー表示画面に表示される。 Specifically, after the guidance for recognition shooting is completed, the shooting control unit 312 starts shooting a moving image by the camera 91, and the moving image obtained by the shooting is displayed on the live view display screen.

図31は、アップ画像用の認識撮影のライブビュー表示画面の例を示す図である。 FIG. 31 is a diagram showing an example of a live view display screen for recognition shooting for a close-up image.

ライブビュー表示画面の上部には、「枠の中に入って前を向いて撮影してね」のメッセージが表示され、その下に設けられた画像表示領域591,592には、2人の利用者それぞれの顔が映る動画像がリアルタイムで表示される。 At the top of the live view display screen, the message "Enter the frame and shoot forward" is displayed, and the image display areas 591 and 592 provided below it are used by two people. A moving image showing each person's face is displayed in real time.

カメラ91に取り込まれた動画像から、所定の範囲が切り出されて、画像表示領域591,592の表示に用いられる。2人の利用者は、画像表示領域591,592の表示を確認しながら、それぞれの顔が画像表示領域591,592の枠に収まるように、顔の位置や大きさを調整する。これにより、認識用画像における認識の精度を確保することができる。 A predetermined range is cut out from the moving image captured by the camera 91 and used for displaying the image display areas 591 and 592. While checking the display of the image display areas 591 and 592, the two users adjust the positions and sizes of the faces so that their faces fit within the frame of the image display areas 591 and 592. As a result, the accuracy of recognition in the recognition image can be ensured.

このようなライブビュー画像が所定時間表示された後、撮影前のカウントダウンが開始され、撮影のタイミングになったとき、撮影制御部312は、認識用画像としての静止画像を取得する撮影を行う。 After the live view image is displayed for a predetermined time, the countdown before shooting is started, and when the shooting timing comes, the shooting control unit 312 takes a picture to acquire a still image as a recognition image.

この場合、認識部313は、撮影により得られた認識用画像において人物の顔を認識し、登録部314は、認識部313による認識に成功した人物の顔画像をデータベースに登録する。 In this case, the recognition unit 313 recognizes the face of the person in the recognition image obtained by shooting, and the registration unit 314 registers the face image of the person successfully recognized by the recognition unit 313 in the database.

アップ画像用の認識撮影が終了した後、ステップS92において、撮影制御部312は、所定回数のアップ撮影を行う。 After the recognition shooting for the close-up image is completed, in step S92, the shooting control unit 312 performs the close-up shooting a predetermined number of times.

所定回数のアップ撮影が行われた後、ステップS93において、撮影制御部312は、全身画像用の認識撮影を行う。全身画像用の認識撮影は、図12のフローチャートにおけるステップS12の処理と同様にして行われる。 After the up-shooting is performed a predetermined number of times, in step S93, the shooting control unit 312 performs recognition shooting for a whole-body image. The recognition imaging for the whole body image is performed in the same manner as the process of step S12 in the flowchart of FIG.

全身画像用の認識撮影が終了した後、ステップS94において、撮影制御部312は、所定回数の全身撮影を行う。 After the recognition imaging for the whole body image is completed, in step S94, the imaging control unit 312 performs the whole body imaging a predetermined number of times.

全ての撮影が行われた後、ステップS95において、撮影処理部301は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。 After all the shooting is performed, in step S95, the shooting processing unit 301 guides the user in the shooting space A1 to move to the editing space A2-1 or the editing space A2-2.

通常、アップ撮影が行われる場合と、全身撮影が行われる場合とでは、利用者は立ち位置を変える必要がある。 Normally, the user needs to change the standing position depending on whether close-up photography is performed or full-body photography is performed.

そこで、上述した処理によれば、撮影範囲毎に認識撮影が行われるので、例えば、アップ画像用と全身画像用の2回の認識撮影の後に、アップ撮影と全身撮影とが行われる場合と比較して、立ち位置を変える回数を減らすことができ、移動による煩わしさを軽減することができる。 Therefore, according to the above-mentioned processing, the recognition shooting is performed for each shooting range. Therefore, the number of times the standing position is changed can be reduced, and the troublesomeness due to movement can be reduced.

また、全身を撮影範囲とした認識撮影を1回のみ行った後に、アップ撮影と全身撮影とが行われるようにしてもよい。この場合、全身が写る認識用画像において、人物の顔の認識と、人物の全身の認識とを行うことで、アップ画像および全身画像それぞれについてのレタッチ機能を提供することを可能とする。さらに、図30の例と比較して、撮影回数を1回減らすことができるので、撮影作業に要する時間を短縮させることができ、ゲームの回転率の向上を図ることができる。 Further, the close-up shooting and the whole-body shooting may be performed after the recognition shooting with the whole body as the shooting range is performed only once. In this case, it is possible to provide a retouching function for each of the close-up image and the whole body image by recognizing the face of the person and the whole body of the person in the recognition image in which the whole body is captured. Further, as compared with the example of FIG. 30, since the number of times of shooting can be reduced by one, the time required for the shooting work can be shortened, and the turnover rate of the game can be improved.

<レタッチ画面のさらなる例>
ここで、アップ画像および全身画像それぞれについてのレタッチ機能を提供するレタッチ画面の例について説明する。
<Further examples of retouch screen>
Here, an example of a retouch screen that provides a retouch function for each of the close-up image and the whole body image will be described.

図32は、アップ画像および全身画像それぞれについてのレタッチ機能を提供するレタッチ画面の例を示す図である。 FIG. 32 is a diagram showing an example of a retouch screen that provides a retouch function for each of the close-up image and the whole body image.

図32のレタッチ画面において、左右それぞれの領域の上側には、画像表示領域611L,612Lと、画像表示領域611R,612Rとが設けられる。画像表示領域611L,612Lには、認識撮影により得られた認識用画像において認識部313による認識に成功した一方の人物の全身画像および顔画像がそれぞれ表示される。また、画像表示領域611R,612Rには、認識撮影により得られた認識用画像において認識部313による認識に成功した他方の人物の全身画像および顔画像がそれぞれ表示される。これらの全身画像および顔画像は、それぞれ、全身画像用の認識撮影とアップ画像用の認識撮影により得られるようにしてもよいし、全身を撮影範囲とした認識撮影により得られた認識用画像から切り出す範囲を変えることで得られるようにしてもよい。 In the retouch screen of FIG. 32, image display areas 611L and 612L and image display areas 611R and 612R are provided on the upper side of each of the left and right areas. In the image display areas 611L and 612L, a full-body image and a face image of one person who has succeeded in recognition by the recognition unit 313 in the recognition image obtained by the recognition photography are displayed, respectively. Further, in the image display areas 611R and 612R, a whole body image and a face image of the other person who has succeeded in recognition by the recognition unit 313 in the recognition image obtained by the recognition imaging are displayed, respectively. These whole body images and face images may be obtained by recognition photography for whole body images and recognition photography for close-up images, respectively, or from recognition images obtained by recognition photography with the whole body as the imaging range. It may be obtained by changing the cutting range.

画像表示領域611L,612Lの下方には、選択領域613Lが設けられる。選択領域613Lには、通常撮影により得られた撮影画像のうちの全身画像に写る利用者の脚の長さを選択するためのボタン621−1乃至621−3、アップ画像に写る利用者の目の大きさを選択するためのボタン622−1乃至622−3、アップ画像および全身画像に写る利用者の顔の小ささを選択するためのボタン623−1乃至623−3が設けられる。ボタン621−1乃至621−3,622−1乃至622−3,623−1乃至623−3それぞれには、撮影画像において、その画像処理が施される利用者の部分に対応する画像が表示される。 Below the image display areas 611L and 612L, a selection area 613L is provided. In the selection area 613L, buttons 621-1 to 621-3 for selecting the length of the user's leg appearing in the whole body image among the captured images obtained by normal photographing, and the user's eyes appearing in the close-up image. Buttons 622-1 to 622-3 for selecting the size of the user, and buttons 623-1 to 623-3 for selecting the size of the user's face appearing in the close-up image and the whole body image are provided. Buttons 621-1 to 621-3, 622-1 to 622-3, 623-1 to 623-3, respectively, display an image corresponding to the part of the user to which the image processing is performed in the captured image. To.

ボタン623−1乃至623−3の下方には、OKボタン624が設けられる。 An OK button 624 is provided below the buttons 623-1 to 623-3.

画像表示領域611R,612Rの下方には、選択領域613Rが設けられる。選択領域613Rにも、選択領域613Lと同様の構成が設けられる。 A selection area 613R is provided below the image display areas 611R and 612R. The selection area 613R is also provided with the same configuration as the selection area 613L.

ここで、ボタン621−1乃至621−3のいずれかが選択されると、表示制御部321は、画像表示領域611L(611R)に表示されている全身画像を、選択されたボタンに対応する脚の長さに変える画像処理が施された全身画像に切り替える。このとき、画像表示領域612L(612R)に表示される顔画像には、脚の長さを変える画像処理が反映されないので、その顔画像がグレーアウト表示されたり、表示されないようにしてもよい。 Here, when any of the buttons 621-1 to 621-3 is selected, the display control unit 321 displays the whole body image displayed in the image display area 611L (611R) on the leg corresponding to the selected button. Switch to a full-body image that has undergone image processing to change the length to. At this time, since the image processing for changing the leg length is not reflected in the face image displayed in the image display area 612L (612R), the face image may be grayed out or not displayed.

また、ボタン622−1乃至622−3のいずれかが選択されると、表示制御部321は、画像表示領域612L(612R)に表示される顔画像を、選択されたボタンに対応する目の大きさに変える画像処理が施された顔画像に切り替える。このとき、画像表示領域611L(611R)に表示されている全身画像には、目の大きさを変える画像処理が反映されたとしても利用者が確認しにくいので、その全身画像がグレーアウト表示されたり、表示されないようにしてもよい。 When any of the buttons 622-1 to 622-3 is selected, the display control unit 321 displays the face image displayed in the image display area 612L (612R) with the eye size corresponding to the selected button. Switch to a face image that has undergone image processing. At this time, even if the image processing for changing the size of the eyes is reflected in the whole body image displayed in the image display area 611L (611R), it is difficult for the user to confirm, so that the whole body image may be grayed out. , May not be displayed.

なお、ボタン623−1乃至623−3のいずれかが選択されたときには、表示制御部321は、画像表示領域611L(611R)に表示されている全身画像と、画像表示領域612L(612R)に表示される顔画像とを、選択されたボタンに対応する顔の小ささに変える画像処理が施された全身画像と顔画像とに切り替える。 When any of the buttons 623-1 to 623-3 is selected, the display control unit 321 displays the whole body image displayed in the image display area 611L (611R) and the image display area 612L (612R). The face image to be displayed is switched between a full-body image and a face image that have undergone image processing to change the face size corresponding to the selected button.

このようなレタッチ画面により、アップ画像および全身画像それぞれについてのレタッチ機能を提供することができる。 Such a retouch screen can provide a retouch function for each of the close-up image and the whole body image.

図32の例では、1つのレタッチ画面上で、アップ画像および全身画像それぞれについてのレタッチ機能が提供されるものとしたが、撮影画像の種類(アップ画像/全身画像)毎に、その撮影画像についてのレタッチ機能を提供するレタッチ画面が表示されるようにしてもよい。 In the example of FIG. 32, it is assumed that the retouch function for each of the close-up image and the whole body image is provided on one retouch screen. A retouch screen that provides the retouch function of may be displayed.

例えば、通常撮影として、アップ撮影、正面全身撮影、および上から全身撮影が行われた場合、アップ画像、正面全身撮影により得られた全身画像(正面全身画像)、上から全身撮影により得られた全身画像(上から全身画像)の3種類の撮影画像が得られる。この場合、3種類の撮影画像毎にレタッチ画面が表示されるようにする。 For example, when close-up photography, frontal whole-body photography, and whole-body photography are performed as normal photography, a close-up image, a whole-body image obtained by frontal whole-body photography (front whole-body image), and whole-body photography from above Three types of captured images of a whole body image (whole body image from above) can be obtained. In this case, the retouch screen is displayed for each of the three types of captured images.

ここで、アップ撮影、正面全身撮影、上から全身撮影の順番で撮影が行われたものとすると、アップ画像、正面全身画像、上から全身画像それぞれについてのレタッチ機能を提供するレタッチ画面が、その順番で表示される。 Here, assuming that the close-up shooting, the front full-body shooting, and the full-body shooting from the top are taken in this order, the retouch screen that provides the retouch function for each of the close-up image, the front full-body image, and the full-body image from the top is Displayed in order.

図33および図34は、アップ画像および正面全身画像それぞれについてのレタッチ機能を提供するレタッチ画面の例を示す図である。 33 and 34 are diagrams showing an example of a retouch screen that provides a retouch function for each of the close-up image and the front whole body image.

図33のレタッチ画面において、左右それぞれの領域の上側には、画像表示領域631L,631Rが設けられる。画像表示領域631L,631Rには、認識撮影により得られた認識用画像において認識部313による認識に成功した人物の顔画像がそれぞれ表示される。 In the retouch screen of FIG. 33, image display areas 631L and 631R are provided on the upper side of each of the left and right areas. In the image display areas 631L and 631R, face images of persons who have been successfully recognized by the recognition unit 313 in the recognition images obtained by the recognition shooting are displayed, respectively.

画像表示領域631L,631Rそれぞれの下方には、選択領域632L,632Rが設けられる。選択領域632L,632Rそれぞれには、アップ撮影により得られたアップ画像に写る利用者の目の大きさを選択するためのボタン641−1乃至641−3、肌の明るさを選択するためのボタン642−1乃至642−3、顔の小ささを選択するためのボタン643−1乃至643−3が設けられる。ボタン641−1乃至641−3,642−1乃至642−3,643−1乃至643−3それぞれには、アップ画像において、その画像処理が施される利用者の部分に対応する画像が表示される。 Below each of the image display areas 631L and 631R, selection areas 632L and 632R are provided. In each of the selection areas 632L and 632R, buttons 641-1 to 641-3 for selecting the size of the user's eyes appearing in the close-up image obtained by close-up photography, and buttons for selecting the brightness of the skin 642-1 to 642-3 and buttons 643-1 to 643-3 for selecting the size of the face are provided. Buttons 641-1 to 641-3, 642-1 to 642-3, 643-1 to 643-3 each display an image corresponding to the part of the user to whom the image processing is performed in the close-up image. To.

ボタン643−1乃至643−3の下方には、OKボタン644が設けられる。 An OK button 644 is provided below the buttons 643-1 to 643-3.

図33のレタッチ画面により、アップ画像についてのレタッチ機能を提供することができる。 The retouch screen of FIG. 33 can provide a retouch function for the close-up image.

図34のレタッチ画面において、左右それぞれの領域の上側には、画像表示領域651L,651Rが設けられる。画像表示領域651L,651Rには、認識撮影により得られた認識用画像において認識部313による認識に成功した人物の全身画像がそれぞれ表示される。 In the retouch screen of FIG. 34, image display areas 651L and 651R are provided on the upper side of each of the left and right areas. In the image display areas 651L and 651R, whole body images of a person who has succeeded in recognition by the recognition unit 313 in the recognition image obtained by the recognition photography are displayed, respectively.

画像表示領域651L,651Rそれぞれの下方には、選択領域652L,652Rが設けられる。選択領域652L,652Rそれぞれには、正面全身撮影により得られた正面全身画像に写る利用者の脚の長さを選択するためのボタン661−1乃至661−3、脚の細さを選択するためのボタン662−1乃至662−3、身長を選択するためのボタン663−1乃至663−3が設けられる。ボタン661−1乃至661−3,662−1乃至662−3,663−1乃至663−3それぞれには、正面全身画像において、その画像処理が施される利用者の部分に対応する画像が表示される。 Below each of the image display areas 651L and 651R, selection areas 652L and 652R are provided. In each of the selection areas 652L and 652R, buttons 661-1 to 661-3 for selecting the length of the user's leg appearing in the front whole body image obtained by frontal whole body photography, and for selecting the leg thinness. Buttons 662-1 to 662-3 and buttons 663-1 to 663-3 for selecting the height are provided. Buttons 661-1 to 661-3, 662-1 to 662-3, 663-1 to 663-3 each display an image corresponding to the part of the user to whom the image processing is performed in the front whole body image. Will be done.

ボタン663−1乃至663−3の下方には、OKボタン664および戻るボタン665が設けられる。 Below the buttons 663-1 to 663-3, an OK button 664 and a return button 665 are provided.

戻るボタン665は、1つ前に表示されていたレタッチ画面(すなわち、図33のレタッチ画面)に戻るためのボタンである。これにより、あらかじめ決められたレタッチ画面全体の表示時間内であれば、アップ画像についての画像処理を選択し直すことが可能となる。 The back button 665 is a button for returning to the previously displayed retouch screen (that is, the retouch screen of FIG. 33). As a result, it is possible to reselect the image processing for the close-up image within the predetermined display time of the entire retouch screen.

図34のレタッチ画面により、正面全身画像についてのレタッチ機能を提供することができる。 The retouch screen of FIG. 34 can provide a retouch function for the front whole body image.

なお、上から全身画像についてのレタッチ機能を提供するレタッチ画面は、図34のレタッチ画面と同様であるものとするが、認識撮影として、上から全身画像用の認識撮影が行われるようにした場合には、図35に示されるように、画像表示領域651L,651Rには、上から全身画像用の認識撮影により得られた認識用画像において認識部313による認識に成功した人物の上から全身画像がそれぞれ表示される。 The retouch screen that provides the retouch function for the whole body image from above is the same as the retouch screen shown in FIG. 34, but when the recognition shooting for the whole body image is performed from above as the recognition shooting. As shown in FIG. 35, in the image display areas 651L and 651R, a full-body image from above of a person who has succeeded in recognition by the recognition unit 313 in the recognition image obtained by recognition imaging for the whole body image from above. Are displayed respectively.

以上のように、撮影画像の種類毎にレタッチ画面が表示されることで、その撮影画像の撮影範囲に応じた画像処理を選択させることができるので、例えば、認識用画像として全身画像だけが表示されるレタッチ画面において、アップ画像についての画像処理を選択させる場合と比較して、利用者に対して画像処理の内容が伝わりやすくなり、利用者が画像処理の内容を把握しやすくなる。 As described above, by displaying the retouch screen for each type of captured image, it is possible to select the image processing according to the shooting range of the captured image. Therefore, for example, only the whole body image is displayed as the recognition image. On the retouch screen to be displayed, the content of the image processing is easily transmitted to the user, and the user can easily grasp the content of the image processing, as compared with the case where the image processing for the close-up image is selected.

なお、図33および図34(図35)のレタッチ画面において、アップ画像についての画像処理を選択させるレタッチ画面と、全身画像についての画像処理を選択させるレタッチ画面との表示を切り替える切替ボタンが設けられるようにしてもよいし、これらのレタッチ画面が、所定時間毎に表示が切り替わるようにしてもよい。 In the retouch screens of FIGS. 33 and 34 (FIG. 35), a switching button is provided to switch the display between the retouch screen for selecting the image processing for the close-up image and the retouch screen for selecting the image processing for the whole body image. Alternatively, the display of these retouch screens may be switched at predetermined time intervals.

さらに、レタッチ画面においては、左右いずれの領域が、対応する利用者に対する画像処理を選択するための領域であるかがわかればよい。そこで、例えば、全身画像についての画像処理を選択させるレタッチ画面(図34または図35)において、利用者それぞれの全身画像が表示される画像表示領域651L,651Rに代えて、図36に示されるように、利用者それぞれの顔画像が表示される画像表示領域653L,653Rが設けられるようにしてもよい。これにより、利用者は、少なくとも、レタッチ画面の左右いずれに対して操作を行えばよいかを把握することができる。 Further, on the retouch screen, it is sufficient to know which of the left and right areas is the area for selecting the image processing for the corresponding user. Therefore, for example, on the retouch screen (FIG. 34 or 35) for selecting the image processing for the whole body image, as shown in FIG. 36 instead of the image display areas 651L and 651R in which the whole body image of each user is displayed. May be provided with image display areas 653L and 653R on which each user's face image is displayed. As a result, the user can at least grasp whether the operation should be performed on the left or right side of the retouch screen.

また、レタッチ画面として、全身画像についての画像処理を選択させるレタッチ画面のみを表示するようにし、全身画像について選択された画像処理が、アップ画像にも反映されるようにしてもよい。 Further, as the retouch screen, only the retouch screen for selecting the image processing for the whole body image may be displayed, and the image processing selected for the whole body image may be reflected in the close-up image.

逆に、レタッチ画面として、アップ画像についての画像処理を選択させるレタッチ画面のみを表示するようにし、アップ画像について選択された画像処理が、全身画像にも反映されるようにしてもよい。例えば、アップ画像についての画像処理を選択させるレタッチ画面において、肌の明るさとして「美白」が選択された場合、肌の明るさを「美白」にする画像処理が、アップ画像における顔の部分に施される他、全身画像における腕や脚の部分に施されるようにする。 On the contrary, as the retouch screen, only the retouch screen for selecting the image processing for the up image may be displayed, and the image processing selected for the up image may be reflected in the whole body image. For example, when "whitening" is selected as the skin brightness on the retouch screen that selects the image processing for the close-up image, the image processing that makes the skin brightness "whitening" is applied to the face part in the close-up image. In addition to being applied, it should be applied to the arms and legs in the full-body image.

以上においては、レタッチ画面に表示される撮影画像として、認識用画像から所定の領域が切り出された画像が表示されるものとしたが、通常撮影により得られた撮影画像のうちの1枚が表示されるようにしてもよい。 In the above, it is assumed that an image in which a predetermined area is cut out from the recognition image is displayed as the captured image displayed on the retouch screen, but one of the captured images obtained by normal shooting is displayed. It may be done.

例えば、図37に示されるように、画像表示領域671L,671Rに、5枚の撮影画像のうちの所定の1枚が表示されるようにする。画像表示領域671L,671Rの左右両側には、切替ボタン681,682を設けるようにし、切替ボタン681,682がタッチペン132A,132Bにより操作されることで、画像表示領域671L,671Rに表示される撮影画像が切り替わるようにしてもよい。 For example, as shown in FIG. 37, a predetermined one of the five captured images is displayed in the image display areas 671L and 671R. Switching buttons 681 and 682 are provided on the left and right sides of the image display areas 671L and 671R, and the switching buttons 681 and 682 are operated by the touch pens 132A and 132B to display images in the image display areas 671L and 671R. The image may be switched.

さらに、以上においては、レタッチ機能を提供する画面としてレタッチ画面が表示されるものとしたが、編集画面が、レタッチ画面の1つとして機能するようにしてもよい。 Further, in the above, the retouch screen is displayed as the screen that provides the retouch function, but the edit screen may function as one of the retouch screens.

編集画面は、基本的に、レタッチ画面と同様、主な構成が左右対称に設けられることによって構成される。左半分の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右半分の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような編集画面の構成により、主に2人の利用者が同時に編集作業を行うことができる。 The edit screen is basically configured by providing the main configurations symmetrically like the retouch screen. The left half area is an area used by the user on the left side of the tablet built-in monitor 131. The right half area is an area used by the user on the right side of the tablet built-in monitor 131. With such an editing screen configuration, mainly two users can perform editing work at the same time.

図38においては、編集画面の左半分の領域(左半分領域)が示されている。 In FIG. 38, the left half area (left half area) of the editing screen is shown.

左半分領域の中央上部には、サムネイル表示領域711が設けられる。サムネイル表示領域711は、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル表示領域711に表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。 A thumbnail display area 711 is provided in the upper center of the left half area. The thumbnail display area 711 is a display area for a thumbnail image representing a captured image. The user selects the captured image to be edited by selecting the thumbnail image displayed in the thumbnail display area 711.

図38の例では、5枚の撮影画像として、3枚のアップ画像と2枚の全身画像を表すサムネイル画像がサムネイル表示領域711に並んで表示されている。 In the example of FIG. 38, as five captured images, three close-up images and two thumbnail images representing whole body images are displayed side by side in the thumbnail display area 711.

左半分領域の略中央には、編集領域712が設けられる。編集領域712は、編集対象として選択された撮影画像の表示領域である。利用者は、タッチペン132Aを用いて編集ツールを選択し、編集領域712に表示された撮影画像の編集を行う。 An editing area 712 is provided at substantially the center of the left half area. The editing area 712 is a display area of a captured image selected as an editing target. The user selects an editing tool using the touch pen 132A and edits the captured image displayed in the editing area 712.

編集領域712の左側には、メイクパレット713が表示される。メイクパレット713は、メイクツールを選択するためのアイコンの表示領域である。メイクツールが選択されることで、撮影画像に写る利用者の顔に対して、選択されたメイクツールに対応する画像処理が施される。 The make palette 713 is displayed on the left side of the editing area 712. The make palette 713 is an icon display area for selecting a make tool. When the make-up tool is selected, the image processing corresponding to the selected make-up tool is applied to the user's face reflected in the captured image.

左半分領域の下部には、編集パレット714が表示される。編集パレット714は、ペンツール、スタンプツールなどの各種の編集ツール(合成用画像)の選択に用いられる。 The edit palette 714 is displayed at the bottom of the left half area. The editing palette 714 is used for selecting various editing tools (composite images) such as a pen tool and a stamp tool.

編集パレット714においては、タブ毎に各編集ツールが用意されている。利用者は、それぞれのタブを選択することによって、編集パレット714に表示される編集ツールを切り替える。例えば、「スタンプ」の名前が付されたタブは、スタンプツールを選択するときに操作されるタブであり、「ペン」の名前が付されたタブは、ペンツールを選択するときに操作されるタブである。 In the editing palette 714, each editing tool is prepared for each tab. The user switches the editing tool displayed on the editing palette 714 by selecting each tab. For example, the tab named "Stamp" is the tab that is manipulated when selecting the stamp tool, and the tab named "Pen" is the tab that is manipulated when selecting the pen tool. Is.

図38の例では、「レタッチ」の名前が付されたタブが選択されている。 In the example of FIG. 38, the tab named "Retouch" is selected.

「レタッチ」の名前が付されたタブが選択された編集パレット714においては、全身画像に写る利用者毎に、全身画像に対する画像処理の度合いとして、脚の長さが選択されるようにする。 In the editing palette 714 in which the tab with the name "retouch" is selected, the leg length is selected as the degree of image processing for the whole body image for each user who appears in the whole body image.

図38の編集パレット714において、左半分の領域の左端、右半分の領域の右端のそれぞれには、画像表示領域721L,721Rが設けられる。画像表示領域721L,721Rには、認識撮影により得られた認識用画像において認識部313により認識された人物の全身画像が、それぞれ表示される。 In the editing palette 714 of FIG. 38, image display areas 721L and 721R are provided at the left end of the left half area and the right end of the right half area, respectively. In the image display areas 721L and 721R, whole-body images of the person recognized by the recognition unit 313 in the recognition image obtained by the recognition imaging are displayed, respectively.

画像表示領域721Lの右方、画像表示領域721Rの左方のそれぞれには、選択領域722L,722Rが設けられる。選択領域722L,722Rそれぞれには、編集領域712に表示されている全身画像に写る利用者の脚の長さを選択するためのボタン723−1乃至723−3が設けられる。 Selection areas 722L and 722R are provided on the right side of the image display area 721L and on the left side of the image display area 721R, respectively. Each of the selection areas 722L and 722R is provided with buttons 723-1 to 723-3 for selecting the length of the user's leg shown in the whole body image displayed in the editing area 712.

ボタン723−1乃至723−3のいずれかが選択されると、表示制御部321は、画像表示領域721L,721Rに表示されている全身画像を、選択されたボタンに対応する脚の長さに変える画像処理が施された全身画像に切り替える。このとき、編集領域712に表示されている全身画像に写る利用者のうち、ボタンが選択された選択領域に対応する利用者に対しても、選択されたボタンに対応する脚の長さに変える画像処理が施される。 When any of the buttons 723-1 to 723-3 is selected, the display control unit 321 shifts the whole body image displayed in the image display areas 721L and 721R to the leg length corresponding to the selected button. Switch to a full-body image with image processing to change. At this time, among the users appearing in the whole body image displayed in the editing area 712, even for the user corresponding to the selected area where the button is selected, the leg length corresponding to the selected button is changed. Image processing is applied.

なお、「レタッチ」の名前が付されたタブによって提供されるレタッチ機能は、編集領域712に表示されている撮影画像(編集対象となる撮影画像)に応じて変わる。例えば、編集対象となる撮影画像として、アップ画像が選択されている場合、「レタッチ」の名前が付されたタブは、例えば、目の大きさや肌の明るさなどを変えるレタッチ機能を提供するようになり、全身画像が選択されている場合、「レタッチ」の名前が付されたタブは、例えば、脚の長さや脚の細さなどを変えるレタッチ機能を提供するようになる。 The retouching function provided by the tab named "retouch" changes according to the captured image (photographed image to be edited) displayed in the editing area 712. For example, if a close-up image is selected as the captured image to be edited, the tab named "Retouch" will provide a retouch function that changes, for example, the size of the eyes and the brightness of the skin. When a full-body image is selected, the tab named "Retouch" will provide a retouching function that changes, for example, the length of the leg or the thinness of the leg.

また、編集画面において、レタッチ機能を提供するための構成を、編集パレット714以外の領域に設けるようにしてもよい。 Further, on the edit screen, a configuration for providing the retouch function may be provided in an area other than the edit palette 714.

例えば、編集画面のメイクパレット713に代えて、図39に示されるような選択領域731を設けるようにしてもよい。選択領域731は、編集パレット714に表示されるレタッチ機能を提供するための構成と異なり、編集画面上で常に表示される。 For example, instead of the make palette 713 on the edit screen, a selection area 731 as shown in FIG. 39 may be provided. The selection area 731 is always displayed on the edit screen, unlike the configuration for providing the retouch function displayed on the edit palette 714.

選択領域731には、編集領域712に表示されている全身画像に写る利用者の脚の長さを選択するためのボタン741−1乃至741−3が設けられる。また、ボタン741−3の下方には、画像処理の対象とする利用者を選択するためのボタン742−1乃至742−3が設けられる。 The selection area 731 is provided with buttons 741-1 to 741-3 for selecting the length of the user's leg shown in the whole body image displayed in the editing area 712. Further, below the button 741-3, buttons 742-1 to 742-3 for selecting a user to be image-processed are provided.

ボタン742−1は、編集領域712に表示されている全身画像に写る利用者の2人両方を画像処理の対象とするときに選択されるボタンである。ボタン742−2は、編集領域712に表示されている全身画像に写る利用者のうちの左側の利用者を画像処理の対象とするときに選択されるボタンであり、ボタン742−3は、編集領域712に表示されている全身画像に写る利用者のうちの右側の利用者を画像処理の対象とするときに選択されるボタンである。 Button 742-1 is a button selected when both of the users appearing in the whole body image displayed in the editing area 712 are targeted for image processing. Button 742-2 is a button selected when the user on the left side of the users reflected in the whole body image displayed in the editing area 712 is targeted for image processing, and button 742-3 is an edit button. This button is selected when the user on the right side of the users reflected in the whole body image displayed in the area 712 is targeted for image processing.

このような構成により、全身画像それぞれについて、利用者毎に、所望の脚の長さを選択することができる。 With such a configuration, a desired leg length can be selected for each user for each whole body image.

なお、以上においては、選択された度合いの画像処理は、編集領域712に表示されている撮影画像のみに施されるものとしたが、それ以外の、編集対象でない撮影画像に施されるようにしてもよい。また、選択された度合いの画像処理が、編集領域712に表示されている撮影画像毎に施されるようにした場合であっても、一度も編集対象として選択されていない撮影画像については、直近で選択された度合いの画像処理が施されるようにしてもよい。 In the above, the selected degree of image processing is applied only to the captured image displayed in the editing area 712, but is applied to other captured images that are not to be edited. You may. Further, even when the image processing of the selected degree is applied to each captured image displayed in the editing area 712, the captured image that has never been selected as the editing target is the latest. The image processing of the degree selected in is may be performed.

図39の例では、編集対象として全身画像が選択され、選択領域731には、全身画像についてのレタッチ機能を提供する構成が表示されるものとしたが、編集対象としてアップ画像が選択された場合には、図40に示されるように、選択領域751に、アップ画像についてのレタッチ機能を提供する構成が表示されるものとする。 In the example of FIG. 39, the whole body image is selected as the editing target, and the configuration for providing the retouch function for the whole body image is displayed in the selection area 731. However, when the up image is selected as the editing target. In, as shown in FIG. 40, a configuration for providing a retouch function for a close-up image is displayed in the selection area 751.

図40の選択領域751には、編集領域712に表示されているアップ画像に写る利用者の目の大きさを選択するためのボタン761−1乃至761−3が設けられる。また、ボタン761−3の右方には、画像処理の対象とする利用者を選択するためのボタン762−1乃至762−3が設けられる。 The selection area 751 of FIG. 40 is provided with buttons 761-1 to 761-3 for selecting the size of the eyes of the user appearing in the close-up image displayed in the editing area 712. Further, on the right side of the button 761-3, buttons 762-1 to 762-3 for selecting a user to be image-processed are provided.

ボタン762−1は、編集領域712に表示されているアップ画像に写る利用者の2人両方を画像処理の対象とするときに選択されるボタンである。ボタン762−2は、編集領域712に表示されているアップ画像に写る利用者のうちの左側の利用者を画像処理の対象とするときに選択されるボタンであり、ボタン762−3は、編集領域712に表示されているアップ画像に写る利用者のうちの右側の利用者を画像処理の対象とするときに選択されるボタンである。 Button 762-1 is a button selected when both of the users appearing in the close-up image displayed in the editing area 712 are targeted for image processing. Button 762-2 is a button selected when the user on the left side of the users reflected in the close-up image displayed in the editing area 712 is targeted for image processing, and button 762-3 is an edit button. This button is selected when the user on the right side of the users reflected in the close-up image displayed in the area 712 is targeted for image processing.

このような構成により、アップ画像それぞれについて、利用者毎に、所望の目の大きさを選択することができる。 With such a configuration, it is possible to select a desired eye size for each user for each close-up image.

なお、図39の選択領域731と、図40の選択領域751とは、編集画面において異なる位置に配置されている。具体的には、図39の例では、選択領域731は、編集領域712の横(左方)に配置され、図40の例では、選択領域751は、編集領域712の下方に配置されている。これにより、編集対象として選択されている撮影画像の種類(アップ画像/全身画像)が変わった場合、利用者にそのことを気づかせることができる。 The selection area 731 of FIG. 39 and the selection area 751 of FIG. 40 are arranged at different positions on the editing screen. Specifically, in the example of FIG. 39, the selection area 731 is arranged beside (left) the editing area 712, and in the example of FIG. 40, the selection area 751 is arranged below the editing area 712. .. As a result, when the type of the photographed image (up image / whole body image) selected as the editing target changes, the user can be made aware of it.

以上においては、レタッチ機能を提供する構成が、編集パレットにおいてタブ表示されたり、編集画面上の所定の位置に常に表示される例について説明したが、サムネイル表示領域711に表示されているサムネイル画像が選択される度に、そのサムネイル画像に対応する撮影画像についてのレタッチ機能を提供する構成が、ポップアップとして表示されるようにしてもよい。これにより、編集画面のレイアウトによらず、レタッチ機能を提供する構成を大きく表示することができ、利用者の操作性を向上させることができる。 In the above, the example in which the configuration providing the retouch function is tab-displayed on the edit palette or always displayed at a predetermined position on the edit screen has been described, but the thumbnail image displayed in the thumbnail display area 711 has been described. Each time it is selected, a configuration that provides a retouch function for the captured image corresponding to the thumbnail image may be displayed as a pop-up. As a result, the configuration that provides the retouch function can be displayed in a large size regardless of the layout of the edit screen, and the operability of the user can be improved.

また、以上においては、レタッチ機能により画像処理が施される領域(利用者の部分)は、あらかじめ決まっており、その領域に施される画像処理に対応するボタンが選択領域に表示されるものとした。これに限らず、編集画面において、レタッチ機能を提供する構成が表示される場合には、編集領域712において、レタッチ機能により画像処理が施される領域がタッチペン132A(132B)によって指定されるようにしてもよい。 Further, in the above, the area (user part) to which the image processing is performed by the retouch function is determined in advance, and the button corresponding to the image processing applied to the area is displayed in the selection area. did. Not limited to this, when a configuration that provides the retouch function is displayed on the edit screen, the area to be image-processed by the retouch function is designated by the touch pen 132A (132B) in the edit area 712. You may.

この場合、選択領域には、指定された領域に施される画像処理に対応するボタンが表示されるようにする。例えば、編集領域712において、編集対象となる撮影画像に写る利用者の脚の部分が、タッチペン132A(132B)により囲まれるなどした場合、選択領域には、脚の長さを変えるためのボタンが表示されるようにする。これにより、利用者は、撮影画像に写る自分自身について、より良いスタイルにしたい部分を選択することができる。 In this case, the button corresponding to the image processing applied to the designated area is displayed in the selected area. For example, in the editing area 712, when the leg portion of the user shown in the captured image to be edited is surrounded by the touch pen 132A (132B), the selection area has a button for changing the leg length. Make it visible. This allows the user to select the part of himself / herself that appears in the captured image that he / she wants to have a better style.

さらに、図41に示されるように、レタッチ機能を提供する構成が、認識撮影時のライブビュー表示画面に表示されるようにしてもよい。 Further, as shown in FIG. 41, the configuration that provides the retouch function may be displayed on the live view display screen at the time of recognition shooting.

図41のライブビュー表示画面において、左右それぞれの領域の上側には、画像表示領域811L,811Rが設けられる。画像表示領域811L,811Rには、2人の利用者それぞれの全身が映る動画像がリアルタイムで表示される。 In the live view display screen of FIG. 41, image display areas 811L and 811R are provided on the upper side of each of the left and right areas. In the image display areas 811L and 811R, moving images showing the whole body of each of the two users are displayed in real time.

2人の利用者は、画像表示領域811L,811Rの表示を確認しながら、それぞれの全身が画像表示領域811L,811Rの枠に収まるように、立ち位置を調整する。 While checking the display of the image display areas 811L and 811R, the two users adjust the standing positions so that the whole body fits in the frame of the image display areas 811L and 811R.

画像表示領域811L,811Rそれぞれの下方には、選択領域812L,812Rが設けられる。選択領域812L,812Rには、認識撮影の後に行われる通常撮影により得られる撮影画像(全身画像)に写る利用者の脚の長さを選択するためのボタン821−1乃至821−3が設けられる。 Below each of the image display areas 811L and 811R, selection areas 812L and 812R are provided. The selection areas 812L and 812R are provided with buttons 821-1 to 821-3 for selecting the length of the user's leg to be captured in the captured image (whole body image) obtained by the normal imaging performed after the recognition imaging. ..

ボタン821−1乃至821−3の下方には、OKボタン822が設けられる。 An OK button 822 is provided below the buttons 821-1 to 821-3.

選択領域812L,812Rにおいて選択されたボタンに対応する画像処理は、画像表示領域811L,811Rに表示されるライブビュー画像にリアルタイムに反映される。 The image processing corresponding to the button selected in the selection areas 812L and 812R is reflected in the live view image displayed in the image display areas 811L and 811R in real time.

図41の例では、1回の認識撮影に割り当てられる時間を、1回の通常撮影に割り当てられる時間より長く設定されるようにする。これにより、利用者に、レタッチ機能を提供するための画像処理を、余裕をもって選択させることができる。 In the example of FIG. 41, the time allotted for one recognition shooting is set longer than the time allotted for one normal shooting. As a result, the user can select the image processing for providing the retouch function with a margin.

また、図41の例では、認識撮影のライブビュー表示画面において、ライブビュー画像と、レタッチ機能を提供する構成とが同時に表示されるものとした。しかしながら、通常、写真シール機において、撮影空間に設けられるタッチパネルモニタは、編集空間に設けられるタブレット内蔵モニタよりも小さいため、図41の例では、ライブビュー画像が小さくなってしまう。そこで、認識撮影のライブビュー表示画面においては、レタッチ機能を提供する構成が表示された後に画面が切り替わり、ライブビュー画像が大きく表示されるようにしてもよい。 Further, in the example of FIG. 41, it is assumed that the live view image and the configuration that provides the retouch function are displayed at the same time on the live view display screen of the recognition shooting. However, in a photo sticker machine, the touch panel monitor provided in the shooting space is usually smaller than the monitor built in the tablet provided in the editing space, so that the live view image becomes smaller in the example of FIG. 41. Therefore, on the live view display screen for recognition shooting, the screen may be switched after the configuration for providing the retouch function is displayed so that the live view image is displayed in a large size.

なお、図41の例のように、認識撮影のライブビュー表示画面において、レタッチ機能を提供する構成が表示されるのではなく、通常撮影のライブビュー表示画面において、レタッチ機能を提供する構成が、通常撮影が行われる度に表示されるようにしてもよい。この場合、認識撮影は行われないものとする。 Note that, as in the example of FIG. 41, the configuration that provides the retouch function is not displayed on the live view display screen for recognition shooting, but the configuration that provides the retouch function on the live view display screen for normal shooting is It may be displayed every time a normal shooting is performed. In this case, recognition photography is not performed.

<出力物の例>
本実施の形態においては、写真シール作成ゲームの結果である出力物として、撮影画像が印刷されたシール紙が出力される他、所定のサーバを介して携帯端末へ送信される撮影画像(携帯送信画像)のデータが出力される。
<Example of output>
In the present embodiment, as an output as a result of the photo sticker creation game, a sticker paper on which a photographed image is printed is output, and a photographed image transmitted to a mobile terminal via a predetermined server (mobile transmission). Image) data is output.

(シール紙)
図42は、本実施の形態において出力されるシール紙の例を示す図である。
(Seal paper)
FIG. 42 is a diagram showing an example of a sticker paper output in the present embodiment.

図42に示されるシール紙は、横長の矩形形状にカットされており、5回の通常撮影により得られた5枚の撮影画像(以下、印刷画像ともいう)が、横一列に配置されて印刷されている。 The sticker paper shown in FIG. 42 is cut into a horizontally long rectangular shape, and five captured images (hereinafter, also referred to as printed images) obtained by five normal shots are arranged in a horizontal row and printed. Has been done.

図42に示されるシール紙850には、印刷画像として、1枚の正面全身画像851、3枚のアップ画像852乃至854、および、1枚の上から全身画像855が配置されている。 On the sticker paper 850 shown in FIG. 42, one front whole body image 851, three close-up images 852 to 854, and one whole body image 855 are arranged as printed images.

印刷画像851,852の下方の領域には、アクセス用のメールアドレスおよびシール紙のIDを含む文字情報が配置されている。 In the area below the printed images 851 and 852, character information including an e-mail address for access and an ID of the sticker paper is arranged.

さらに、印刷画像854,855の下方の領域には、レタッチ画面において選択されたレタッチ機能の内容(画像処理の度合い)を示す文字情報861が配置されている。図42の例では、文字情報861は、2人の利用者のうちの1人である「きょうこ」について、脚の長さ「おすすめ」、脚の細さ「モデル」が選択され、利用者のもう1人である「あき」について、脚の長さ「ナチュラル」、脚の細さ「おすすめ」が選択されたことを示している。 Further, in the area below the printed images 854 and 855, character information 861 indicating the content (degree of image processing) of the retouching function selected on the retouch screen is arranged. In the example of FIG. 42, for the character information 861, for "Kyoko", which is one of the two users, the leg length "recommended" and the leg thinness "model" are selected, and the user's It shows that the leg length "natural" and the leg thinness "recommended" were selected for the other person, "Aki".

利用者は、このような文字情報を、次回、写真シール作成ゲームをプレイする際にレタッチ機能の内容を選択するときの参考とすることができる。 The user can use such text information as a reference when selecting the content of the retouch function when playing the photo sticker creation game next time.

なお、シールレイアウトとして、利用者毎にシール紙がカットされて出力されるシールレイアウトが選択されている場合には、利用者毎に出力されるシール紙のそれぞれに、その利用者が選択したレタッチ機能の内容を示す文字情報が配置されるようにしてもよい。 When a sticker layout is selected as the sticker layout in which the sticker paper is cut and output for each user, the retouch selected by the user is applied to each sticker paper output for each user. Character information indicating the content of the function may be arranged.

(携帯送信画像)
携帯送信画像として携帯端末で閲覧可能な撮影画像について、写真シール作成装置1で選択された内容のレタッチ機能が、再度選択できるようにしてもよい。レタッチ機能の内容の再選択は、携帯送信画像が取得可能なWebページ上や、携帯端末にダウンロードされた専用のアプリケーション(専用アプリ)上などで行われるものとする。
(Image sent by mobile phone)
The retouching function of the content selected by the photo sticker creation device 1 may be reselectable for the captured image that can be viewed on the mobile terminal as the mobile transmission image. The reselection of the contents of the retouch function shall be performed on a Web page where the image sent by the mobile phone can be acquired, or on a dedicated application (dedicated application) downloaded to the mobile terminal.

携帯端末でのレタッチ機能は、写真シール作成ゲームの回転数を考慮する必要がないため、写真シール作成装置1で選択できるレタッチ機能の内容より細かい内容が選択できるようにしてもよい。さらに、写真シール作成装置1では提供されなかった内容のレタッチ機能が、上述したWebページ上や専用アプリ上で提供されるようにしてもよい。例えば、写真シール作成装置1で提供された、脚の長さを変える処理、および、脚の細さを変える処理に加え、肌の明るさを変える処理、および、首の長さを変える処理が、レタッチ機能を提供する画像処理として行われるようにする。 Since it is not necessary to consider the rotation speed of the photo sticker creation game for the retouch function on the mobile terminal, it may be possible to select more detailed contents than the contents of the retouch function that can be selected by the photo sticker creation device 1. Further, the retouching function of the content not provided by the photo sticker creating device 1 may be provided on the above-mentioned Web page or the dedicated application. For example, in addition to the process of changing the length of the legs and the process of changing the thinness of the legs provided by the photo sticker creating device 1, the process of changing the brightness of the skin and the process of changing the length of the neck , To be performed as an image process that provides a retouch function.

また、レタッチ機能とは別に、携帯端末上で、撮影画像の色情報を変更したり、撮影画像に所定の質感や色のレイヤ画像を重畳したりする加工の種類が選択できる場合、選択された加工の種類に対応するレタッチ機能を提供する画像処理が、撮影画像に施されるようにしてもよい。 In addition to the retouch function, if the type of processing that can change the color information of the captured image or superimpose a layer image of a predetermined texture or color on the captured image can be selected on the mobile terminal, it is selected. Image processing that provides a retouching function corresponding to the type of processing may be applied to the captured image.

上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。 In the above-described embodiment, the photo sticker creating device 1 has a configuration in which the obtained photographed image or edited image is printed on the sticker paper and transmitted to the server to be provided to the user's mobile terminal. .. Not limited to this, it is also possible to adopt a configuration in which the photographed image or the edited image is not printed on the sticker paper but is transmitted to the server and only provided to the user's mobile terminal. On the contrary, it is also possible to adopt a configuration in which only the photographed image or the edited image is printed on the sticker paper without being transmitted to the server.

すなわち、本技術は、撮影画像や編集画像がシール紙に印刷された写真シールを作成する写真シール作成装置に限らず、単に、撮影画像や編集画像を作成するゲームを提供する写真作成ゲーム機に適用することができる。 That is, the present technology is not limited to a photo sticker creation device that creates a photo sticker in which a photographed image or an edited image is printed on a sticker paper, but simply a photo creation game machine that provides a game for creating a photographed image or an edited image. Can be applied.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 The series of processes described above can be executed by hardware or software. When the series of processes described above are executed by software, the programs constituting the software are installed from a network or a recording medium.

この記録媒体は、例えば、図7に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。 As shown in FIG. 7, this recording medium is, for example, a magnetic disk on which the program is recorded, which is distributed to the administrator of the photo sticker creation device 1 separately from the device main body. It is composed of a removable media 205 including a flexible disk), an optical disk (including a CD-ROM and a DVD), a magneto-optical disk, or a semiconductor memory. In addition to these, the recording medium is composed of a ROM 206 in which a program to be distributed to the administrator is recorded in a state of being incorporated in the apparatus main body in advance, a hard disk included in the storage unit 202, and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program to be recorded on a recording medium are not necessarily processed in chronological order in the order described, but also in parallel or in parallel or not necessarily in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。 In the above, the print medium is not limited to the sticker paper and the photographic paper. For example, the image may be printed on a paper or film of a predetermined size, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, the sticker layout image in which one or a plurality of captured images are arranged may be printed on these print media.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Further, the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.

1 写真シール作成装置
201 制御部
301 撮影処理部
302 編集処理部
303 印刷処理部
304 事後選択処理部
311 表示制御部
312 撮影制御部
313 認識部
314 登録部
321 表示制御部
322 編集制御部
323 認証部
324 画像処理部
325 通信制御部
1 Photo sticker creation device 201 Control unit 301 Photograph processing unit 302 Editing processing unit 303 Printing processing unit 304 Post-selection processing unit 311 Display control unit 312 Photographing control unit 313 Recognition unit 314 Registration unit 321 Display control unit 322 Editing control unit 323 Authentication unit 324 Image processing unit 325 Communication control unit

Claims (12)

利用者の全身を被写体とした撮影を行う撮影制御部と、
撮影により得られた撮影画像のうちの所定枚数の撮影画像において人物を認識する認識部と、
前記撮影画像が表示される第1の領域と、前記認識部による認識結果に基づいて前記利用者の全身が写る前記撮影画像に施される画像処理の度合いを選択するためのボタンが表示される第2の領域とを有する画面を表示する表示制御部と
を備え、
前記表示制御部は、前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記撮影画像を、異なる度合いの前記画像処理が施された前記撮影画像に切り替える
写真作成ゲーム機。
A shooting control unit that shoots the entire body of the user as a subject,
A recognition unit that recognizes a person in a predetermined number of shot images among the shot images obtained by shooting,
A first area in which the captured image is displayed and a button for selecting the degree of image processing applied to the captured image in which the entire body of the user is captured based on the recognition result by the recognition unit are displayed. A display control unit for displaying a screen having a second area is provided.
Each time the button in the second area is operated, the display control unit switches the photographed image displayed in the first area to the photographed image subjected to the image processing to a different degree. Photo creation game machine.
前記撮影制御部は、複数回の撮影のうちの少なくとも1回の撮影を、人物を認識するための認識撮影として行い、
前記認識部は、前記認識撮影により得られた認識用画像において人物を認識し、
前記表示制御部は、前記第1の領域に、前記認識用画像を表示し、前記第2の領域に、前記認識撮影以外の通常撮影により得られた前記撮影画像に写る前記利用者の全身またはその一部に施される前記画像処理の度合いを選択するための前記ボタンを表示する
請求項1に記載の写真作成ゲーム機。
The shooting control unit performs at least one shooting out of the plurality of shootings as a recognition shooting for recognizing a person.
The recognition unit recognizes a person in the recognition image obtained by the recognition photographing, and recognizes a person.
The display control unit displays the recognition image in the first area, and the whole body of the user or the whole body of the user reflected in the photographed image obtained by normal photography other than the recognition photography in the second area. The photo-creating game machine according to claim 1, wherein the button for selecting the degree of image processing applied to a part thereof is displayed.
前記撮影画像に写る前記利用者の全身またはその一部に、前記第2の領域において最終的に選択された前記ボタンに対応した度合いの前記画像処理を施す画像処理部をさらに備える
請求項2に記載の写真作成ゲーム機。
The second aspect of the present invention further comprises an image processing unit that performs the image processing to a degree corresponding to the button finally selected in the second region on the whole body or a part of the user reflected in the captured image. Described photo creation game machine.
前記表示制御部は、前記第1の領域に、前記利用者の全身が写る前記認識用画像を表示し、前記第2の領域に、前記撮影画像において前記画像処理が施される前記利用者の部分に対応する画像を含む前記ボタンを表示する
請求項3に記載の写真作成ゲーム機。
The display control unit displays the recognition image in which the whole body of the user is captured in the first area, and the image processing of the photographed image is performed in the second area of the user. The photo-creating game machine according to claim 3, wherein the button including the image corresponding to the portion is displayed.
前記表示制御部は、前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記認識用画像を、前記利用者の部分に異なる度合いの前記画像処理が施された前記認識用画像に切り替える
請求項4に記載の写真作成ゲーム機。
Each time the button in the second area is operated, the display control unit performs the image processing of the recognition image displayed in the first area on the user portion to a different degree. The photo-creating game machine according to claim 4, wherein the image is switched to the recognition image.
前記表示制御部は、前記利用者毎の前記第1の領域および前記第2の領域を有する前記画面を表示する
請求項5に記載の写真作成ゲーム機。
The photo-creating game machine according to claim 5, wherein the display control unit displays the screen having the first area and the second area for each user.
前記認識部による認識に成功した人物の全身画像を、前記通常撮影により得られた前記撮影画像に写る人物と照合するための画像として登録する登録部をさらに備える
請求項6に記載の写真作成ゲーム機。
The photo creation game according to claim 6, further comprising a registration unit for registering a full-body image of a person who has been successfully recognized by the recognition unit as an image for collating a person appearing in the photographed image obtained by the normal shooting. Machine.
前記登録部により登録された前記全身画像と、前記撮影画像に写る人物とを照合することで、前記撮影画像における前記利用者を認証する認証部をさらに備え、
前記画像処理部は、前記撮影画像において、前記認証部による認証に成功した前記利用者毎の全身またはその一部に、前記利用者毎の前記第2の領域において最終的に操作された前記ボタンに対応した度合いの前記画像処理を施す
請求項7に記載の写真作成ゲーム機。
An authentication unit that authenticates the user in the photographed image by collating the whole body image registered by the registration unit with the person appearing in the photographed image is further provided.
In the photographed image, the image processing unit finally operates the button on the whole body or a part of each user who has succeeded in authentication by the authentication unit in the second region of each user. The photo-creating game machine according to claim 7, wherein the image processing is performed to a degree corresponding to the above.
前記表示制御部は、前記画像処理の種類毎に1つの前記画面を表示する
請求項1乃至8のいずれかに記載の写真作成ゲーム機。
The photo-creating game machine according to any one of claims 1 to 8, wherein the display control unit displays one screen for each type of image processing.
前記画像処理が施された前記撮影画像を、所定のシール紙へ印刷して出力する印刷処理部をさらに備える
請求項1乃至9のいずれかに記載の写真作成ゲーム機。
The photo-creating game machine according to any one of claims 1 to 9, further comprising a printing processing unit that prints and outputs the photographed image to which the image processing has been performed on a predetermined sticker paper.
前記画像処理が施された前記撮影画像を、所定のサーバを介して携帯端末へデータとして送信する通信制御部をさらに備える
請求項1乃至10のいずれかに記載の写真作成ゲーム機。
The photo-creating game machine according to any one of claims 1 to 10, further comprising a communication control unit that transmits the photographed image subjected to the image processing to a mobile terminal as data via a predetermined server.
利用者の全身を被写体とした撮影を行い、
撮影により得られた撮影画像のうちの所定枚数の撮影画像において人物を認識し、
前記撮影画像が表示される第1の領域と、前記人物の認識結果に基づいて前記利用者の全身が写る前記撮影画像に施される画像処理の度合いを選択するためのボタンが表示される第2の領域とを有する画面を表示し、
前記第2の領域の前記ボタンが操作される毎に、前記第1の領域に表示される前記撮影画像を、異なる度合いの前記画像処理が施された前記撮影画像に切り替える
ステップを含む表示方法。
Take a picture of the whole body of the user as a subject
A person is recognized in a predetermined number of captured images among the captured images obtained by shooting, and the person is recognized.
A first area in which the captured image is displayed and a button for selecting the degree of image processing applied to the captured image in which the whole body of the user is captured based on the recognition result of the person are displayed. Display a screen with 2 areas and
A display method including a step of switching the captured image displayed in the first region to the captured image subjected to the image processing to a different degree each time the button in the second region is operated.
JP2016202230A 2016-10-14 2016-10-14 Photo creation game console and display method Active JP6853475B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016202230A JP6853475B2 (en) 2016-10-14 2016-10-14 Photo creation game console and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016202230A JP6853475B2 (en) 2016-10-14 2016-10-14 Photo creation game console and display method

Publications (2)

Publication Number Publication Date
JP2018064220A JP2018064220A (en) 2018-04-19
JP6853475B2 true JP6853475B2 (en) 2021-03-31

Family

ID=61966973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016202230A Active JP6853475B2 (en) 2016-10-14 2016-10-14 Photo creation game console and display method

Country Status (1)

Country Link
JP (1) JP6853475B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7140962B2 (en) * 2018-04-27 2022-09-22 フリュー株式会社 Image processing device, control method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5874421B2 (en) * 2012-02-08 2016-03-02 辰巳電子工業株式会社 Game shooting device, game shooting method and program
JP5418708B2 (en) * 2012-04-25 2014-02-19 フリュー株式会社 Photo sealing machine, photo sealing machine processing method and program
EP4184443A1 (en) * 2012-12-18 2023-05-24 Eyesmatch Ltd. Devices, systems and methods of capturing and displaying appearances
JP5825542B1 (en) * 2015-06-29 2015-12-02 フリュー株式会社 Photo sticker creation apparatus and display method

Also Published As

Publication number Publication date
JP2018064220A (en) 2018-04-19

Similar Documents

Publication Publication Date Title
JP5418708B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP6829380B2 (en) Photo sticker making device and image processing method
JP6810336B2 (en) Photo creation game console and display method
JP6880394B2 (en) Photographing game console and shooting method
JP5825542B1 (en) Photo sticker creation apparatus and display method
JP6853475B2 (en) Photo creation game console and display method
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP7152687B2 (en) Display control device, display control method, program
JP6712047B2 (en) Photo creation game machine and image generation method
JP7074994B2 (en) Photographing game console and image processing method
JP7401727B2 (en) Image processing device, image processing method, and image processing program
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP2018107515A (en) Photograph formation game machine and image processing method
JP7140962B2 (en) Image processing device, control method, and program
JP7132492B2 (en) Image processing device, display control method, and program
JP2020144780A (en) Image processing device, image processing method, and image processing program
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP6687839B2 (en) Photo creation game machine and display method
JP6982230B2 (en) Photographing game console and image processing method
JP6376421B1 (en) Photo creation game machine, display method, and program
JP7032642B2 (en) Photo-creating game consoles, editing methods, and programs
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP6842038B2 (en) Photographing game console and image processing method
JP6041024B1 (en) Photo sticker creation apparatus and display method
JP2023040914A (en) Image processing apparatus, image processing program, and mask generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R150 Certificate of patent or registration of utility model

Ref document number: 6853475

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250