JP6810336B2 - Photo creation game console and display method - Google Patents

Photo creation game console and display method Download PDF

Info

Publication number
JP6810336B2
JP6810336B2 JP2016125520A JP2016125520A JP6810336B2 JP 6810336 B2 JP6810336 B2 JP 6810336B2 JP 2016125520 A JP2016125520 A JP 2016125520A JP 2016125520 A JP2016125520 A JP 2016125520A JP 6810336 B2 JP6810336 B2 JP 6810336B2
Authority
JP
Japan
Prior art keywords
image
face
image processing
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016125520A
Other languages
Japanese (ja)
Other versions
JP2017229013A (en
Inventor
舞 西川
舞 西川
紗綾香 山田
紗綾香 山田
仁志 飛田
仁志 飛田
春香 十川
春香 十川
有美 澁谷
有美 澁谷
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2016125520A priority Critical patent/JP6810336B2/en
Publication of JP2017229013A publication Critical patent/JP2017229013A/en
Application granted granted Critical
Publication of JP6810336B2 publication Critical patent/JP6810336B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Description

本技術は、写真作成ゲーム機および表示方法に関し、特に、利用者が所望する画像を提供することができるようにする写真作成ゲーム機および表示方法に関する。 The present technology relates to a photo-creating game machine and a display method, and more particularly to a photo-creating game machine and a display method that enable a user to provide a desired image.

従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。 Conventionally, a photo sticker machine installed in an amusement facility or the like is known. The photo sticker machine photographs the user and edits the photographed image according to the operation of the user. The photo sticker machine prints the edited photographed image on the sticker paper.

このような写真シール機の中には、撮影画像に写る利用者の顔について、顔の形状や目の大きさに対する処理を選択させるレタッチ機能を提供するものがある。 Some of such photo sticker machines provide a retouching function for selecting a process for the face shape and eye size of the user's face shown in the photographed image.

例えば、特許文献1には、利用者を識別するための識別撮影を行い、その結果に基づいて、撮影画像における利用者毎の顔や目の領域に対する処理を、1つの画面上で選択させることが記載されている。 For example, in Patent Document 1, identification photography is performed to identify a user, and based on the result, processing for a face or eye area for each user in the photographed image is selected on one screen. Is described.

このようなレタッチ機能は、撮影画像に写る利用者自身の顔を、自分のなりたい顔に仕上げることができる点で、近年重要視されている。特に、写真シール機の主な利用者である女子中高生は普段化粧をしないため、このような利用者が満足するようなレタッチ機能が求められている。 Such a retouching function has been regarded as important in recent years in that it can finish the user's own face in the captured image to the face he / she wants to be. In particular, female junior and senior high school students, who are the main users of photo sticker machines, do not usually wear makeup, so there is a demand for a retouching function that satisfies such users.

特開2013−243648号公報Japanese Unexamined Patent Publication No. 2013-243648

しかしながら、特許文献1に開示されている構成のように、1つの画面上で、顔領域に対する処理と、目領域に対する処理とを選択できる場合、その選択順序によっては、撮影画像に写る利用者自身の顔を、自分のなりたい顔に仕上げることに失敗する可能性があった。 However, when the processing for the face area and the processing for the eye area can be selected on one screen as in the configuration disclosed in Patent Document 1, the user himself / herself appearing in the captured image depends on the selection order. There was a possibility that I could fail to finish the face of myself to the face I wanted to be.

具体的には、1つの画面上で、例えば、顔の大きさと目の大きさとを選択できるものとする。この画面において、利用者が、目の大きさを最も大きくする選択をした後、顔の大きさを最も小さくする選択をした場合、利用者が想像している以上に、顔の大きさに対して目が大きくなりすぎてしまい、結果として、撮影画像に写る利用者の顔が、不自然な顔になってしまうおそれがあった。またこの場合、利用者は、顔の大きさや目の大きさを選択し直すこともできるが、それは利用者にとって手間であった。 Specifically, for example, the size of the face and the size of the eyes can be selected on one screen. On this screen, when the user selects the largest eye size and then the smallest face size, the face size is larger than the user imagines. As a result, the user's face in the captured image may become unnatural. In this case, the user can also reselect the size of the face and the size of the eyes, which is troublesome for the user.

本技術は、このような状況に鑑みてなされたものであり、より確実に、利用者が所望する画像を提供することができるようにするものである。 The present technology has been made in view of such a situation, and makes it possible to more reliably provide an image desired by a user.

本技術の写真作成ゲーム機は、利用者を被写体とした複数回の撮影を行う撮影処理部と、影により得られた撮影画像に対する画像処理の度合いを選択するための選択部表示する表示制御部と、前記選択部において選択された度合いの画像処理を、前記撮影画像それぞれに施す画像処理部とを備え、前記表示制御部は、前記選択部として、前記撮影画像における第1の領域である、前記撮影画像に写る前記利用者の顔領域全体に対する第1の画像処理の度合いを選択するための第1の選択部を表示した後、前記撮影画像に写る人物領域における、前記第1の領域より小さい第2の領域である、前記顔領域における顔パーツの領域に対する第2の画像処理の度合いを選択するための第2の選択部を表示する。 Photography game machine of the present technology, displayed for displaying a selection unit for selecting the imaging processing unit for performing a plurality of times of photographing in which the user and the object, the degree of image processing on a captured image obtained by shooting and a control unit, an image processing degree selected in the selection unit, and an image processing unit that performs to each of the photographed image, the display control unit includes, as the selection unit, in the first region in the captured image After displaying the first selection unit for selecting the degree of the first image processing with respect to the entire face area of the user reflected in the captured image, the first selection unit in the person region captured in the captured image. A second selection unit for selecting the degree of second image processing with respect to the region of the face part in the face region, which is a second region smaller than the region , is displayed.

本技術の表示方法は、利用者を被写体とした複数回の撮影を行う撮影処理部と、影により得られた撮影画像に対する画像処理の度合いを選択するための選択部表示する表示制御部と、前記選択部において選択された度合いの画像処理を、前記撮影画像それぞれに施す画像処理部とを備える写真作成ゲーム機の表示方法であって、前記表示制御部が、前記選択部として、前記撮影画像における第1の領域である、前記撮影画像に写る前記利用者の顔領域全体に対する第1の画像処理の度合いを選択するための第1の選択部を表示した後、前記撮影画像に写る人物領域における、前記第1の領域より小さい第2の領域である、前記顔領域における顔パーツの領域に対する第2の画像処理の度合いを選択するための第2の選択部を表示するステップを含む。 Display method of the present technique, the display control unit for displaying a selection unit for selecting the imaging processing unit for performing a plurality of times of photographing in which the user and the object, the degree of image processing on a captured image obtained by shooting A display method of a photo creation game machine including an image processing unit that applies image processing to the degree selected by the selection unit to each of the captured images, wherein the display control unit serves as the selection unit. After displaying the first selection unit for selecting the degree of the first image processing with respect to the entire face region of the user reflected in the captured image, which is the first region in the captured image, the captured image is captured. A step of displaying a second selection unit for selecting the degree of second image processing with respect to the area of the face part in the face area, which is a second area smaller than the first area in the person area. ..

本技術においては、利用者を被写体とした複数回の撮影が行われ、影により得られた撮影画像に対する画像処理の度合いを選択するための選択部表示され、前記選択部において選択された度合いの画像処理が、前記撮影画像それぞれに施され、前記選択部として、前記撮影画像における第1の領域である、前記撮影画像に写る前記利用者の顔領域全体に対する第1の画像処理の度合いを選択するための第1の選択部が表示された後、前記撮影画像に写る人物領域における、前記第1の領域より小さい第2の領域である、前記顔領域における顔パーツの領域に対する第2の画像処理の度合いを選択するための第2の選択部が表示される。 In this technique, it performed a plurality of times of photographing in which the user and the subject, selecting section for selecting the degree of image processing on the captured image obtained by the shooting is displayed, selected in the selection unit The degree of image processing is applied to each of the captured images, and as the selection unit, the degree of the first image processing on the entire face region of the user reflected in the captured image, which is the first region in the captured image. After the first selection unit for selecting the image is displayed, the second region of the person region captured in the captured image, which is smaller than the first region , is the second region of the face part in the face region . A second selection section for selecting the degree of image processing of is displayed.

本技術によれば、より確実に、利用者が所望する画像を提供することが可能となる。 According to this technology, it is possible to more reliably provide an image desired by a user.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the appearance of the photograph sticker making apparatus of this technology. 写真シール作成装置の外観を他の角度からみた斜視図である。It is a perspective view which looked at the appearance of the photographic sticker making apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining the movement of a user. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of the preselection part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of the photographing part. 背景部の構成例を示す図である。It is a figure which shows the structural example of the background part. 編集装置の正面の構成例を示す図である。It is a figure which shows the configuration example of the front of an editing apparatus. 編集装置の側面の構成例を示す図である。It is a figure which shows the configuration example of the side surface of an editing apparatus. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the structural example inside the photographic sticker making apparatus. 制御部の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of a control part. 編集処理部の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of an editing processing part. 写真シール作成処理について説明するフローチャートである。It is a flowchart explaining the photo sticker making process. 撮影処理について説明するフローチャートである。It is a flowchart explaining the shooting process. レタッチ撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of retouch shooting. レタッチ撮影時の撮影結果確認画面の例を示す図である。It is a figure which shows the example of the shooting result confirmation screen at the time of retouch shooting. レタッチ撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of retouch shooting. レタッチ撮影時のライブビュー表示画面の例を示す図である。It is a figure which shows the example of the live view display screen at the time of retouch shooting. 編集処理について説明するフローチャートである。It is a flowchart explaining the editing process. 盛れ感選択画面の例を示す図である。It is a figure which shows the example of the swelling feeling selection screen. 目の形選択画面の例を示す図である。It is a figure which shows the example of the eye shape selection screen. 目の輝き選択画面の例を示す図である。It is a figure which shows the example of the eye shine selection screen. ふんわり度選択画面の例を示す図である。It is a figure which shows the example of the softness degree selection screen. 目の形・目の輝き選択画面の例を示す図である。It is a figure which shows the example of the eye shape / eye brilliance selection screen. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集パレットの例を示す図である。It is a figure which shows the example of the edit palette. 編集パレットの例を示す図である。It is a figure which shows the example of the edit palette. 編集パレットの例を示す図である。It is a figure which shows the example of the edit palette. 編集処理部の他の機能構成例を示すブロック図である。It is a block diagram which shows the other function configuration example of an editing processing part. 盛れ感選択画面の他の例を示す図である。It is a figure which shows another example of the swelling feeling selection screen. 目の形選択画面の他の例を示す図である。It is a figure which shows another example of the eye shape selection screen. 盛れ感選択画面のさらに他の例を示す図である。It is a figure which shows still another example of a swelling feeling selection screen. 盛れ感選択画面のさらに他の例を示す図である。It is a figure which shows still another example of a swelling feeling selection screen. 盛れ感選択画面のさらに他の例を示す図である。It is a figure which shows still another example of a swelling feeling selection screen. 盛れ感選択画面のさらに他の例を示す図である。It is a figure which shows still another example of a swelling feeling selection screen. 盛れ感選択画面のさらに他の例を示す図である。It is a figure which shows still another example of a swelling feeling selection screen. ふんわり度について説明する図である。It is a figure explaining the degree of fluffiness. ふんわり度について説明する図である。It is a figure explaining the degree of fluffiness.

以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present technology is applied will be described in detail with reference to the drawings.

<写真シール作成装置の外観構成>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance configuration of photo sticker making device>
1 and 2 are perspective views showing a configuration example of the appearance of the photo sticker making device 1.

写真シール作成装置1は、撮影や編集等に関わる作業を利用者にゲームとして行わせ、そのゲームにより得られた画像を利用者に提供するゲーム機である。画像の提供は、シール紙に画像を印刷することで行われるだけでなく、サーバに送信した画像を利用者の携帯端末上で閲覧可能にすることで行われることもある。写真シール作成装置1はゲームセンターなどの店舗に設置される。 The photo sticker creating device 1 is a game machine that allows a user to perform work related to shooting, editing, and the like as a game, and provides the user with an image obtained by the game. The image is provided not only by printing the image on the sticker paper, but also by making the image transmitted to the server viewable on the user's mobile terminal. The photo sticker creating device 1 is installed in a store such as a game center.

写真シール作成装置1は、利用者に行わせるゲームとして、まず、利用者を被写体とした撮影を行う。次に、写真シール作成装置1は、利用者の操作に応じて、撮影によって得られた撮影画像に手書きの文字やスタンプ画像などの合成用画像を合成させるなどして、撮影画像を彩り豊かな画像に編集する。そして、写真シール作成装置1は、編集済みの撮影画像である編集画像をシール紙に印刷して、そのシール紙を写真シールとして出力することで一連のゲームを終了させる。写真シール作成装置1の利用者は、主に、2人、3人等の複数人からなるグループであるが、利用者は1人であってもよい。 The photo sticker creating device 1 first takes a picture of the user as a subject as a game to be played by the user. Next, the photo sticker creating device 1 makes the photographed image colorful by, for example, synthesizing a composite image such as handwritten characters or a stamp image with the photographed image obtained by the photographing according to the operation of the user. Edit to image. Then, the photo sticker creating device 1 prints an edited image, which is an edited photographed image, on a sticker paper and outputs the sticker paper as a photo sticker to end a series of games. The user of the photo sticker making device 1 is mainly a group consisting of a plurality of people such as two people and three people, but the user may be one person.

写真シール作成装置1は、基本的に、人が中に入ることができる程度の大きさを有する箱形状の撮影装置11と、編集装置12が接した状態で設置されることによって構成される。撮影装置11と編集装置12は電気的に接続される。 The photo sticker creating device 1 is basically configured by installing a box-shaped photographing device 11 having a size large enough for a person to enter and an editing device 12 in contact with each other. The photographing device 11 and the editing device 12 are electrically connected.

撮影装置11は、撮影部21と背景部22から構成される。撮影部21と背景部22とは離れて設置され、撮影部21と背景部22の間に設けられる空間が、撮影が行われる撮影空間となる。 The photographing device 11 is composed of a photographing unit 21 and a background unit 22. The space where the photographing unit 21 and the background unit 22 are installed apart from each other, and the space provided between the photographing unit 21 and the background unit 22 is a shooting space where shooting is performed.

撮影部21は、利用者を被写体として撮影を行うための装置である。撮影空間に臨む撮影部21の正面にはカメラやタッチパネルモニタなどが設けられる。撮影部21の、編集装置12と接する面には正面パネル21Aが設けられる(図2)。撮影空間にいて正面を向いている利用者から見て右側の面を右側面、左側の面を左側面とすると、撮影部21の右側面が側面パネル21Bにより構成され、左側面が側面パネル21C(図3)により構成される。 The photographing unit 21 is a device for taking a picture with the user as a subject. A camera, a touch panel monitor, and the like are provided in front of the photographing unit 21 facing the photographing space. A front panel 21A is provided on the surface of the photographing unit 21 in contact with the editing device 12 (FIG. 2). Assuming that the right side of the shooting space is the right side and the left side is the left side when viewed from the user facing the front, the right side of the shooting unit 21 is composed of the side panel 21B, and the left side is the side panel 21C. (Fig. 3).

背景部22は、背面パネル22A、側面パネル22B、および側面パネル22C(図3)から構成される。背面パネル22Aは、正面を向いて撮影を行っている利用者の背面側に位置する板状の部材である。側面パネル22Bは、背面パネル22Aの右端に取り付けられる板状の部材である。側面パネル22Cは、背面パネル22Aの左端に取り付けられる板状の部材である。 The background portion 22 is composed of a back panel 22A, a side panel 22B, and a side panel 22C (FIG. 3). The back panel 22A is a plate-shaped member located on the back side of a user who is facing the front and taking a picture. The side panel 22B is a plate-shaped member attached to the right end of the back panel 22A. The side panel 22C is a plate-shaped member attached to the left end of the back panel 22A.

撮影部21の右側面を構成する側面パネル21Bと背景部22の側面パネル22Bは、所定の間隔をあけてほぼ同一平面に設けられる。側面パネル21Bと側面パネル22Bは、それらの上部において、天井部23の右側面を形成する横長の板状の部材である連結部23Bによって連結され、それらの下部において、床面に設けた例えば金属製の部材である連結部24Aによって連結される。撮影部21の左側面を構成する側面パネル21Cと背景部22の側面パネル22Cも同様に、ほぼ同一平面に設けられ、それらの上部において、天井部23の左側面を形成する連結部23C(図5)によって連結され、それらの下部において、床面に設けた例えば金属製の部材である連結部24B(図示せず)によって連結される。 The side panel 21B forming the right side surface of the photographing unit 21 and the side panel 22B of the background unit 22 are provided on substantially the same plane with a predetermined interval. The side panels 21B and the side panels 22B are connected by a connecting portion 23B which is a horizontally long plate-shaped member forming the right side surface of the ceiling portion 23 at the upper portion thereof, and at the lower portion thereof, for example, a metal provided on the floor surface. It is connected by a connecting portion 24A which is a member made of. Similarly, the side panel 21C forming the left side surface of the photographing portion 21 and the side panel 22C of the background portion 22 are provided on substantially the same plane, and the connecting portion 23C forming the left side surface of the ceiling portion 23 above them (FIG. It is connected by 5), and below them, it is connected by a connecting portion 24B (not shown) which is, for example, a metal member provided on the floor surface.

撮影部21の側面パネル21B、背景部22の側面パネル22B、および天井部23の連結部23Bに囲まれることによって形成される開口が撮影空間の出入口となる。また、撮影部21の側面パネル21C、背景部22の側面パネル22C、および天井部23の連結部23Cに囲まれることによって形成される開口も撮影空間の出入口となる。撮影空間の床面には床材25が設けられる。利用者が撮影空間に入り、床材25の上に立った状態で、撮影が行われる。 An opening formed by being surrounded by the side panel 21B of the photographing portion 21, the side panel 22B of the background portion 22, and the connecting portion 23B of the ceiling portion 23 serves as an entrance / exit of the photographing space. Further, an opening formed by being surrounded by the side panel 21C of the photographing portion 21, the side panel 22C of the background portion 22, and the connecting portion 23C of the ceiling portion 23 also serves as an entrance / exit of the photographing space. A floor material 25 is provided on the floor surface of the photographing space. Shooting is performed with the user entering the shooting space and standing on the floor material 25.

撮影空間の上方には、撮影空間の天井を形成する天井部23が設けられる。天井部23は、平板状の天井部材23A、連結部23B,23C、および背面部材23Dから構成される。天井部材23Aには天井ストロボユニット31が嵌め込まれる。天井ストロボユニット31は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット31の内部には、ストロボの他に蛍光灯が設けられており、撮影空間の照明としても機能する。 Above the shooting space, a ceiling portion 23 forming the ceiling of the shooting space is provided. The ceiling portion 23 is composed of a flat ceiling member 23A, connecting portions 23B and 23C, and a back surface member 23D. The ceiling strobe unit 31 is fitted into the ceiling member 23A. The ceiling strobe unit 31 has a built-in strobe that irradiates light into the shooting space in accordance with shooting. In addition to the strobe, a fluorescent lamp is provided inside the ceiling strobe unit 31, which also functions as lighting for the shooting space.

側面パネル21Bには、ほぼ扁平で縦長直方体状の事前選択部32が設けられる。事前選択部32は、写真シール作成装置1が提供するゲームの紹介を行ったり、撮影前の各種の選択を利用者に行わせたりする。 The side panel 21B is provided with a substantially flat and vertically long rectangular parallelepiped preselection portion 32. The pre-selection unit 32 introduces the game provided by the photo sticker creating device 1 and allows the user to make various selections before shooting.

編集装置12は、一方の側面が撮影部21の正面パネル21Aに接するように撮影装置11に連結して設けられる。編集装置12は、撮影画像の編集を行うための装置である。編集装置12には、編集時に利用者により用いられるタブレット内蔵モニタなどが設けられる。 The editing device 12 is provided in connection with the photographing device 11 so that one side surface is in contact with the front panel 21A of the photographing unit 21. The editing device 12 is a device for editing a captured image. The editing device 12 is provided with a tablet built-in monitor or the like used by the user during editing.

図2に示す編集装置12の構成を正面側の構成とすると、編集装置12の正面側と背面側には、編集時に利用者により用いられる構成がそれぞれ設けられる。これにより、2組の利用者が同時に編集作業を行うことができる。 Assuming that the configuration of the editing device 12 shown in FIG. 2 is the configuration on the front side, configurations used by the user at the time of editing are provided on the front side and the back side of the editing device 12, respectively. As a result, two sets of users can perform editing work at the same time.

図2に示すように、編集装置12の正面側は、床面に対して垂直な面であり、側面パネル21Bとほぼ平行な面である面12Aと、面12Aの上方に形成された斜面12Bから構成される。斜面12Bには、利用者の編集作業に用いられる構成が設けられる。 As shown in FIG. 2, the front side of the editing device 12 is a surface perpendicular to the floor surface, a surface 12A that is substantially parallel to the side panel 21B, and a slope 12B formed above the surface 12A. Consists of. The slope 12B is provided with a configuration used for the editing work of the user.

斜面12Bの上方右端には、照明装置43の一端を支持する柱状の支持部41が設けられ、上方左端には、照明装置43の他端を支持する柱状の支持部42が設けられる。支持部42の右側には、編集装置12の側面12Cの一部を構成する板状のパネル44が設けられる。パネル44の上面にはカーテンレール26を支持する支持部75が設けられる。 A columnar support portion 41 that supports one end of the lighting device 43 is provided at the upper right end of the slope 12B, and a columnar support portion 42 that supports the other end of the lighting device 43 is provided at the upper left end. On the right side of the support portion 42, a plate-shaped panel 44 forming a part of the side surface 12C of the editing device 12 is provided. A support portion 75 for supporting the curtain rail 26 is provided on the upper surface of the panel 44.

編集装置12の側面12Cには、編集後の各種の選択を利用者に行わせるためのタッチパネルモニタや、印刷済みのシール紙(写真シール)が排出されるシール紙排出口が設けられる。編集装置12の側面12C前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。 The side surface 12C of the editing device 12 is provided with a touch panel monitor for allowing the user to make various selections after editing, and a sticker paper ejection port for discharging the printed sticker paper (photo sticker). The space in front of the side surface 12C of the editing device 12 becomes a printing waiting space for the user to wait for the printed sticker paper to be ejected.

編集装置12の上方にはカーテンレール61が取り付けられる。カーテンレール61は、3本のレール61A乃至61Cが、上から見たときの形状がコの字状となるように組み合わされて構成される。平行に設けられるレール61Aとレール61Bの一端は、天井部23にそれぞれ固定され、レール61Aとレール61Bの他端は、レール61Cの両端にそれぞれ接合される。 A curtain rail 61 is attached above the editing device 12. The curtain rail 61 is formed by combining three rails 61A to 61C so that the shape when viewed from above is U-shaped. One ends of the rail 61A and the rail 61B provided in parallel are fixed to the ceiling portion 23, respectively, and the other ends of the rail 61A and the rail 61B are joined to both ends of the rail 61C, respectively.

カーテンレール61には、編集装置12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。カーテンレール61に取り付けられたカーテンにより囲まれる編集装置12の正面前方の空間と背面前方の空間が、利用者が撮影画像に対する編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 61 so that the space in front of the front and the space in front of the back of the editing device 12 cannot be seen from the outside. The space in front of the front and the space in front of the back of the editing device 12 surrounded by the curtain attached to the curtain rail 61 are the editing spaces in which the user edits the captured image.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the movement of the user accompanying it will be described.

図3は、写真シール作成装置1を上から見た平面図である。 FIG. 3 is a plan view of the photo sticker creating device 1 as viewed from above.

事前選択部32前方の空間である事前選択空間A0において代金を投入した利用者は、タッチパネルモニタに表示される画面に従って各種の選択を行う。例えば、撮影に関するコースの選択や撮影画像の背景の選択が行われる。 The user who has paid for the pre-selection space A0, which is the space in front of the pre-selection unit 32, makes various selections according to the screen displayed on the touch panel monitor. For example, a course related to shooting and a background of a shot image are selected.

事前選択部32を用いた選択作業を終えた利用者は、白抜き矢印#1で示すように出入口G1から撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 The user who has completed the selection work using the preselection unit 32 enters the shooting space A1 from the entrance / exit G1 as indicated by the white arrow # 1, and shoots using the camera or touch panel monitor provided in the shooting unit 21. Do the work.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#3で示すように出入口G2を使って撮影空間A1から出て編集空間A2−2に移動する。 The user who has completed the shooting work either exits the shooting space A1 and moves to the editing space A2-1 using the doorway G1 as shown by the white arrow # 2, or the doorway G2 as shown by the white arrow # 3. Exit the shooting space A1 and move to the editing space A2-2 using.

編集空間A2−1は、編集装置12の正面側の編集空間であり、編集空間A2−2は、編集装置12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に利用者が移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。 The editing space A2-1 is an editing space on the front side of the editing device 12, and the editing space A2-2 is an editing space on the back side of the editing device 12. Which space, the editing space A2-1 or the editing space A2-2, the user moves to is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the vacant space of the two editing spaces is guided as the destination.

編集空間A2−1または編集空間A2−2に移動した利用者は、撮影画像の編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。 The user who has moved to the editing space A2-1 or the editing space A2-2 starts the editing work of the captured image. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。編集画像の印刷中、編集空間A2−1での編集を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動し、印刷が終わるのを待つ。編集空間A2−2での編集を終えた利用者も同様に、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動し、印刷が終わるのを待つ。このとき、利用者は、編集装置12の側面12Cに設けられたタッチパネルモニタに表示される画面に従って各種の選択を行いながら、印刷が終わるのを待つ。例えば、利用者の携帯端末に送信される画像の選択や、利用者の携帯端末のメールアドレスの入力が行われる。 After the editing work is completed, printing of the edited image is started. While printing the edited image, the user who has finished editing in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as shown by the white arrow # 4, and waits for the printing to finish. .. Similarly, the user who has finished editing in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 5, and waits for the printing to finish. At this time, the user waits for the printing to finish while making various selections according to the screen displayed on the touch panel monitor provided on the side surface 12C of the editing device 12. For example, an image to be transmitted to the user's mobile terminal is selected, and an e-mail address of the user's mobile terminal is input.

画像の印刷が終了したとき、利用者は、編集装置12の側面12Cに設けられたシール紙排出口からシール紙(写真シール)を受け取り、一連の写真シール作成ゲームを終える。 When the printing of the image is completed, the user receives the sticker paper (photo sticker) from the sticker paper discharge port provided on the side surface 12C of the editing device 12, and ends a series of photo sticker creation games.

<事前選択部の構成>
図4は、事前選択部32の構成例を示す正面図である。
<Structure of preselection unit>
FIG. 4 is a front view showing a configuration example of the preselection unit 32.

事前選択部32の上方には、垂直に近い急峻な斜面32Aが形成されている。斜面32Aにはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71には、コース選択や背景選択などの事前選択に用いられる画面が表示される。 A steep slope 32A that is almost vertical is formed above the preselection unit 32. A touch panel monitor 71 is provided on the slope 32A. The touch panel monitor 71 is composed of a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated on the monitor. The touch panel monitor 71 displays a screen used for preselection such as course selection and background selection.

斜面32Aの下の垂直面32Bの上方には、事前選択の案内音声やBGM(Back Ground Music)などを出力するスピーカ72と、利用者が硬貨を入れる硬貨投入口73が設けられる。 Above the vertical surface 32B below the slope 32A, a speaker 72 for outputting preselected guidance voice and BGM (Back Ground Music) and the like, and a coin insertion slot 73 for a user to insert coins are provided.

<撮影部の構成>
図5は、撮影部21の正面の構成例を示す斜視図である。
<Structure of shooting section>
FIG. 5 is a perspective view showing a configuration example of the front surface of the photographing unit 21.

撮影部21は、正面パネル21A、側面パネル21B、および側面パネル21Cが、箱状の形状を有するベース部21Dに取り付けられることによって構成される。 The photographing unit 21 is configured by attaching the front panel 21A, the side panel 21B, and the side panel 21C to the base portion 21D having a box shape.

正面パネル21Aのほぼ中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91およびタッチパネルモニタ92から構成される。 A camera unit 81 is provided substantially in the center of the front panel 21A. The camera unit 81 includes a camera 91 and a touch panel monitor 92.

カメラ91は、例えば一眼レフカメラであり、レンズ部分が露出するようにカメラユニット81の内部に取り付けられる。カメラ91はCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。 The camera 91 is, for example, a single-lens reflex camera, and is mounted inside the camera unit 81 so that the lens portion is exposed. The camera 91 has an image sensor such as a CCD (Charge Coupled Device) image sensor and a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the photographing space A1. The moving image captured by the camera 91 (hereinafter, also referred to as a live view image) is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing such as when a user instructs to shoot is saved as a shot image.

カメラ91の下に設けられたタッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の操作入力を受け付ける機能を備えている。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。 The touch panel monitor 92 provided under the camera 91 is composed of a monitor such as an LCD and a touch panel laminated on the monitor. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91, and a function that displays various GUIs and accepts user's operation input. A moving image (live view image) or a still image (photographed image) captured by the camera 91 is displayed on the touch panel monitor 92.

本実施の形態において、カメラ91は、顔を中心として、利用者のほぼ胸から上の範囲(上半身)が写る画像であるアップ画像を得るためのアップ撮影のみを行うものとする。ただし、カメラ91が、アップ撮影に加えて、利用者の全身が写る画像である全身画像を得るための全身撮影を行うようにしてもよい。 In the present embodiment, the camera 91 only performs close-up photography to obtain a close-up image which is an image in which a range (upper body) substantially above the chest of the user is captured, centering on the face. However, in addition to the close-up shooting, the camera 91 may perform full-body shooting to obtain a full-body image which is an image of the whole body of the user.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、上方から利用者の顔および上半身を照射する。さらに、ベース部21Dには、下ストロボ83が設けられる。下ストロボ83は、利用者の下半身および足元を照射する。 Above the camera unit 81, an upper strobe 82 with a curved light emitting surface facing the user is installed. The upper strobe 82 irradiates the user's face and upper body from above. Further, the base portion 21D is provided with a lower strobe 83. The lower strobe 83 irradiates the lower body and feet of the user.

ベース部21Dにおいて、下ストロボ83の左右両側の上面は、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。また、図示はしないが、正面パネル21Aの例えば天井付近には、撮影処理の案内音声、BGM、効果音などの音を出力するスピーカも設けられる。 In the base portion 21D, the upper surfaces on the left and right sides of the lower strobe 83 are used as a luggage storage place for the user performing the shooting work to put the baggage and the like. Further, although not shown, a speaker for outputting sounds such as guidance voice, BGM, and sound effect of shooting processing is also provided near the ceiling of the front panel 21A, for example.

<背景部の構成>
図6は、背景部22の構成例を示す図である。
<Structure of background part>
FIG. 6 is a diagram showing a configuration example of the background portion 22.

カメラ91側から背景部22を見た場合、カメラ91の光軸方向に背面パネル22Aがある。背面パネル22Aの左端には側面パネル22Bが設けられ、右端には側面パネル22Cが設けられる。 When the background portion 22 is viewed from the camera 91 side, the back panel 22A is located in the optical axis direction of the camera 91. A side panel 22B is provided at the left end of the back panel 22A, and a side panel 22C is provided at the right end.

背面パネル22Aの上には天井部23の背面部材23Dが設けられ、その手前(撮影部21側)の天井部材23Aには、撮影空間A1内で撮影を行っている利用者を後方中央上から照射する背面中央ストロボ111が取り付けられる。天井部材23Aにおいて、背面中央ストロボ111のより手前には天井ストロボユニット31(図示せず)が設けられる。 A back member 23D of the ceiling portion 23 is provided on the back panel 22A, and a user who is shooting in the shooting space A1 is placed on the ceiling member 23A in front of the ceiling member 23D from above the rear center. A rear center strobe 111 to irradiate is attached. In the ceiling member 23A, a ceiling strobe unit 31 (not shown) is provided in front of the rear center strobe 111.

側面パネル22Bの上方の連結部23Bの位置には、背面パネル22Aの前に立って撮影を行っている利用者を後方右斜め上から照射する背面ストロボ112が取り付けられ、側面パネル22Cの上方の連結部23Cの位置には、利用者を後方左斜め上から照射する背面ストロボ113が取り付けられる。 At the position of the connecting portion 23B above the side panel 22B, a rear strobe 112 that irradiates the user standing in front of the rear panel 22A and taking a picture from diagonally above the rear right is attached, and is above the side panel 22C. At the position of the connecting portion 23C, a rear strobe 113 that irradiates the user from diagonally above the rear left is attached.

なお、背面パネル22A、側面パネル22B、および側面パネル22Cの撮影空間A1の面は、クロマキー処理に用いられる色(例えば緑色)に色付けされている。 The surfaces of the back panel 22A, the side panel 22B, and the side panel 22C in the photographing space A1 are colored in a color (for example, green) used for chroma key processing.

<編集装置の構成>
図7は、編集装置12の正面側(編集空間A2−1側)の構成例を示す図である。
<Configuration of editing device>
FIG. 7 is a diagram showing a configuration example of the front side (editing space A2-1 side) of the editing device 12.

斜面12Bのほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。 A tablet built-in monitor 131 is provided substantially in the center of the slope 12B. A touch pen 132A is provided on the left side and a touch pen 132B is provided on the right side of the tablet built-in monitor 131.

タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば編集画面が表示される。編集画面は、撮影画像の編集に用いられる画面である。2人で同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 The tablet built-in monitor 131 is configured by providing a tablet capable of inputting operations using a touch pen 132A or 132B superimposed on a monitor such as an LCD. For example, an edit screen is displayed on the tablet built-in monitor 131. The edit screen is a screen used for editing a captured image. When two people perform editing work at the same time, the touch pen 132A is used by the user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side of the tablet built-in monitor 131.

図8は、編集装置12の側面12Cの構成例を示す図である。 FIG. 8 is a diagram showing a configuration example of the side surface 12C of the editing device 12.

編集装置12の側面12Cにはタッチパネルモニタ151が設けられる。タッチパネルモニタ151には、印刷待ち時間に、利用者の携帯端末に送信する画像の選択や、利用者の携帯端末のメールアドレスの入力などの事後選択に用いられる画面が表示される。 A touch panel monitor 151 is provided on the side surface 12C of the editing device 12. The touch panel monitor 151 displays a screen used for post-selection such as selection of an image to be transmitted to the user's mobile terminal and input of an e-mail address of the user's mobile terminal during the printing waiting time.

タッチパネルモニタ151の下にはシール紙排出口152が設けられる。編集装置12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口162から排出される。シール紙排出口152の下には、事後選択に関する案内音声、BGM、効果音等などを出力するスピーカ153が設けられる。
れる。
A sticker paper discharge port 152 is provided under the touch panel monitor 151. A printer is provided inside the editing device 12. The printer prints an image of the user of the editing space A2-1 or an image of the user of the editing space A2-2 on the sticker paper in a predetermined layout and discharges the image from the sticker paper ejection port 162. Below the sticker paper discharge port 152, a speaker 153 that outputs guidance voice, BGM, sound effect, etc. regarding post-selection is provided.
Is done.

<写真シール作成装置の内部構成>
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker making device>
FIG. 9 is a block diagram showing an example of the internal configuration of the photo sticker creating device 1. The same reference numerals are given to the same configurations as those described above. Duplicate explanations will be omitted as appropriate.

制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前選択部208、撮影部209、編集部210A,210B、および印刷部211の各構成も接続される。 The control unit 201 includes a CPU (Central Processing Unit) and the like, executes a program stored in the ROM (Read Only Memory) 206 and the storage unit 202, and controls the overall operation of the photo sticker creation device 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. Each configuration of the preselection unit 208, the photographing unit 209, the editing units 210A and 210B, and the printing unit 211 is also connected to the control unit 201.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。 The storage unit 202 is composed of a non-volatile storage medium such as a hard disk or a flash memory, and stores various setting information and the like supplied from the control unit 201. The information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。 The communication unit 203 is an interface of a network such as the Internet, and communicates with an external device according to the control by the control unit 201. The communication unit 203 transmits, for example, the edited image selected by the user to the server. The image transmitted from the communication unit 203 is allocated and stored in a predetermined storage area in the server, and is displayed or downloaded to the mobile terminal that has accessed the server.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶
されたり、インストールされたりする。
A removable media 205 made of an optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 204. The computer program or data read from the removable media 205 by the drive 204 is supplied to the control unit 201, and is stored or installed in the storage unit 202.

ROM206には、制御部201において実行されるプログラムやデータが記憶される。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。 The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

事前選択部208は、事前選択空間A0にいる利用者を対象とした事前選択処理を実行する。事前選択部208は、タッチパネルモニタ71、スピーカ72、および硬貨処理部221から構成される。 The preselection unit 208 executes a preselection process for the user in the preselection space A0. The preselection unit 208 includes a touch panel monitor 71, a speaker 72, and a coin processing unit 221.

タッチパネルモニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の選択処理が行われる。 The touch panel monitor 71 displays various selection screens according to the control by the control unit 201, and accepts the user's operation on the selection screen. An input signal representing the content of the user's operation is supplied to the control unit 201, and various selection processes are performed.

硬貨処理部221は、硬貨投入口73に対する硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。 The coin processing unit 221 detects the insertion of coins into the coin insertion slot 73. When the coin processing unit 221 detects that a predetermined amount of coins such as 400 yen has been inserted, the coin processing unit 221 outputs an activation signal indicating that fact to the control unit 201.

撮影部209は、撮影空間A1にいる利用者を対象とした撮影処理を実行する。撮影部209は、照明装置231、カメラ91、タッチパネルモニタ92、およびスピーカ232から構成される。 The shooting unit 209 executes a shooting process for the user in the shooting space A1. The photographing unit 209 includes a lighting device 231, a camera 91, a touch panel monitor 92, and a speaker 232.

照明装置231は、撮影空間A1内に設けられた各ストロボの発光を制御部201から供給される照明制御信号に従って制御する。 The lighting device 231 controls the light emission of each strobe provided in the photographing space A1 according to the lighting control signal supplied from the control unit 201.

カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像(画像データ)を制御部201に出力する。 The camera 91 shoots under the control of the control unit 201, and outputs the image (image data) obtained by the shooting to the control unit 201.

編集部210Aは、編集空間A2−1にいる利用者を対象とした編集処理を実行する。編集部210Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ241から構成される。編集部210Bは、編集部210Aと同一の構成を有しており、編集空間A2−2にいる利用者を対象とした編集処理を行う。 The editorial unit 210A executes an editing process for the user in the editing space A2-1. The editorial unit 210A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 241. The editorial unit 210B has the same configuration as the editorial unit 210A, and performs editing processing for the user in the editing space A2-2.

タブレット内蔵モニタ131は、例えば、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像の編集が行われる。 The tablet built-in monitor 131 displays the edit screen according to the control by the control unit 201, and accepts the user's operation on the edit screen. An input signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

印刷部211は、編集画像の印刷処理を実行するとともに、印刷待ち空間A3にいる利用者を対象とした事後選択処理を実行する。事後選択処理は、事後選択を利用者に行わせ、事後選択により選択された画像を、利用者の携帯端末に送信するための処理である。印刷部211は、タッチパネルモニタ151、スピーカ153、およびプリンタ251から構成される。プリンタ251には、ロール状のシール紙261を含むシール紙ユニット252が装着される。 The printing unit 211 executes the printing process of the edited image and also executes the post-selection process for the user in the print waiting space A3. The post-selection process is a process for causing the user to perform the post-selection and transmitting the image selected by the post-selection to the user's mobile terminal. The printing unit 211 includes a touch panel monitor 151, a speaker 153, and a printer 251. A sticker paper unit 252 including a roll-shaped sticker paper 261 is mounted on the printer 251.

プリンタ251は、制御部201から供給された印刷データに基づいて編集画像をシール紙261に印刷する。制御部201からプリンタ251に対しては、各画像が所定のレイアウトで配置されたイメージデータが印刷データとして供給される。プリンタ251は、編集画像が印刷されたシール紙261の部分を切り取り、シール紙排出口152に排出する。 The printer 251 prints the edited image on the sticker paper 261 based on the print data supplied from the control unit 201. Image data in which each image is arranged in a predetermined layout is supplied as print data from the control unit 201 to the printer 251. The printer 251 cuts out a portion of the sticker paper 261 on which the edited image is printed and discharges it to the sticker paper discharge port 152.

<制御部の構成>
図10は、図9の制御部201の機能構成例を示すブロック図である。図10に示す機能部のうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
<Structure of control unit>
FIG. 10 is a block diagram showing a functional configuration example of the control unit 201 of FIG. At least a part of the functional units shown in FIG. 10 is realized by executing a predetermined program by the CPU in the control unit 201.

制御部201においては、事前選択処理部301、撮影処理部302、編集処理部30
3、印刷処理部304、および事後選択処理部305が実現される。
In the control unit 201, the preselection processing unit 301, the shooting processing unit 302, and the editing processing unit 30
3. The print processing unit 304 and the post-selection processing unit 305 are realized.

事前選択処理部301は、事前選択部208の各部を制御し、事前選択処理を行う。撮影処理部302は、撮影部209の各部を制御し、撮影処理を行う。編集処理部303は、編集部210A,210Bの各部を制御し、編集処理を行う。印刷処理部304は、印刷部211のプリンタ251を制御し、印刷処理を行う。事後選択処理部305は、印刷部211のタッチパネルモニタ151およびスピーカ153を制御し、事後選択処理を行う。 The preselection processing unit 301 controls each unit of the preselection unit 208 and performs the preselection processing. The shooting processing unit 302 controls each part of the shooting unit 209 to perform shooting processing. The editing processing unit 303 controls each unit of the editing units 210A and 210B to perform editing processing. The print processing unit 304 controls the printer 251 of the printing unit 211 to perform printing processing. The post-selection processing unit 305 controls the touch panel monitor 151 and the speaker 153 of the printing unit 211 to perform post-selection processing.

<編集処理部の構成例>
図11は、編集処理部303の構成例を示すブロック図である。
<Structure example of editing processing unit>
FIG. 11 is a block diagram showing a configuration example of the editing processing unit 303.

編集処理部303は、表示制御部331、編集制御部332、識別部333、および画像処理部334から構成される。 The editing processing unit 303 is composed of a display control unit 331, an editing control unit 332, an identification unit 333, and an image processing unit 334.

表示制御部331は、タブレット内蔵モニタ131の表示を制御する。例えば、表示制御部331は、タブレット内蔵モニタ131に、撮影画像に施される画像処理の内容を選択するための選択画面や、撮影画像を対象とした編集作業のための編集画面を表示させる。 The display control unit 331 controls the display of the tablet built-in monitor 131. For example, the display control unit 331 causes the tablet built-in monitor 131 to display a selection screen for selecting the content of image processing applied to the captured image and an editing screen for editing work on the captured image.

編集制御部332は、編集画面に対する利用者の操作に応じて、撮影画像に編集を施す。具体的には、編集制御部332は、編集画面において利用者により選択された合成用画像を、撮影画像の所定の位置に合成する。 The editing control unit 332 edits the captured image according to the user's operation on the editing screen. Specifically, the editing control unit 332 synthesizes the compositing image selected by the user on the editing screen at a predetermined position of the captured image.

識別部333は、撮影処理部302が行うレタッチ撮影により得られるレタッチ用画像において人物を識別する。レタッチ撮影の詳細は後述する。 The identification unit 333 identifies a person in a retouching image obtained by retouching photography performed by the photographing processing unit 302. Details of retouch shooting will be described later.

画像処理部334は、タブレット内蔵モニタ131に表示される、撮影画像に施される画像処理の度合いを選択するための選択画面に対する選択操作に基づいて、選択された度合いの画像処理を撮影画像に施す。 The image processing unit 334 converts the image processing of the selected degree into the captured image based on the selection operation on the selection screen for selecting the degree of image processing applied to the captured image displayed on the tablet built-in monitor 131. Give.

<画像処理の具体例>
ここで、画像処理部334によって撮影画像に施される画像処理について説明する。
<Specific example of image processing>
Here, the image processing performed on the captured image by the image processing unit 334 will be described.

例えば、画像処理部334は、撮影画像に写る利用者の顔領域に対して、盛れ感を与える画像処理を施す。「盛れ感」とは、顔の大きさや形状(輪郭)などを変えることで顔の見た目の印象が誇張された(良く見える)様子を表す。具体的には、画像処理部334は、撮影画像における顔領域の輪郭点を抽出し、抽出された輪郭点を顔領域の中心点に向かって移動させることで、顔の大きさを小さくする(小顔にする)。また、画像処理部334は、輪郭点の移動量と移動方向によって、顔の形状を変化させることもできる。 For example, the image processing unit 334 performs image processing that gives a feeling of swelling to the user's face area reflected in the captured image. The "feeling of swelling" expresses how the appearance of the face is exaggerated (looks good) by changing the size and shape (contour) of the face. Specifically, the image processing unit 334 extracts the contour points of the face region in the captured image and moves the extracted contour points toward the center point of the face region to reduce the size of the face (). Make a small face). The image processing unit 334 can also change the shape of the face depending on the amount of movement and the direction of movement of the contour points.

また、画像処理部334は、撮影画像に写る利用者の目領域に対して、目の形を変える画像処理を施す。具体的には、画像処理部334は、撮影画像における目領域の輪郭点を抽出し、抽出された輪郭点を所定方向に所定距離だけ移動させるように、輪郭点近傍の複数の領域について、局所的に拡大、縮小、および移動のいずれかをすることで、目の形を変える。 In addition, the image processing unit 334 performs image processing for changing the shape of the eyes on the user's eye area reflected in the captured image. Specifically, the image processing unit 334 extracts the contour points of the eye region in the captured image, and localizes a plurality of regions near the contour points so as to move the extracted contour points in a predetermined direction by a predetermined distance. Change the shape of the eye by either enlarging, reducing, or moving.

さらに、画像処理部334は、撮影画像に写る利用者の目領域の中の瞳(黒目)領域に対して、目の輝きを変える画像処理を施す。具体的には、画像処理部334は、撮影画像における目領域の輪郭点を抽出し、抽出された輪郭点に囲まれる領域内で、色検出により黒色の領域を検出することで瞳領域を特定する。そして、画像処理部334は、瞳領域において輝度の高い領域を拡大したり、輝度をより高くする処理を施す。これにより、目の瞳(黒目)に写り込んだキャッチライトの大きさや明るさが変わり、目の輝きが変化したように見せることができる。 Further, the image processing unit 334 performs image processing for changing the brightness of the eyes on the pupil (black eye) region in the user's eye region reflected in the captured image. Specifically, the image processing unit 334 extracts the contour points of the eye region in the captured image, and identifies the pupil region by detecting the black region by color detection in the region surrounded by the extracted contour points. To do. Then, the image processing unit 334 performs a process of enlarging a region having high brightness in the pupil region or increasing the brightness. As a result, the size and brightness of the catch light reflected in the eyes (black eyes) can be changed, and the brightness of the eyes can be made to appear as changed.

さらにまた、画像処理部334は、撮影画像全体に所定のぼかし具合のぼかし処理を施す。ここでは、各種のぼかしフィルタが用いられるようにすることができる。なお、ぼかし処理は、撮影画像全体でなく、撮影画像における人物領域のみや、顔領域のみに施されるようにしてもよい。 Furthermore, the image processing unit 334 performs a blurring process of a predetermined degree of blurring on the entire captured image. Here, various blur filters can be used. The blurring process may be applied not only to the entire captured image but only to the person region or the face region in the captured image.

<写真シール作成装置の動作>
次に、図12のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。図12の処理は、所定の金額分の硬貨が事前選択部32の硬貨投入口73に投入されたときに開始される。
<Operation of photo sticker making device>
Next, the operation of the photo sticker creation device 1 that provides the photo sticker creation game will be described with reference to the flowchart of FIG. The process of FIG. 12 is started when a predetermined amount of coins is inserted into the coin insertion slot 73 of the preselection unit 32.

ステップS1において、事前選択処理部301は、撮影前の各種の選択を行う処理である事前選択処理を行う。 In step S1, the preselection processing unit 301 performs a preselection process, which is a process of performing various selections before shooting.

ステップS2において、撮影処理部302は、事前選択処理での選択内容に従って撮影処理を行う。撮影処理においては、所定回数のアップ撮影が行われる。 In step S2, the shooting processing unit 302 performs the shooting process according to the selection contents in the preselection process. In the shooting process, a predetermined number of close-up shots are performed.

ステップS3において、編集処理部303は編集処理を行う。編集処理においては、撮影画像の編集が行われる。 In step S3, the editing processing unit 303 performs editing processing. In the editing process, the captured image is edited.

ステップS4において、印刷処理部304は印刷処理を開始する。具体的には、印刷処理部304は、利用者により選択されたレイアウトに従って編集画像を配置することによって印刷データを生成する。そして、印刷処理部304は、印刷データをプリンタ251に供給し、編集画像をシール紙に印刷させる。 In step S4, the print processing unit 304 starts the print process. Specifically, the print processing unit 304 generates print data by arranging the edited images according to the layout selected by the user. Then, the print processing unit 304 supplies the print data to the printer 251 and causes the edited image to be printed on the sticker paper.

ステップS5において、事後選択処理部305は、事後選択処理を行う。具体的には、事後選択処理部305は、印刷が終わるのを待っている利用者に事後選択を行わせ、選択された撮影画像や編集画像を利用者の携帯端末に送信するために、その画像をサーバに送信する。 In step S5, the post-selection processing unit 305 performs post-selection processing. Specifically, the post-selection processing unit 305 causes the user waiting for the printing to finish post-selection, and sends the selected photographed image or edited image to the user's mobile terminal. Send the image to the server.

印刷が終了すると、ステップS6において、編集画像が印刷されたシール紙(写真シール)がシール紙排出口152に排出される。利用者は、写真シールをシール紙排出口152から取り出して一連のゲームを終える。 When printing is completed, in step S6, the sticker paper (photo sticker) on which the edited image is printed is discharged to the sticker paper discharge port 152. The user takes out the photo sticker from the sticker paper outlet 152 and finishes a series of games.

<撮影処理>
次に、図13のフローチャートを参照して、図12のステップS2において行われる撮影処理について説明する。
<Shooting process>
Next, the photographing process performed in step S2 of FIG. 12 will be described with reference to the flowchart of FIG.

撮影処理が開始されると、レタッチ撮影の仕方を説明する画面がタッチパネルモニタ92に表示されるなどしてガイダンスが出力される。その後、ステップS31において、撮影処理部302は、人物を識別するための識別撮影としてのレタッチ撮影を行う。レタッチ撮影は、事前選択処理において行われる人数コースの選択において、1人コース、2人コース、および3人以上コースの中から、2人コースが選択された場合に行われるものとする。 When the shooting process is started, guidance is output such that a screen explaining how to perform retouch shooting is displayed on the touch panel monitor 92. After that, in step S31, the imaging processing unit 302 performs retouch imaging as identification imaging for identifying a person. Retouch photography shall be performed when a two-person course is selected from a one-person course, a two-person course, and a three-person or more-person course in the selection of the number-of-person course performed in the preselection process.

レタッチ撮影は、人物、具体的には人物の顔を識別し、さらに利用者の顔の各パーツ(目、口など)を認識するために行われる撮影である。レタッチ撮影により得られた識別用の識別画像(以下、レタッチ用画像という)は、編集処理において編集対象とされたり、印刷処理においてシール紙に印刷されることはなく、顔の識別および顔の各パーツの認識のためだけに利用される。 The retouch shooting is a shooting performed to identify a person, specifically the face of the person, and further recognize each part (eyes, mouth, etc.) of the user's face. The identification image for identification (hereinafter referred to as the image for retouch) obtained by the retouch shooting is not subject to editing in the editing process or printed on the sticker paper in the printing process, and is used for face identification and each of the faces. It is used only for recognizing parts.

このような目的から、レタッチ撮影のガイダンスでは、利用者に対して、正面を向いて撮影することを促す画面の表示や音声の出力が行われる。 For this purpose, in the retouch shooting guidance, a screen is displayed and a sound is output to encourage the user to face the front and shoot.

ガイダンスが終了すると、撮影処理部302によって、カメラ91による動画像の撮影が開始され、撮影によって得られた利用者が映る動画像が、ライブビュー表示画面に表示される。 When the guidance is completed, the shooting processing unit 302 starts shooting a moving image by the camera 91, and the moving image obtained by the shooting and showing the user is displayed on the live view display screen.

図14は、レタッチ撮影のライブビュー表示画面の例を示す図である。 FIG. 14 is a diagram showing an example of a live view display screen for retouch shooting.

ライブビュー表示画面の上部には、「最初にひとりひとりの顔を登録するよ!枠の中に入って前を向いて撮影してね!」のメッセージが表示され、その下に設けられた画像表示領域411,412には、2人の利用者それぞれが映る動画像がリアルタイムで表示される。また、画像表示領域411,412の下には、「登録した画像はシールに印刷されないよ!」のメッセージが表示される。 At the top of the live view display screen, the message "Register each person's face first! Enter the frame and shoot forward!" Is displayed, and the image display provided below it. In the areas 411 and 412, moving images showing each of the two users are displayed in real time. Further, below the image display areas 411 and 412, the message "The registered image is not printed on the sticker!" Is displayed.

カメラ91により撮影された動画像のうち、所定の範囲が切り出されて、画像表示領域411,412の表示に用いられる。2人の利用者は、画像表示領域411,412の表示を確認しながら、それぞれの顔が画像表示領域411,412に収まるように、顔の位置を調整する。これにより、得られるレタッチ用画像における識別の精度を確保することができる。 A predetermined range of the moving image captured by the camera 91 is cut out and used for displaying the image display areas 411 and 412. While checking the display of the image display areas 411 and 412, the two users adjust the positions of the faces so that their faces fit in the image display areas 411 and 412. Thereby, the accuracy of identification in the obtained retouching image can be ensured.

このようなライブビュー画像が所定の時間表示された後、撮影前のカウントダウンが開始され、撮影のタイミングになったとき、撮影処理部302は、レタッチ用画像としての静止画像を取得する撮影を行い、レタッチ撮影の撮影結果をタッチパネルモニタ92に表示させる。 After the live view image is displayed for a predetermined time, the countdown before shooting is started, and when the shooting timing comes, the shooting processing unit 302 takes a picture to acquire a still image as a retouching image. , The shooting result of the retouch shooting is displayed on the touch panel monitor 92.

図15は、レタッチ撮影の撮影結果確認画面の例を示す図である。 FIG. 15 is a diagram showing an example of a shooting result confirmation screen for retouch shooting.

図15に示される撮影結果確認画面の画像表示領域411,412には、レタッチ撮影によって得られた静止画像(レタッチ用画像)として、レタッチ用画像において識別された2人の利用者それぞれの顔の顔画像が表示される。画像表示領域411,412の下には「登録完了!」のメッセージが表示される。 In the image display areas 411 and 412 of the shooting result confirmation screen shown in FIG. 15, as still images (retouching images) obtained by retouching shooting, the faces of the two users identified in the retouching image The face image is displayed. The message "Registration completed!" Is displayed below the image display areas 411 and 412.

以上のようにして、レタッチ撮影が行われる。 As described above, the retouch shooting is performed.

以上においては、レタッチ撮影のライブビュー表示画面において、2人の利用者それぞれが個別に映る動画像が表示される画像表示領域411,412が設けられるものとしたが、図16に示されるように、2人の利用者が一緒に映る動画像が表示される1つの画像表示領域421のみが設けられるようにしてもよい。 In the above, it is assumed that the live view display screen for retouch shooting is provided with image display areas 411 and 412 in which moving images of each of the two users are displayed individually. As shown in FIG. It is also possible to provide only one image display area 421 in which a moving image in which two users are displayed together is displayed.

図16の例においては、画像表示領域421上に、2人の利用者の顔が収まるべき位置を示す枠F11,F12が表示され、2人の利用者は、枠F11,F12の表示を確認しながら、それぞれの顔が枠F11,F12に収まるように、顔の位置を調整するようになる。 In the example of FIG. 16, frames F11 and F12 indicating positions where the faces of the two users should fit are displayed on the image display area 421, and the two users confirm the display of the frames F11 and F12. At the same time, the position of the face is adjusted so that each face fits in the frames F11 and F12.

また、図16の枠F11,F12に代えて、画像表示領域421上に、2人の利用者の顔が収まるべき位置を示す矢印が表示されたり、図17に示されるように、画像表示領域421における領域R21,R22以外の領域の透過度を高めるようにしてもよい。この場合、2人の利用者は、自身の顔がよりはっきりと映る領域R21,R22内の表示を確認しながら、それぞれの顔が領域R21,R22に収まるように、顔の位置を調整するようになる。 Further, instead of the frames F11 and F12 of FIG. 16, arrows indicating the positions where the faces of the two users should be accommodated are displayed on the image display area 421, and as shown in FIG. 17, the image display area is displayed. The transparency of the region other than the regions R21 and R22 in 421 may be increased. In this case, the two users adjust the position of the face so that each face fits in the areas R21 and R22 while checking the display in the areas R21 and R22 in which their faces are more clearly reflected. become.

なお、図16の枠F11,F12や、図17の領域R21,R22の位置および大きさは、利用者の平均身長から算出され、横に並んだ状態の2人の利用者の顔が適切に収まる位置および大きさとされる。 The positions and sizes of the frames F11 and F12 in FIG. 16 and the areas R21 and R22 in FIG. 17 are calculated from the average height of the users, and the faces of the two users arranged side by side are appropriate. The position and size of the fit.

また、図16の枠F11,F12や、図17の領域R21,R22を表示せずに、得られたレタッチ用画像を所定の領域に区分して、区分された領域毎に顔を識別するようにしてもよい。例えば、利用者が2人である場合には、レタッチ用画像を左右半分の領域に区分して、区分された左右の領域それぞれにおいて、利用者それぞれの顔を識別するようにする。 Further, without displaying the frames F11 and F12 of FIG. 16 and the areas R21 and R22 of FIG. 17, the obtained retouching image is divided into predetermined areas, and the face is identified for each of the divided areas. It may be. For example, when there are two users, the retouching image is divided into left and right halves, and each user's face is identified in each of the left and right divided areas.

なお、レタッチ用画像は、編集処理において編集対象とされたり、印刷処理においてシール紙に印刷されることはないものとしたが、編集処理において編集対象とされたり、印刷処理においてシール紙に印刷されるようにしてもよい。 The retouching image is not subject to editing in the editing process or printed on the sticker paper in the printing process, but is targeted for editing in the editing process or printed on the sticker paper in the printing process. You may try to do so.

また、レタッチ撮影は、人数コースとして2人コースが選択された場合に行われるものとしたが、3人以上コースが選択された場合に行われるようにしてもよい。この場合、図16または図17に示されるような、画像表示領域が1つのみのライブビュー表示画面が表示されるものとし、顔の識別は、所定の2人分の顔のみについて行われるものとする。なお、顔の識別は、2人分の顔のみに限らず、3人以上の全員の顔について行われるようにしてもよい。 Further, although the retouch shooting is performed when the two-person course is selected as the number-person course, it may be performed when the three-person or more-person course is selected. In this case, it is assumed that the live view display screen having only one image display area as shown in FIG. 16 or FIG. 17 is displayed, and the face identification is performed only for the faces of two predetermined persons. And. The face identification is not limited to the faces of two people, and may be performed on the faces of all three or more people.

さて、レタッチ撮影が終了すると、撮影の仕方を説明する画面がタッチパネルモニタ92に表示されるなどしてガイダンスが出力される。その後、ライブビュー表示画面がタッチパネルモニタ92に表示される。 When the retouch shooting is completed, guidance is output such that a screen explaining how to shoot is displayed on the touch panel monitor 92. After that, the live view display screen is displayed on the touch panel monitor 92.

その状態で撮影のタイミングになったとき、ステップS32において、撮影処理部302は、1回目の撮影を行う。撮影によって得られた撮影画像は、撮影結果としてタッチパネルモニタ92に表示される。利用者は、1回目の撮影結果を確認しながら、次の撮影の準備を行うことができる。 When it is time to shoot in that state, in step S32, the shooting processing unit 302 performs the first shooting. The captured image obtained by photographing is displayed on the touch panel monitor 92 as a photographing result. The user can prepare for the next shooting while checking the result of the first shooting.

そして、2回目以降の撮影が行われる。すなわち、2回目の撮影タイミングになったとき、ステップS33において、撮影処理部302は、2回目の撮影を行う。 Then, the second and subsequent shootings are performed. That is, when the second shooting timing is reached, in step S33, the shooting processing unit 302 performs the second shooting.

同様にして、ステップS34乃至S36において、撮影処理部302は、それぞれ3乃至5回目の撮影を行う。このようにして5回行われる撮影は、いずれもアップ画像を得るためのアップ撮影とされる。 Similarly, in steps S34 to S36, the imaging processing unit 302 performs the third to fifth imaging, respectively. The shooting performed five times in this way is regarded as a close-up shooting for obtaining a close-up image.

5回のアップ撮影が行われると、処理はステップS37に進む。ステップS37において、撮影処理部302は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部209のタッチパネルモニタ92に案内画面を表示させることによって、または音声をスピーカ232から出力させることによって行われる。 When the close-up photography is performed five times, the process proceeds to step S37. In step S37, the shooting processing unit 302 guides the user in the shooting space A1 to move to the editing space A2-1 or the editing space A2-2. Guidance for moving to the editing space A2-1 or the editing space A2-2 is performed by displaying the guidance screen on the touch panel monitor 92 of the photographing unit 209 or by outputting the sound from the speaker 232.

以上のようにして、撮影処理が行われる。 The shooting process is performed as described above.

<編集処理>
次に、図18のフローチャートを参照して、図12のステップS3において行われる編集処理について説明する。
<Editing process>
Next, the editing process performed in step S3 of FIG. 12 will be described with reference to the flowchart of FIG.

編集処理が開始されると、ステップS51において、表示制御部331は、タブレット内蔵モニタ131に盛れ感選択画面を表示させる。盛れ感選択画面は、上述した「盛れ感」の選択に用いられる画面である。 When the editing process is started, in step S51, the display control unit 331 causes the tablet built-in monitor 131 to display the swelling feeling selection screen. The swelling feeling selection screen is a screen used for selecting the swelling feeling described above.

図19は、盛れ感選択画面の例を示す図である。 FIG. 19 is a diagram showing an example of a feeling of swelling selection screen.

盛れ感選択画面においては、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ盛れ感を同時に選択することができる。 In the climax selection screen, the main configurations are provided symmetrically. With such a screen configuration, two users can select the feeling of excitement at the same time.

図19の盛れ感選択画面において、左右それぞれの領域の上側には、画像表示部511L,511Rが設けられる。画像表示部511L,511Rには、レタッチ撮影により得られたレタッチ用画像において識別部323により識別された顔の顔画像がそれぞれ表示される。 In the screen for selecting the feeling of swelling in FIG. 19, image display units 511L and 511R are provided on the upper side of each of the left and right regions. The image display units 511L and 511R display the facial images of the faces identified by the identification unit 323 in the retouching images obtained by the retouch shooting.

画像表示部511L,511Rそれぞれの下方には、選択部512L,512Rが表示される。選択部512L,512Rそれぞれの中央には、撮影処理により得られた5枚のアップ画像それぞれに写る利用者の顔の盛れ感を選択するためのボタン521−1乃至521−3が設けられる。 Below each of the image display units 511L and 511R, selection units 512L and 512R are displayed. At the center of each of the selection units 512L and 512R, buttons 521-1 to 521-3 for selecting the feeling of the user's face appearing in each of the five close-up images obtained by the photographing process are provided.

ボタン521−1乃至521−3それぞれは、盛れ感を与える画像処理の度合いに対応する。ボタン521−1は、盛れ感として「ナチュラル」を選択するためのボタンであり、ボタン521−2は、盛れ感として「おすすめ」を選択するためのボタンであり、ボタン521−3は、盛れ感として「げき盛れ」を選択するためのボタンである。「ナチュラル」は盛れ感が弱く、「げき盛れ」は盛れ感が強い。なお、盛れ感を与える画像処理の度合いは、アップ画像に写る2人の利用者の、例えば顔の大きさと目の大きさのバランスに応じて調整されるようにしてもよい。 Each of the buttons 521-1 to 521-3 corresponds to the degree of image processing that gives a feeling of swelling. Button 521-1 is a button for selecting "natural" as a feeling of swelling, button 521-2 is a button for selecting "recommended" as a feeling of swelling, and button 521-3 is a button for selecting "feeling of swelling". It is a button for selecting "Gekimori" as. "Natural" has a weak feeling of swelling, and "Geki swelling" has a strong feeling of swelling. The degree of image processing that gives a feeling of swelling may be adjusted according to the balance between the size of the face and the size of the eyes of the two users appearing in the close-up image.

また、ボタン521−1乃至521−3それぞれには、その画像処理の結果に対応する顔画像が表示される。すなわち、ボタン521−1には、「ナチュラル」の盛れ感を与える画像処理の結果に対応する顔画像が表示され、ボタン521−2には、「おすすめ」の盛れ感を与える画像処理の結果に対応する顔画像が表示される。また、ボタン521−3には、「げき盛れ」の盛れ感を与える画像処理の結果に対応する顔画像が表示される。 In addition, each of the buttons 521-1 to 521-3 displays a face image corresponding to the result of the image processing. That is, the button 521-1 displays a face image corresponding to the result of the image processing that gives a “natural” feeling of swelling, and the button 521-2 displays the result of the image processing that gives a “recommended” feeling of swelling. The corresponding face image is displayed. In addition, the button 521-3 displays a face image corresponding to the result of the image processing that gives a feeling of “gekimori”.

なお、ボタン521−1乃至521−3それぞれに表示される顔画像は、あらかじめ用意されたモデルの顔画像であってもよいし、選択部512L,512Rに対応する画像表示部511L,511Rに表示されている利用者の顔画像であってもよい。また、ボタン521−1乃至521−3それぞれに、顔画像は表示されず、対応する盛れ感を表す文字列のみが表示されるようにしてもよい。 The face image displayed on each of the buttons 521-1 to 521-3 may be a face image of a model prepared in advance, or is displayed on the image display units 511L and 511R corresponding to the selection units 512L and 512R. It may be a face image of the user. Further, the face image may not be displayed on each of the buttons 521-1 to 521-3, and only the character string representing the corresponding feeling of swelling may be displayed.

ボタン521−1乃至521−3のいずれかが選択されると、画像処理部334は、画像表示部511L,511Rに表示されている顔画像に対して、選択されたボタンに対応する盛れ感を与える画像処理を施す。利用者は、画像表示部511L,511Rに表示されている顔画像の変化を確認することで、所望の盛れ感を選択することができる。 When any of the buttons 521-1 to 521-3 is selected, the image processing unit 334 gives a feeling of swelling corresponding to the selected button to the face image displayed on the image display units 511L and 511R. Perform the given image processing. The user can select a desired feeling of swelling by checking the change of the face image displayed on the image display units 511L and 511R.

ボタン521−1乃至521−3の下方には、OKボタン522が設けられる。 An OK button 522 is provided below the buttons 521-1 to 521-3.

ボタン521−1乃至521−3のいずれかが選択された状態で、OKボタン522が押下されることで、アップ画像それぞれに写る利用者の顔領域全体に対する、盛れ感を与える画像処理の度合いが決定され、アップ画像それぞれに写る利用者の顔領域全体に対して、決定された度合いの画像処理が施される。 By pressing the OK button 522 with any of the buttons 521-1 to 521-3 selected, the degree of image processing that gives a feeling of swelling to the entire face area of the user reflected in each of the close-up images is increased. The determined degree of image processing is applied to the entire face area of the user, which is determined and reflected in each close-up image.

なお、盛れ感選択画面の中心よりやや上の位置には、両矢印の形状の入れ替えボタン513が設けられる。撮影空間においてカメラ91に向かう2人の利用者の左右の位置と、編集空間においてタブレット内蔵モニタ131に向かう2人の利用者の左右の位置とが異なる場合がある。この場合、利用者のいずれかが、入れ替えボタン513を操作することで、利用者それぞれが、立ち位置を変えることなく、自分の顔についての画像処理の度合いを選択することができる。 It should be noted that a replacement button 513 in the shape of a double-headed arrow is provided at a position slightly above the center of the swelling feeling selection screen. The left and right positions of the two users facing the camera 91 in the shooting space may be different from the left and right positions of the two users facing the tablet built-in monitor 131 in the editing space. In this case, one of the users can operate the replacement button 513, so that each user can select the degree of image processing for his / her face without changing the standing position.

盛れ感選択画面において、OKボタン522が押下されるか、または、盛れ感選択画面が表示されてから開始されたカウントダウンが終了する(カウントが0になる)と、処理はステップS52に進む。 When the OK button 522 is pressed on the swelling feeling selection screen or the countdown started after the swelling feeling selection screen is displayed ends (the count becomes 0), the process proceeds to step S52.

ステップS52において、表示制御部331は、タブレット内蔵モニタ131に目の形選択画面を表示させる。目の形選択画面は、撮影画像に写る利用者の目の形の選択に用いられる画面である。 In step S52, the display control unit 331 causes the tablet built-in monitor 131 to display the eye shape selection screen. The eye shape selection screen is a screen used for selecting the eye shape of the user in the captured image.

図20は、目の形選択画面の例を示す図である。 FIG. 20 is a diagram showing an example of an eye shape selection screen.

目の形選択画面は、基本的には、図19の盛れ感選択画面と同様の構成を有し、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ目の形を同時に選択することができる。 The eye shape selection screen basically has the same configuration as the swelling feeling selection screen of FIG. 19, and the main configurations are provided symmetrically. With such a screen configuration, two users can select the eye shape at the same time.

図20の目の形選択画面において、左右それぞれの領域の上側には、図19の盛れ感選択画面と同様、画像表示部511L,511Rが設けられる。 In the eye shape selection screen of FIG. 20, image display units 511L and 511R are provided on the upper side of each of the left and right regions, as in the swelling feeling selection screen of FIG.

画像表示部511L,511Rそれぞれの下方には、選択部531L,531Rが表示される。選択部531L,531Rそれぞれの中央には、撮影処理により得られた5枚のアップ画像それぞれに写る利用者の目の形を選択するためのボタン541−1乃至541−3が設けられる。 Below each of the image display units 511L and 511R, selection units 531L and 531R are displayed. At the center of each of the selection units 531L and 531R, buttons 541-1 to 541-3 for selecting the shape of the user's eyes to be captured in each of the five close-up images obtained by the photographing process are provided.

ボタン541−1乃至541−3それぞれは、目の形を変える画像処理の度合いに対応する。ボタン541−1は、目の形として「まる目」を選択するためのボタンであり、ボタン541−2は、目の形として「おすすめ」を選択するためのボタンであり、ボタン541−3は、目の形として「たれ目」を選択するためのボタンである。 Each of the buttons 541-1 to 541-3 corresponds to the degree of image processing that changes the shape of the eye. Button 541-1 is a button for selecting "round eyes" as the eye shape, button 541-2 is a button for selecting "recommended" as the eye shape, and button 541-3 is. , A button for selecting "sauce eyes" as the shape of the eyes.

また、ボタン541−1乃至541−3それぞれには、その画像処理の結果に対応する目領域の画像が表示される。すなわち、ボタン541−1には、「まる目」の目の形に変える画像処理の結果に対応する目領域の画像が表示され、ボタン541−2には、「おすすめ」の目の形に変える画像処理の結果に対応する目領域の画像が表示される。また、ボタン541−3には、「たれ目」の目の形に変える画像処理の結果に対応する目領域の画像が表示される。 Further, each of the buttons 541-1 to 541-3 displays an image of the eye region corresponding to the result of the image processing. That is, the button 541-1 displays an image of the eye area corresponding to the result of the image processing for changing to the "round eye" eye shape, and the button 541-2 changes to the "recommended" eye shape. The image of the eye area corresponding to the result of the image processing is displayed. Further, the button 541-3 displays an image of the eye region corresponding to the result of the image processing for changing the shape of the "sauce eye" eye.

なお、ボタン541−1乃至541−3それぞれに表示される目領域の画像は、あらかじめ用意されたモデルの顔画像がトリミングされた目領域の画像であってもよいし、選択部512L,512Rに対応する画像表示部511L,511Rに表示されている利用者の顔画像がトリミングされた目領域の画像であってもよい。また、ボタン541−1乃至541−3それぞれに、目領域の画像は表示されず、対応する目の形を表す文字列のみが表示されるようにしてもよい。 The image of the eye area displayed on each of the buttons 541-1 to 541-3 may be an image of the eye area obtained by trimming the face image of the model prepared in advance, or may be displayed on the selection units 512L and 512R. The user's face image displayed on the corresponding image display units 511L and 511R may be an image of the trimmed eye region. Further, the image of the eye area may not be displayed on each of the buttons 541-1 to 541-3, and only the character string representing the corresponding eye shape may be displayed.

ボタン541−1乃至541−3のいずれかが選択されると、画像処理部334は、画像表示部511L,511Rに表示されている顔画像に対して、選択されたボタンに対応する目の形に変える画像処理を施す。利用者は、画像表示部511L,511Rに表示されている顔画像の変化を確認することで、所望の目の形を選択することができる。 When any of the buttons 541-1 to 541-3 is selected, the image processing unit 334 has an eye shape corresponding to the selected button with respect to the face image displayed on the image display units 511L and 511R. Perform image processing to change to. The user can select a desired eye shape by checking the change in the face image displayed on the image display units 511L and 511R.

ボタン541−1乃至541−3の下方には、OKボタン542が設けられる。 An OK button 542 is provided below the buttons 541-1 to 541-3.

ボタン541−1乃至541−3のいずれかが選択された状態で、OKボタン542が押下されることで、アップ画像それぞれに写る利用者の顔領域全体より小さい(顔領域に含まれる)目領域に対する、目の形を変える画像処理の度合いが決定され、アップ画像それぞれに写る利用者の目領域に対して、決定された度合いの画像処理が施される。 When the OK button 542 is pressed with any of the buttons 541-1 to 541-3 selected, the eye area (included in the face area) smaller than the entire user's face area shown in each of the close-up images. The degree of image processing for changing the shape of the eyes is determined, and the determined degree of image processing is applied to the user's eye area reflected in each close-up image.

目の形選択画面において、OKボタン542が押下されるか、または、目の形選択画面が表示されてから開始されたカウントダウンが終了する(カウントが0になる)と、処理はステップS53に進む。 When the OK button 542 is pressed on the eye shape selection screen or the countdown started after the eye shape selection screen is displayed ends (the count becomes 0), the process proceeds to step S53. ..

ステップS53において、表示制御部331は、タブレット内蔵モニタ131に目の形選択画面を表示させる。目の輝き選択画面は、撮影画像に写る利用者の目の輝きの選択に用いられる画面である。 In step S53, the display control unit 331 causes the tablet built-in monitor 131 to display the eye shape selection screen. The eye brightness selection screen is a screen used for selecting the user's eye brightness in the captured image.

図21は、目の輝き選択画面の例を示す図である。 FIG. 21 is a diagram showing an example of an eye brightness selection screen.

目の輝き選択画面もまた、基本的には、図19の盛れ感選択画面と同様の構成を有し、主な構成が左右対称に設けられている。このような画面構成により、2人の利用者がそれぞれ目の輝きを同時に選択することができる。 The eye shine selection screen also basically has the same configuration as the swelling selection screen of FIG. 19, and the main configurations are provided symmetrically. With such a screen configuration, two users can select the brightness of their eyes at the same time.

図21の目の輝き選択画面において、左右それぞれの領域の上側には、図19の盛れ感選択画面と同様、画像表示部511L,511Rが設けられる。 In the eye brilliance selection screen of FIG. 21, image display units 511L and 511R are provided on the upper side of each of the left and right regions, as in the swelling selection screen of FIG.

画像表示部511L,511Rそれぞれの下方には、選択部551L,551Rが表示される。選択部551L,551Rそれぞれの中央には、撮影処理により得られた5枚のアップ画像それぞれに写る利用者の目の輝きを選択するためのボタン561−1乃至561−3が設けられる。 Below each of the image display units 511L and 511R, selection units 551L and 551R are displayed. At the center of each of the selection units 551L and 551R, buttons 561-1 to 561-3 for selecting the brightness of the user's eyes reflected in each of the five close-up images obtained by the photographing process are provided.

ボタン561−1乃至561−3それぞれは、目の輝きを変える画像処理の度合いに対応する。ボタン561−1は、目の輝きとして「ナチュラル」を選択するためのボタンであり、ボタン561−2は、目の輝きとして「おすすめ」を選択するためのボタンであり、ボタン561−3は、目の輝きとして「キラキラ」を選択するためのボタンである。「ナチュラル」は目の輝きが小さく、「キラキラ」は目の輝きが大きい。 Each of the buttons 561-1 to 561-3 corresponds to the degree of image processing that changes the brightness of the eyes. Button 561-1 is a button for selecting "natural" as the brightness of the eyes, button 561-2 is a button for selecting "recommended" as the brightness of the eyes, and buttons 561-3 are This is a button for selecting "glitter" as the brightness of the eyes. "Natural" has less brilliance of eyes, and "glitter" has more brilliance of eyes.

また、ボタン561−1乃至561−3それぞれには、その画像処理の結果に対応する瞳領域の画像が表示される。すなわち、ボタン561−1には、「ナチュラル」の目の輝きに変える画像処理の結果に対応する瞳領域の画像が表示され、ボタン561−2には、「おすすめ」の目の輝きに変える画像処理の結果に対応する瞳領域の画像が表示される。また、ボタン561−3には、「キラキラ」の目の輝きに変える画像処理の結果に対応する瞳領域の画像が表示される。 Further, each of the buttons 561-1 to 561-3 displays an image of the pupil region corresponding to the result of the image processing. That is, the button 561-1 displays an image of the pupil region corresponding to the result of the image processing to change the “natural” eye shine, and the button 561-2 is an image to change to the “recommended” eye shine. The image of the pupil region corresponding to the processing result is displayed. Further, the button 561-3 displays an image of the pupil region corresponding to the result of the image processing for changing the brightness of the eyes to "glitter".

なお、ボタン561−1乃至561−3それぞれに表示される瞳領域の画像は、あらかじめ用意されたモデルの顔画像がトリミングされた瞳領域の画像であってもよいし、選択部512L,512Rに対応する画像表示部511L,511Rに表示されている利用者の顔画像がトリミングされた瞳領域の画像であってもよい。また、ボタン561−1乃至561−3それぞれに、瞳領域の画像は表示されず、対応する目の輝きを示す文字列のみが表示されるようにしてもよい。 The image of the pupil region displayed on each of the buttons 561-1 to 561-3 may be an image of the pupil region in which the face image of the model prepared in advance is trimmed, or may be displayed on the selection units 512L and 512R. The user's face image displayed on the corresponding image display units 511L and 511R may be an image of the trimmed pupil region. Further, the image of the pupil region may not be displayed on each of the buttons 561-1 to 561-3, and only the character string indicating the corresponding brightness of the eyes may be displayed.

ボタン561−1乃至561−3のいずれかが選択されると、画像処理部334は、画像表示部511L,511Rに表示されている顔画像に対して、選択されたボタンに対応する目の輝きに変える画像処理を施す。利用者は、画像表示部511L,511Rに表示されている顔画像の変化を確認することで、所望の目の輝きを選択することができる。 When any of the buttons 561-1 to 561-3 is selected, the image processing unit 334 causes the eye shine corresponding to the selected button with respect to the face image displayed on the image display units 511L and 511R. Perform image processing to change to. The user can select the desired brightness of the eyes by checking the change in the face image displayed on the image display units 511L and 511R.

ボタン561−1乃至561−3の下方には、OKボタン562が設けられる。 An OK button 562 is provided below the buttons 561-1 to 561-3.

ボタン561−1乃至561−3のいずれかが選択された状態で、OKボタン562が押下されることで、アップ画像それぞれに写る利用者の目領域よりさらに小さい(目領域に含まれる)瞳領域に対する、目の輝きを変える画像処理の度合いが決定され、アップ画像それぞれに写る利用者の瞳領域に対して、決定された度合いの画像処理が施される。 When the OK button 562 is pressed with any of the buttons 561-1 to 561-3 selected, the pupil area (included in the eye area) smaller than the user's eye area shown in each of the close-up images. The degree of image processing that changes the brightness of the eyes is determined, and the determined degree of image processing is applied to the pupil region of the user reflected in each of the close-up images.

目の輝き選択画面において、OKボタン562が押下されるか、または、目の輝き選択画面が表示されてから開始されたカウントダウンが終了する(カウントが0になる)と、処理はステップS54に進む。 When the OK button 562 is pressed on the eye brightness selection screen or the countdown started after the eye brightness selection screen is displayed ends (the count becomes 0), the process proceeds to step S54. ..

以上のように、盛れ感選択画面、目の形選択画面、および目の輝き選択画面は、撮影画像に写る利用者自身の顔を、自分のなりたい顔に仕上げるためのレタッチ機能を提供するレタッチ画面として表示される。 As described above, the climax selection screen, the eye shape selection screen, and the eye brightness selection screen are retouch screens that provide a retouch function for finishing the user's own face in the captured image to the face he / she wants to be. Is displayed as.

なお、レタッチ撮影により得られたレタッチ用画像において、2人の利用者のうちのいずれか一方の顔の識別が失敗した場合、レタッチ用画像において顔の識別に失敗した方の利用者の左右の位置に対応する画像表示部511L,511Rには、顔画像は表示されないものとする。この場合、アップ画像において、顔画像が表示されない方の画像表示部に対応する利用者の顔領域には、画像処理は施されないようになる。 If the face of one of the two users fails to be identified in the retouch image obtained by the retouch image, the left and right of the user who fails to identify the face in the retouch image. It is assumed that the face image is not displayed on the image display units 511L and 511R corresponding to the positions. In this case, in the close-up image, the image processing is not performed on the face area of the user corresponding to the image display unit on which the face image is not displayed.

ステップS54において、表示制御部331は、タブレット内蔵モニタ131にふんわり度選択画面を表示させる。ふんわり度選択画面は、撮影画像のふんわり度の選択に用いられる画面である。ふんわり度は、撮影画像全体のぼかし具合を表す。 In step S54, the display control unit 331 causes the tablet built-in monitor 131 to display the softness selection screen. The fluffiness selection screen is a screen used for selecting the fluffiness of a captured image. The degree of fluffiness represents the degree of blurring of the entire captured image.

図22は、ふんわり度選択画面の例を示す図である。 FIG. 22 is a diagram showing an example of a fluffiness selection screen.

図22のふんわり度選択画面において、中段よりやや上の領域には、5枚の撮影画像が表示される画像表示部571−1乃至571−5が設けられる。画像表示部571−1乃至571−5には、撮影処理によりにより得られた5枚のアップ画像が、それぞれ表示される。 In the fluffiness selection screen of FIG. 22, image display units 571-1 to 571-5 for displaying five captured images are provided in an area slightly above the middle stage. Five close-up images obtained by the photographing process are displayed on the image display units 571-1 to 571-5, respectively.

画像表示部571−1乃至571−5の下方には、スライダー572が設けられる。 A slider 572 is provided below the image display units 571-1 to 571-5.

スライダー572は、ふんわり度(ぼかし具合)を調整するために操作されるGUIのパーツである。タッチペン132Aまたは132Bにより、スライダー572が+側(図中右側)に操作される程、画像表示部571−1乃至571−5に表示されているアップ画像は、それぞれの画像全体に対して強いぼかし具合のぼかし処理が施された状態となる。また、タッチペンにより、スライダー572が−側(図中左側)に操作される程、画像表示部571−1乃至571−5に表示されているアップ画像は、それぞれの画像全体に対して弱いぼかし具合のぼかし処理が施された状態となる。なお、画像表示部571−1乃至571−5に表示されているアップ画像の中から、利用者に選択されたアップ画像のみについて、ふんわり度が調整されるようにしてもよい。 The slider 572 is a GUI part operated to adjust the degree of softness (blurring degree). As the slider 572 is operated to the + side (right side in the figure) by the touch pen 132A or 132B, the close-up images displayed on the image display units 571-1 to 571-5 are strongly blurred with respect to the entire image. It will be in a state where the degree of blurring has been applied. Further, as the slider 572 is operated to the-side (left side in the figure) by the touch pen, the close-up images displayed on the image display units 571-1 to 571-5 are weakly blurred with respect to the entire image. It will be in a state where the blurring process has been applied. The fluffiness may be adjusted only for the close-up image selected by the user from the close-up images displayed on the image display units 571-1 to 571-5.

スライダー572の右方には、OKボタン573が設けられる。 An OK button 573 is provided on the right side of the slider 572.

スライダー572によりふんわり度が調整された状態で、OKボタン573が押下されることで、アップ画像それぞれに対するぼかし処理のぼかし具合が決定され、アップ画像それぞれに対して、決定されたぼかし具合(ふんわり度)のぼかし処理が施される。 By pressing the OK button 573 while the degree of fluffiness is adjusted by the slider 572, the degree of blurring of the blurring process for each of the up images is determined, and the degree of blurring (the degree of fluffiness) determined for each of the up images is determined. ) Is blurred.

ふんわり度選択画面において、OKボタン573が押下されるか、または、ふんわり度選択画面が表示されてから開始されたカウントダウンが終了する(カウントが0になる)と、処理はステップS55に進む。 When the OK button 573 is pressed on the fluffy degree selection screen or the countdown started after the fluffy degree selection screen is displayed ends (the count becomes 0), the process proceeds to step S55.

ステップS55において、表示制御部331は、タブレット内蔵モニタ131に編集画面を表示させる。 In step S55, the display control unit 331 causes the tablet built-in monitor 131 to display the edit screen.

編集画面は、編集対象となる撮影画像の編集に用いられる画面である。編集画面には、編集対象となる撮影画像と、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)が表示される。 The edit screen is a screen used for editing a captured image to be edited. On the editing screen, the captured image to be edited and various editing tools (composite images) such as stamp images and pen images used for editing are displayed.

利用者は、タッチペン132A,132Bを用いて、スタンプ画像やペン画像などを編集対象となる撮影画像上の所定の位置へ重畳することで、編集対象となる撮影画像に対する合成用画像の合成が行われる。 The user uses the touch pens 132A and 132B to superimpose a stamp image, a pen image, etc. on a predetermined position on a captured image to be edited, thereby synthesizing a composite image with the captured image to be edited. It is said.

すなわち、ステップS56において、編集制御部332は、利用者の操作に応じて、編集対象となる撮影画像に編集を施す。 That is, in step S56, the editing control unit 332 edits the captured image to be edited according to the operation of the user.

編集作業が終了すると、ステップS57において、表示制御部331は、タブレット内蔵モニタ131に分割数選択画面を表示させる。 When the editing work is completed, in step S57, the display control unit 331 causes the tablet built-in monitor 131 to display the division number selection screen.

分割数選択画面は、最終的に出力される写真シールの分割数やシールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚の写真シールに配置される編集画像(撮影画像)の枚数や位置、大きさを決定するレイアウト(配置パターン)である。ここで、利用者により選択されたシールレイアウトに従って編集画像が配置されてなる画像、すなわち、シール紙に印刷されて最終的に写真シールとして出力される画像をレイアウト画像という。 The division number selection screen is a screen used for selecting the division number and the sticker layout of the finally output photo sticker. The sticker layout is a layout (arrangement pattern) that determines the number, position, and size of edited images (photographed images) arranged on one photographic sticker. Here, an image in which the edited image is arranged according to the sticker layout selected by the user, that is, an image printed on the sticker paper and finally output as a photo sticker is called a layout image.

したがって、分割数選択画面には、例えば5枚のアップ画像それぞれにレタッチ機能により画像処理が施され、さらに編集が施された編集画像が、異なるシールレイアウトで配置されたレイアウト画像が複数表示される。 Therefore, on the division number selection screen, for example, image processing is performed on each of the five close-up images by the retouch function, and a plurality of layout images in which the edited images are arranged in different sticker layouts are displayed. ..

分割数選択画面において、レイアウト画像のいずれかが選択されると、処理はステップS57に進む。 When any of the layout images is selected on the division number selection screen, the process proceeds to step S57.

ステップS58において、編集処理部303は、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、編集部210のタブレット内蔵モニタ131に案内画面を表示させることによって、または音声をスピーカ241から出力させることによって行われる。 In step S58, the editing processing unit 303 guides the user who has completed the editing work to move to the print waiting space A3. Guidance for moving to the print waiting space A3 is performed by displaying a guidance screen on the tablet built-in monitor 131 of the editorial unit 210 or by outputting voice from the speaker 241.

以上のようにして、編集処理が行われる。 The editing process is performed as described above.

以上の処理によれば、レタッチ機能を提供するレタッチ画面として、まず、顔領域全体に対する画像処理の度合いを選択する盛れ感選択画面が表示され、次に、顔領域に含まれる目領域に対する画像処理の度合いを選択する目の形選択画面が表示され、そして、目領域に含まれる瞳領域に対する画像処理の度合いを選択する目の輝き選択画面が表示されるようになる。 According to the above processing, as the retouch screen that provides the retouch function, first, a sensation selection screen for selecting the degree of image processing for the entire face area is displayed, and then image processing for the eye area included in the face area is displayed. The eye shape selection screen for selecting the degree of is displayed, and the eye brightness selection screen for selecting the degree of image processing for the pupil region included in the eye area is displayed.

すなわち、画像処理の対象となる領域の大きい順に、その画像処理の度合いを選択するための選択画面が表示されるようになる。これにより、利用者にとって注目すべき領域が大きい領域から小さい領域へ遷移していく中で、利用者は、自分のなりたい顔全体のイメージを確定してから、顔の細部を決めることで、撮影画像に写る利用者自身の顔を、自分のなりたい顔に仕上げることができるようになる。結果として、より確実に、利用者が所望する画像を提供することが可能となる。 That is, the selection screen for selecting the degree of image processing is displayed in descending order of the area to be image processed. As a result, while the area that the user should pay attention to is transitioning from a large area to a small area, the user determines the image of the entire face that he / she wants to be, and then determines the details of the face to take a picture. You will be able to finish the user's own face in the image to the face you want to be. As a result, it becomes possible to more reliably provide the image desired by the user.

また、以上においては、1つの選択画面で1種類の画像処理の度合いを選択させるようにしたので、利用者は、各種類の画像処理の度合いを集中して選択することができるようになる。 Further, in the above, since one type of image processing degree is selected on one selection screen, the user can concentrate on selecting each type of image processing degree.

例えば、盛れ感を与える画像処理と、目の形を変える画像処理の両方を選択させるようにした選択画面において、3段階の盛れ感に対応する3つのボタンと、3タイプの目の形に対応する3つのボタンが設けられていたとする。この場合、その選択画面においては、2種類の画像処理の組み合わせにより、選択パターンが9通りになり、利用者はその選択に迷うおそれがある。 For example, in the selection screen that allows you to select both image processing that gives a feeling of swelling and image processing that changes the shape of the eyes, it corresponds to three buttons that correspond to three levels of swelling and three types of eye shapes. It is assumed that three buttons are provided. In this case, on the selection screen, there are nine selection patterns due to the combination of the two types of image processing, and the user may be confused about the selection.

そこで、盛れ感を与える画像処理を選択させる選択画面と、目の形を変える画像処理とを選択させる選択画面とを別個に表示させることによって、それぞれの選択画面においては、選択パターンが3通りになる。その結果、利用者は、それぞれの画像処理の度合いについて、余裕を持ってボタンを選択することができるようになり、利用者がその選択に迷う可能性を低減することができる。 Therefore, by displaying the selection screen for selecting the image processing that gives a feeling of excitement and the selection screen for selecting the image processing that changes the shape of the eyes separately, there are three selection patterns on each selection screen. Become. As a result, the user can select the button with a margin for each degree of image processing, and the possibility that the user is confused about the selection can be reduced.

また、上述で説明した処理において、盛れ感選択画面が表示される前に、ふんわり度選択画面が表示されるようにしてもよい。この場合、ふんわり度選択画面においては、5枚のアップ画像が表示される画像表示部571−1乃至571−5に代えて、レタッチ用画像が表示される画像表示部が設けられるようにする。 Further, in the process described above, the fluffiness selection screen may be displayed before the fluffiness selection screen is displayed. In this case, on the fluffiness selection screen, an image display unit on which the retouching image is displayed is provided instead of the image display units 571-1 to 571-5 on which five close-up images are displayed.

この場合であっても、画像処理の対象となる領域の大きい順、すなわち、撮影画像全体、顔領域、目領域、瞳領域の順に、その画像処理の度合いを選択するための選択画面が表示されるようになり、上述で説明した処理と同様の作用・効果を奏することが可能となる。 Even in this case, the selection screen for selecting the degree of image processing is displayed in the order of the area to be image processed, that is, the entire captured image, the face area, the eye area, and the pupil area. As a result, it is possible to obtain the same actions and effects as the processing described above.

また、上述で説明した処理においては、複数回(具体的には5回)の撮影としてアップ撮影のみが行われるものとしたが、アップ撮影と全身撮影の両方が行われるようにしてもよい。全身撮影により得られる全身画像においては、画像全体に対する顔領域の割合が小さいため、全身画像に対するレタッチ機能の効果は得られにくい。そこで、この場合、アップ撮影により得られたアップ画像のみに対して、レタッチ画面において選択された度合いの画像処理が施されるようにする。 Further, in the process described above, only the close-up shooting is performed as a plurality of (specifically, 5 times) shooting, but both the close-up shooting and the whole body shooting may be performed. In the whole body image obtained by the whole body image, the effect of the retouch function on the whole body image is difficult to obtain because the ratio of the face region to the whole image is small. Therefore, in this case, only the close-up image obtained by the close-up shooting is subjected to image processing to a degree selected on the retouch screen.

ところで、図23に示されるように、1つの選択画面で2種類の画像処理を選択させるようにしてもよい。 By the way, as shown in FIG. 23, two types of image processing may be selected on one selection screen.

図23の選択画面においては、選択部581Lに、目の形を選択・決定するためのボタン541−1乃至541−3およびOKボタン542と、目の輝きを選択・決定するためのボタン561−1乃至561−3およびOKボタン562とが設けられている。 In the selection screen of FIG. 23, the selection unit 581L has buttons 541-1 to 541-3 and an OK button 542 for selecting and determining the shape of the eyes, and buttons 561-for selecting and determining the brightness of the eyes. 1 to 561-3 and an OK button 562 are provided.

図23の選択画面が表示された状態では、図23左側に示されるように、ボタン541−1乃至541−3およびOKボタン542がアクティブ表示されるとともに、ボタン561−1乃至561−3およびOKボタン562は非アクティブ表示され、選択されないようになる。 In the state where the selection screen of FIG. 23 is displayed, the buttons 541-1 to 541-3 and the OK button 542 are actively displayed, and the buttons 561-1 to 561-3 and OK are displayed as shown on the left side of FIG. Button 562 appears inactive and is no longer selected.

図23左側の状態で、ボタン541−1乃至541−3およびOKボタン542に対する操作により、目の形の選択・決定がされると、図23右側に示されるように、ボタン541−1乃至541−3およびOKボタン542が非アクティブ表示されるとともに、ボタン561−1乃至561−3およびOKボタン562はアクティブ表示され、選択されるようになされる。 When the eye shape is selected and determined by operating the buttons 541-1 to 541-3 and the OK button 542 in the state on the left side of FIG. 23, the buttons 541-1 to 541 are shown on the right side of FIG. 23. The -3 and the OK button 542 are displayed inactive, and the buttons 561-1 to 561-3 and the OK button 562 are displayed active and selected.

このような表示により、1つの画面であっても、利用者は、それぞれの画像処理をイメージしながら、それぞれの画像処理の度合いについて、余裕を持ってボタンを選択することができるようになる。 With such a display, the user can select a button with a margin for the degree of each image processing while imagining each image processing even on one screen.

なお、図23の選択画面において、目の輝きの選択・決定がされた後に、再び目の形を選択・決定するための再選択ボタンが表示されるようにしてもよい。この再選択ボタンが押下されると、再び、図23左側に示されるように、選択画面において目の形を選択・決定できるようになる。その後、目の形の選択・決定がされると、図23右側に示されるように、選択画面において目の輝きを選択・決定できるようになる。 In the selection screen of FIG. 23, after the eye brightness is selected / determined, the reselection button for selecting / determining the eye shape may be displayed again. When this reselection button is pressed, the eye shape can be selected and determined again on the selection screen as shown on the left side of FIG. 23. After that, when the shape of the eyes is selected / determined, the brightness of the eyes can be selected / determined on the selection screen as shown on the right side of FIG. 23.

また、図23の選択画面において、ボタン541−1乃至541−3およびOKボタン542と、ボタン561−1乃至561−3およびOKボタン562とが、ともにアクティブ表示されるようにしてもよい。このような状態で、ボタン561−1乃至561−3に対する操作により、対象となる領域が小さい方(瞳領域)の画像処理の度合いが選択された場合、対象となる領域が大きい方(目領域)の画像処理の度合いとして、対象となる領域が小さい方について選択された画像処理の度合いに紐づけられた画像処理の度合いが自動的に選択されるようにしてもよい。 Further, in the selection screen of FIG. 23, the buttons 541-1 to 541-3 and the OK button 542 and the buttons 561-1 to 561-3 and the OK button 562 may both be actively displayed. In such a state, when the degree of image processing of the smaller target area (pupil area) is selected by the operation of the buttons 561-1 to 561-3, the larger target area (eye area) is selected. ), The degree of image processing associated with the degree of image processing selected for the smaller target area may be automatically selected.

以上においては、目領域に対する画像処理として、目の形を変える画像処理が施されるものとしたが、目の大きさを変える画像処理が施されるようにしてもよい。 In the above, as the image processing for the eye region, the image processing for changing the shape of the eyes is performed, but the image processing for changing the size of the eyes may be performed.

また、上述した処理において、顔領域全体に対する画像処理の後に、目・鼻・口の各パーツを合わせた領域に対する画像処理が施されるようにしてもよい。この場合、目・鼻・口の各パーツを合わせた領域に対する画像処理としては、例えば、目・鼻・口の各パーツの色味、形状、大きさ、肌の質感、化粧の濃さなどを変える処理が挙げられる。さらに、この画像処理に、髪の色味を変える処理が含まれるようにしてもよい。 Further, in the above-described processing, after the image processing for the entire face region, the image processing for the region in which the eyes, nose, and mouth parts are combined may be performed. In this case, as image processing for the area where the eyes, nose, and mouth parts are combined, for example, the color, shape, size, skin texture, and makeup depth of the eyes, nose, and mouth parts are used. There is a process to change. Further, the image processing may include a processing for changing the color of the hair.

さらに、以上においては、画像処理の対象となる領域の大きい順に、その画像処理の度合いを選択するための選択画面(レタッチ画面)が表示されるものとしたが、編集画面が、レタッチ画面の1つとして機能するようにしてもよい。例えば、顔領域全体に対する画像処理の度合いを選択するための盛れ感選択画面の後に、図24に示されるような、目・鼻・口などの各パーツそれぞれの領域に対する画像処理の度合いを選択可能とする編集画面が表示されるようにする。 Further, in the above, it is assumed that the selection screen (retouch screen) for selecting the degree of image processing is displayed in descending order of the area to be image processed, but the editing screen is 1 of the retouch screen. It may function as an image. For example, after the screen for selecting the degree of image processing for the entire face area, the degree of image processing for each area such as eyes, nose, and mouth can be selected as shown in FIG. 24. The edit screen is displayed.

編集画面は、基本的に、主な構成が左右対称に設けられることによって構成される。左半分の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右半分の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような編集画面の構成により、主に2人の利用者が同時に編集作業を行うことができる。 The edit screen is basically configured by providing the main configurations symmetrically. The left half area is an area used by the user on the left side of the tablet built-in monitor 131. The right half area is an area used by the user on the right side of the tablet built-in monitor 131. With such an editing screen configuration, mainly two users can perform editing work at the same time.

図24においては、編集画面の左半分の領域(左半分領域)が示されている。 In FIG. 24, the left half area (left half area) of the editing screen is shown.

左半分領域の中央上部には、サムネイル表示領域611が設けられる。サムネイル表示領域611は、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル表示領域611に表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。 A thumbnail display area 611 is provided in the upper center of the left half area. The thumbnail display area 611 is a display area for a thumbnail image representing a captured image. The user selects the captured image to be edited by selecting the thumbnail image displayed in the thumbnail display area 611.

図24の例では、5枚の撮影画像(アップ画像)を表すサムネイル画像がサムネイル表示領域611に並んで表示されている。 In the example of FIG. 24, thumbnail images representing five captured images (up images) are displayed side by side in the thumbnail display area 611.

左半分領域の略中央には、編集領域612が設けられる。編集領域612は、編集対象として選択された撮影画像の表示領域である。利用者は、タッチペン132Aを用いて編集ツールを選択し、編集領域612に表示された撮影画像の編集を行う。 An editing area 612 is provided at substantially the center of the left half area. The editing area 612 is a display area of a captured image selected as an editing target. The user selects an editing tool using the touch pen 132A and edits the captured image displayed in the editing area 612.

編集領域612の左側には、メイクパレット613が表示される。メイクパレット613は、メイクツールを選択するためのアイコンの表示領域である。メイクツールが選択されることで、撮影画像に写る利用者の顔のパーツ領域に対して、選択されたメイクツールに対応する画像処理が施される。また、メイクツールに対応する画像処理の度合いとしては、メイクツールの色や大きさが選択可能とされる。なお、メイクツールに対応する画像処理は、撮影画像に写る利用者それぞれに同時に施されるようにしてもよく、利用者毎に施されるようにしてもよい。 The make palette 613 is displayed on the left side of the editing area 612. The make palette 613 is a display area for an icon for selecting a make tool. When the make-up tool is selected, the image processing corresponding to the selected make-up tool is applied to the part area of the user's face reflected in the captured image. In addition, the color and size of the make-up tool can be selected as the degree of image processing corresponding to the make-up tool. The image processing corresponding to the make-up tool may be performed simultaneously for each user appearing in the captured image, or may be performed for each user.

左半分領域の下部には、編集パレット614が表示される。編集パレット614は、ペンツール、スタンプツールなどの各種の編集ツール(合成用画像)の選択に用いられる。 The edit palette 614 is displayed at the bottom of the left half area. The editing palette 614 is used for selecting various editing tools (composite images) such as a pen tool and a stamp tool.

編集パレット614においては、タブ毎に各編集ツールが用意されている。利用者は、それぞれのタブを選択することによって、編集パレット614に表示される編集ツールを切り替える。例えば、「スタンプ」の名前が付されたタブは、スタンプツールを選択するときに操作されるタブであり、「ペン」の名前が付されたタブは、ペンツールを選択するときに操作されるタブである。 In the editing palette 614, each editing tool is prepared for each tab. The user switches the editing tool displayed on the editing palette 614 by selecting each tab. For example, the tab named "Stamp" is the tab that is manipulated when selecting the stamp tool, and the tab named "Pen" is the tab that is manipulated when selecting the pen tool. Is.

このようにして、編集画面を、目・口・頬の各パーツ領域に対する画像処理の度合いを選択させるレタッチ画面として表示させることができる。 In this way, the edit screen can be displayed as a retouch screen for selecting the degree of image processing for each part area of the eyes, mouth, and cheeks.

なお、図24の例では、編集パレットとは別に設けられたメイクパレットにおいて、目・口・頬などの各パーツ領域に対する画像処理の度合いが選択されるものとしたが、編集パレットにおいて、目・口・頬などの各パーツ領域に対する画像処理の度合いが選択されるようにしてもよい。 In the example of FIG. 24, it is assumed that the degree of image processing for each part area such as eyes, mouth, and cheeks is selected in the make palette provided separately from the editing palette. The degree of image processing for each part area such as the mouth and cheeks may be selected.

例えば、図25に示される編集パレット621において、口領域に対する画像処理の度合いとして、リップの色が選択されるようにする。図25の編集パレット621においては、2人の利用者がそれぞれリップの色を同時に選択することができる。 For example, in the editing palette 621 shown in FIG. 25, the lip color is selected as the degree of image processing for the mouth region. In the editing palette 621 of FIG. 25, two users can select the lip color at the same time.

図25の編集パレット621において、左右それぞれの領域の左側には、画像表示部631L,631Rが設けられる。画像表示部631L,631Rには、レタッチ撮影により得られたレタッチ用画像において識別部323により識別された顔の顔画像が、それぞれ表示される。 In the editing palette 621 of FIG. 25, image display units 631L and 631R are provided on the left side of each of the left and right regions. On the image display units 631L and 631R, the facial image of the face identified by the identification unit 323 in the retouching image obtained by the retouch shooting is displayed, respectively.

画像表示部631L,631Rそれぞれの右方には、選択部632L,632Rが表示される。選択部632L,632Rそれぞれには、リップの色を選択するためのボタンが設けられる。 Selection units 632L and 632R are displayed on the right side of each of the image display units 631L and 631R. Each of the selection units 632L and 632R is provided with a button for selecting a lip color.

また、画像表示部631L,631Rそれぞれの下方には、それぞれの顔画像について選択されたリップの色をリセットするためのOFFボタン633が設けられる。 Further, below each of the image display units 631L and 631R, an OFF button 633 for resetting the color of the lip selected for each face image is provided.

このような構成により、利用者は、口領域に対する画像処理の度合いとして、リップの色を選択することができる。 With such a configuration, the user can select the lip color as the degree of image processing for the mouth area.

また、図26に示される編集パレット621において、頬領域に対する画像処理の度合いとして、チークの色および形状が選択されるようにすることもできる。図26の編集パレット621においては、2人の利用者がそれぞれチークの色および形状を同時に選択することができる。 Further, in the editing palette 621 shown in FIG. 26, the color and shape of the cheek can be selected as the degree of image processing for the cheek region. In the editing palette 621 of FIG. 26, two users can select the color and shape of the cheek at the same time.

図26の編集パレット621においては、図25の編集パレット621における選択部632L,632Rに代えて、選択部641L,641Rが設けられる。選択部641L,641Rそれぞれには、チークの色および形状を選択するためのボタンが設けられる。 In the editing palette 621 of FIG. 26, selection units 641L and 641R are provided in place of the selection units 632L and 632R of the editing palette 621 of FIG. 25. Each of the selection units 641L and 641R is provided with a button for selecting the color and shape of the cheek.

このような構成により、利用者は、頬領域に対する画像処理の度合いとして、チークの色および形状を選択することができる。 With such a configuration, the user can select the color and shape of the cheek as the degree of image processing for the cheek region.

さらに、図27に示される編集パレット621において、目領域に対する画像処理の度合いとして、つけまつげの種類、向き、および大きさが選択されるようにすることもできる。図27の編集パレット621においては、2人の利用者がそれぞれ、つけまつげの種類、向き、および大きさを同時に選択することができる。 Further, in the editing palette 621 shown in FIG. 27, the type, orientation, and size of false eyelashes can be selected as the degree of image processing for the eye area. In the editing palette 621 of FIG. 27, two users can simultaneously select the type, orientation, and size of false eyelashes.

図27の編集パレット621においては、図25の編集パレット621における選択部632L,632Rに代えて、選択部651L,651Rが設けられる。選択部651L,651Rそれぞれには、つけまつげの種類、向き、および大きさを選択するためのボタンが設けられる。 In the editing palette 621 of FIG. 27, selection units 651L and 651R are provided in place of the selection units 632L and 632R of the editing palette 621 of FIG. 25. Each of the selection units 651L and 651R is provided with a button for selecting the type, orientation, and size of false eyelashes.

このような構成により、利用者は、目領域に対する画像処理の度合いとして、つけまつげの種類、向き、および大きさを選択することができる。 With such a configuration, the user can select the type, orientation, and size of false eyelashes as the degree of image processing for the eye area.

なお、上述したメイクツールによる画像処理は、レタッチ撮影(識別撮影)の結果としての顔画像の大きさおよび向きに応じた大きさおよび向きで、対応する領域に施される。 The image processing by the above-mentioned make-up tool is applied to the corresponding region with a size and orientation corresponding to the size and orientation of the face image as a result of the retouch imaging (identification imaging).

<顔認証の応用>
以上においては、識別された顔の顔画像について選択された度合いの画像処理が、複数のアップ画像それぞれにおける顔領域に施されるものとした。しかしながら、以上においては、識別画像に写る利用者の左右の位置に基づいて、アップ画像に写る利用者それぞれの顔領域に、選択された度合いの画像処理が施される。したがって、アップ画像に写る利用者の左右の位置が、識別撮影に写る利用者の左右の位置と逆になっている場合、レタッチ画面において、例えば左側の利用者について選択された度合いの画像処理が、アップ画像において、その利用者ではない方の利用者に対して施されてしまう。
<Application of face recognition>
In the above, it is assumed that the image processing of the selected degree for the face image of the identified face is applied to the face area in each of the plurality of close-up images. However, in the above, based on the left and right positions of the user appearing in the identification image, the image processing of the selected degree is applied to each face area of the user appearing in the close-up image. Therefore, if the left and right positions of the user in the close-up image are opposite to the left and right positions of the user in the identification shooting, the image processing of the degree selected for the user on the left side, for example, on the retouch screen is performed. , In the close-up image, it is applied to the user who is not the user.

そこで、図28に示されるように、編集処理部303に、照合部711を新たに設けるようにする。 Therefore, as shown in FIG. 28, the editing processing unit 303 is newly provided with the collation unit 711.

照合部711は、識別画像から得られた顔画像と、撮影画像(アップ画像)に写る利用者の顔領域とを照合する。 The collation unit 711 collates the face image obtained from the identification image with the face area of the user reflected in the captured image (up image).

具体的には、まず、照合部711は、識別画像において識別された顔の顔画像に対して、固有のIDを割り当てる。次に、照合部711は、アップ画像において1つの顔領域を検出し、検出された顔領域と、割り当てられたID毎の顔画像とを照合する。照合の結果、照合信頼度が最も高いとされたIDの顔画像が、検出された顔領域と一致すると判定され、その顔領域にも同じIDが割り当てられる。すなわち、顔認証が行われる。以上の処理が、アップ画像の他の顔領域に対しても行われることで、アップ画像に写る利用者の顔と、識別画像に写る利用者の顔とが、その位置に関係なく対応付けられる。 Specifically, first, the collation unit 711 assigns a unique ID to the face image of the face identified in the identification image. Next, the collation unit 711 detects one face area in the close-up image, and collates the detected face area with the face image for each assigned ID. As a result of collation, it is determined that the face image of the ID having the highest collation reliability matches the detected face area, and the same ID is assigned to the face area. That is, face recognition is performed. By performing the above processing on other face areas of the close-up image, the face of the user shown in the close-up image and the face of the user shown in the identification image are associated with each other regardless of their positions. ..

この場合、画像処理部334は、レタッチ画面の選択部において選択された度合いの画像処理を、その選択部に対応して表示されている顔画像との照合の信頼度が最も高いとされたアップ画像それぞれの顔領域に施す。 In this case, the image processing unit 334 is said to have the highest reliability of collating the image processing of the degree selected in the selection unit of the retouch screen with the face image displayed corresponding to the selection unit. Apply to each face area of the image.

これにより、アップ画像に写る利用者の左右の位置が、識別撮影に写る利用者の左右の位置と逆になっている場合であっても、レタッチ画面において、例えば、左側の利用者について選択された度合いの画像処理が、アップ画像におけるその利用者に対して施されるようになる。 As a result, even if the left and right positions of the user in the close-up image are opposite to the left and right positions of the user in the identification shooting, for example, the user on the left side is selected on the retouch screen. A certain degree of image processing will be applied to the user in the close-up image.

<レタッチ画面の他の表示例1>
以上においては、レタッチ画面(盛れ感選択画面、目の形選択画面、および目の輝き選択画面)において利用者毎に選択された度合いの画像処理が、撮影画像における利用者毎の顔領域に施されるものとしたが、1人の利用者により選択された度合いの画像処理が、撮影画像における全ての利用者の顔領域に施されるようにしてもよい。
<Other display example 1 of the retouch screen>
In the above, the degree of image processing selected for each user on the retouch screen (the screen for selecting the feeling of swelling, the screen for selecting the shape of the eyes, and the screen for selecting the brightness of the eyes) is applied to the face area of each user in the captured image. However, the degree of image processing selected by one user may be applied to the face areas of all users in the captured image.

図29は、盛れ感選択画面の他の例を示す図である。 FIG. 29 is a diagram showing another example of the swelling feeling selection screen.

図29の盛れ感選択画面においては、利用者のいずれか1人が盛れ感を選択することができる。 On the climax selection screen of FIG. 29, any one of the users can select the climax.

図29の盛れ感選択画面の左側には、画像表示部721が設けられる。画像表示部721には、レタッチ撮影により得られたレタッチ用画像が表示される。 An image display unit 721 is provided on the left side of the screen for selecting the feeling of swelling in FIG. 29. The retouching image obtained by the retouching shooting is displayed on the image display unit 721.

画像表示部721の右方には、選択部722が表示される。選択部722の中央には、図19の選択部512L,512Rと同様、ボタン521−1乃至521−3およびOKボタン522が設けられる。 A selection unit 722 is displayed on the right side of the image display unit 721. In the center of the selection unit 722, buttons 521-1 to 521-3 and an OK button 522 are provided as in the selection units 512L and 512R of FIG.

ボタン521−1乃至521−3のいずれかが選択されると、画像処理部334は、画像表示部721に表示されているレタッチ用画像に写る2人の利用者それぞれの顔領域に対して、選択されたボタンに対応する盛れ感を与える画像処理を施す。利用者は、画像表示部721に表示されているレタッチ用画像の顔領域の変化を確認することで、所望の盛れ感を選択することができる。 When any of the buttons 521-1 to 521-3 is selected, the image processing unit 334 displays the face area of each of the two users in the retouching image displayed on the image display unit 721. Performs image processing that gives a feeling of swelling corresponding to the selected button. The user can select a desired feeling of swelling by checking the change in the face area of the retouching image displayed on the image display unit 721.

ボタン521−1乃至521−3のいずれかが選択された状態で、OKボタン522が押下されることで、アップ画像それぞれに写る全ての利用者の顔領域全体に対する、盛れ感を与える画像処理の度合いが決定され、アップ画像それぞれに写る全ての利用者の顔領域全体に対して、決定された度合いの画像処理が施される。 By pressing the OK button 522 with any of the buttons 521-1 to 521-3 selected, image processing that gives a feeling of swelling to the entire face area of all users reflected in each of the close-up images. The degree is determined, and image processing of the determined degree is applied to the entire face area of all users reflected in each close-up image.

図30は、目の形選択画面の他の例を示す図である。 FIG. 30 is a diagram showing another example of the eye shape selection screen.

図30の目の形選択画面においては、利用者のいずれか1人が目の形を選択することができる。 On the eye shape selection screen of FIG. 30, any one of the users can select the eye shape.

図30の目の形選択画面の左側には、図29の盛れ感選択画面と同様、画像表示部721が設けられる。 On the left side of the eye shape selection screen of FIG. 30, an image display unit 721 is provided as in the swelling feeling selection screen of FIG. 29.

画像表示部721の右方には、選択部731が表示される。選択部731の中央には、図20の選択部531L,531Rと同様、ボタン541−1乃至541−3およびOKボタン542が設けられる。 The selection unit 731 is displayed on the right side of the image display unit 721. In the center of the selection unit 731, buttons 541-1 to 541-3 and an OK button 542 are provided as in the selection units 531L and 531R of FIG.

ボタン541−1乃至541−3のいずれかが選択されると、画像処理部334は、画像表示部721に表示されているレタッチ用画像に写る2人の利用者それぞれの目領域に対して、選択されたボタンに対応する目の形に変える画像処理を施す。利用者は、画像表示部721に表示されているレタッチ用画像の目領域の変化を確認することで、所望の目の形を選択することができる。 When any of the buttons 541-1 to 541-3 is selected, the image processing unit 334 sets the eye area of each of the two users in the retouching image displayed on the image display unit 721. Performs image processing to change the shape of the eyes corresponding to the selected button. The user can select a desired eye shape by checking the change in the eye area of the retouching image displayed on the image display unit 721.

ボタン541−1乃至541−3のいずれかが選択された状態で、OKボタン542が押下されることで、アップ画像それぞれに写る全ての利用者の目領域に対する、目の形に変える画像処理の度合いが決定され、アップ画像それぞれに写る全ての利用者の目領域に対して、決定された度合いの画像処理が施される。 By pressing the OK button 542 with any of the buttons 541-1 to 541-3 selected, the image processing for changing the shape of the eyes for all the user's eye areas reflected in each of the close-up images. The degree is determined, and image processing of the determined degree is applied to all the user's eye areas reflected in each close-up image.

このようにして、アップ画像に写る全ての利用者の顔領域や目領域に対して、同じ度合いの画像処理が施されるようになるので、利用者毎に異なる度合いの画像処理が施される場合と比較して、全体的に統一感のある見た目の撮影画像を提供することができるようになる。 In this way, the same degree of image processing is applied to the face area and eye area of all the users reflected in the close-up image, so that different degrees of image processing are applied to each user. Compared with the case, it becomes possible to provide a photographed image having a unified appearance as a whole.

<レタッチ画面の他の表示例2>
また、上述で説明したレタッチ画面(盛れ感選択画面、目の形選択画面、および目の輝き選択画面)に対する利用者の操作に応じて、レタッチ用画像(顔画像を含む)が、その表示領域(画像表示部)に対して相対的に移動、回転、または拡大/縮小されるようにしてもよい。さらに、その結果の画像が、撮影画像として、編集処理において編集対象とされたり、印刷処理においてシール紙に印刷されるようにしてもよい。
<Other display example 2 of the retouch screen>
In addition, the retouching image (including the face image) is displayed in the display area according to the user's operation on the retouching screens (filling feeling selection screen, eye shape selection screen, and eye brilliance selection screen) described above. It may be moved, rotated, or enlarged / reduced relative to (image display unit). Further, the resulting image may be edited as a captured image in the editing process, or may be printed on the sticker paper in the printing process.

<レタッチ画面の他の表示例3>
さらに、上述で説明したレタッチ画面(盛れ感選択画面、目の形選択画面、および目の輝き選択画面)において、レタッチ用画像に代えて、複数の撮影画像(サムネイル画像)が表示されるようにしてもよい。
<Other display example 3 of the retouch screen>
Further, on the retouch screens (filling feeling selection screen, eye shape selection screen, and eye brightness selection screen) described above, a plurality of captured images (thumbnail images) are displayed instead of the retouching image. You may.

図31は、盛れ感選択画面のさらに他の例を示す図である。 FIG. 31 is a diagram showing still another example of the climax selection screen.

図31の盛れ感選択画面においては、図19の盛れ感選択画面における顔画像表示部511L,511Rに代えて、サムネイル画像表示部751L−1乃至751L−5,751R−1乃至751R−5が設けられる。 In the swelling feeling selection screen of FIG. 31, thumbnail image display units 751L-1 to 751L-5, 751R-1 to 751R-5 are provided in place of the face image display units 511L and 511R in the swelling feeling selection screen of FIG. Be done.

サムネイル画像表示部751L−1乃至751L−5には、5枚の撮影画像(アップ画像)から2人の利用者の一方の顔領域が切り出された顔画像のサムネイル画像が表示され、サムネイル画像表示部751R−1乃至751R−5には、5枚の撮影画像(アップ画像)から2人の利用者の他方の顔領域が切り出された顔画像のサムネイル画像が表示される。 The thumbnail image display units 751L-1 to 751L-5 display thumbnail images of face images obtained by cutting out one of the face areas of two users from five captured images (up images), and display the thumbnail images. In units 751R-1 to 751R-5, thumbnail images of face images obtained by cutting out the other face area of the two users from the five captured images (up images) are displayed.

図31の盛れ感選択画面において、それぞれの利用者は、サムネイル画像(顔画像)を選択し、ボタン521−1乃至521−3を選択することで、撮影画像毎に、自身の顔の盛れ感を選択することができる。なお、選択された盛れ感は、選択されたサムネイル画像に反映されるようになる。 On the screen for selecting the feeling of swelling in FIG. 31, each user selects a thumbnail image (face image) and selects buttons 521-1 to 521-3, so that each user feels the swelling of his / her face for each photographed image. Can be selected. It should be noted that the selected feeling of excitement is reflected in the selected thumbnail image.

このような構成により、利用者は、撮影の際、必要以上にカメラ91に近づき過ぎて顔が大きく写った撮影画像や、カメラ91から離れ過ぎて顔が小さく写った撮影画像に対して、撮影画像毎に、顔の大きさ(盛れ感)を調整することができるなど、自由度の高いレタッチ機能を提供することが可能となる。 With such a configuration, when shooting, the user shoots a shot image in which the face is too close to the camera 91 and the face is shown large, or a shot image in which the face is too far from the camera 91 and the face is shown small. It is possible to provide a retouching function with a high degree of freedom, such as being able to adjust the size of the face (feeling of swelling) for each image.

また、図32に示されるように、サムネイル画像のうち、盛れ感を与える画像処理の対象として選択されたサムネイル画像(顔画像)が大きく表示されるようにしてもよい。 Further, as shown in FIG. 32, among the thumbnail images, the thumbnail image (face image) selected as the target of the image processing that gives a feeling of swelling may be displayed in a large size.

図32の盛れ感選択画面においては、図31の盛れ感選択画面におけるサムネイル画像表示部751L−1乃至751L−5に代えて、顔画像表示部761L,サムネイル画像表示部762L−1乃至762L−4が設けられる。同様に、サムネイル画像表示部751R−1乃至751R−5に代えて、顔画像表示部761R,サムネイル画像表示部762R−1乃至762R−4が設けられる。 In the swelling feeling selection screen of FIG. 32, instead of the thumbnail image display units 751L-1 to 751L-5 in the swelling feeling selection screen of FIG. 31, the face image display unit 761L and the thumbnail image display units 762L-1 to 762L-4 Is provided. Similarly, the face image display unit 761R and the thumbnail image display units 762R-1 to 762R-4 are provided in place of the thumbnail image display units 751R-1 to 751R-5.

顔画像表示部761Lには、5枚の撮影画像のうちの所定の1枚の撮影画像から2人の利用者の一方の顔領域が切り出された顔画像が表示され、サムネイル画像表示部762L−1乃至762L−4には、他の4枚の撮影画像から2人の利用者の一方の顔領域が切り出された顔画像のサムネイル画像が表示される。 The face image display unit 761L displays a face image obtained by cutting out one of the face areas of the two users from a predetermined one of the five captured images, and the thumbnail image display unit 762L- In 1 to 762L-4, thumbnail images of face images obtained by cutting out one of the face areas of the two users from the other four captured images are displayed.

サムネイル画像表示部762L−1乃至762L−4のいずれかが利用者により選択されると、選択されたサムネイル画像表示部に表示されていたサムネイル画像の顔画像が、顔画像表示部761Lに大きく表示される。 When any of the thumbnail image display units 762L-1 to 762L-4 is selected by the user, the face image of the thumbnail image displayed on the selected thumbnail image display unit is displayed larger on the face image display unit 761L. Will be done.

同様に、顔画像表示部761Rには、5枚の撮影画像のうちの所定の1枚の撮影画像から2人の利用者の他方の顔領域が切り出された顔画像が表示され、サムネイル画像表示部762R−1乃至762R−4には、他の4枚の撮影画像から2人の利用者の他方の顔領域が切り出された顔画像のサムネイル画像が表示される。 Similarly, the face image display unit 761R displays a face image obtained by cutting out the other face area of the two users from a predetermined one shot image out of the five shot images, and displays a thumbnail image. In units 762R-1 to 762R-4, thumbnail images of face images obtained by cutting out the other face area of the two users from the other four captured images are displayed.

サムネイル画像表示部762R−1乃至762R−4のいずれかが利用者により選択されると、選択されたサムネイル画像表示部に表示されていたサムネイル画像の顔画像が、顔画像表示部761Rに大きく表示される。 When any of the thumbnail image display units 762R-1 to 762R-4 is selected by the user, the face image of the thumbnail image displayed on the selected thumbnail image display unit is displayed larger on the face image display unit 761R. Will be done.

図32の盛れ感選択画面において、それぞれの利用者は、サムネイル画像(顔画像)を選択し、ボタン521−1乃至521−3を選択することで、顔画像表示部761L,761Rに表示されている顔画像に対応する撮影画像について、自身の顔の盛れ感を選択することができる。なお、選択された盛れ感は、顔画像表示部761L,761Rに表示されている顔画像に反映されるようになる。 On the liveliness selection screen of FIG. 32, each user selects a thumbnail image (face image) and selects buttons 521-1 to 521-3, so that the images are displayed on the face image display units 761L and 761R. You can select the feeling of swelling of your own face for the captured image corresponding to the existing face image. The selected feeling of swelling is reflected in the face images displayed on the face image display units 761L and 761R.

このような構成により、利用者は、サムネイル画像より大きく表示される顔画像によって、盛れ感を与える画像処理の度合いをより容易に確認することが可能となる。 With such a configuration, the user can more easily confirm the degree of image processing that gives a feeling of swelling by the face image displayed larger than the thumbnail image.

また、図33に示されるように、盛れ感選択画面において、左右で同じサムネイル画像が表示されるようにしてもよい。 Further, as shown in FIG. 33, the same thumbnail image may be displayed on the left and right on the liveliness selection screen.

図33の盛れ感選択画面においては、図31の盛れ感選択画面におけるサムネイル画像表示部751L−1乃至751L−5,751R−1乃至751R−5に代えて、サムネイル画像表示部771L−1乃至771L−5,771R−1乃至771R−5が設けられる。 In the swelling feeling selection screen of FIG. 33, the thumbnail image display units 771L-1 to 771L are replaced with the thumbnail image display units 751L-1 to 751L-5, 751R-1 to 751R-5 in the swelling feeling selection screen of FIG. -5, 771R-1 to 771R-5 are provided.

サムネイル画像表示部771L−1乃至771L−5には、5枚の撮影画像のサムネイル画像が表示され、サムネイル画像表示部751R−1乃至751R−5にも、サムネイル画像表示部771L−1乃至771L−5と同様、5枚の撮影画像のサムネイル画像が表示される。 Thumbnail image display units 771L-1 to 771L-5 display thumbnail images of five captured images, and thumbnail image display units 751R-1 to 751R-5 also display thumbnail image display units 771L-1 to 771L-. Similar to 5, thumbnail images of 5 captured images are displayed.

図33の盛れ感選択画面において、それぞれの利用者は、サムネイル画像を選択し、ボタン521−1乃至521−3を選択することで、選択されたサムネイル画像に対応する撮影画像に写る自身の顔の盛れ感を選択することができる。なお、選択された盛れ感は、選択されたサムネイル画像に反映されるようになる。 In the liveliness selection screen of FIG. 33, each user selects a thumbnail image and selects buttons 521-1 to 521-3 to display his / her own face in the captured image corresponding to the selected thumbnail image. You can choose the feeling of excitement. It should be noted that the selected feeling of excitement is reflected in the selected thumbnail image.

また、図31乃至図33を参照して説明した盛れ感選択画面において、画面の左右いずれか一方において選択されたサムネイル画像に反映された盛れ感が、画面の他方において対応するサムネイル画像に反映されるようにしてもよい。 Further, in the swelling feeling selection screen described with reference to FIGS. 31 to 33, the swelling feeling reflected in the thumbnail image selected on either the left or right side of the screen is reflected in the corresponding thumbnail image on the other side of the screen. You may do so.

なお、上述した構成は、盛れ感選択画面に限らず、目の形選択画面や目の輝き選択画面といった他のレタッチ画面に適用されるようにしてもよい。 It should be noted that the above-described configuration may be applied not only to the climax selection screen but also to other retouch screens such as the eye shape selection screen and the eye brightness selection screen.

<レタッチ画面の他の表示例4>
図31乃至図33を参照して説明した盛れ感選択画面においては、複数の撮影画像に対応する複数のサムネイル画像(顔画像)が表示されるものとしたが、図34に示されるように、いずれか1枚の撮影画像に対応する顔画像のみが表示されるようにしてもよい。
<Other display example 4 of the retouch screen>
In the climax selection screen described with reference to FIGS. 31 to 33, a plurality of thumbnail images (face images) corresponding to a plurality of captured images are displayed, but as shown in FIG. 34, Only the face image corresponding to any one of the captured images may be displayed.

図34の盛れ感選択画面においては、図31乃至図33の盛れ感選択画面におけるサムネイル画像表示部に代えて、顔画像表示部781L,781Rが設けられる。 In the swelling feeling selection screen of FIG. 34, face image display units 781L and 781R are provided in place of the thumbnail image display units in the swelling feeling selection screens of FIGS. 31 to 33.

顔画像表示部781Lには、5枚の撮影画像のうちの所定の1枚の撮影画像から2人の利用者の一方の顔領域が切り出された顔画像が表示される。顔画像表示部781Lがタッチペン132Aによりタッチされると、他の撮影画像から2人の利用者の一方の顔領域が切り出された顔画像が、顔画像表示部781Lに表示される。 The face image display unit 781L displays a face image obtained by cutting out one of the face areas of the two users from a predetermined one of the five captured images. When the face image display unit 781L is touched by the touch pen 132A, a face image obtained by cutting out one of the face areas of the two users from the other captured images is displayed on the face image display unit 781L.

同様に、顔画像表示部781Rには、5枚の撮影画像のうちの所定の1枚の撮影画像から2人の利用者の他方の顔領域が切り出された顔画像が表示される。顔画像表示部781Rがタッチペン132Bによりタッチされると、他の撮影画像から2人の利用者の他方の顔領域が切り出された顔画像が、顔画像表示部781Rに表示される。 Similarly, the face image display unit 781R displays a face image obtained by cutting out the other face area of the two users from a predetermined one of the five captured images. When the face image display unit 781R is touched by the touch pen 132B, a face image obtained by cutting out the other face area of the two users from the other captured images is displayed on the face image display unit 781R.

このように、顔画像表示部781L,781Rがタッチペン132A,132Bによりタッチされることで、顔画像表示部781L,781Rに表示される顔画像が切り替わる。 In this way, when the face image display units 781L and 781R are touched by the touch pens 132A and 132B, the face images displayed on the face image display units 781L and 781R are switched.

なお、図35に示される盛れ感選択画面のように、顔画像表示部781L,781Rの左右両側に、切替ボタン791,792を設けるようにし、切替ボタン791,792がタッチペン132A,132Bにより操作されることで、顔画像表示部781L,781Rに表示される顔画像が切り替わるようにしてもよい。 As shown in FIG. 35, the switching buttons 791 and 792 are provided on the left and right sides of the face image display units 781L and 781R, and the switching buttons 791 and 792 are operated by the touch pens 132A and 132B. By doing so, the face image displayed on the face image display units 781L and 781R may be switched.

また、レタッチ画面(盛れ感選択画面、目の形選択画面、および目の輝き選択画面)に表示される顔画像として、例えば5枚の撮影画像のうち、利用者の顔がカメラ91に対して最も正面を向いて写っている撮影画像から顔領域を切り出した画像を用いるようにしてもよい。 Further, as the face image displayed on the retouch screen (the screen for selecting the feeling of swelling, the screen for selecting the shape of the eyes, and the screen for selecting the brightness of the eyes), for example, of the five captured images, the user's face is relative to the camera 91. An image obtained by cutting out a face region from a photographed image that is most facing the front may be used.

以上の例によれば、レタッチ撮影を行わなくとも、レタッチ画面に表示される顔画像(レタッチ用画像)を用意することができ、結果として、撮影作業にかかる時間を短縮し、写真シール作成装置1における利用者の回転率を向上し、収益を高めることができる。 According to the above example, it is possible to prepare a face image (image for retouching) to be displayed on the retouch screen without performing retouch shooting, and as a result, the time required for the shooting work is shortened, and the photo sticker creation device. It is possible to improve the turnover rate of users in 1 and increase profits.

<ふんわり度の選択の詳細>
図22を参照して説明したふんわり度選択画面においては、スライダー572に対する操作により、ふんわり度を0%から100%まで細かく設定できるように見えるが、実際には、図36に示されるように、0%,25%,50%,75%,100%の5段階のふんわり度が設定されるようになされている。
<Details of softness selection>
In the fluffiness selection screen described with reference to FIG. 22, it seems that the fluffiness can be finely set from 0% to 100% by operating the slider 572, but in reality, as shown in FIG. 36, Five levels of softness of 0%, 25%, 50%, 75%, and 100% are set.

このとき、ふんわり度選択画面の画像表示部571−1乃至571−5に表示されるアップ画像それぞれについて、ふんわり度0%,50%,100%の3枚のぼかし画像が生成されるようにする。そして、ふんわり度25%のぼかし画像は、ふんわり度0%の画像にふんわり度50%の画像を合成することで生成され、ふんわり度75%のぼかし画像は、ふんわり度50%の画像にふんわり度100%の画像を合成することで生成されるようにする。 At this time, for each of the close-up images displayed on the image display units 571-1 to 571-5 of the softness selection screen, three blurred images having a softness of 0%, 50%, and 100% are generated. .. A blurred image with a fluffiness of 25% is generated by synthesizing an image with a fluffiness of 0% and an image with a fluffiness of 50%, and a blurred image with a fluffiness of 75% is a fluffy image with an image with a fluffiness of 50%. It is made to be generated by synthesizing 100% of images.

一方、図37に示されるように、ふんわり度0%,100%の2枚のぼかし画像が生成されるようにした場合、ふんわり度50%のぼかし画像は、ふんわり度0%の画像にふんわり度100%の画像を合成することで生成される。ここで、ふんわり度0%の画像のぼかし量を0とし、ふんわり度100%の画像のぼかし量を100とすると、ふんわり度50%の画像のぼかし量は50となる。 On the other hand, as shown in FIG. 37, when two blurred images having a fluffiness of 0% and 100% are generated, the blurred image having a fluffiness of 50% becomes a fluffy image with a fluffiness of 0%. It is generated by synthesizing 100% images. Here, assuming that the amount of blurring of an image having a fluffiness of 0% is 0 and the amount of blurring of an image having a degree of fluffiness of 100% is 100, the amount of blurring of an image having a degree of fluffiness of 50% is 50.

この場合、通常、利用者に対しておすすめのふんわり度は50%となるが、利用者によっては、ぼかし量50の画像が、強めのぼかし具合のぼかし処理が施された画像に見えるおそれがあった。 In this case, the recommended softness for the user is usually 50%, but depending on the user, an image with a blur amount of 50 may look like an image with a strong blurring degree. It was.

そこで、例えば、おすすめのぼかし具合のぼかし処理が施された画像を、ぼかし量30の画像とした場合、図36に示されるように、ふんわり度50%の画像としてぼかし量30の画像を生成することで、おすすめのふんわり度の画像として、ぼかし量30の画像を提供することができる。なお、この場合、ふんわり度25%の画像はぼかし量15となり、ふんわり度75%の画像はぼかし量65となる。 Therefore, for example, when an image that has been subjected to a recommended blurring degree of blurring is an image with a blurring amount of 30, an image with a blurring amount of 30 is generated as an image with a fluffiness of 50% as shown in FIG. As a result, an image having a blurring amount of 30 can be provided as a recommended softness image. In this case, the image with a fluffiness of 25% has a blur amount of 15, and the image with a fluffiness of 75% has a blur amount of 65.

このように、生成されるぼかし画像を増やすことで、所望のぼかし量の画像を提供することが可能となる。 By increasing the number of blurred images generated in this way, it is possible to provide an image with a desired amount of blurring.

上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。 In the above-described embodiment, the photo sticker creating device 1 has a configuration in which the obtained photographed image or edited image is printed on the sticker paper and transmitted to the server to be provided to the user's mobile terminal. .. Not limited to this, it is also possible to adopt a configuration in which the photographed image or the edited image is not printed on the sticker paper but is transmitted to the server and only provided to the user's mobile terminal. On the contrary, it is also possible to adopt a configuration in which only the photographed image or the edited image is printed on the sticker paper without being transmitted to the server.

すなわち、本技術は、撮影画像や編集画像がシール紙に印刷された写真シールを作成する写真シール作成装置に限らず、単に、撮影画像や編集画像を作成するゲームを提供する写真作成ゲーム機に適用することができる。 That is, the present technology is not limited to a photo sticker creation device that creates a photo sticker in which a photographed image or an edited image is printed on a sticker paper, but simply a photo creation game machine that provides a game for creating a photographed image or an edited image. Can be applied.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 The series of processes described above can be executed by hardware or software. When the series of processes described above are executed by software, the programs constituting the software are installed from a network or a recording medium.

この記録媒体は、例えば、図9に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。 As shown in FIG. 9, this recording medium is, for example, a magnetic disk (flexible) on which a program is recorded, which is distributed to the administrator of the photo sticker creating device 1 separately from the device main body. Not only is it composed of removable media 205 consisting of (including disks), optical disks (including CD-ROMs and DVDs), magneto-optical disks, or semiconductor memories, but it is also distributed to the administrator in a state of being pre-installed in the device body. It is composed of a ROM 206 in which a program is recorded, a hard disk included in a storage unit 202, and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program to be recorded on a recording medium are not only processed in chronological order in the order of description, but also in parallel or not necessarily in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではなく、例えば、所定のサイズの紙やフィルム、ポスター用の紙、カード、あるいは、Tシャツなどの布地などに印刷するようにしてもよい。 In the above, the printing medium is not limited to sticker paper and photographic paper, and for example, printing is performed on paper or film of a predetermined size, poster paper, card, or cloth such as a T-shirt. May be good.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Further, the embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.

1 写真シール作成装置
301 事前選択処理部
302 撮影処理部
303 編集処理部
304 印刷処理部
305 事後選択処理部
331 表示制御部
332 編集制御部
333 識別部
334 画像処理部
711 照合部
1 Photo sticker creation device 301 Preselection processing unit 302 Photography processing unit 303 Editing processing unit 304 Printing processing unit 305 Post-selection processing unit 331 Display control unit 332 Editing control unit 333 Identification unit 334 Image processing unit 711 Collation unit

Claims (12)

利用者を被写体とした複数回の撮影を行う撮影処理部と、
影により得られた撮影画像に対する画像処理の度合いを選択するための選択部表示する表示制御部と、
前記選択部において選択された度合いの画像処理を、前記撮影画像それぞれに施す画像処理部と
を備え、
前記表示制御部は、前記選択部として、前記撮影画像における第1の領域である、前記撮影画像に写る前記利用者の顔領域全体に対する第1の画像処理の度合いを選択するための第1の選択部を表示した後、前記撮影画像に写る人物領域における、前記第1の領域より小さい第2の領域である、前記顔領域における顔パーツの領域に対する第2の画像処理の度合いを選択するための第2の選択部を表示する
写真作成ゲーム機。
An imaging processing unit to perform a plurality of times of photographing in which the user and the object,
A display control unit for displaying a selection unit for selecting the degree of image processing on the captured image obtained by the shooting,
The image processing unit is provided with an image processing unit that performs image processing of the degree selected by the selection unit on each of the captured images.
The display control unit, as the selection unit , is a first region for selecting the degree of first image processing for the entire face region of the user reflected in the captured image, which is the first region in the captured image . After displaying the selection unit, in order to select the degree of the second image processing for the area of the face part in the face area, which is the second area smaller than the first area in the person area appearing in the captured image. A photo-creating game machine that displays the second selection of.
前記第1の画像処理は、前記顔領域を全体的に変化させる画像処理を含み、The first image processing includes an image processing that changes the face region as a whole.
前記第2の画像処理は、前記顔パーツの領域を局所的に変化させる画像処理を含むThe second image processing includes an image processing that locally changes the area of the face part.
請求項1に記載の写真作成ゲーム機。The photo-creating game machine according to claim 1.
前記表示制御部は、
記選択部として前記第1の選択部のみを有する第1の画面を表示した後、
記選択部として前記第2の選択部のみを有する第2の画面を表示する
請求項1または2に記載の写真作成ゲーム機。
The display control unit
After displaying the first screen having only the first selection unit as the front Symbol selection unit,
Photography game machine according to claim 1 or 2 for displaying the second screen having only the second selector as a pre-Symbol selection unit.
前記表示制御部は、
記選択部として前記第1の選択部のみを有する前記第1の画面を表示した後、
記選択部として前記第2の選択部のみを有する前記第2の画面を表示し、さらにその後、
記選択部として、前記人物領域における、前記第2の領域より小さい第3の領域に対する第3の画像処理の度合いを選択するための第3の選択部のみを有する第3の画面を表示する
請求項に記載の写真作成ゲーム機。
The display control unit
After displaying the first screen as a pre-Symbol selector having only the first selector,
Display the second screen having only the second selector as a pre-Symbol selection unit, Thereafter,
As before Symbol selection unit, in the human region, displaying a third screen having only the third selection unit for selecting the degree of the third image processing on the second region is smaller than the third region The photo-creating game machine according to claim 3 .
前記第3の領域は、前記第2の領域に含まれ、
前記第2の領域は、前記第1の領域に含まれる
請求項4に記載の写真作成ゲーム機。
The third region is included in the second region.
The photo-creating game machine according to claim 4, wherein the second area is included in the first area.
前記撮影処理部は、複数回の撮影として、前記利用者の顔または上半身を被写体としたアップ撮影のみを行う
請求項1乃至5のいずれかに記載の写真作成ゲーム機。
The photo creation game machine according to any one of claims 1 to 5, wherein the shooting processing unit performs only close-up shooting with the user's face or upper body as a subject as a plurality of shootings.
前記撮影処理部は、複数回の撮影として、前記利用者の上半身を被写体としたアップ撮影と、前記利用者の全身を被写体とした全身撮影とを行い、
前記画像処理部は、前記選択部において選択された度合いの画像処理を、前記アップ撮影により得られた前記撮影画像のみに施す
請求項1乃至5のいずれかに記載の写真作成ゲーム機。
The shooting processing unit performs close-up shooting with the upper body of the user as a subject and full-body shooting with the whole body of the user as a subject as a plurality of shootings.
The photo-creating game machine according to any one of claims 1 to 5, wherein the image processing unit performs image processing to a degree selected by the selection unit only on the photographed image obtained by the close-up photography.
前記撮影処理部は、複数回の撮影のうちの1回を、人物を識別するための識別撮影として行い、The shooting processing unit performs one of a plurality of shootings as an identification shooting for identifying a person.
前記識別撮影により得られた識別画像において人物を識別する識別部をさらに備え、An identification unit for identifying a person in the identification image obtained by the identification imaging is further provided.
前記表示制御部は、前記識別画像と前記選択部とを表示するThe display control unit displays the identification image and the selection unit.
請求項1乃至7のいずれかに記載の写真作成ゲーム機。The photo-creating game machine according to any one of claims 1 to 7.
前記識別部は、前記識別画像において人物の顔を識別し、
前記表示制御部は、前記識別画像として、識別された顔の顔画像と、前記撮影画像それぞれに写る前記利用者の顔領域に対する画像処理の度合いを選択するための前記選択部とを表示し、
前記画像処理部は、前記選択部において選択された度合いの画像処理を、前記顔画像と、前記撮影画像それぞれの前記顔領域に施す
請求項に記載の写真作成ゲーム機。
The identification unit identifies a person's face in the identification image and
The display control unit displays, as the identification image, a face image of the identified face and the selection unit for selecting the degree of image processing for the face area of the user reflected in each of the captured images.
The photo-creating game machine according to claim 8 , wherein the image processing unit performs image processing to a degree selected by the selection unit on the face image and the face region of each of the captured images.
前記顔画像と、前記撮影画像の前記顔領域とを照合する照合部をさらに備え、
前記表示制御部は、前記顔画像と、前記顔画像との照合の信頼度が最も高いとされた前記撮影画像の前記顔領域に対する画像処理の度合いを選択するための前記選択部とを対応付けて表示し、
前記画像処理部は、前記選択部において選択された度合いの画像処理を、前記選択部と対応付けて表示されている前記顔画像と、前記顔画像との照合の信頼度が最も高いとされた前記撮影画像それぞれの前記顔領域に施す
請求項に記載の写真作成ゲーム機。
A collation unit for collating the face image with the face area of the captured image is further provided.
The display control unit associates the face image with the selection unit for selecting the degree of image processing for the face region of the captured image, which is considered to have the highest reliability of collation with the face image. Display and display
The image processing unit is said to have the highest reliability of collation between the face image displayed in association with the selection unit and the image processing of the degree selected by the selection unit. The photo-creating game machine according to claim 9 , wherein the photographed image is applied to the face region.
前記第1の選択部は、前記第1の領域の画像が表示された、前記第1の画像処理の度合いに対応する複数のボタンを有し、
前記第2の選択部は、前記第2の領域の画像が表示された、前記第2の画像処理の度合いに対応する複数のボタンを有する
請求項1乃至10のいずれかに記載の写真作成ゲーム機。
The first selection unit has a plurality of buttons corresponding to the degree of the first image processing on which the image of the first region is displayed.
The photo-creating game according to any one of claims 1 to 10, wherein the second selection unit has a plurality of buttons corresponding to the degree of the second image processing on which an image of the second region is displayed. Machine.
利用者を被写体とした複数回の撮影を行う撮影処理部と、
影により得られた撮影画像に対する画像処理の度合いを選択するための選択部表示する表示制御部と、
前記選択部において選択された度合いの画像処理を、前記撮影画像それぞれに施す画像処理部と
を備える写真作成ゲーム機の表示方法であって、
前記表示制御部が、前記選択部として、前記撮影画像における第1の領域である、前記撮影画像に写る前記利用者の顔領域全体に対する第1の画像処理の度合いを選択するための第1の選択部を表示した後、前記撮影画像に写る人物領域における、前記第1の領域より小さい第2の領域である、前記顔領域における顔パーツの領域に対する第2の画像処理の度合いを選択するための第2の選択部を表示する
ステップを含む表示方法。
An imaging processing unit to perform a plurality of times of photographing in which the user and the object,
A display control unit for displaying a selection unit for selecting the degree of image processing on the captured image obtained by the shooting,
A display method for a photo-creating game machine including an image processing unit that applies image processing to a degree selected by the selection unit to each of the captured images.
As the selection unit , the display control unit selects, as the selection unit, the degree of first image processing for the entire face region of the user reflected in the captured image, which is the first region in the captured image . After displaying the selection unit, in order to select the degree of the second image processing with respect to the area of the face part in the face area, which is the second area smaller than the first area in the person area appearing in the captured image. A display method that includes a step of displaying a second selection of.
JP2016125520A 2016-06-24 2016-06-24 Photo creation game console and display method Active JP6810336B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016125520A JP6810336B2 (en) 2016-06-24 2016-06-24 Photo creation game console and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016125520A JP6810336B2 (en) 2016-06-24 2016-06-24 Photo creation game console and display method

Publications (2)

Publication Number Publication Date
JP2017229013A JP2017229013A (en) 2017-12-28
JP6810336B2 true JP6810336B2 (en) 2021-01-06

Family

ID=60892190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016125520A Active JP6810336B2 (en) 2016-06-24 2016-06-24 Photo creation game console and display method

Country Status (1)

Country Link
JP (1) JP6810336B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101994685B1 (en) * 2017-07-06 2019-07-01 (주)스냅스 Browser editing system for photo­book editing software and the method thereof
JP7032642B2 (en) * 2018-01-12 2022-03-09 フリュー株式会社 Photo-creating game consoles, editing methods, and programs
JP7121256B2 (en) * 2018-02-02 2022-08-18 フリュー株式会社 PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP2020170097A (en) * 2019-04-04 2020-10-15 フリュー株式会社 Photo creation game machine, image processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4919131B1 (en) * 2011-06-24 2012-04-18 フリュー株式会社 Image providing apparatus and method, and program
JP5418708B2 (en) * 2012-04-25 2014-02-19 フリュー株式会社 Photo sealing machine, photo sealing machine processing method and program
JP6414681B2 (en) * 2013-11-21 2018-10-31 フリュー株式会社 Photo sticker creation apparatus, image processing method, and program
JP2016114793A (en) * 2014-12-15 2016-06-23 フリュー株式会社 Imaging device and image processing method

Also Published As

Publication number Publication date
JP2017229013A (en) 2017-12-28

Similar Documents

Publication Publication Date Title
JP6810336B2 (en) Photo creation game console and display method
JP5970026B2 (en) Photo sticker creation device
JP5660240B1 (en) Photo sticker creation device
JP6418444B2 (en) Photo sticker creating apparatus and image providing method
JP6880394B2 (en) Photographing game console and shooting method
JP5668885B1 (en) Photo sticker making apparatus and photo sticker making method
JP6864212B2 (en) Photographing game console and shooting method
JP6558209B2 (en) Imaging device
JP5790812B2 (en) Photo sticker making apparatus and photo sticker making method
JP5682803B1 (en) Photo sticker making apparatus and photo sticker making method
JP5700267B1 (en) Photo sticker making apparatus and photo sticker making method
JP7132492B2 (en) Image processing device, display control method, and program
JP7140962B2 (en) Image processing device, control method, and program
JP7074994B2 (en) Photographing game console and image processing method
JP6853475B2 (en) Photo creation game console and display method
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP5850281B2 (en) Photo sticker creation device
JP2021044734A (en) Image processing device, image processing method, and program
JP5692448B1 (en) Photo sticker making apparatus and photo sticker making method
JP6687839B2 (en) Photo creation game machine and display method
JP6124087B2 (en) Image editing apparatus and image editing method
JP6489396B2 (en) Photo sticker creation apparatus, display method, and program
JP6376421B1 (en) Photo creation game machine, display method, and program
JP6295936B2 (en) Photo sticker creating apparatus and image processing method
JP6618250B2 (en) Photo sticker making apparatus and photo sticker making method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201123

R150 Certificate of patent or registration of utility model

Ref document number: 6810336

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250