JP2019124746A - Picture creation game machine, edition method, and program - Google Patents

Picture creation game machine, edition method, and program Download PDF

Info

Publication number
JP2019124746A
JP2019124746A JP2018003493A JP2018003493A JP2019124746A JP 2019124746 A JP2019124746 A JP 2019124746A JP 2018003493 A JP2018003493 A JP 2018003493A JP 2018003493 A JP2018003493 A JP 2018003493A JP 2019124746 A JP2019124746 A JP 2019124746A
Authority
JP
Japan
Prior art keywords
image
editing
retouching
user
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018003493A
Other languages
Japanese (ja)
Other versions
JP7032642B2 (en
Inventor
理予 萩原
Riyo Hagiwara
理予 萩原
久美子 平田
Kumiko Hirata
久美子 平田
莉恵 北野
Rie Kitano
莉恵 北野
仁志 飛田
Hitoshi Hida
仁志 飛田
和人 片田
Kazuto Katada
和人 片田
瞳 高松
Hitomi Takamatsu
瞳 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2018003493A priority Critical patent/JP7032642B2/en
Publication of JP2019124746A publication Critical patent/JP2019124746A/en
Application granted granted Critical
Publication of JP7032642B2 publication Critical patent/JP7032642B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

To retouch an image captured at a specific angle to individually finish a desired-looking image.SOLUTION: A imaging processing unit is configured to generate a plurality of captured images by capturing a user at a plurality of angles as a subject, and a display control unit is configured to display an edition screen receiving an edition input with any of the plurality of captured images as an edition object. A retouch processing unit is configured to apply retouch processing to the subject reflected on the captured image captured at a specific angle. A display control unit is configured to display a retouch GUI for receiving a selection of the retouch processing on the edition screen only when the captured image captured at the specific angle becomes the edition object, and when the captured image captured at other angle other than the specific angle becomes the edition object, not to display the retouch GUI on the edition screen. The present technique can be applied to a picture creation device.SELECTED DRAWING: Figure 16

Description

本技術は、写真作成ゲーム機、編集方法、およびプログラムに関し、特に、特定の画角で撮影された画像を個々に、所望する見た目の画像に仕上げることができるようにする写真作成ゲーム機、編集方法、およびプログラムに関する。   The present technology relates to a photo creating game machine, an editing method, and a program, and in particular, a photo creating game machine that enables an image captured at a specific angle of view to be individually finished to a desired appearance image. It relates to a method and a program.

従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。   BACKGROUND Conventionally, a photo sticker machine installed in an amusement facility or the like is known. The photo sticker machine photographs the user, and edits the photographed image according to the user's operation. The photo sticker machine prints the edited image on a sticker sheet.

写真シール機の中には、被写体の顔および上半身を撮影範囲(画角)としたアップ撮影に加え、被写体の全身を撮影範囲とした全身撮影を行うものがある。アップ撮影によれば、撮影画像として、被写体の顔および上半身が写るアップ画像が得られる。また、全身撮影によれば、撮影画像として、被写体の全身が写る全身画像が得られる。   Some photo sticker machines perform full-body imaging in which the entire body of a subject is in the imaging range, in addition to up-shooting in which the face and upper body of the subject are taken in the imaging range (field angle). According to the up shooting, an up image in which the face and the upper body of the subject are captured can be obtained as a shot image. Moreover, according to whole body imaging, a whole body image in which the whole body of the subject is captured can be obtained as a photographed image.

そのような中で、撮影画像の補正を受け付ける際、アップ画像のみが表示された際には、顔に関する補正の選択を受け付け、全身画像のみが表示された際には、全身スタイルに関する補正を受け付けるようにした写真シール機が知られている。   Under such circumstances, when the correction of the photographed image is received, the selection of the correction regarding the face is received when only the up image is displayed, and the correction regarding the whole body style is received when the whole body image is displayed. There is known a photo sealing machine that does.

また、特許文献1には、アップ画像のみを表示するようにして、アップ画像に写る顔の変化度の入力を受け付けるようにした写真シール機が開示されている。   Further, Patent Document 1 discloses a photo sticker machine in which only the up image is displayed and the input of the degree of change of the face shown in the up image is received.

特開2017−108410号公報JP, 2017-108410, A

しかしながら、従来の写真シール機では、例えばアップ画像に対して受け付けられた顔に関する補正や、顔の変化度の入力は、複数枚のアップ画像全てに一括して反映されていた。すなわち、例えばアップ撮影のような特定の画角で撮影された画像を個々に、その画像を所望する見た目の画像に仕上げることはできなかった。   However, in the conventional photo sticker machine, for example, the correction regarding the face accepted for the up image and the input of the degree of change of the face are collectively reflected in all of the plurality of up images. That is, for example, an image captured at a specific angle of view, such as up shooting, can not be individually finished into an image having a desired appearance.

本技術は、このような状況に鑑みてなされたものであり、特定の画角で撮影された画像を個々に、所望する見た目の画像に仕上げることができるようにするものである。   The present technology has been made in view of such a situation, and enables an image captured at a specific angle of view to be individually finished into an image with a desired appearance.

本技術の写真作成ゲーム機は、利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成する撮影処理部と、複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示する表示制御部と、特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施すレタッチ処理部とを備え、前記表示制御部は、前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない。   The photo creating game machine according to the present technology takes a user as a subject and shoots at a plurality of angles of view, thereby setting a shooting processing unit that generates a plurality of shot images and editing any one of the plurality of shot images. The display control unit includes a display control unit that displays an editing screen that receives an editing input, and a retouch processing unit that performs retouching processing on the subject captured in the captured image captured at a specific angle of view, the display control unit A retouching GUI for receiving the selection of the retouching process is displayed on the editing screen only when the captured image captured at a specific angle of view becomes the edit target, and the other screen than the specific angle of view is displayed. When the photographed image photographed at an angle of view is to be edited, the retouching GUI is not displayed on the editing screen.

本技術の編集方法は、写真作成ゲーム機が、利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成し、複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示し、特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施し、前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない。   According to the editing method of the present technology, the photograph creating game machine generates a plurality of photographed images by photographing the user as a subject at a plurality of angles of view, and sets one of the plurality of photographed images as an editing target An editing screen for accepting editing input is displayed, and retouching processing is performed on the subject captured in the captured image captured at a specific angle of view, and the captured image captured at the specific angle of view is the editing target Only when it has become, the retouching GUI for accepting the selection of the retouching process is displayed on the editing screen, and the photographed image photographed at another angle of view other than the specific angle of view is the object of editing At this time, the retouching GUI is not displayed on the editing screen.

本技術のプログラムは、コンピュータを、利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成する撮影処理部と、複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示する表示制御部と、特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施すレタッチ処理部として機能させるためのプログラムであって、前記表示制御部は、前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない。   The program according to the present technology takes a computer as a subject and shoots at a plurality of angles of view, thereby generating a plurality of photographed images and setting any one of the plurality of photographed images as an imaging target. A program for causing a display control unit to display an editing screen for receiving editing input, and a retouch processing unit to perform retouching processing on the subject captured in the captured image captured at a specific angle of view, The display control unit displays, on the editing screen, a retouching GUI for receiving the selection of the retouching process only when the captured image captured at the specific angle of view becomes the edit target, When the photographed image photographed at another angle of view other than the angle of view becomes the editing target, the retouching GUI is not displayed on the editing screen.

本技術においては、利用者を被写体として複数の画角で撮影が行われることで、複数の撮影画像が生成され、複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面が表示され、特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理が施され、前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIが前記編集画面に表示され、前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIは前記編集画面に表示されない。   In the present technology, a plurality of photographed images are generated by photographing at a plurality of angles of view with the user as a subject, and an editing screen for receiving an editing input for editing any of the plurality of photographed images is used. The retouching process is performed on the subject that is displayed and appears in the captured image captured at a specific angle of view, and only when the captured image captured at the specific angle of view becomes the edit target. When the retouching GUI for receiving the selection of the retouching process is displayed on the editing screen and the captured image captured at another angle of view other than the specific angle of view becomes the editing target, the retouching GUI Is not displayed on the editing screen.

本技術によれば、特定の画角で撮影された画像を個々に、所望する見た目の画像に仕上げることが可能となる。   According to the present technology, it is possible to individually finish an image captured at a specific angle of view into an image with a desired appearance.

なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。   In addition, the effect described here is not necessarily limited, and may be any effect described in the present disclosure.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view showing the example of composition of the appearance of the photographic sticker creation device of this art. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which saw the external appearance of the photograph seal | sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of a pre-selection part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 床材を示す斜視図である。It is a perspective view showing a floor material. 編集ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of an editing unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the structural example of the side of an editing unit. 写真シール作成装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of a photograph sticker creation device. 写真シール作成装置の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of a photograph seal creation device. 写真シール作成ゲーム処理について説明するフローチャートである。It is a flowchart explaining a photograph sticker preparation game processing. 編集処理について説明するフローチャートである。It is a flowchart explaining an edit process. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集処理部の機能構成例を示すブロック図である。It is a block diagram showing an example of functional composition of an edit processing part. レタッチ/合成処理について説明するフローチャートである。Fig. 19 is a flowchart for describing retouching / composition processing. 編集画面の他の例を示す図である。It is a figure which shows the other example of an edit screen. 編集画面の他の例を示す図である。It is a figure which shows the other example of an edit screen. 編集画面の他の例を示す図である。It is a figure which shows the other example of an edit screen. 編集画面の他の例を示す図である。It is a figure which shows the other example of an edit screen. 編集画面の表示パターンについて説明する図である。It is a figure explaining the display pattern of an edit screen. 全身撮影の種類について説明する図である。It is a figure explaining the kind of whole body imaging. 編集画面の表示パターンの他の例について説明する図である。It is a figure explaining the other example of the display pattern of an edit screen. 携帯おまけ作成画面の表示例を示す図である。It is a figure which shows the example of a display of a portable bonus creation screen. 編集画面の表示パターンのさらに他の例について説明する図である。It is a figure explaining the further another example of the display pattern of an edit screen. 編集対象画像の切り替えについて説明する図である。It is a figure explaining switching of an edit object image. 小顔処理の例について説明する図である。It is a figure explaining the example of small face processing. 小顔処理の例について説明する図である。It is a figure explaining the example of small face processing. 全身画像に施される画像処理の例について説明する図である。It is a figure explaining the example of the image processing given to a whole body picture. 全身画像に施される画像処理の他の例について説明する図である。It is a figure explaining the other example of the image processing given to a whole body picture. 全身画像に施される画像処理のさらに他の例について説明する図である。It is a figure explaining the further another example of the image processing given to a whole body picture. 立ち位置の入れ替わりについて説明する図である。It is a figure explaining exchange of a standing position. 認証処理の一例について説明するフローチャートである。It is a flow chart explaining an example of attestation processing. 顔認証信頼度について説明する図である。It is a figure explaining face recognition reliability. 顔認証について説明する図である。It is a figure explaining face recognition. 認証処理の他の例について説明するフローチャートである。It is a flowchart explaining the other example of attestation processing. レタッチ画面の例について説明する図である。It is a figure explaining the example of a retouch screen.

以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。   Hereinafter, modes for carrying out the present technology (hereinafter, referred to as embodiments) will be described.

<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance of photo sticker creation device>
FIG. 1 and FIG. 2 are perspective views showing an example of the external appearance of the photo sticker creating apparatus 1.

写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。   The photograph sticker creating apparatus 1 is a game machine that provides a photographed image and an edited image. The photograph sticker creating apparatus 1 provides the user with an image by printing the image on a sticker sheet or making the image viewable on the user's portable terminal. The photograph sticker creating apparatus 1 is installed in an amusement facility or store such as a game center.

写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。   The users of the photo sticker creating apparatus 1 are mainly high school girls and young women. In the photograph sticker creating apparatus 1, a plurality of users such as two or three can mainly enjoy the game per pair. Of course, in the photo sticker creating apparatus 1, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。   In the photograph sticker creating apparatus 1, the user takes an object as a subject and performs a photographing operation. The user combines an image for synthesis such as a handwritten character or a stamp image with an image selected from among the captured images obtained by shooting in the editing operation. Thus, the photographed image is edited into a colorful image. The user receives the sticker sheet on which the edited image, which is an edited image, is printed, and terminates the series of games.

写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。   The photo sticker creating apparatus 1 can be said to be a photo creating game machine that provides a photo creating game.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。   As shown in FIG. 1, the photograph sticker creating apparatus 1 is basically configured by being installed in a state where the photographing unit 11 and the editing unit 12 are in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected.

撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。   The imaging unit 11 has a box-shaped housing having a size that allows a person to enter, and is configured of a preselection unit 20, an imaging unit 21, and a background unit 22. The preselection unit 20 is installed on the side of the imaging unit 21. The space in front of the preselection unit 20 is a preselected space where the preselection process is performed. In addition, the photographing unit 21 and the background unit 22 are disposed apart from each other by a predetermined distance. A space formed between the photographing unit 21 and the background unit 22 is a photographing space in which the photographing process is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。   The preselection unit 20 performs guidance for introducing a game provided by the photograph sticker creating apparatus 1 as preselection processing, and performs various settings in the photographing processing performed in the photographing space. The preselection unit 20 is provided with a coin insertion slot through which the user inputs money, a touch panel monitor used for various operations, and the like. The preselection unit 20 appropriately guides the user who is in the preselected space to the imaging space according to the space status of the imaging space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。   The photographing unit 21 is a device for photographing a user as a subject. The imaging unit 21 is located in front of the user who has entered the imaging space. A camera, a touch panel monitor used for various operations, and the like are provided on the front of the imaging unit 21 facing the imaging space.

撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。   Assuming that the left side is the left side and the right side is the right side as viewed from the user in the imaging space, the left side of the imaging unit 21 is configured by the side panel 41A, and the right side is configured by the side panel 41B. Be done. Furthermore, the front of the imaging unit 21 is configured by the front panel 42. The preselection unit 20 described above is installed on the side panel 41A. The preselection unit 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。   The background portion 22 includes a back panel 51, a side panel 52A, and a side panel 52B. The back panel 51 is a plate-like member located on the back side of the user facing the front. The side panel 52A is a plate-like member attached to the left end of the back panel 51 and narrower in width than the side panel 41A. The side panel 52B is a plate-shaped member attached to the right end of the back panel 51 and narrower in width than the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。   The side panel 41A and the side panel 52A are provided substantially in the same plane. The side panels 41A and the upper portions of the side panels 52A are connected by a connecting portion 23A which is a plate-like member. The lower portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A 'which is a metal member provided on the floor surface. Similarly, the side panel 41B and the side panel 52B are provided substantially in the same plane. The side panels 41B and the upper portions of the side panels 52B are connected by the connecting portion 23B. The side panels 41B and the lower portions of the side panels 52B are connected by a connecting portion 23B '.

撮影空間の床には、板状の部材である床材27が敷かれる。   A floor material 27 which is a plate-like member is laid on the floor of the imaging space.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。   An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A is an entrance and exit of the imaging space. In addition, an opening formed by being surrounded by the side surface panel 41B, the connecting portion 23B, and the side surface panel 52B also becomes an entrance and exit of the imaging space.

撮影空間の上方には、撮影部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井シート24が設けられる。天井シート24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。   Above the imaging space, a ceiling surrounded by the front of the imaging unit 21, the connecting portion 23A, and the connecting portion 23B is formed. A ceiling sheet 24 is provided on part of the ceiling. One end of the ceiling sheet 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B.

天井シート24は、シート状であっても、板状であっても良い。また、天井シート24を連結部23に連結しない、換言すれば、天井シート24がなく、天井に開口部が形成されているようにしても良い。   The ceiling sheet 24 may be sheet-like or plate-like. Further, the ceiling sheet 24 may not be connected to the connecting portion 23. In other words, there may be no ceiling sheet 24 and an opening may be formed in the ceiling.

また天井シート24の一部に、通気孔を設けても良い。例えば、図1に示した天井シート24の両端(連結部23A側と連結部23B側)に四角形状で示した部分を、通気孔としても良い。また、図1に四角形状で示した部分は、光が入射する透明な部材で形成されていても良い。   Further, a vent may be provided in part of the ceiling sheet 24. For example, the portions shown in a square shape at both ends (the connecting portion 23A side and the connecting portion 23B side) of the ceiling sheet 24 shown in FIG. 1 may be used as the vent holes. Moreover, the part shown by square shape in FIG. 1 may be formed by the transparent member which light injects.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。   The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 such that one side face is in contact with the front panel 42 of the photographing unit 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。   Assuming that the configuration of the editing unit 12 shown in FIG. 1 is the configuration on the front side, the configuration used for editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can simultaneously perform editing work.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。   The front side of the editing unit 12 is composed of a surface 61 and a slope 62 formed above the surface 61. The surface 61 is a surface perpendicular to the floor surface and substantially parallel to the side panel 41A of the imaging unit 21. The slope 62 is provided with a tablet built-in monitor and a touch pen as a configuration used for editing work. On the left side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. On the right side of the slope 62, a columnar support 63B for supporting the other end of the lighting device 64 is provided. A support portion 65 for supporting the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを、組み合わせて構成される。3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C. The three rails 26A to 26C are combined such that the shape as viewed from above is U-shaped. One end of the rails 26A and 26B provided in parallel is respectively fixed to the connecting portion 23A and the connecting portion 23B, and the other ends of the rails 26A and 26B are respectively joined to both ends of the rail 26C.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the space in front of the front of the editing unit 12 and the space in front of the back can not be seen from the outside. The space at the front of the editing unit 12 and the space at the rear of the back surrounded by the curtain become an editing space where the user performs editing work.

後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。   Although described later, the left side surface of the editing unit 12 is provided with a discharge port through which the printed sticker sheet is discharged. The space in front of the left side of the editing unit 12 is a print waiting space for the user to wait for the printed sticker sheet to be discharged.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About the movement of users>
Here, the flow of the photo sticker creation game and the movement of the user accompanying it will be described.

図3は、写真シール作成装置1を上から見た平面図である。   FIG. 3 is a plan view of the photograph sticker creating apparatus 1 as viewed from above.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。   The user charges the coin insertion slot in the preselection space A0 which is the space in front of the preselection unit 20. Next, the user performs various settings in accordance with the screen displayed on the touch panel monitor. The user performs, for example, selection of a course relating to shooting performed in the shooting space as pre-selection work.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。   The user who has finished the preselection operation, as indicated by the white arrow # 1, is an imaging space A1 formed between the imaging unit 21 and the background portion 22 from the entrance G1 between the side panel 41A and the side panel 52A. to go into. The user performs a shooting operation using a camera or a touch panel monitor provided in the shooting unit 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。   The user who has finished the photographing work exits the photographing space A1 from the entrance G1 as indicated by the white arrow # 2 and moves to the editing space A2-1, or the entrance G2 as indicated by the white arrow # 3. From the shooting space A1 and move to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is the editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the imaging unit 21 or the like. For example, a vacant one of the two editing spaces is guided as a destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work simultaneously.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。   After the editing work is completed, printing of the edited image is started. When printing is started, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the outlined arrow # 4. The user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 5.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。   The user who has moved to the print waiting space A3 waits for the printing to finish. When printing is completed, the user receives the sticker sheet discharged from the outlet provided on the right side of the editing unit 12, and finishes the series of photo sticker creation games.

次に、各装置の構成について説明する。   Next, the configuration of each device will be described.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of Preselection Unit>
FIG. 4 is a view showing a configuration example of the preselection unit 20. As shown in FIG.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択などに用いられる画面が表示される。   A touch panel monitor 71 is provided on the upper side of the preselection unit 20. The touch panel monitor 71 is configured of a monitor such as an LCD (Liquid Crystal Display) and a touch panel stacked thereon. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and receiving a user's selection operation. The touch panel monitor 71 displays a screen used to select the number of users and the like.

タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。   Below the touch panel monitor 71, a speaker 72 is provided. The speaker 72 outputs a guidance voice of preselection processing, BGM (Back Ground Music), sound effects, and the like. Adjacent to the speaker 72, a coin insertion and return port 73 for the user to insert coins is provided.

また事前選択部20のタッチパネルモニタ71の上側には、ケース74が設けられている。このケース74には、例えば、写真シール作成装置1で作成されるシールのサンプルが掲示される。また、ケース74は、広告として用いることができ、何らかの商品のサンプルや商品説明画像(ポスター)などを掲示することもできる。   A case 74 is provided above the touch panel monitor 71 of the preselection unit 20. In this case 74, for example, a sample of the seal created by the photo sticker creating apparatus 1 is posted. Further, the case 74 can be used as an advertisement, and can also post a sample of a certain product, a product description image (poster), and the like.

<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Structure of Shooting Unit>
FIG. 5 is a view showing a configuration example of the front of the imaging unit 21. As shown in FIG. The imaging unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42.

正面パネル42の中央よりやや上側には、カメラユニット81が設けられる。カメラユニット81の正面には、カメラ91とタッチパネルモニタ92が設けられる。   A camera unit 81 is provided slightly above the center of the front panel 42. At the front of the camera unit 81, a camera 91 and a touch panel monitor 92 are provided.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91は、利用者を被写体として撮影を行う撮影部として機能する。   The camera 91 is, for example, a single-lens reflex camera, and is attached to the inside of the camera unit 81 so that the lens is exposed. The camera 91 includes an imaging element such as a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor, and captures an image of the user in the imaging space A1. The camera 91 functions as a photographing unit that photographs a user as a subject.

カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。   A moving image (hereinafter also referred to as a live view image) captured by the camera 91 is displayed on the touch panel monitor 92 in real time. The still image captured by the camera 91 at a predetermined timing such as when shooting is instructed is stored as a captured image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。   The touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 is configured of a monitor such as an LCD and a touch panel stacked thereon. The touch panel monitor 92 has a function as a live view monitor for displaying a moving image captured by the camera 91, and a function for displaying various GUIs and receiving a user's selection operation.

カメラユニット81の上方には、上ストロボユニット82が設置される。この上ストロボユニット82は、3枚のパネル86−1乃至86−3(以下、パネル86−1乃至86−3を個々に区別する必要がない場合、単にパネル86と記述する)が備えられ、これらのパネル86は、正面パネル42に対して所定の角度を有して設置されている。その角度は、パネル86の面が、利用者側に向く角度とされている。例えば、パネル86は、正面パネル42に対しておよそ45度の角度を有して設置されている。   An upper strobe unit 82 is installed above the camera unit 81. The upper strobe unit 82 is provided with three panels 86-1 to 86-3 (hereinafter simply referred to as panels 86 when the panels 86-1 to 86-3 do not need to be individually distinguished), These panels 86 are installed at a predetermined angle with respect to the front panel 42. The angle is an angle at which the surface of the panel 86 faces the user. For example, the panel 86 is installed at an angle of approximately 45 degrees with respect to the front panel 42.

上ストロボユニット82は、利用者の正面上方から、利用者の顔および上半身に光を照射する。パネル86は、取り外すことが可能な構成とされており、詳細は後述するが、パネル86を取り外すと、内側には、照明用の電球や、撮影時に発光するストロボが配置されている。   The upper strobe unit 82 applies light to the face and upper body of the user from the upper front of the user. The panel 86 is configured to be removable, and the details are described later, but when the panel 86 is removed, a light bulb for illumination and a strobe that emits light at the time of shooting are disposed inside.

カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボユニット83が設けられる。   Below the camera unit 81, a foot strobe unit 83 is provided which emits light to the lower body and feet of the user.

上ストロボユニット82および足元ストロボユニット83は、照明用の電球とストロボ発光可能な照明機器とにより構成される。上ストロボユニット82および足元ストロボユニット83は、撮影空間を明るくして、利用者の操作性や安全性を確保するために、撮影空間内を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングでストロボ発光し、被写体となる利用者に光を照射する。   The upper strobe unit 82 and the foot strobe unit 83 are constituted by a light bulb for illumination and a lighting device capable of strobe light emission. The upper strobe unit 82 and the foot strobe unit 83 constantly illuminate the inside of the shooting space to brighten the shooting space and ensure the operability and safety of the user, and improve the quality of the shot image. At the shooting timing, the flash is fired to illuminate the user as the subject.

足元ストロボユニット83と側面パネル41Aとの間には、箱状部84が設けられる。また、足元ストロボユニット83と側面パネル41Bとの間には、箱状部85が設けられる。箱状部84,85の上面は、写真シール作成装置1の設置面と略水平な面をなし、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。   A box-like portion 84 is provided between the foot strobe unit 83 and the side panel 41A. In addition, a box-like portion 85 is provided between the foot strobe unit 83 and the side panel 41B. The upper surfaces of the box-like portions 84 and 85 form a surface substantially horizontal to the installation surface of the photograph sticker creating apparatus 1 and are used as a luggage storage area for a user who carries out a photographing operation to put luggage and the like.

なお、正面パネル42の例えば天井付近に、スピーカが設けられ、撮影処理の案内音声、BGM、効果音などが出力される構成としても良い。また、スピーカは、正面パネル42ではなく、後述する背景部22に設けられていても良い。ここでは、図6に示すように背景部22にスピーカが設けられている場合を例に挙げて説明を続ける。   A speaker may be provided, for example, in the vicinity of the ceiling of the front panel 42 to output a guidance sound, BGM, sound effects, and the like of the photographing process. Moreover, the speaker may be provided not on the front panel 42 but on the background portion 22 described later. Here, as shown in FIG. 6, the description will be continued by taking the case where the speaker is provided in the background portion 22 as an example.

<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Structure of background portion>
FIG. 6 is a view showing a configuration example of the photographing space A1 side of the background part 22. As shown in FIG.

背面パネル51の上方には、背面ストロボ101−1と背面ストロボ101−2が設置されている。背面ストロボ101は、利用者、特に利用者の頭部に、利用者の後方かつ上方から光を照射する。   A rear strobe 101-1 and a rear strobe 101-2 are provided above the rear panel 51. The rear strobe 101 illuminates the user, particularly the user's head, with light from behind and above the user.

背面ストロボ101−1と背面ストロボ101−2の間に、スピーカ102−1とスピーカ102−2が設けられている。スピーカ102は、撮影処理の案内音声、BGM、効果音などを出力する。   A speaker 102-1 and a speaker 102-2 are provided between the back surface strobe 101-1 and the back surface strobe 101-2. The speaker 102 outputs guidance sound for shooting processing, BGM, sound effects, and the like.

なお、図6では、2つのスピーカ102が設けられている例を示したが、1つのスピーカ102が、例えば、背面ストロボ101−1と背面ストロボ101−2の中間部分に設けられているようにしたり、複数の小型のスピーカ102が設けられているようにしたりすることもできる。   Although FIG. 6 shows an example in which two speakers 102 are provided, for example, one speaker 102 may be provided at an intermediate portion between the back surface strobe 101-1 and the back surface strobe 101-2. Alternatively, a plurality of small speakers 102 may be provided.

背面パネル51の撮影空間A1側(図中、手前側)の面には、白色のシート121が貼り付けられている。ここでは、白色のシート121が貼り付けられているとして説明を続けるが、シート121の色は、白色に限らず、例えば、明るい灰色などでも良く、反射率の高い色とされる。   A white sheet 121 is attached to the surface of the rear panel 51 on the photographing space A1 side (the front side in the drawing). Here, the description is continued assuming that the white sheet 121 is attached, but the color of the sheet 121 is not limited to white, and may be light gray, for example, and has a high reflectance.

また、ここでは、シート121が貼り付けられているとして説明を続けるが、壁面自体が白色で塗られていたり、シート状ではなく、白色の板状のパネルが貼り付けられていたりしても良い。   Further, although the description is continued here assuming that the sheet 121 is attached, the wall surface itself may be painted white, or a white plate-like panel may be attached instead of the sheet shape. .

また、カーテンユニットを設置し、そのカーテンユニットに白色のカーテンが巻き取られて収納され、撮影時に、その白色のカーテンが降りてくるような構成としても良い。またカーテンの色は、白色に限らず、例えば、明るい灰色などでも良く、反射率の高い色とすることができる。   In addition, a curtain unit may be installed, and a white curtain may be taken up and stored in the curtain unit, and the white curtain may come down at the time of photographing. The color of the curtain is not limited to white, and may be light gray, for example, and may be a color with high reflectance.

<床の構成>
図7は、床材27を示す斜視図である。説明の便宜上、撮影部21、側面パネル41Aなどの図示は省略している。
<Bed composition>
FIG. 7 is a perspective view showing the floor material 27. As shown in FIG. For convenience of explanation, illustration of the imaging unit 21, the side panel 41A, and the like is omitted.

床材27の中央、または後方寄りの位置には、横長の長方形の床シート27Aが、その長辺が背面パネル51と略平行になるように貼り付けられる。図7において、背面パネル51のある方向が撮影空間A1の後方となり、撮影部21のある方向(白抜き矢印方向)が撮影空間A1の前方となる。   A horizontally long rectangular floor sheet 27A is attached to the center of the floor material 27 or to a position close to the rear such that the long side thereof is substantially parallel to the back panel 51. In FIG. 7, the direction in which the back panel 51 is located is behind the imaging space A1, and the direction in which the imaging unit 21 is located (in the direction of the outlined arrow) is ahead of the imaging space A1.

床シート27Aには、マーク28−1とマーク28−2が印刷されている。マーク28は、撮影時の立ち位置を利用者毎に誘導するための目印として用いられる。   Marks 28-1 and 28-2 are printed on the floor sheet 27A. The mark 28 is used as a mark for guiding the standing position at the time of photographing for each user.

例えば、利用者の人数が2人であり、上半身が大きく写る画像を撮影(アップ撮影)する場合、カメラ91に向かって右側に立っている利用者の立ち位置として、マーク28−1が指定され、左側に立っている利用者の立ち位置として、マーク28−2が指定される。   For example, when the number of users is two and the upper body image is photographed in a large size (up photographing), the mark 28-1 is designated as the standing position of the user standing on the right side toward the camera 91. Mark 28-2 is designated as the standing position of the user standing on the left side.

図7に示した例では、マーク28−1には、“RIGHT”との右を意味する英単語が記載されており、右側に位置する利用者の立ち位置であることを、より明確に示す表示がされている。   In the example shown in FIG. 7, an English word meaning the right of "RIGHT" is described in the mark 28-1 to more clearly show that it is the standing position of the user located on the right side. It is displayed.

同様にマーク28−2には、“LEFT”との左を意味する英単語が記載されており、左側に位置する利用者の立ち位置であることを、より明確に示す表示がされている。   Similarly, in the mark 28-2, an English word meaning the left of "LEFT" is described, and it is displayed more clearly indicating that it is the standing position of the user located on the left side.

このマーク28上に、利用者が位置するときに、利用者に最適に光が照射されるように、背面ストロボ101(図6)は、設置されている。このように、最適な写りが得られる位置を、最適撮影位置と適宜記載する。   The rear strobe 101 (FIG. 6) is placed on the mark 28 so that the user can be optimally illuminated when the user is positioned. As described above, the position where the optimum image can be obtained is described as the optimum imaging position.

なお、最適な立ち位置(最適撮影位置)は、ストロボからの光が利用者に対して十分(適切)に照射される位置、カメラ91の撮影範囲から外れない位置、背景と顔の大きさのバランスがよくなる位置等を意味する。   The optimal standing position (optimum shooting position) is the position where the light from the strobe is sufficiently (properly) emitted to the user, the position where it does not deviate from the shooting range of the camera 91, and the size of the background and face. It means the position where the balance is improved.

ところで、写真シール作成装置1は、カメラ91で撮影された画像に対してトリミングを行い、編集画面に表示される画像を生成する。   The photograph sticker creating apparatus 1 trims the image captured by the camera 91 to generate an image displayed on the editing screen.

ここで撮影範囲とは、最終的に撮影画像として編集画面に表示される画像の範囲に対応した撮影部21の撮像素子の範囲であるとして、説明を続けるが、撮影範囲をトリミング前の撮像素子の範囲としてもよい。   Here, the explanation is continued assuming that the shooting range is the range of the imaging device of the shooting unit 21 corresponding to the range of the image finally displayed on the editing screen as the shooting image, but the imaging device before trimming the shooting range It may be in the range of

床シート27Aのマーク28は、利用者の人数、撮影する画像の画角(範囲)などに応じて、最適な立ち位置を指定することができるような位置に印刷されているようにしても良い。すなわち、マーク28は、図7に示したように、マーク28−1とマーク28−2の2つのマークだけでなく、複数人に対応した複数のマークや、異なる画角毎に対応した複数のマークが印刷されているようにしても良い。また、マーク28の形状は、図7に示したような四角形状だけでなく、多角形、円形、星形、ハート型など、どのような形状であっても良い。   The mark 28 of the floor sheet 27A may be printed at a position where an optimum standing position can be designated according to the number of users, the angle of view (range) of the image to be photographed, etc. . That is, as shown in FIG. 7, the mark 28 is not only the two marks of the mark 28-1 and the mark 28-2, but also a plurality of marks corresponding to a plurality of persons, and a plurality of marks corresponding to each different angle of view. The mark may be printed. Further, the shape of the mark 28 is not limited to a rectangular shape as shown in FIG. 7, but may be any shape such as a polygon, a circle, a star, or a heart.

<編集ユニットの構成>
図8は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Structure of Editing Unit>
FIG. 8 is a diagram showing a configuration example of the front side (the editing space A2-1 side) of the editing unit 12. As shown in FIG.

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided substantially at the center of the slope 62. A touch pen 132A is provided on the left side of the tablet built-in monitor 131. A touch pen 132B is provided on the right side of the tablet built-in monitor 131.

タブレット内蔵モニタ131は、タブレットとディスプレイを積層して構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。   The tablet built-in monitor 131 is configured by laminating a tablet and a display. The tablet enables operation input using the touch pen 132A or the touch pen 132B. On the tablet built-in monitor 131, for example, an editing screen used for editing work is displayed. When two users simultaneously perform editing work, the touch pen 132A is used by the user on the left side facing the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side facing the tablet built-in monitor 131 .

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。   The operation using the touch pen 132A and the operation using the touch pen 132B are distinguished. As appropriate, only the operation using the touch pen 132A is enabled for the display on the left side of the tablet built-in monitor 131, and the operation using the touch pen 132B is enabled for the display on the right side. Hereinafter, when it is not necessary to distinguish the touch pen 132A and the touch pen 132B, they are collectively referred to as the touch pen 132.

図9は、編集ユニット12の左側面の構成例を示す図である。   FIG. 9 is a view showing an example of the configuration of the left side of the editing unit 12.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。   Below the left side surface of the editing unit 12, a sealing paper discharge port 161 is provided. A printer is provided inside the editing unit 12. With the printer, an image captured by the user of the editing space A2-1 or an image captured by the user of the editing space A2-2 is printed on the seal sheet in a predetermined layout and discharged from the seal sheet discharge port 161.

<写真シール作成装置の内部構成>
図10は、写真シール作成装置1の構成例を示すブロック図である。図10において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 10 is a block diagram showing a configuration example of the photograph sticker creating apparatus 1. In FIG. 10, the same components as those described above are denoted by the same reference numerals. Duplicate descriptions will be omitted as appropriate.

図10に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。情報処理部であるPC部301は、例えば編集ユニット12の筐体内部に搭載される。   As shown in FIG. 10, in the photograph sticker creating apparatus 1, the pre-selection unit 302, the photographing unit 304, the editing units 305 A and 305 B, and the printing unit 306 have an external input / output interface 303 with respect to a PC (Personal Computer) unit 301. It is configured by being connected through. The PC unit 301, which is an information processing unit, is mounted, for example, inside the case of the editing unit 12.

PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。   A central processing unit (CPU) 311, a read only memory (ROM) 312, and a random access memory (RAM) 313 that constitute the PC unit 301 are mutually connected by a bus 314.

CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。   The CPU 311 executes a predetermined program to control the overall operation of the photograph sticker creating apparatus 1. The ROM 312 stores programs and data that the CPU 311 executes. The RAM 312 temporarily stores data and programs processed by the CPU 311.

バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。   An input / output interface 315 is further connected to the bus 314. A storage unit 316, a communication unit 317, and a drive 318 are connected to the input / output interface 315.

記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。   The storage unit 316 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 316 stores various setting information and the like supplied from the CPU 311. The information stored in the storage unit 316 is appropriately read by the CPU 311.

通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1の製造メーカが管理する画像取得サイト管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像取得サイト管理サーバにアクセスしてきた携帯端末上で表示されたり、その携帯端末にダウンロードされたりする。   The communication unit 317 is an interface of a network such as the Internet. The communication unit 317 communicates with an external device under the control of the CPU 311. The communication unit 317 transmits the image selected by the user to, for example, an image acquisition site management server managed by the manufacturer of the photograph sticker creating apparatus 1. The image transmitted from the communication unit 317 is allocated with a predetermined storage area, stored, and displayed on a portable terminal that has accessed the image acquisition site management server or downloaded to the portable terminal.

ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。   A removable medium 319 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 318. The programs and data read out from the removable media 319 by the drive 318 are supplied to the CPU 311 and stored or installed in the storage unit 316.

入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。   An external input / output interface 303 is connected to the input / output interface 315. Control of each unit by the PC unit 301 is performed via the external input / output interface 303.

事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。   The preselection unit 302 implements preselection processing for users in the preselection space A0. The preselection unit 302 includes a touch panel monitor 71, a speaker 72, and a coin processing unit 321.

タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。   The touch panel monitor 71 displays various selection screens according to the control of the PC unit 301, and receives the user's operation on the selection screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and various settings are performed.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。   The coin processing unit 321 detects the insertion of coins into the coin insertion and return port 73. When detecting that a coin for a predetermined amount has been inserted, the coin processing unit 321 outputs an activation signal for instructing the start of the game to the PC unit 301.

撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部304は、照明装置331、カメラ91、タッチパネルモニタ92、およびスピーカ102から構成される。   The imaging unit 304 implements imaging processing for the user in the imaging space A1. The imaging unit 304 includes an illumination device 331, a camera 91, a touch panel monitor 92, and a speaker 102.

照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。   The illumination device 331 is each strobe unit in the imaging space A1, and emits light in accordance with the illumination control signal supplied from the PC unit 301.

カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)をPC部301に出力する。   The camera 91 performs photographing according to shutter control by the PC unit 301, and outputs a photographed image (image data) obtained by photographing to the PC unit 301.

編集部305Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部305Aと同一の構成を有する。なお、以下、編集部305A,305Bを特に区別しない場合には、単に、編集部305という。   The editing unit 305A implements editing processing for users in the editing space A2-1. The editing unit 305A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. The editing unit 305B implements editing processing for users in the editing space A2-2, and has the same configuration as the editing unit 305A. Hereinafter, the editing units 305A and 305B will be simply referred to as the editing unit 305 when not particularly distinguished.

タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、編集対象となる撮影画像が編集される。   The tablet built-in monitor 131 displays the editing screen according to the control by the PC unit 301, and receives the user's operation on the editing screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and the captured image to be edited is edited.

印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。   The printing unit 306 is configured to include the printer 351. The sticker sheet unit 352 is attached to the printer 351.

プリンタ351は、内蔵するヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によって所定のカット位置でカットして、シール紙排出口161に排出する。   The printer 351 drives the built-in head 361 and prints an image on the roll-shaped sealing paper 363 stored in the sealing paper unit 352 based on the print data supplied from the PC unit 301. In addition, the printer 351 cuts the seal paper 363 on which the image is printed at a predetermined cutting position by the cutter 362 and discharges it to the seal paper discharge port 161.

<写真シール作成装置の機能構成例>
図11は、写真シール作成装置1の機能構成例を示すブロック図である。図11に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Functional configuration example of photo sticker creation device>
FIG. 11 is a block diagram showing an example of a functional configuration of the photograph sticker creating apparatus 1. At least a part of the functional units shown in FIG. 11 is realized by the CPU 311 executing a predetermined program.

写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。   In the photograph sticker creating apparatus 1, a preselection processing unit 401, a photographing processing unit 402, an editing processing unit 403, and a printing processing unit 404 are realized.

事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択、背景画像の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。   The preselection processing unit 401 controls each part of the preselection unit 302 to execute preselection processing. By the preselection process, selection of the number of users, selection of a background image, and the like are performed. Information representing the content of selection by the user is supplied to the photographing processing unit 402.

撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。   The photographing processing unit 402 performs photographing processing by controlling each unit of the photographing unit 304. The photographing processing unit 402 outputs data of a photographed image obtained by performing photographing processing to the editing processing unit 403. Data of a plurality of photographed images obtained by performing photographing a plurality of times is supplied from the photographing processing unit 402 to the editing processing unit 403.

編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に写る利用者の目の大きさや肌の明るさを調整するための画像処理、撮影画像に対して編集を施すための画像処理などが含まれる。   The editing processing unit 403 performs editing processing by controlling each unit of the editing unit 305. The editing processing includes image processing for adjusting the size and brightness of the skin of the user appearing in the captured image, and image processing for editing the captured image.

編集処理部403は、撮影画像の編集を終えた後、編集画像を所定のレイアウトで配置することによって印刷データを生成し、印刷処理部404に出力する。   After finishing editing of the photographed image, the editing processing unit 403 generates print data by arranging the edited image in a predetermined layout, and outputs the print data to the print processing unit 404.

印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。   The print processing unit 404 outputs the print data to the printer 351 and prints the edited image.

<写真シール作成装置の動作>
ここで、図12のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker creation device>
Here, with reference to the flowchart of FIG. 12, the operation of the photo sticker creating apparatus 1 providing the photo sticker creating game will be described.

ステップS1において、事前選択処理部401は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部321から供給される起動信号に基づいて判定し、硬貨が投入されたと判定するまで待機する。   In step S1, the preselection processing unit 401 determines whether or not a coin for a predetermined amount has been inserted based on the activation signal supplied from the coin processing unit 321, and waits until it is determined that a coin has been inserted. Do.

ステップS1において、硬貨が投入されたと判定された場合、処理はステップS2に進む。ステップS2において、事前選択処理部401は、事前選択部302を制御することで、事前選択処理を行う。具体的には、事前選択処理部401は、撮影空間で行われる撮影に関するコースとして、利用者の人数に応じて行われるゲームの種類を決定する人数コースや、撮影空間で行われる撮影により得られる撮影画像の背景となる背景画像の選択などを利用者に行わせることで、各種の設定を行う。   If it is determined in step S1 that a coin has been inserted, the process proceeds to step S2. In step S2, the preselection processing unit 401 controls the preselection unit 302 to perform preselection processing. Specifically, the prior selection processing unit 401 is obtained as a course related to shooting performed in the shooting space, a course for determining the type of a game to be performed according to the number of users, or shooting performed in the shooting space Various settings are performed by allowing the user to select a background image to be the background of the captured image.

ステップS3において、撮影処理部402は、撮影部304を制御することで、撮影処理を行う。具体的には、撮影処理部402は、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ92にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影し、撮影画像を生成する。   In step S3, the imaging processing unit 402 performs imaging processing by controlling the imaging unit 304. Specifically, the photographing processing unit 402 causes the moving image of the subject taken into the camera 91 to be displayed on the touch panel monitor 92 in live view, photographs the user in the photographing space A1 as the subject, and generates a photographed image.

本実施の形態の撮影処理においては、合計6回の撮影が行われる。6回の撮影により得られる6枚の撮影画像は、編集処理の対象とされてシール紙に印刷されることはもちろん、携帯端末に送信される対象にもなり得る。   In the photographing processing of the present embodiment, a total of six photographings are performed. The six photographed images obtained by six times of photographing may be objects to be edited and printed on a sticker sheet as well as objects to be transmitted to the portable terminal.

6回の撮影としては、5回のアップ撮影と1回の全身撮影が行われるものとするが、6回の撮影として、アップ撮影のみが行われるようにしてもよい。   As the six times of shooting, five up shots and one whole-body shot are performed. However, only six up shots may be performed.

アップ撮影とは、被写体の顔および上半身を撮影範囲とした撮影である。アップ撮影により、撮影画像として、被写体の顔および上半身が写るアップ画像が得られる。一方、全身撮影とは、被写体の全身を撮影範囲とした撮影である。全身撮影により、撮影画像として、被写体の全身が写る全身画像が得られる。全身撮影においては、斜め上から見た被写体の全身が写る全身画像が得られるようにしてもよいし、正面から見た被写体の全身が写る全身画像が得られるようにしてもよい。   The up shooting is a shooting in which the shooting range is the face and upper body of the subject. By the up shooting, an up image in which the face and the upper body of the subject are captured can be obtained as a shot image. On the other hand, full-body imaging is imaging with the entire body of the subject taken as an imaging range. By whole body imaging, a whole body image in which the whole body of the subject is captured can be obtained as a captured image. In whole body imaging, a whole body image in which the whole body of the subject viewed from obliquely above may be obtained, or a whole body image in which the whole body of the subject viewed from the front may be obtained.

このようにして、撮影処理において、6枚の撮影画像が取得される。   Thus, six photographed images are obtained in the photographing process.

ステップS4において、編集処理部403は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで、編集処理を行う。具体的には、編集処理部403は、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせることで、編集が施された編集画像を生成する。   In step S4, the editing processing unit 403 controls the editing unit 305 corresponding to the editing space of the moving destination of the user who has completed the photographing process among the editing space A2-1 and the editing space A2-2. And perform the editing process. Specifically, the editing processing unit 403 generates the edited image on which the editing has been performed, by causing the user to perform the editing operation on the photographed image obtained by the photographing processing.

ステップS5において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う(開始する)。具体的には、印刷処理部404は、編集処理により得られた編集画像をプリンタ351に出力してシール紙に印刷する。なお、撮影処理により得られた撮影画像が、シール紙に印刷されるようにしてもよい。   In step S5, the print processing unit 404 controls (starts) the print processing by controlling the printer 351. Specifically, the print processing unit 404 outputs the edited image obtained by the editing processing to the printer 351 and prints it on a sticker sheet. The photographed image obtained by the photographing processing may be printed on a sticker sheet.

印刷が終了すると、ステップS6において、プリンタ351は、画像が印刷されたシール紙をシール紙排出口161に排出し、処理を終了させる。   When printing is completed, in step S6, the printer 351 discharges the sticker sheet on which the image is printed to the sticker sheet outlet 161, and ends the process.

<編集処理の詳細>
次に、図13のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS4の編集処理の詳細について説明する。
<Details of editing process>
Next, with reference to the flowchart of FIG. 13, the details of the editing process of step S4 in the series of processes of the photo sticker creating game described above will be described.

編集処理が開始されると、ステップS11において、編集処理部403は、目の大きさ・明るさ選択画面をタブレット内蔵モニタ131に表示させる。   When the editing process is started, in step S11, the editing processing unit 403 causes the tablet built-in monitor 131 to display an eye size / brightness selection screen.

目の大きさ・明るさ選択画面は、撮影画像に写る利用者の目の大きさと肌の明るさの選択に用いられる画面である。目の大きさ・明るさ選択画面において、目の大きさと肌の明るさとが選択されると、処理はステップS12に進む。   The eye size / brightness selection screen is a screen used for selecting the size of the user's eyes and the brightness of the skin appearing in the photographed image. When the eye size and the brightness of the skin are selected on the eye size / brightness selection screen, the process proceeds to step S12.

ステップS12において、編集処理部403は、編集画面をタブレット内蔵モニタ131に表示させる。   In step S12, the editing processing unit 403 causes the tablet built-in monitor 131 to display an editing screen.

編集画面は、編集対象となる撮影画像の編集に用いられる画面である。編集画面には、編集対象となる撮影画像と、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)が表示される。   The editing screen is a screen used for editing a captured image to be edited. On the editing screen, a photographed image to be edited and various editing tools (image for synthesis) such as a stamp image and a pen image used for editing are displayed.

利用者は、タッチペン132を用いて、スタンプ画像やペン画像などを編集対象となる撮影画像上の所定の位置へ重畳することで、編集対象となる撮影画像に対する合成用画像の合成が行われる。   The user uses the touch pen 132 to superimpose a stamp image, a pen image, or the like on a predetermined position on the captured image to be edited, thereby combining the composite image with the captured image to be edited.

すなわち、ステップS13において、編集処理部403は、利用者が用いるタッチペン132による操作を受け付け、受け付けられた操作に応じて、編集対象となる撮影画像に編集を施す。   That is, in step S13, the editing processing unit 403 receives an operation by the touch pen 132 used by the user, and edits the captured image to be edited according to the received operation.

編集作業が終了すると、ステップS14において、編集処理部403は、分割数選択画面をタブレット内蔵モニタ131に表示させる。   When the editing operation is completed, the editing processing unit 403 causes the tablet built-in monitor 131 to display a division number selection screen in step S14.

分割数選択画面は、最終的に出力されるシール紙の分割数やシールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚の写真シールに配置される編集画像(撮影画像)の枚数や位置、大きさを決定するレイアウト(配置パターン)である。ここで、利用者により選択されたシールレイアウトに従って編集画像が配置されてなる画像、すなわち、シール紙に印刷されて最終的に出力される画像をレイアウト画像という。   The division number selection screen is a screen used for selecting the number of divisions of the seal sheet to be finally output and the seal layout. The seal layout is a layout (arrangement pattern) for determining the number, position, and size of edited images (captured images) arranged on one photo sticker. Here, an image formed by arranging the edited image according to the seal layout selected by the user, that is, an image printed on the seal paper and finally output is referred to as a layout image.

したがって、分割数選択画面には、例えば6枚の撮影画像それぞれに編集が施された編集画像が、異なるシールレイアウトで配置されたレイアウト画像が複数表示される。   Therefore, on the division number selection screen, a plurality of layout images are displayed, in which, for example, edited images obtained by editing each of six photographed images are arranged in different seal layouts.

分割数選択画面において、レイアウト画像のいずれかが選択されると、処理はステップS15に進む。   If one of the layout images is selected on the division number selection screen, the process proceeds to step S15.

ステップS15において、編集処理部403は、携帯送信用画像選択画面をタブレット内蔵モニタ131に表示させる。   In step S15, the editing processing unit 403 causes the tablet built-in monitor 131 to display a portable transmission image selection screen.

携帯送信用画像選択画面は、利用者の所有する携帯端末に送信するための携帯送信用画像の選択に用いられる画面である。携帯送信用画像選択画面には、6枚の撮影画像に加え、そのうちのいずれかに所定の編集が施された携帯送信専用の画像が表示される。   The portable transmission image selection screen is a screen used for selecting a portable transmission image to be transmitted to a portable terminal owned by the user. In addition to the six photographed images, the mobile transmission image selection screen displays an image dedicated to mobile transmission in which predetermined editing has been performed on any of them.

携帯送信用画像選択画面において、画像のいずれかが選択されると、処理はステップS16に進む。   When one of the images is selected on the mobile transmission image selection screen, the process proceeds to step S16.

ステップS16において、編集処理部403は、メールアドレス入力画面をタブレット内蔵モニタ131に表示させる。   In step S16, the editing processing unit 403 causes the tablet built-in monitor 131 to display an e-mail address input screen.

メールアドレス入力画面は、利用者の所有する携帯端末のメールアドレスの入力に用いられる画面である。メールアドレス入力画面には、メールアドレスに用いることが可能なアルファベットや記号、携帯電話機のキャリアを選択するためのボタンと、選択されたボタンに対応する文字列が表示されるテキストボックスが表示される。   The e-mail address input screen is a screen used to input the e-mail address of the portable terminal owned by the user. The e-mail address input screen displays alphabets and symbols that can be used for e-mail addresses, a button for selecting a carrier of a mobile phone, and a text box in which a character string corresponding to the selected button is displayed. .

メールアドレス入力画面において、メールアドレスの入力が終了すると、処理はステップS17に進む。   When the input of the mail address is completed on the mail address input screen, the process proceeds to step S17.

ステップS17において、編集処理部403は、通信部317を制御することで、インターネットなどのネットワークを介して、利用者により選択された携帯送信用画像を、利用者により入力されたメールアドレスとともに、画像取得サイト管理サーバに送信する。   In step S17, the editing processing unit 403 controls the communication unit 317 to transmit the portable transmission image selected by the user via the network such as the Internet, together with the mail address input by the user. Send to the acquisition site management server.

画像取得サイト管理サーバは、利用者により入力されたメールアドレス宛てに、携帯端末が画像取得サイト管理サーバにアクセスするのに必要なURL(Uniform Resource Locator)が記載されたメールを送信する。そして、そのURLに基づいて、利用者が所有する携帯端末が、ネットワークを介して画像取得サイト管理サーバにアクセスすることで、画像取得サイト管理サーバに送信された携帯送信用画像が携帯端末に提供される。   The image acquisition site management server sends, to a mail address input by the user, a mail in which a URL (Uniform Resource Locator) necessary for the mobile terminal to access the image acquisition site management server is described. Then, based on the URL, the portable terminal owned by the user accesses the image acquisition site management server via the network, and the portable transmission image transmitted to the image acquisition site management server is provided to the portable terminal. Be done.

そして、ステップS18において、編集処理部403は、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、編集部305A,305Bのタブレット内蔵モニタ131に案内画面を表示させることによって、または音声をスピーカ341から出力させることによって行われる。   Then, in step S18, the editing processing unit 403 guides the user who has finished the editing work to move to the print waiting space A3. Guidance of movement to the print waiting space A3 is performed by displaying a guidance screen on the tablet built-in monitor 131 of the editing units 305A and 305B or by outputting sound from the speaker 341.

以上のようにして、編集処理が行われる。   Editing processing is performed as described above.

ところで、本実施の形態の写真シール作成装置1においては、編集対象となる撮影画像(以下、編集対象画像ともいう)の画角(撮影範囲)によって、異なる表示形態の編集画面が表示される。具体的には、編集対象画像となる撮影画像が、アップ画像であるか全身画像であるかによって、異なる表示形態の編集画面が表示される。   By the way, in the photograph sticker creating apparatus 1 of the present embodiment, editing screens of different display forms are displayed depending on the angle of view (shooting range) of a photographed image to be edited (hereinafter, also referred to as editing target image). Specifically, an editing screen of a different display form is displayed depending on whether the captured image to be edited is an up image or a whole-body image.

<編集画面の例>
そこで、図14および図15を参照して、編集対象画像の画角に応じた編集画面の表示形態について説明する。
<Example of editing screen>
Therefore, with reference to FIGS. 14 and 15, the display form of the editing screen according to the angle of view of the image to be edited will be described.

編集画面は、基本的に、主な構成が左右対称に設けられることによって構成される。左半分の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右半分の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような編集画面の構成により、主に2人の利用者が同時に編集作業を行うことができる。   The editing screen is basically configured by providing the main components symmetrically. The left half area is an area used by the user who is on the left side toward the tablet built-in monitor 131. The right half area is an area used by the user who is on the right side toward the tablet built-in monitor 131. The configuration of such an editing screen allows mainly two users to perform editing work at the same time.

図14は、編集画面の左半分の領域(左半分領域)を示している。   FIG. 14 shows the left half area (left half area) of the editing screen.

左半分領域の中央上部には、サムネイル表示領域511が設けられる。サムネイル表示領域511は、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル表示領域511に表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。   A thumbnail display area 511 is provided at the upper center of the left half area. The thumbnail display area 511 is a display area of thumbnail images representing a captured image. The user selects a captured image to be edited by selecting a thumbnail image displayed in the thumbnail display area 511.

サムネイル表示領域511には、6枚の撮影画像を表すサムネイル画像が並んで表示されている。   In the thumbnail display area 511, thumbnail images representing six photographed images are displayed side by side.

左半分領域の略中央には、編集領域512が設けられる。編集領域512は、編集対象として選択された撮影画像(編集対象画像)の表示領域である。利用者は、タッチペン132を用いて編集ツールを選択し、編集領域512に表示された撮影画像の編集を行う。   An editing area 512 is provided substantially at the center of the left half area. The editing area 512 is a display area of the photographed image (image to be edited) selected as the editing target. The user uses the touch pen 132 to select an editing tool, and edits the captured image displayed in the editing area 512.

図14の例では、編集領域512に、編集対象画像として2人の利用者の顔および上半身が写るアップ画像が表示されている。また、編集領域512に表示されているアップ画像において、後述するレタッチ処理の対象となる利用者(左側の利用者)の顔の部分には、顔枠521が表示されている。   In the example of FIG. 14, in the editing area 512, an up image in which the faces and upper body of two users are shown as images to be edited is displayed. Further, in the up image displayed in the editing area 512, a face frame 521 is displayed on the face portion of the user (user on the left side) to be a target of retouching processing to be described later.

左半分領域の下部には、編集パレット513が表示される。編集パレット513は、ペン画像やスタンプ画像などの各種の編集ツール(合成用画像)の選択に用いられる。   At the bottom of the left half area, an editing palette 513 is displayed. The editing palette 513 is used to select various editing tools (images for combining) such as pen images and stamp images.

編集パレット513においては、編集パレット513の編集画面中央側に設けられたボタン毎に各編集ツールが用意されている。利用者は、それぞれのボタンを選択することによって、編集パレット513に表示される編集ツールを切り替える。例えば、「ペン」の名前が付されたボタンは、ペン画像を選択するときに操作されるボタンであり、「スタンプ」の名前が付されたボタンは、スタンプ画像を選択するときに操作されるボタンである。   In the editing palette 513, each editing tool is prepared for each button provided on the center side of the editing screen of the editing palette 513. The user switches the editing tool displayed in the editing palette 513 by selecting each button. For example, a button with the name "pen" is a button operated when selecting a pen image, and a button with a name "stamp" is operated when selecting a stamp image It is a button.

左半分領域の左部(編集パレット513の左方)には、専用GUI(Graphic User Interface)表示領域530が設けられる。専用GUI表示領域530は、編集領域512に表示される編集対象画像の画角に対応したGUIが表示される領域である。   A dedicated GUI (Graphic User Interface) display area 530 is provided on the left of the left half area (left of the editing palette 513). The dedicated GUI display area 530 is an area in which a GUI corresponding to the angle of view of the image to be edited displayed in the editing area 512 is displayed.

図14の例では、編集領域512にアップ画像が表示されているので、専用GUI表示領域530には、アップ画像に対応したGUIが表示されている。ここで、アップ画像に対応したGUIは、撮影画像(ここではアップ画像)に写る人物やその一部を加工(拡大/縮小、変形、色の変更など)したり修整する画像処理(以下、レタッチ処理という)の選択を受け付けるためのレタッチ用GUIとされる。以下においては、レタッチ用GUIをレタッチパレットという。   In the example of FIG. 14, since the up image is displayed in the editing area 512, in the dedicated GUI display area 530, a GUI corresponding to the up image is displayed. Here, the GUI corresponding to the up image is an image processing (hereinafter, retouching) for processing (enlargement / reduction, deformation, color change, etc.) or a person appearing in a photographed image (here, up image) or a part thereof. This is a GUI for retouching for accepting selection of processing). In the following, the retouching GUI is referred to as a retouching palette.

具体的には、図14の例では、専用GUI表示領域530のレタッチパレットに、透明感アップボタン551、まるく大きくボタン552、および涙袋ボタン553の3つのボタンが表示されている。これらのボタン551乃至553は、いずれも、アップ画像に写る被写体の目およびその近傍の領域に対するレタッチ処理の選択を受け付けるためのボタンである。   Specifically, in the example of FIG. 14, the retouching palette of the dedicated GUI display area 530 displays three buttons: a transparency-up button 551, a large large button 552, and a tear bag button 553. These buttons 551 to 553 are all buttons for receiving the selection of the retouching process for the eye of the subject shown in the up image and the area in the vicinity thereof.

透明感アップボタン551は、アップ画像(編集対象画像)に写る被写体の目(瞳)の色の濃さを変化させるためのボタンである。まるく大きくボタン552は、アップ画像(編集対象画像)に写る被写体の目の形状および大きさを、丸く大きくするためのボタンである。涙袋ボタン553は、アップ画像(編集対象画像)に写る被写体の目の下方に涙袋を作る(作ったように見せる)ためのボタンである。   The transparency-up button 551 is a button for changing the color depth of the eyes (pupils) of the subject appearing in the up image (image to be edited). The round and big button 552 is a button for rounding up the shape and size of the eye of the subject shown in the up image (image to be edited). The teardrop bag button 553 is a button for making a teardrop bag under the eyes of the subject shown in the up image (image to be edited).

これらのボタンが操作されると、アップ画像(編集対象画像)において顔枠521が表示されている顔の目およびその近傍の領域に、操作されたボタンに対応するレタッチ処理が施される。編集画面が最初に表示された状態(デフォルトの状態)では、いずれのボタン551乃至553も操作されていない状態とされる。   When these buttons are operated, retouching processing corresponding to the operated button is performed on the eyes of the face on which the face frame 521 is displayed in the up image (image to be edited) and the vicinity thereof. When the editing screen is initially displayed (the default state), none of the buttons 551 to 553 are operated.

レタッチ処理の対象となる被写体の選択は、アップ画像に写る被写体(人物)の顔がタッチペン132により選択されることで行われ、選択された顔の部分に顔枠521が表示される。なお、レタッチ処理の対象となる被写体を切り替えた場合、切り替え後の被写体に、切り替え前の被写体に施されたレタッチ処理が反映されることはない。   The selection of the subject to be the target of the retouching process is performed by the face of the subject (person) appearing in the up image being selected by the touch pen 132, and the face frame 521 is displayed on the selected face portion. When the subject to be subjected to the retouching process is switched, the retouching process applied to the subject before switching is not reflected on the switched subject.

また、図14の例では、透明感アップボタン551、まるく大きくボタン552、および涙袋ボタン553それぞれに対応して、OFFボタン561乃至563が表示されている。   Further, in the example of FIG. 14, the OFF buttons 561 to 563 are displayed corresponding to the transparent feeling up button 551, the large and round button 552, and the tear bag button 553, respectively.

OFFボタン561乃至563はそれぞれ、編集対象画像において顔枠521が表示されている顔の目に施された、ボタン551乃至553それぞれに対応するレタッチ処理を消去する(OFFする)ためのボタンである。OFFボタン561乃至563による消去処理は、対応するレタッチ処理が反映されている場合にのみ反映される。   The OFF buttons 561 to 563 are buttons for deleting (turning off) the retouching process corresponding to the buttons 551 to 553, respectively, applied to the eyes of the face whose face frame 521 is displayed in the image to be edited. . The erasing process by the OFF buttons 561 to 563 is reflected only when the corresponding retouching process is reflected.

このようにして、編集領域512に、編集対象画像としてアップ画像が表示されている場合、専用GUI表示領域530には、被写体の目の部分を加工したり修整するレタッチ処理の選択を受け付けるためのレタッチパレットが表示される。これにより、利用者は、アップ画像に大きく写る利用者自身の顔を、完成度の高い見た目の顔に仕上げることができる。   Thus, when the up image is displayed as the image to be edited in the editing area 512, the dedicated GUI display area 530 receives the selection of the retouching process for processing or modifying the eye part of the subject. The retouching palette is displayed. As a result, the user can finish the user's own face, which is greatly reflected in the up image, into a face with a perfect appearance.

一方、図15に示されるように、編集対象画像として全身画像が選択された場合、専用GUI表示領域530には、全身画像に対応したGUIが表示される。ここで、全身画像に対応したGUIは、撮影画像(ここでは全身画像)に写る人物に合成されるコンテンツを選択するためのコンテンツ選択用GUIとされる。ここでいうコンテンツは、撮影画像に合成される合成用画像(特にスタンプ画像)を指す。以下においては、コンテンツ選択用GUIをコンテンツパレットという。   On the other hand, as shown in FIG. 15, when the whole-body image is selected as the image to be edited, a GUI corresponding to the whole-body image is displayed in the dedicated GUI display area 530. Here, the GUI corresponding to the whole body image is a content selection GUI for selecting the contents to be combined with the person shown in the photographed image (here, the whole body image). The content referred to here indicates an image for composition (in particular, a stamp image) to be combined with a captured image. Hereinafter, the content selection GUI is referred to as a content palette.

具体的には、図15の例では、専用GUI表示領域530のコンテンツパレットに、一発なりきりボタン571乃至573が表示されている。これらのボタン571乃至573は、いずれも、全身画像に写る被写体の体の一部に合成されるコンテンツの選択を受け付けるためのボタンである。   Specifically, in the example of FIG. 15, only one shot buttons 571 to 573 are displayed in the content palette of the dedicated GUI display area 530. Each of these buttons 571 to 573 is a button for receiving selection of content to be synthesized on a part of the body of the subject appearing in the whole-body image.

一発なりきりボタン571は、全身画像(編集対象画像)に写る被写体の顔に「うさぎ」の耳とひげを模したスタンプ画像を合成するともに、画像全体にフレーム画像を合成するためのボタンである。一発なりきりボタン572は、全身画像(編集対象画像)に写る被写体の顔に「猫」の耳とひげを模したスタンプ画像を合成するともに、画像全体にフレーム画像を合成するためのボタンである。一発なりきりボタン573は、全身画像(編集対象画像)に写る被写体の顔に「くま」の耳とひげを模したスタンプ画像を合成するともに、画像全体にフレーム画像を合成するためのボタンである。   The single-shot button 571 is a button for combining a stamp image imitating ears and a beard of "Rabbit" on the face of the subject shown in the full-body image (image to be edited) and combining a frame image on the entire image . The single-shot button 572 is a button for combining the stamp image imitating the ear and beard of the "cat" with the face of the subject shown in the full-body image (image to be edited) and combining the frame image over the entire image. . The one-shot button 573 is a button for combining the stamp image imitating the ears and the beard of "bear" on the face of the subject shown in the full-body image (image to be edited) and for combining the frame image on the entire image .

一発なりきりボタン571乃至573によって合成される動物の耳とひげを模したスタンプ画像は、全身画像に対する顔認識処理の結果、大きさや向きが調整された上で、全身画像に写る被写体の顔に合成される。   The stamp image imitating the ears and beards of the animal synthesized by the one-shot button 571 to 573 is adjusted in size and direction as a result of face recognition processing for the whole body image, and the subject is photographed in the whole body image. It is synthesized.

このようにして、編集領域512に、編集対象画像として全身画像が表示されている場合、専用GUI表示領域530には、全身画像に合成されるコンテンツの選択を受け付けるためのコンテンツパレットが表示される。これにより、利用者は、全身画像に写る利用者自身を、かわいく面白味のある見た目に仕上げることができる。   Thus, when the whole body image is displayed in the editing area 512 as the image to be edited, the dedicated GUI display area 530 displays the content palette for receiving the selection of the content to be combined with the whole body image. . In this way, the user can finish the user appearing in the full-body image to look cute and interesting.

なお、本実施の形態においては、アップ画像と全身画像の縦横比(アスペクト比)は異なるものとすることができる。全身画像には、被写体となる利用者の頭から足元まで写る必要がある。そのため、例えば、アップ画像の縦横比を1.2:1、全身画像の縦横比を1.5:1とするなど、アップ画像より全身画像の方が縦長の矩形形状を有することが好ましい。   In the present embodiment, the aspect ratio (aspect ratio) of the up image and the whole image can be different. The full-body image needs to be taken from the head to the foot of the user who is the subject. Therefore, it is preferable that the whole-body image has a vertically-long rectangular shape rather than the up-image, for example, the aspect ratio of the up image is 1.2: 1 and the aspect ratio of the whole body image is 1.5: 1.

このような場合、編集画面の編集領域512において、アップ画像と全身画像が表示される際にそれぞれの横の長さを一定にすると、縦の長さが異なるため、サムネイル表示領域511や編集パレット513のデザインやレイアウトを変更する必要が生じる。   In such a case, if the horizontal length of each of the up image and the whole body image is constant in the editing area 512 of the editing screen, the vertical length is different. It is necessary to change the 513 design and layout.

そこで、図14および図15に示されるように、編集画面の編集領域512において、アップ画像と全身画像が表示される際にそれぞれの縦の長さを一定にする。この場合、横の長さが異なるものの、全身画像が表示されるときにその左右に若干のスペースが生じるだけで、サムネイル表示領域511や編集パレット513など編集画面のデザインやレイアウトを変更する必要は生じない。加えて、全身画像が表示される場合には、その左右に、編集パレット513とは別にコンテンツ(スタンプ画像など)を常時配置することができるので、コンテンツのバリエーションを増やすとともに、選択の容易性を向上させることができる。さらには、専用GUI表示領域530を大きくすることもできるので、コンテンツパレットのバリエーションを増やすことも可能となる。   Therefore, as shown in FIGS. 14 and 15, when the up image and the whole body image are displayed in the editing area 512 of the editing screen, the vertical length of each is made constant. In this case, although the horizontal length is different, only a slight space occurs on the left and right when the full-body image is displayed, and it is necessary to change the design and layout of the editing screen such as the thumbnail display area 511 and the editing palette 513 It does not occur. In addition, when a full-body image is displayed, content (such as a stamp image) can be always arranged separately from the editing palette 513 on the left and right of the whole image. It can be improved. Furthermore, since the dedicated GUI display area 530 can be enlarged, it is also possible to increase the variation of the content palette.

<編集処理部の機能構成例>
ここで、図16を参照して、上述した専用GUI表示領域530における表示を実現する編集処理部403の機能構成例について説明する。
<Example of Functional Configuration of Editing Processing Unit>
Here, with reference to FIG. 16, a functional configuration example of the editing processing unit 403 for realizing the display in the dedicated GUI display area 530 described above will be described.

編集処理部403は、表示制御部601、レタッチ処理部602、および合成処理部603から構成される。   The editing processing unit 403 includes a display control unit 601, a retouch processing unit 602, and a combining processing unit 603.

表示制御部601は、タブレット内蔵モニタ131の表示を制御する。例えば、表示制御部601は、タブレット内蔵モニタ131に、撮影により得られた複数の撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示させる。   The display control unit 601 controls the display of the tablet built-in monitor 131. For example, the display control unit 601 causes the tablet built-in monitor 131 to display an editing screen for receiving an editing input for editing any one of a plurality of photographed images obtained by photographing.

レタッチ処理部602は、特定の画角(撮影範囲)で撮影された撮影画像に写る被写体に対してレタッチ処理を施す。ここでいう特定の画角は、複数の画角のうちの1つの画角のみであってもよいし、2以上の画角であってもよい。   The retouch processing unit 602 performs retouching processing on an object captured in a captured image captured at a specific angle of view (imaging range). The specific angle of view referred to here may be only one angle of view among a plurality of angles of view, or may be two or more.

合成処理部603は、編集対象となった撮影画像に、利用者により選択されたコンテンツ(スタンプ画像)を合成する。   The composition processing unit 603 combines the content (stamp image) selected by the user with the captured image to be edited.

<編集対象画像に応じたレタッチ/合成処理>
次に、図17のフローチャートを参照して、編集処理部403によって実行される編集対象画像に応じたレタッチ/合成処理の流れについて説明する。図17の処理は、サムネイル表示領域511においていずれかのサムネイル画像が選択されると開始される。
<Retouching / Composition Processing According to Editing Image>
Next, the flow of retouching / composition processing according to the image to be edited executed by the editing processing unit 403 will be described with reference to the flowchart in FIG. The process in FIG. 17 is started when any thumbnail image is selected in the thumbnail display area 511.

ステップS31において、表示制御部601は、サムネイル表示領域511においていずれかのサムネイル画像が選択されることで、編集対象画像として選択された画像が、特定の画角の撮影画像であるか否かを判定する。ここでは、特定の画角の撮影画像は、アップ撮影により得られたアップ画像とされる。   In step S31, the display control unit 601 selects one of the thumbnail images in the thumbnail display area 511 to determine whether the image selected as the image to be edited is a photographed image of a specific angle of view. judge. Here, the photographed image of a specific angle of view is taken as the up image obtained by the up shooting.

ステップS31において、編集対象画像として選択された画像が特定の画角であると判定されると、処理はステップS32に進む。   If it is determined in step S31 that the image selected as the image to be edited has a specific angle of view, the process proceeds to step S32.

ステップS32において、表示制御部601は、専用GUI表示領域530に、レタッチパレットを表示する。   In step S32, the display control unit 601 displays the retouching palette in the dedicated GUI display area 530.

ステップS33において、表示制御部601は、利用者によってレタッチパレットが操作されたか否かを判定する。ステップS33の処理は、レタッチパレットが操作されるまで繰り返され、レタッチパレットが操作されると、処理はステップS34に進む。   In step S33, the display control unit 601 determines whether the user has operated the retouching pallet. The process of step S33 is repeated until the retouching palette is operated, and when the retouching palette is operated, the process proceeds to step S34.

ステップS34において、レタッチ処理部602は、レタッチパレットに対する操作に応じたレタッチ処理を編集対象画像(ここではアップ画像)に施す。   In step S34, the retouch processing unit 602 applies a retouch process corresponding to the operation on the retouch palette to the image to be edited (here, the up image).

一方、ステップS31において、編集対象画像として選択された画像が特定の画角の画像でない(すなわち全身画像である)と判定されると、処理はステップS35に進む。   On the other hand, when it is determined in step S31 that the image selected as the image to be edited is not an image with a specific angle of view (that is, it is a whole body image), the process proceeds to step S35.

ステップS35において、表示制御部601は、専用GUI表示領域530に、レタッチパレットを表示せず、コンテンツパレットを表示する。   In step S35, the display control unit 601 displays the content palette in the dedicated GUI display area 530 without displaying the retouching palette.

ステップS36において、表示制御部601は、利用者によってコンテンツパレットが操作されたか否かを判定する。ステップS36の処理は、コンテンツパレットが操作されるまで繰り返され、コンテンツパレットが操作されると、処理はステップS37に進む。   In step S36, the display control unit 601 determines whether the user has operated the content palette. The process of step S36 is repeated until the content palette is manipulated, and when the content palette is manipulated, the process proceeds to step S37.

ステップS37において、合成処理部603は、コンテンツパレットに対する操作に応じたコンテンツを編集対象画像(ここでは全身画像)に合成する。   In step S37, the combining processing unit 603 combines the content corresponding to the operation on the content palette into the image to be edited (here, the whole-body image).

以上の処理によれば、アップ画像が編集対象となったときのみ、アップ画像に写る顔やその一部を加工したり修整するレタッチ処理の選択を受け付けるためのレタッチ用GUIが編集画面に表示される。これにより、利用者自身の顔が大きく写るアップ画像を個々に、所望する見た目の画像に仕上げることが可能となる。   According to the above process, only when the up image is to be edited, the retouching GUI for receiving the selection of the retouching process for processing or modifying the face or part of the face included in the up image is displayed on the editing screen. Ru. As a result, it is possible to individually finish up-up images, in which the user's own face is large, into images of desired appearance.

<編集画面の他の表示パターン>
以上においては、編集画面において、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときにはレタッチパレットが表示されないものとしたが、その逆であってもよい。
<Other display patterns of the editing screen>
In the above description, the retouching palette is displayed when the up image is to be edited on the editing screen, and the retouching palette is not displayed when the whole image is to be edited, but the reverse is also possible.

具体的には、編集画面において、全身画像が編集対象となったときにはレタッチパレットが表示され、アップ画像が編集対象となったときにはレタッチパレットが表示されないようにしてもよい。なお、ここでの全身画像は、上述した、斜め上から見た被写体の全身が写る全身画像、および、正面から見た被写体の全身が写る全身画像のいずれか一方であってもよいし、その両方であってもよい。   Specifically, on the editing screen, the retouching palette may be displayed when the whole-body image is to be edited, and the retouching palette may not be displayed when the up image is to be edited. Note that the whole-body image here may be any one of the whole-body image showing the whole body of the subject seen from above obliquely and the whole-body image showing the whole body of the subject seen from the front, It may be both.

例えば、図18に示されるように、編集対象画像として全身画像が選択された場合、専用GUI表示領域530に、全身画像に対応したレタッチパレットが表示されるようにする。   For example, as shown in FIG. 18, when a whole-body image is selected as an image to be edited, a retouching palette corresponding to the whole-body image is displayed in the dedicated GUI display area 530.

図18の例では、専用GUI表示領域530のレタッチパレットに、脚長ボタン611、脚細ボタン612、および背高ボタン613の3つのボタンが表示されている。これらのボタン611乃至613は、いずれも、全身画像に写る被写体の脚または全身の領域に対するレタッチ処理の選択を受け付けるためのボタンである。   In the example of FIG. 18, three buttons of a leg length button 611, a leg thin button 612, and a height button 613 are displayed on the retouching palette of the dedicated GUI display area 530. Each of these buttons 611 to 613 is a button for accepting the selection of the retouching process on the leg or the region of the whole body of the subject appearing in the whole body image.

これらのボタンが操作されると、全身画像(編集対象画像)において図示せぬ顔枠(全身の部分に表示される全身枠であってもよい)が表示されている被写体の脚または全身の領域に、操作されたボタンに対応するレタッチ処理が施される。   When these buttons are operated, the leg or whole body area of the subject whose face frame (which may be the whole body frame displayed on the whole body part) is displayed in the whole body image (image to be edited) The retouch process corresponding to the operated button is performed.

脚長ボタン611は、全身画像(編集対象画像)に写る被写体の脚の長さを変化させる(伸ばす)ためのボタンである。脚細ボタン612は、全身画像(編集対象画像)に写る被写体の脚の細さをより細くするためのボタンである。背高ボタン613は、全身画像(編集対象画像)に写る被写体の背の高さを大きくするためのボタンである。なお、脚長ボタン611や脚細ボタン612が操作された場合、被写体の脚の長さや細さに伴い、被写体の身体(胴体)を細くする痩身処理が施されるようにしてもよい。   The leg length button 611 is a button for changing (stretching) the length of the leg of the subject shown in the full-body image (image to be edited). The fine leg button 612 is a button for further thinning the leg of the subject appearing in the full-body image (image to be edited). The height button 613 is a button for increasing the height of the subject in the full-body image (image to be edited). When the leg length button 611 or the leg thin button 612 is operated, slimming processing may be performed to thin the subject's body (body) according to the length and the thinness of the subject's legs.

また、図18のレタッチパレットには、脚長ボタン611、脚細ボタン612、および背高ボタン613それぞれに対応して、OFFボタン621乃至623が表示されている。   Further, in the retouching pallet of FIG. 18, OFF buttons 621 to 623 are displayed corresponding to the leg length button 611, the thin leg button 612, and the height button 613, respectively.

OFFボタン621乃至623はそれぞれ、編集対象画像において図示せぬ顔枠(または全身枠)が表示されている被写体の脚または全身に施された、ボタン611乃至613それぞれに対応するレタッチ処理を消去する(OFFする)ためのボタンである。   The OFF buttons 621 to 623 respectively delete the retouching processing corresponding to the buttons 611 to 613 applied to the legs or the entire body of the subject whose face frame (or whole body frame not shown) is displayed in the image to be edited. It is a button for (turning off).

このようにして、編集領域512に、編集対象画像として全身画像が表示されている場合、専用GUI表示領域530には、被写体の脚や全身を加工したり修整するレタッチ処理の選択を受け付けるためのレタッチパレットが表示される。これにより、利用者は、全身画像に写る利用者自身の脚や全身を、完成度の高い見た目のスタイルに仕上げることができる。   Thus, when the whole body image is displayed in the editing area 512 as the image to be edited, the dedicated GUI display area 530 receives the selection of the retouching process for processing or modifying the leg or the whole body of the subject. The retouching palette is displayed. In this way, the user can finish the user's own legs and whole body in the full-body image into a style that looks perfect.

一方、図19に示されるように、編集対象画像としてアップ画像が選択された場合、専用GUI表示領域530に、コンテンツパレットが表示される。   On the other hand, as shown in FIG. 19, when the up image is selected as the image to be edited, the content palette is displayed in the dedicated GUI display area 530.

図19の例では、専用GUI表示領域530のコンテンツパレットに、一発なりきりボタン631乃至633が表示されている。これらのボタン631乃至633は、いずれも、アップ画像に写る被写体の顔の部分に合成されるコンテンツの選択を受け付けるためのボタンである。   In the example of FIG. 19, only one shot buttons 631 to 633 are displayed in the content palette of the dedicated GUI display area 530. Each of these buttons 631 to 633 is a button for receiving selection of content to be combined with the face portion of the subject shown in the up image.

一発なりきりボタン631は、アップ画像(編集対象画像)に写る被写体の顔に「うさぎ」の耳とひげを模したスタンプ画像を合成するためのボタンである。一発なりきりボタン632は、アップ画像(編集対象画像)に写る被写体の顔に「猫」の耳とひげを模したスタンプ画像を合成するためのボタンである。一発なりきりボタン633は、アップ画像(編集対象画像)に写る被写体の顔に「犬」の耳とひげを模したスタンプ画像を合成するためのボタンである。   The one-shot button 631 is a button for combining a stamp image imitating a rabbit's ear and a beard with the face of the subject shown in the up image (image to be edited). The one-shot button 632 is a button for combining the stamp image imitating the ear of a “cat” and a beard with the face of the subject shown in the up image (image to be edited). The one-shot button 633 is a button for combining the stamp image imitating the ear of a “dog” and a beard with the face of the subject shown in the up image (image to be edited).

一発なりきりボタン631乃至633によって合成される動物の耳とひげを模したスタンプ画像は、アップ画像に対する顔認識処理の結果、大きさや向きが調整された上で、アップ画像に写る被写体の顔に合成される。   The stamp image imitating the ears and beards of the animal synthesized by the one-shot button 631 to 633 is adjusted in size and direction as a result of face recognition processing for the up image, and then the subject's face appears in the up image. It is synthesized.

このようにして、編集領域512に、編集対象画像としてアップ画像が表示されている場合、専用GUI表示領域530には、アップ画像に合成されるコンテンツの選択を受け付けるためのコンテンツパレットが表示される。これにより、利用者は、アップ画像に写る利用者の顔を、かわいく面白味のある見た目に仕上げることができる。   Thus, when the up image is displayed in the editing area 512 as the image to be edited, the dedicated GUI display area 530 displays the content palette for receiving the selection of the content to be combined with the up image. . In this way, the user can finish the user's face in the up image to look cute and interesting.

なお、上述したように、編集画面には、主な構成が左右対称に設けられている。したがって、編集画面の左右に設けられている編集領域512には、タブレット内蔵モニタ131に向かう2人の利用者それぞれが、編集対象として選択した撮影画像が表示される。すなわち、編集画面の左右に設けられている専用GUI表示領域530には、利用者それぞれが選択した撮影画像の画角に応じて、レタッチパレットが表示されたり、コンテンツパレットが表示されたりする。   As described above, the main configuration is provided symmetrically on the editing screen. Therefore, in the editing area 512 provided on the left and right of the editing screen, the photographed image selected by each of the two users directed to the tablet built-in monitor 131 as the editing target is displayed. That is, in the dedicated GUI display area 530 provided on the left and right of the editing screen, the retouching palette or the content palette is displayed according to the angle of view of the photographed image selected by each user.

また、上述した構成において、専用GUI表示領域530にレタッチパレットが表示されない場合に、コンテンツパレットも表示されないようにすることもできる。   Further, in the above-described configuration, when the retouching palette is not displayed in the dedicated GUI display area 530, the content palette can also be prevented from being displayed.

例えば、アップ画像が編集対象となり、専用GUI表示領域530にレタッチパレットが表示される場合、図20に示されるように、全身画像が編集対象となったときには、専用GUI表示領域530に何も表示されない(選択させない)ようにする。   For example, when the up image is to be edited and the retouching palette is displayed in the dedicated GUI display area 530, nothing is displayed in the dedicated GUI display area 530 when the whole body image is to be edited as shown in FIG. Do not allow (do not select).

また、全身画像が編集対象となり、専用GUI表示領域530にレタッチパレットが表示される場合、図21に示されるように、アップ画像が編集対象となったときには、専用GUI表示領域530に何も表示されない(選択させない)ようにする。   When the whole image is to be edited and the retouching palette is displayed in the dedicated GUI display area 530, nothing is displayed in the dedicated GUI display area 530 when the up image is to be edited as shown in FIG. Do not allow (do not select).

このように、レタッチパレットが表示されない画角の撮影画像が編集対象となったときには、専用GUI表示領域530に何も表示されないようにすることで、利用者を、編集パレット513を用いた編集作業に集中させることができる。   As described above, when the photographed image of the angle of view in which the retouching palette is not displayed is to be edited, nothing is displayed in the dedicated GUI display area 530, whereby the user can perform editing work using the editing palette 513. You can concentrate on

なお、図20や図21の例のように、専用GUI表示領域530に何も表示されないのではなく、写真シール作成装置1の機種のテーマに沿ったデザインの画像や広告などが、専用GUI表示領域530に表示されるようにしてもよい。さらに、テーマに沿ったデザインの画像や広告以外にも、編集作業に関わる他の機能を実現するためのGUIが表示されるようにしてもよいし、撮影画像(例えば編集が施される前の撮影画像など)が表示されるようにしてもよい。   It should be noted that nothing is displayed in the dedicated GUI display area 530 as in the example of FIG. 20 or FIG. 21, but an image or advertisement of a design according to the theme of the model of the photo sticker creating apparatus 1 is displayed. It may be displayed in area 530. Furthermore, a GUI for realizing other functions related to editing work may be displayed in addition to images and advertisements designed according to the theme, and a photographed image (for example, before editing is performed) A photographed image or the like may be displayed.

また、上述した例において、専用GUI表示領域530にコンテンツパレットが表示される場合にも、編集対象画像において顔枠(または全身枠)を表示するようにし、その顔枠(または全身枠)が表示されている被写体のみにコンテンツが合成されるようにしてもよいし、全ての被写体にコンテンツが合成されるようにしてもよい。   Further, in the above-described example, even when the content palette is displayed in the dedicated GUI display area 530, the face frame (or whole body frame) is displayed in the image to be edited, and the face frame (or whole body frame) is displayed. The content may be combined with only the subject that is being performed, or the content may be combined with all the subjects.

<編集画面の表示パターンについて>
図22は、上述で説明した、編集対象画像に応じた編集画面(専用GUI表示領域530)の表示パターンについて説明する図である。
<Display pattern of edit screen>
FIG. 22 is a diagram for explaining the display pattern of the editing screen (dedicated GUI display area 530) corresponding to the image to be edited described above.

図22において、「パターン1」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときにはコンテンツパレットが表示される表示パターンである。パターン1は、図14および図15の例で示される表示パターンである。   In FIG. 22, “pattern 1” is a display pattern in which the retouching palette is displayed in the dedicated GUI display area 530 when the up image is to be edited and the content palette is displayed when the whole image is to be edited. is there. Pattern 1 is the display pattern shown in the example of FIGS. 14 and 15.

「パターン2」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはコンテンツパレットが表示され、全身画像が編集対象となったときにはレタッチパレットが表示される表示パターンである。パターン2は、図18および図19の例で示される表示パターンである。   “Pattern 2” is a display pattern in which the content palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, and the retouching palette is displayed when the whole image is to be edited. Pattern 2 is the display pattern shown in the example of FIGS. 18 and 19.

「パターン3」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときには何も表示されない表示パターンである。パターン3は、図14および図20の例で示される表示パターンである。   “Pattern 3” is a display pattern in which the retouching palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, and nothing is displayed when the whole image is to be edited. Pattern 3 is the display pattern shown in the example of FIGS. 14 and 20.

「パターン4」は、専用GUI表示領域530に、アップ画像が編集対象となったときには何も表示されず、全身画像が編集対象となったときにはレタッチパレットが表示される表示パターンである。パターン4は、図18および図21の例で示される表示パターンである。   “Pattern 4” is a display pattern in which nothing is displayed in the dedicated GUI display area 530 when the up image is to be edited, and the retouching palette is displayed when the whole image is to be edited. The pattern 4 is a display pattern shown in the example of FIGS. 18 and 21.

このように、本実施の形態においては、編集対象画像に応じた専用GUI表示領域530の表示パターンを用意することができる。   As described above, in the present embodiment, it is possible to prepare a display pattern of the dedicated GUI display area 530 according to the image to be edited.

<編集画面の表示パターンの他の例>
以上においては、アップ撮影と全身撮影の2種類の撮影が行われる場合の専用GUI表示領域530の表示パターンについて説明したが、他の種類の撮影が行われるようにしてもよい。
<Another Example of Display Pattern of Editing Screen>
In the above, the display pattern of the dedicated GUI display area 530 in the case where two types of shooting of up-up shooting and whole-body shooting are performed has been described, but other types of shooting may be performed.

(例1)
全身撮影として、複数種類の画角の撮影が行われるようにする。
(Example 1)
As the whole body shooting, shooting of a plurality of types of angle of view is performed.

図23は、全身撮影の種類について説明する図である。   FIG. 23 is a diagram for explaining the type of whole-body imaging.

例えば、正面から見た被写体の全身が写る全身画像を得る「正面全身撮影」によれば、図23左側に示される正面全身画像P11が得られる。正面全身画像P11は、利用者の全身がバランスよく写り、落ち着いた印象の画像となる。   For example, according to “front full-body imaging” in which a full-body image in which the entire body of the subject viewed from the front is photographed is obtained, a front full-body image P11 shown on the left side of FIG. The front full-body image P11 is an image in which the entire body of the user is captured in a well-balanced manner and has a calm impression.

また、斜め上から見た被写体の全身が写る全身画像を得る「上から全身撮影」によれば、図23中央に示される上から全身画像P12が得られる。上から全身画像P12は、利用者の顔が強調された、ポップな印象の画像となる。   Further, according to “full-body imaging from above” in which a whole-body image in which the whole body of the subject viewed from diagonally above is taken is obtained, a whole-body image P12 is obtained from the top shown in the center of FIG. From above, the full-body image P12 is an image of a pop impression in which the user's face is emphasized.

さらに、全身撮影として、斜め下から見た利用者の全身が写る画像を得る「下から全身撮影」が行われるようにしてもよい。下から全身撮影によれば、図示はしないが、得られる下から全身画像は、利用者の顔が小さく、かつ脚が長く写り、スタイリッシュな印象の画像となる。   Furthermore, as whole body imaging, “full body imaging from the bottom” may be performed to obtain an image in which the entire body of the user viewed from the bottom of the screen is captured. According to full-body imaging from below, although not shown, the obtained full-body image from the bottom has a small face of the user and long legs, thus giving a stylish impression.

なお、全身撮影により、図23右側に示されるような、利用者の全身のうちの膝辺りから上が写る全身画像P13が得られるようにしてもよい。上述した正面全身撮影、上から全身撮影、および下から全身撮影それぞれは、カメラ91の高さを変えることなく、カメラ91のレンズとして広角レンズを用いた上で、そのレンズの光軸の角度を変えるようにし、得られる画像の切り出し範囲を調整することで実現される。   Note that a full-body image P13 in which the upper part is taken from around the knee of the user's entire body as shown in the right side of FIG. 23 may be obtained by whole-body imaging. The above-mentioned front whole-body photography, whole-body photography from above, and whole-body photography from below each use the angle of the optical axis of the lens after using a wide-angle lens as the lens of the camera 91 without changing the height of the camera 91. It is realized by changing and adjusting the cutout range of the obtained image.

図24は、本例(例1)での、編集対象画像に応じた編集画面(専用GUI表示領域530)の表示パターンについて説明する図である。この例では、アップ画像、上から全身画像、および正面全身画像のいずれかが、編集対象画像となるものとする。   FIG. 24 is a diagram for explaining the display pattern of the editing screen (dedicated GUI display area 530) according to the image to be edited in the present example (example 1). In this example, any of the up image, the whole-body image from the top, and the front whole-body image is the image to be edited.

図24において、「例1−1」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、上から全身画像または正面全身画像が編集対象となったときには何も表示されない表示パターンである。   In FIG. 24, in the example 1-1, the retouching palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, and when the whole-body image or the front whole-body image is to be edited from the top Is also a display pattern not displayed.

「例1−2」は、専用GUI表示領域530に、アップ画像または正面全身画像が編集対象となったときにはレタッチパレットが表示され、上から全身画像が編集対象となったときには何も表示されない表示パターンである。   In “Example 1-2”, the retouching palette is displayed in the dedicated GUI display area 530 when the up image or the front whole-body image is to be edited, and when the whole-body image is to be edited from above, nothing is displayed. It is a pattern.

特に、正面全身画像は、上から全身画像と比べて被写体の脚が長く写るので、正面全身画像に対するレタッチ処理として、脚の長さを伸ばす処理の選択を受け付けるようにすることで、正面全身画像において、被写体の脚の長さをより強調することができる。   In particular, since the front full-body image has a longer leg of the subject than the full-body image from above, the front full-body image can be received by accepting the selection of processing for extending the leg length as retouching processing for the front full-body image. , The length of the subject's leg can be emphasized more.

「例1−3」は、専用GUI表示領域530に、アップ画像または上から全身画像が編集対象となったときにはレタッチパレットが表示され、正面全身画像が編集対象となったときには何も表示されない表示パターンである。   In Example 1-3, the retouching palette is displayed in the dedicated GUI display area 530 when the up image or the whole-body image from above is to be edited, and when the front whole-body image is to be edited, nothing is displayed. It is a pattern.

特に、上から全身画像は、正面全身画像と比べて被写体の顔が大きく写るので、上から全身画像に対するレタッチ処理として、目を大きくするなどの処理の選択を受け付けるようにすることで、上から全身画像において、被写体の顔を強調することができる。   In particular, the whole-body image from above looks larger in the subject's face compared to the front full-body image, so that the selection of processing such as enlarging the eyes is accepted as the retouching process for the whole-body image from above. In the full-body image, the face of the subject can be emphasized.

このように、レタッチパレットが表示される種類の画角の撮影画像に対しては、その撮影画像において目立つ部分を強調するレタッチ処理の選択を受け付けるようにする。   As described above, for a photographed image of a type of angle of view in which the retouching palette is displayed, the selection of the retouching process for emphasizing a prominent portion in the photographed image is accepted.

「例1−4」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、上から全身画像が編集対象となったときには何も表示されず、正面全身画像が編集対象となったときにはコンテンツパレットが表示される表示パターンである。   In “Example 1-4”, the retouching palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, and nothing is displayed when the whole body image is to be edited from above, and the front whole body image Is a display pattern in which the content palette is displayed when it is to be edited.

「例1−5」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、上から全身画像が編集対象となったときにはコンテンツパレットが表示され、正面全身画像が編集対象となったときには何も表示されない表示パターンである。   In Example 1-5, the retouching palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, and the content palette is displayed when the whole body image is to be edited from above, and the front whole body image is displayed. Is a display pattern in which nothing is displayed when it is to be edited.

正面全身画像および上から全身画像は、アップ画像と比べて画像全体に占める背景領域(余白となる領域)、すなわち落書き(コンテンツの配置)対象とすることができる領域が大きい。そこで、正面全身画像または上から全身画像が編集対象となったときには、コンテンツの選択を受け付けるようにすることで、その背景領域にコンテンツを配置させたバランスのとれた画像を提供することができる。   The front full-body image and the whole-body image from the top have a large background area (area serving as a margin) occupied by the entire image, that is, an area that can be used as graffiti (content arrangement) as compared to the up image. Therefore, when a front full-body image or a full-body image from above is to be edited, it is possible to provide a balanced image in which the content is arranged in the background area by accepting selection of the content.

「例1−6」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはコンテンツパレットが表示され、上から全身画像が編集対象となったときにはレタッチパレットが表示され、正面全身画像が編集対象となったときには何も表示されない表示パターンである。   In Example 1-6, the content palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, and the retouching palette is displayed when the whole body image is to be edited from above, and the front whole body image is displayed. Is a display pattern in which nothing is displayed when it is to be edited.

「例1−7」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはコンテンツパレットが表示され、上から全身画像が編集対象となったときには何も表示されず、正面全身画像が編集対象となったときにはレタッチパレットが表示される表示パターンである。   In “Example 1-7”, the content palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, and nothing is displayed when the whole body image is to be edited from above, and the front whole body image is displayed. Is a display pattern in which the retouching palette is displayed when it is to be edited.

このように、アップ画像が編集対象となったときには、アップ画像に写る利用者の顔を、かわいく面白味のある見た目に仕上げることができ、上から全身画像や正面全身画像が編集対象となったときには、全身画像に写る利用者自身の脚や全身を、完成度の高い見た目のスタイルに仕上げることができる。   As described above, when the up image is to be edited, the user's face appearing in the up image can be finished to look cute and interesting, and from the top when the whole body image and the front whole image are to be edited. The user's own legs and whole body that appear in the whole body image can be finished in a style that looks perfect.

また、レタッチパレットが表示されない画角の撮影画像が編集対象となったときには、専用GUI表示領域530に何も表示されないようにすることで、利用者を、編集パレット513を用いた編集作業に集中させることができる。   In addition, when the photographed image of the angle of view in which the retouching palette is not displayed is to be edited, nothing is displayed in the dedicated GUI display area 530, thereby concentrating the user on the editing work using the editing palette 513. It can be done.

(例2)
上述したアップ撮影と全身撮影に加えて、携帯おまけ専用の撮影などの特別撮影が行われるようにしてもよい。携帯おまけは、例えば、携帯端末の待受画像に用いられたり、ブログやSNSなどのウェブサイトに公開される画像として用いられる。
(Example 2)
In addition to the up-shooting and the whole-body shooting described above, special shooting such as shooting for exclusive use of a cell phone may be performed. A mobile extra is used, for example, as a standby image of a mobile terminal or as an image published on a website such as a blog or SNS.

図25は、携帯おまけの作成に用いられる携帯おまけ作成画面の表示例を示す図である。   FIG. 25 is a diagram showing a display example of a mobile bonus creation screen used to create a mobile bonus.

図25においては、編集画面中央付近に設けられる携帯おまけボタン651が操作されることで、編集画面上に、携帯おまけ作成画面660が表示されている。   In FIG. 25, a mobile bonus creation screen 660 is displayed on the editing screen by operating a mobile bonus button 651 provided near the center of the editing screen.

携帯おまけ作成画面660の中央には、画像表示領域661が設けられている。   An image display area 661 is provided at the center of the mobile bonus creation screen 660.

画像表示領域661には、携帯おまけを作成するために、複数の撮影画像の中から利用者により選択された撮影画像が表示される。利用者は、タッチペン132を用いて編集パレット513の編集ツールを選択し、画像表示領域661に表示された撮影画像の編集を行うことができる。   In the image display area 661, a photographed image selected by the user from among a plurality of photographed images is displayed in order to create a mobile bonus. The user can use the touch pen 132 to select the editing tool of the editing palette 513 and edit the captured image displayed in the image display area 661.

なお、画像表示領域661に表示される撮影画像は、利用者により選択された撮影画像において、利用者により指定された範囲が切り出されて拡大された画像となる。特に、利用者は、選択した撮影画像に写る被写体の顔を中心とした範囲を指定することが多い。そのため、携帯おまけを作成するために選択される撮影画像は、アップ画像であってもよいし、全身画像であってもよい。これにより、顔が大きく写る携帯おまけを、ブログやSNSのアイコン(プロフィール画像)として用いることができる。   The photographed image displayed in the image display area 661 is an image in which the range designated by the user is cut out and enlarged in the photographed image selected by the user. In particular, the user often designates a range centered on the face of the subject appearing in the selected captured image. Therefore, the photographed image selected to create the mobile extra may be an up image or a whole-body image. In this way, it is possible to use a mobile bonus with a large face as an icon (profile image) of a blog or SNS.

このようにして、携帯おまけは、撮影画像に対してトリミングが行われることで作成されるので、利用者は、携帯おまけにおいて被写体の写る範囲、言い換えると、携帯おまけの画角を選択することができる、といえる。   In this way, since the cell phone bonus is created by trimming the captured image, the user can select the range in which the subject appears in the cell phone bonus, in other words, the angle of view of the cell phone bonus It can be said that it can.

また、携帯おまけ作成画面660の左部(画像表示領域661の左方)には、専用GUI表示領域662が設けられる。専用GUI表示領域662は、専用GUI表示領域530と同様に、画像表示領域661に表示される撮影画像(携帯おまけ)の画角に対応したGUIが表示される領域である。   In addition, a dedicated GUI display area 662 is provided on the left portion (left side of the image display area 661) of the portable bonus creation screen 660. Similar to the dedicated GUI display area 530, the dedicated GUI display area 662 is an area in which a GUI corresponding to the angle of view of the captured image (mobile extra) displayed in the image display area 661 is displayed.

図26は、本例(例2)での、編集対象画像に応じた編集画面(専用GUI表示領域530)および携帯おまけ作成画面660(専用GUI表示領域662)の表示パターンについて説明する図である。この例では、アップ画像、全身画像、および携帯おまけのいずれかが、編集対象画像となるものとする。   FIG. 26 is a view for explaining display patterns of an editing screen (dedicated GUI display area 530) and a mobile bonus creation screen 660 (dedicated GUI display area 662) corresponding to the image to be edited in this example (example 2). . In this example, it is assumed that any of the up image, the whole body image, and the mobile extra is the image to be edited.

図26において、「例2−1」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときには何も表示されず、また、携帯おまけが編集対象となったときには、専用GUI表示領域622に何も表示されない表示パターンである。   In FIG. 26, in the example 2-1, the retouching palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, and nothing is displayed when the whole image is to be edited. When the mobile addition is to be edited, nothing is displayed in the dedicated GUI display area 622.

「例2−2」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときには何も表示されず、また、携帯おまけが編集対象となったときには、専用GUI表示領域622にレタッチパレットが表示される表示パターンである。   In “Example 2-2”, the retouching palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, nothing is displayed when the whole image is to be edited, and a portable bonus is also displayed. It is a display pattern in which the retouching palette is displayed in the dedicated GUI display area 622 when it becomes an edit target.

上述したように、携帯おまけは、顔が大きく写る画像であるので、携帯おまけに対するレタッチ処理として、目を大きくするなどの処理の選択を受け付けるようにすることで、携帯おまけにおいて、被写体の顔を強調することができる。   As described above, since the mobile bonus is an image with a large face, it is possible to receive the selection of processing such as enlarging the eyes as the retouching process for the mobile bonus, and thereby the subject's face is displayed in the mobile bonus. It can be emphasized.

「例2−3」は、専用GUI表示領域530に、アップ画像または全身画像が編集対象となったときにはレタッチパレットが表示され、また、携帯おまけが編集対象となったときには、専用GUI表示領域622に何も表示されない表示パターンである。   In “Example 2-3”, the retouching palette is displayed in the dedicated GUI display area 530 when the up image or the whole body image is to be edited, and when the mobile extra is to be edited, the dedicated GUI display area 622 is displayed. Nothing is displayed on the display pattern.

「例2−4」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときには何も表示されず、また、携帯おまけが編集対象となったときには、専用GUI表示領域622にコンテンツパレットが表示される表示パターンである。   In “Example 2-4”, the retouching palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, nothing is displayed when the whole image is to be edited, and a portable bonus is also displayed. When it becomes an edit target, it is a display pattern in which the content palette is displayed in the dedicated GUI display area 622.

「例2−5」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはレタッチパレットが表示され、全身画像が編集対象となったときにはコンテンツパレットが表示され、また、携帯おまけが編集対象となったときには、専用GUI表示領域622に何も表示されない表示パターンである。   In “Example 2-5”, the retouching palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, the content palette is displayed when the whole image is to be edited, and a portable bonus is also displayed. When it becomes an edit target, nothing is displayed in the dedicated GUI display area 622.

「例2−6」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはコンテンツパレットが表示され、全身画像が編集対象となったときにはレタッチパレットが表示され、また、携帯おまけが編集対象となったときには、専用GUI表示領域622に何も表示されない表示パターンである。   In “Example 2-6”, the content palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, the retouching palette is displayed when the whole image is to be edited, and a portable bonus is also displayed. When it becomes an edit target, nothing is displayed in the dedicated GUI display area 622.

「例2−7」は、専用GUI表示領域530に、アップ画像が編集対象となったときにはコンテンツパレットが表示され、全身画像が編集対象となったときには何も表示されず、また、携帯おまけが編集対象となったときには、専用GUI表示領域622にレタッチパレットが表示される表示パターンである。   In “Example 2-7”, the content palette is displayed in the dedicated GUI display area 530 when the up image is to be edited, and nothing is displayed when the whole image is to be edited. It is a display pattern in which the retouching palette is displayed in the dedicated GUI display area 622 when it becomes an edit target.

携帯おまけは、写真シール作成ゲームにおいて得られる画像のなかでは、特に「おまけ」の要素が強く、細かい加工などをせずにそのまま利用する利用者が多い。そのため、上述した例2−1,2−3,2−5,2−6のように、携帯おまけが編集対象となったときには、専用GUI表示領域662に何も表示されないようにすることで、レタッチ処理を施さないままの携帯おまけを、利用者に提供することができる。   Among the images obtained in the photo sticker creation game, the mobile bonus is particularly strong in the element of “extra”, and many users use it as it is without fine processing. Therefore, as in the example 2-1, 2-3, 2-5 and 2-6 described above, nothing is displayed in the dedicated GUI display area 662 when the addition of the mobile is edited. It is possible to provide the user with a mobile bonus without retouching processing.

<専用GUI表示領域の他の例>
以上においては、専用GUI表示領域は、編集領域512の横(左または右)に独立して設けられたり、携帯おまけ作成画面上に設けられるものとしたが、編集パレット513上に設けられるようにしてもよい。
<Other Example of Dedicated GUI Display Area>
In the above, the dedicated GUI display area is provided independently on the side (left or right) of the editing area 512 or on the portable bonus creation screen, but is provided on the editing palette 513. May be

この場合、編集パレット513の編集画面中央側に設けられたボタンの1つとして、編集パレット513にレタッチパレットまたはコンテンツパレットを表示するためのボタンが用意されるようにする。このボタンが操作された場合、編集対象画像としてアップ画像が表示されているか、または、全身画像が表示されているかに応じて、編集パレット513にレタッチパレットが表示されるか、コンテンツパレットが表示されるかが切り替わる。すなわち、編集対象となる撮影画像の画角に応じて、編集パレット513にレタッチパレットが表示されるか、または、コンテンツパレットが表示されるかが決定される。   In this case, as one of the buttons provided on the center side of the editing screen of the editing palette 513, a button for displaying a retouching palette or a content palette is prepared in the editing palette 513. When this button is operated, the retouching palette is displayed on the editing palette 513 or the content palette is displayed depending on whether the up image is displayed as the image to be edited or the whole-body image is displayed. Switches. That is, depending on the angle of view of the photographed image to be edited, it is determined whether the retouching palette is displayed on the editing palette 513 or the content palette is displayed.

<編集対象画像の切り替え>
図14などの編集画面においては、サムネイル表示領域511に表示されているサムネイル画像のいずれかが選択されることで、編集対象画像が、選択されたサムネイル画像に対応する撮影画像に切り替わって表示される。
<Switching of image to be edited>
In the editing screen of FIG. 14 or the like, when any of the thumbnail images displayed in the thumbnail display area 511 is selected, the image to be edited is switched to the photographed image corresponding to the selected thumbnail image and displayed. Ru.

これに限らず、他の形態で、編集対象となる撮影画像が切り替わるようにしてもよい。   The present invention is not limited to this, and the photographed image to be edited may be switched in another form.

例えば、図27に示されるように、編集領域512の左右両側に、切替ボタン681,682を設けるようにし、切替ボタン681,682がタッチペン132により操作されることで、編集領域512に編集対象画像として表示される撮影画像が切り替わるようにしてもよい。この場合、編集画面に、サムネイル表示領域511は設けられない。   For example, as shown in FIG. 27, the switch buttons 681 and 682 are provided on the left and right sides of the editing area 512, and the switching buttons 681 and 682 are operated by the touch pen 132. The captured image displayed as may be switched. In this case, the thumbnail display area 511 is not provided on the editing screen.

さらに、切替ボタン681,682をも設けず、編集領域512に編集対象画像として表示される撮影画像が、所定の時間おきに切り替わるようにしてもよい。   Furthermore, the switch buttons 681 and 682 may not be provided, and the photographed image displayed as the image to be edited in the editing area 512 may be switched at predetermined time intervals.

<レタッチ処理のバリエーション>
上述した例において、レタッチ処理は、撮影画像における人物(被写体)の顔、目や鼻、口などの顔パーツ、さらには全身が認識されることで適切に施される。
<Variation of retouching process>
In the above-described example, the retouching process is appropriately performed by recognizing the face of the person (subject) in the captured image, the face parts such as the eyes, the nose, and the mouth, and the whole body.

ここでは、レタッチ処理として施される画像処理の種類について説明する。   Here, types of image processing to be applied as retouching processing will be described.

(1)顔認識に関する画像処理
目の大きさ、肌の明るさ、肌の色、顔の大きさ、髪の色、メイクの濃淡などを変える処理がある。これらの処理は、編集対象となる撮影画像における利用者の顔を認識することで、実現可能とされる。具体的には、以下のような画像処理が挙げられる。
(1) Image processing related to face recognition There are processes for changing the size of eyes, the brightness of skin, the color of skin, the size of face, the color of hair, the density of makeup, and the like. These processes can be realized by recognizing the face of the user in the photographed image to be edited. Specifically, the following image processing may be mentioned.

(1−1)小顔処理
例えば、まず、図28左に示されるように、撮影画像711に写る2人の被写体の顔の輪郭点p11乃至p15,p21乃至p25を抽出する。次に、図28中央に示されるように、抽出された輪郭点に基づいて、それらを含む矩形領域F1,F2を設定する。そして、図28右に示されるように、設定された矩形領域を、その上辺を固定した状態で縮小する処理を施す。
(1-1) Small Face Processing For example, as shown on the left of FIG. 28, outline points p11 to p15 and p21 to p25 of faces of two subjects shown in the photographed image 711 are extracted. Next, as shown in the center of FIG. 28, based on the extracted contour points, rectangular regions F1 and F2 including them are set. Then, as shown on the right side of FIG. 28, processing is performed to reduce the set rectangular area with its upper side fixed.

具体的には、矩形領域の境界近傍の領域に対して、矩形領域の内側の領域を縮めるように、矩形領域の外側の領域を伸ばすようにして変形処理を施す。このようにして、矩形領域の境界近傍の領域において、画素の欠損を生じることなく、矩形領域を縮小する。   Specifically, deformation processing is performed on the area near the boundary of the rectangular area so as to stretch the area outside the rectangular area so as to shrink the area inside the rectangular area. In this manner, in the area near the boundary of the rectangular area, the rectangular area is reduced without pixel loss.

その他には、まず、図29左に示されるように、撮影画像711に写る2人の被写体の顔の輪郭線L1,L2を特定する。そして、図29右に示されるように、特定された輪郭線L1,L2を顔領域の内側に移動することで、新たな輪郭線C1,C2を設定する。   In addition, first, outlines L1 and L2 of faces of two subjects shown in the photographed image 711 are specified as shown in the left of FIG. Then, as shown on the right of FIG. 29, new contours C1 and C2 are set by moving the identified contours L1 and L2 to the inside of the face area.

具体的には、輪郭線L1,L2を中心にして所定の幅をもつ境界領域に対して、境界領域の内側の領域を縮めるように、境界領域の外側の領域を伸ばすようにして変形処理を施す。このようにして、境界領域において、画素の欠損を生じることなく、輪郭線C1,C2を設定する。   Specifically, for the boundary area having a predetermined width around the outlines L1 and L2, the deformation process is performed so that the area outside the boundary area is stretched so as to shrink the area inside the boundary area. Apply. In this manner, the outlines C1 and C2 are set in the boundary area without causing pixel loss.

以上のような処理により、被写体の顔を小さくする。   The face of the subject is reduced by the above processing.

(1−2)目サイズ変更処理
まず、撮影画像に写る被写体の顔領域において目領域の画像を抽出する。そして、抽出された目領域の画像を、所定の拡大率で拡大する。数パターンの拡大率が用意されるようにしてもよい。
(1-2) Eye Size Changing Process First, an image of the eye area is extracted in the face area of the subject appearing in the photographed image. Then, the image of the extracted eye area is enlarged at a predetermined enlargement ratio. Several patterns of enlargement factors may be prepared.

このような処理により、目のサイズを変更する。   Such processing changes the size of the eye.

(1−3)美鼻処理
まず、撮影画像に写る被写体の顔領域において鼻領域の画像を抽出する。そして、抽出された鼻領域の画像の一部または全部を、所定の縮小率で縮小する。数パターンの縮小率が用意されるようにしてもよい。
(1-3) Beautification Process First, an image of the nose area is extracted in the face area of the subject appearing in the photographed image. Then, a part or all of the image of the extracted nose area is reduced at a predetermined reduction rate. Several reduction ratios may be prepared.

このような処理により、鼻の大きさや形状を変更する。   Such processing changes the size and shape of the nose.

(1−4)口サイズ変更処理
まず、撮影画像に写る被写体の顔領域において口領域の画像を抽出する。そして、抽出された口領域の画像を、所定の拡大率で拡大するか、または、所定の縮小率で縮小する。数パターンの拡大率や縮小率が用意されるようにしてもよい。
(1-4) Mouth Size Changing Process First, an image of the mouth area is extracted in the face area of the subject appearing in the photographed image. Then, the image of the extracted mouth area is enlarged at a predetermined enlargement ratio or reduced at a predetermined reduction ratio. Several patterns of enlargement or reduction may be prepared.

このような処理により、口のサイズを変更する。   Such processing changes the size of the mouth.

(1−5)目形状変更処理
まず、撮影画像に写る被写体の顔領域において目尻部分または目頭部分を特定する。そして、特定された目尻部分または目頭部分を、所定距離だけ上方向(頭の方向)や下方向(顎の方向)、その他の方向に移動する。
(1-5) Eye Shape Changing Process First, the corner portion or the corner portion of the eye is specified in the face region of the subject appearing in the photographed image. Then, the identified corner portion or the corner portion of the eye is moved in the upward direction (head direction), the downward direction (jaw direction), and other directions by a predetermined distance.

このような処理により、目の形状を変更し、たれ目やつり目など、目元の印象を変える。   By such processing, the shape of the eye is changed, and the impression of the eye such as the hanging eye or the hanging eye is changed.

(1−6)口元変更処理
まず、撮影画像に写る被写体の顔領域において口角部分を特定する。そして、特定された口角部分を、所定距離だけ上方向(頭の方向)に移動する。
(1-6) Mouth change processing First, a corner of the mouth is specified in the face area of the subject shown in the photographed image. Then, the specified corner of the mouth is moved upward by a predetermined distance (head direction).

このような処理により、口元の形を変更し、微笑んだときの口元に変える。また、口角が上がりすぎている場合には、口角部分を下方向に移動することで、口元の形を変更するようにしてもよい。   By this process, the shape of the mouth is changed, and it is changed to the mouth when smiling. If the corner of the mouth is too high, the shape of the mouth may be changed by moving the corner of the corner downward.

(1−7)肌色変更処理
まず、肌領域を特定する。そして、特定された肌領域の色を調整する。
(1-7) Skin Color Changing Process First, a skin area is specified. Then, the color of the identified skin area is adjusted.

このような処理により、肌の色を変更する。   Such processing changes the color of the skin.

(1−8)髪色変更処理
まず、髪領域を特定する。そして、特定された髪領域の色を調整する。
(1-8) Hair Color Changing Process First, a hair region is specified. Then, the color of the identified hair area is adjusted.

このような処理により、髪の色を変更する。   Such processing changes the hair color.

(1−9)化粧処理
まず、撮影画像に写る被写体の顔領域において頬部分や唇部分を特定する。そして、特定された頬部分や唇部分の領域の色を、ピンク色や赤色などに変更する。
(1-9) Makeup Processing First, a cheek portion and a lip portion are specified in the face region of the subject shown in the photographed image. Then, the color of the area of the specified cheek portion or lip portion is changed to pink or red.

このような処理により、チークや口紅などの化粧を施した顔に変更する。   By such processing, the face is changed to a face with makeup such as teak or lipstick.

(1−10)美肌処理
撮影画像全体や、撮影画像に写る被写体の肌領域に対して、ぼかし処理を施す。
(1-10) Skin softening process A blurring process is performed on the entire photographed image and the skin area of the subject appearing in the photographed image.

このような処理により、肌をきれいに見えるようにする。   Such treatment makes the skin look clean.

以上においては、顔認識の結果を利用した画像処理が顔領域に施されるものとした。   In the above, it is assumed that image processing using the result of face recognition is applied to the face area.

これに限らず、顔領域や肌色領域を取得するマスク画像を生成し、そのマスク画像を利用した画像処理が顔領域に対して施されるようにしてもよい。   The present invention is not limited to this, and a mask image for acquiring a face area or a skin color area may be generated, and image processing using the mask image may be performed on the face area.

一方、全身画像に対するレタッチ処理においては、人物領域全体を取得するマスク画像を生成し、そのマスク画像を利用した画像処理が人物領域に対して施されるようにしてもよい。人物領域全体のマスク画像を利用した画像処理としては、被写体の脚を長くする脚長処理や、被写体の身体を細くする痩身処理などがある。   On the other hand, in the retouching process on the whole body image, a mask image for acquiring the entire person area may be generated, and image processing using the mask image may be performed on the person area. As image processing using a mask image of the entire human area, there are leg length processing for making the leg of the subject longer and slimming processing for making the body of the subject thinner.

(2)全身認識に関する画像処理
全身画像に対して施されるレタッチ処理としては、以下のような、全身認識に関する画像処理が挙げられる。
(2) Image Processing Relating to Whole Body Recognition Examples of the retouching process applied to a whole body image include the following image processing relating to whole body recognition.

(2−1)脚の長さ・脚の細さ
脚の長さを変える処理は、足先から腰の領域を特定し、その領域を上下方向に伸長することで実現される。また、脚の細さを変える処理は、足先から腰の領域を特定し、その領域の境界部分を内側に向かう方向に移動することで実現される。
(2-1) Leg Length and Leg Thinness The process of changing the leg length is realized by identifying the area from the toe to the waist and extending the area in the vertical direction. Further, the process of changing the thinness of the leg is realized by identifying an area from the toe to the waist and moving the boundary portion of the area in the inward direction.

これらの処理は、利用者が直立し脚が真っ直ぐな状態でなければ、適切に施されない。例えば、膝から足先が水平になるように、片方の脚の膝を曲げるようなポーズで写った場合、脚の長さや脚の細さを変える処理により、曲げた方の膝から足先が太くなったり短くなってしまう。そこで、全身の輪郭点に基づいて、脚が真っ直ぐな状態でないと判定された場合には、脚の長さや脚の細さを変える処理が施されないようにしてもよい。   These treatments are not properly applied unless the user is upright and the legs are straight. For example, in the case of a posture where the knee of one leg is bent so that the knee to the leg is horizontal, the process of changing the leg length and the leg thickness allows the toe to be bent from the bent knee. It gets thicker and shorter. Therefore, if it is determined that the leg is not straight based on the contour point of the whole body, processing to change the leg length and the leg thickness may not be performed.

また、これらの処理は、利用者がロングスカートなどを着用している場合にも、適切に施されない。この場合、脚の長さや脚の細さを変える処理により、ロングスカートの柄や模様が長くなったり細くなってしまう。そこで、肌色領域を特定し、その領域のみに脚の長さや脚の細さを変える処理が施されるようにしてもよい。さらに、スカートの柄の有無などに応じて、長くする量や細くする量が変更されるようにしてもよい。   In addition, these treatments are not properly applied even when the user wears a long skirt or the like. In this case, the pattern or pattern of the long skirt becomes long or thin due to the process of changing the leg length and the leg thickness. Therefore, a skin color area may be specified, and processing may be performed to change the leg length and the leg thickness only in that area. Furthermore, depending on the presence or absence of the skirt pattern, the lengthening amount and the thinning amount may be changed.

さらに、これらの処理が、足先にまで施されることで、利用者が着用している靴やサンダルなどが変形してしまうおそれがある。そこで、足首からつま先までの領域をさらに特定し、その領域については、脚の長さや脚の細さを変える処理が施されないようにしたり、処理の度合いを弱めるようにしてもよい。   Furthermore, there is a possibility that shoes, sandals, etc. worn by the user may be deformed by applying these treatments to the toes. Therefore, the area from the ankle to the toe may be further specified, and in the area, processing for changing the length or the thinness of the leg may not be performed, or the degree of processing may be weakened.

(2−2)身長
身長を変える処理は、頭から足先までの人物領域を特定し、その領域を上下方向に伸長または短縮することで実現される。人物領域は、クロマキー処理により人物マスク画像を生成することで特定されるようにすることもできる。身長を変える処理によれば、低身長の利用者の身長を高くすることはもちろん、高身長の利用者の身長を低くすることもできる。
(2-2) Height The process of changing the height is realized by specifying the person area from the head to the foot and extending or shortening the area in the vertical direction. The person area can also be identified by generating a person mask image by chroma key processing. According to the process of changing the height, it is possible not only to increase the height of the short stature user but also to reduce the height of the high stature user.

(2−3)二の腕
上腕(いわゆる二の腕)を細くする処理は、肌色領域と顔領域の位置から上腕が含まれる領域を推定し、その境界部分を内側に向かう方向に移動することで実現される。この処理によれば、撮影画像における利用者の上腕を細くすることができる。
(2-3) Two arms The process of thinning the upper arms (so-called two arms) is realized by estimating the area including the upper arms from the positions of the skin color area and the face area, and moving the boundary part in the inward direction. . According to this process, the upper arm of the user in the photographed image can be thinned.

(2−4)腰のくびれ
腰のくびれを強調する処理は、撮影画像における顔を除いた人物領域の略全ての領域を、人物領域の内側(中心)に向かう方向に移動することで実現される。この処理によれば、撮影画像に写る利用者のスタイルのより良いものにすることができる。
(2-4) Waist waist processing of emphasizing waist waist is realized by moving substantially the entire human region excluding the face in the captured image in a direction toward the inside (center) of the human region. Ru. According to this process, it is possible to make the style of the user reflected in the photographed image better.

(2−5)首の長さ
全身画像に対して、人物の顔を小さくする小顔処理が施された場合、相対的に首が長く見えてしまう。そこで、人物の全身に対する顔の大きさ(長さ)に応じて、首の長さを変更する処理を施すことができるようにする。
(2-5) Neck Length When a small face process is performed on a full-body image to make the face of a person smaller, the neck looks relatively long. Therefore, processing for changing the length of the neck can be performed according to the size (length) of the face with respect to the whole body of the person.

(2−6)背面と床面との境界線
撮影画像(全身画像)に写る利用者の背景領域に、背面(背面パネル51)と床面との境界を模した境界線を含む背景画像を合成することができるようにしてもよい。この場合、さらに、その境界線の高さ(上下方向の位置)を変える処理が施されるようにしてもよい。
(2-6) Boundary line between the back surface and the floor surface A background image including a boundary line imitating the boundary between the back surface (the back panel 51) and the floor surface in the background area of the user reflected in the photographed image (whole body image) You may enable it to synthesize | combine. In this case, a process of changing the height (the position in the vertical direction) of the boundary may be further performed.

例えば、図30左側に示される全身画像P21には、背面と床面との境界を模した境界線b11を含む背景画像が合成されているものとする。この全身画像P21に、図30右側に示されるように、境界線b11より高い位置にある境界線b12を含む背景画像が合成されることで、画像の奥行き感を強調することができる。この境界線が、全身画像において高い位置にあるほど、背面と床面との境界が遠くにあるように見え、画像の奥行き感を増すことができる。   For example, it is assumed that a background image including a boundary line b11 imitating the boundary between the back surface and the floor surface is synthesized with the full-body image P21 shown on the left side of FIG. A sense of depth of the image can be enhanced by combining the background image including the boundary line b12 higher than the boundary line b11 with the full-body image P21 as shown on the right side of FIG. The higher this boundary is in the full-body image, the farther the boundary between the back surface and the floor looks like, and the depth of the image can be increased.

(2−7)合成用画像
合成用画像のうち、利用者の全身に合成される合成用画像の位置や大きさを変える処理を、利用者毎に施すようにしてもよい。
(2-7) Compositing Image Among the compositing images, processing for changing the position and size of the compositing image to be synthesized on the whole body of the user may be performed for each user.

例えば、利用者の腰回りに合成される浮き輪を模した合成用画像が、利用者の身長に応じた位置に合成されるようにする。具体的には、図30に示されるように、利用者の身長が低い場合、浮き輪を模した合成用画像f11は、低い位置に合成される。利用者の身長が中程度の場合、浮き輪を模した合成用画像f12は、中程度の位置に合成される。そして、利用者の身長が高い場合、浮き輪を模した合成用画像f13は、高い位置に合成される。   For example, a composition image imitating a floating ring to be composited around the waist of the user is composited at a position according to the height of the user. Specifically, as shown in FIG. 30, when the height of the user is low, the image f11 for synthesis imitating a floating ring is synthesized at a low position. When the height of the user is medium, the image f12 for synthesis imitating a floating ring is synthesized at an intermediate position. Then, when the height of the user is high, the image f13 for combination imitating a floating ring is combined at a high position.

また、利用者の腰回りに合成される浮き輪を模した合成用画像が、利用者の体型に応じたサイズで合成されるようにしてもよい。具体的には、図31に示されるように、利用者の体型が小さい場合、浮き輪を模した合成用画像f21は、小さいサイズで合成される。利用者の体型が中程度の場合、浮き輪を模した合成用画像f22は、中程度のサイズで合成される。そして、利用者の体型が大きい場合、浮き輪を模した合成用画像f23は、大きいサイズで合成される。   Further, a composition image imitating a floating ring to be composited around the waist of the user may be composited in a size according to the user's body type. Specifically, as shown in FIG. 31, when the user's physical shape is small, the image f21 for synthesis imitating a floating ring is synthesized in a small size. When the user's body type is medium, the image f22 for synthesis imitating a floating ring is synthesized with a medium size. Then, when the user's physical shape is large, the image f23 for synthesis imitating a floating ring is synthesized in a large size.

(2−8)写り方
被写体となる利用者に照射される光の光量や向き、瞳に写り込むキャッチライトの大きさなど、撮影空間A1内に設けられている照明装置(各ストロボ)により実現される光学環境に依存する写り方を、画像処理により変えるようにしてもよい。
(2-8) Method of shooting Realized by the illumination device (each strobe) provided in the shooting space A1, such as the amount and direction of light emitted to the user as the subject, and the size of the catch light to be reflected in the pupil The way of projection depending on the optical environment to be made may be changed by image processing.

なお、上述した画像処理は、それぞれ単独で撮影画像に施されてもよいし、互いに組み合わされて撮影画像に施されてもよい。後者の場合、組み合わされる画像処理それぞれを、利用者に選択させるようにしてもよいし、あらかじめ決められた画像処理の組み合わせを利用者に選択させるようにしてもよい。   The image processing described above may be applied to the captured image independently or may be applied to the captured image in combination with each other. In the latter case, the user may select each of the image processing to be combined, or the user may select a predetermined combination of image processing.

<被写体の認証について>
以上においては、レタッチ処理の対象となる被写体の選択は、編集対象画像に写る被写体がタッチペン132により選択されることで行われるものとした。
<About authentication of the subject>
In the above, the selection of the subject to be the target of the retouching process is performed by selecting the subject shown in the image to be edited with the touch pen 132.

これに限らず、例えば1回目の撮影により得られた1枚目の撮影画像に写る2人の利用者のいずれかを選択させることで、他の撮影画像においてレタッチ処理の対象となる被写体を選択させるようにしてもよい。この場合、1枚目の撮影画像に写る2人の利用者の立ち位置によって、他の撮影画像における利用者が特定されるようにする。   The present invention is not limited to this. For example, by selecting one of the two users shown in the first photographed image obtained by the first photographing, the subject to be subjected to the retouching process in the other photographed images is selected. You may make it In this case, the user in the other photographed image is specified by the standing positions of the two users shown in the first photographed image.

しかしながら、この場合、1枚目の撮影画像と他の撮影画像とで、2人の利用者の左右の立ち位置が同じであることが前提とされる。   However, in this case, it is assumed that the left and right standing positions of the two users are the same in the first photographed image and the other photographed image.

すなわち、1回目の撮影により得られた1枚目の撮影画像と、それ以降の撮影により得られた他の撮影画像とにおいて、2人の利用者の左右の立ち位置が同じであることで、それぞれの利用者が編集画面において選択したレタッチ処理が、撮影画像に写る自分自身に施されるようになる。   That is, in the first photographed image obtained by the first photographing and the other photographed images obtained by the subsequent photographing, the left and right standing positions of the two users are the same. The retouching process selected by each user on the editing screen is applied to himself / herself in the photographed image.

しかしながら、図33に示されるように、1回目の撮影により得られた1枚目の撮影画像において認識された人物の全身画像N31,N32それぞれに写る利用者の立ち位置が、他の撮影画像P31において左右に入れ替わった場合、一方の利用者が選択したレタッチ処理は、他の撮影画像P31に写る他方の利用者に施されてしまう。   However, as shown in FIG. 33, the user's standing position shown in each of full-body images N31 and N32 of the person recognized in the first photographed image obtained by the first photographing is the other photographed image P31. In the case where the left and right are switched, the retouching process selected by one user is applied to the other user shown in the other captured image P31.

そこで、1回目の撮影により認識された利用者それぞれを、他の撮影画像において認証することで、一方の利用者が選択したレタッチ処理が、2回目以降の撮影での立ち位置によらず、撮影画像に写るその利用者自身に施されるようにすることができる。   Therefore, the retouching process selected by one of the users can be taken regardless of the standing position in the second and subsequent photographings by authenticating each of the users recognized in the first photographing in the other photographed images. It can be applied to the user who appears in the image.

具体的には、1回目の撮影において認識された利用者にIDを割り当て、2回目以降の撮影により得られた撮影画像において、IDが割り当てられた利用者が、どの部分に写っているのかが特定される。このような認証処理は、例えば、所定回数の撮影が全て終了した後に行われるか、2回目以降の撮影により1枚の撮影画像が得られる毎に行われる。   Specifically, an ID is assigned to the user recognized in the first photographing, and in the photographed image obtained in the second and subsequent photographing, in which part the user to which the ID is allocated is shown It is identified. Such an authentication process is performed, for example, after all the predetermined number of times of photographing have been completed, or every time one photographed image is obtained by the second and subsequent photographing.

ここで、以下においては、1回目の撮影を認識撮影といい、認識撮影により得られた撮影画像を認識用画像という。また、2回目以降の撮影を通常撮影といい、通常撮影により得られた撮影画像を単に撮影画像という。   Here, in the following, the first photographing is referred to as recognition photographing, and a photographed image obtained by the recognition photographing is referred to as a recognition image. Further, the second and subsequent photographing is called normal photographing, and a photographed image obtained by the normal photographing is simply called a photographed image.

(認証処理の例1)
まず、図34のフローチャートを参照して、認証処理の第1の例について説明する。図34の処理は、例えば、認識撮影が行われた後から、通常撮影が終了するまでの間に行われてもよいし、通常撮影が終了し、編集画面が表示される前までの間に行われてもよい。
(Example 1 of authentication process)
First, the first example of the authentication process will be described with reference to the flowchart of FIG. The process of FIG. 34 may be performed, for example, after the recognition shooting is performed until the normal shooting ends, or until the normal shooting ends and the editing screen is displayed. It may be done.

ステップS51において、レタッチ処理部602は、認識撮影により得られた認識用画像において、人物の顔を認識する。認識撮影の際、例えば、所定の枠内に利用者それぞれの全身が収まるようにして撮影が行われるようにする。この場合、その枠内にある顔が、それぞれの利用者の顔として認識される。なお、顔の認識は、認識用画像の原画像に対して行われてもよいし、原画像から所定領域が切り出された切り出し画像に対して行われてもよい。   In step S51, the retouch processing unit 602 recognizes the face of a person in the recognition image obtained by the recognition imaging. At the time of recognition imaging, for example, imaging is performed such that the entire body of each user fits within a predetermined frame. In this case, the face within the frame is recognized as the face of each user. Note that face recognition may be performed on an original image of a recognition image, or may be performed on a cutout image in which a predetermined area is cut out from the original image.

ステップS52において、レタッチ処理部602は、認識された顔にIDを割り当て、その顔を含む人物の全身画像を登録する。   In step S52, the retouch processing unit 602 assigns an ID to the recognized face, and registers a full-body image of a person including the face.

具体的には、まず、利用者(被写体)の顔の輪郭点が全て抽出される。このように輪郭点が抽出されるため、例えば、顔の部分に手があったり、横顔であったりすると、正確に輪郭を抽出できない可能性がある。   Specifically, first, all contour points of the user (subject) face are extracted. Since contour points are extracted in this manner, there is a possibility that contours can not be accurately extracted if, for example, there is a hand on the face portion or a side face.

しかしながら、本実施の形態のように認識撮影を行うことで、通常撮影のときとは異なり、利用者が、正面を向いた状態で、かつポーズをとらない状態で撮影を行う可能性が高くなる。すなわち、顔の部分に手があったり、横向きであったりする状態ではなく、顔の輪郭を抽出しやすい状態で認識撮影が行われる可能性が高くなる。   However, by performing the recognition shooting as in the present embodiment, unlike in the case of the normal shooting, there is a high possibility that the user faces the front and does not take a pose. . That is, there is a high possibility that the recognition imaging is performed in a state where it is easy to extract the outline of the face, not in a state where the hand has a hand or is in a sideways manner in the face part.

これにより、輪郭点の抽出も正確に行うことができる。抽出された輪郭点により顔認証信頼度が算出される。そして、顔認証信頼度が最も高い顔の座標情報が確認され、その顔の中点が画像内の左側にあるか、右側にあるかで、利用者が認識される。例えば、図35に示されるように、利用者が検出され、顔認証信頼度がそれぞれ算出されたとする。すなわち、画面内の右側に位置する利用者の顔認証信頼度が700と算出され、画面内の左側に位置する利用の顔認証信頼度が650と算出されたとする。図中の矩形は、顔領域の部分を示している。   This allows accurate extraction of contour points. The face recognition reliability is calculated from the extracted contour points. Then, the coordinate information of the face having the highest face recognition reliability is confirmed, and the user is recognized depending on whether the midpoint of the face is on the left side or on the right side in the image. For example, as shown in FIG. 35, it is assumed that the user is detected and the face authentication reliability is calculated. That is, it is assumed that the face authentication reliability of the user located on the right side in the screen is calculated to be 700, and the face authentication reliability of the use located on the left side in the screen is calculated to be 650. The rectangles in the figure indicate parts of the face area.

このような場合、顔認証信頼度が最も高い顔は、画像の中央を境界として、右半分に存在する顔であり、右の利用者として確定される。そして、右の利用者がID=0と設定される。残りの利用者は、左の利用者とされ、ID=1と設定される。IDが割り当てられた利用者の顔の情報、例えば、抽出された輪郭点の位置関係に加え、認識された顔および顔よりも下の領域を含む画像、すなわち全身画像が、認識結果としてデータベースに登録される。   In such a case, the face with the highest face recognition reliability is a face that exists in the right half with the center of the image as the boundary, and is determined as the right user. Then, the right user is set to ID = 0. The remaining users are left users, and ID = 1 is set. Information of the user's face to which ID is assigned, for example, an image including the recognized face and an area below the face in addition to the positional relationship of the extracted contour points, ie, a whole-body image is added to the database as a recognition result. be registered.

なお、2人の利用者が写っている画像であるため、一方の利用者の顔にIDが割り当てられた時点で、他方のIDを割り当てるようにしても良い。   In addition, since it is the image in which two users are reflected, when ID is allocated to the face of one user, you may make it allocate ID of the other.

また、輪郭点全域ではなく、目、鼻、口、耳などの顔の器官だけを抽出してもよいし、顔の輪郭だけが抽出されてもよい。また、まず画像の最も左の利用者を認識し、次に右の利用者を認識する、という流れで処理が行われるようにしてもよい。この場合、左の1名が認識され、認識された人物以外の人物が認識される、という流れになる。   In addition, not the entire contour point but only facial organs such as eyes, nose, mouth, and ears may be extracted, or only the contour of the face may be extracted. Alternatively, the process may be performed by first recognizing the leftmost user of the image and then recognizing the right user. In this case, one person on the left is recognized, and a person other than the recognized person is recognized.

ステップS53において、レタッチ処理部602は、撮影画像を取得する。レタッチ処理部602は、通常撮影が行われる度に撮影画像を取得するようにしてもよいし、通常撮影が全て終了した後に、全ての撮影画像を取得するようにしてもよい。   In step S53, the retouch processing unit 602 acquires a captured image. The retouch processing unit 602 may acquire the photographed image every time normal photographing is performed, or may acquire all photographed images after all the normal photographing is completed.

ステップS54において、レタッチ処理部602は、取得された撮影画像から、1つの顔を検出し、データベースに登録されている情報との比較を行う。   In step S54, the retouch processing unit 602 detects one face from the acquired captured image, and compares the detected face with information registered in the database.

そして、ステップS55において、レタッチ処理部602は、比較結果を用いて、ID毎に顔照合信頼度を算出する。   Then, in step S55, the retouch processing unit 602 calculates the face matching reliability for each ID using the comparison result.

例えば、図36に示されるような画像が、撮影画像として取得されたとする。まず、撮影画像内の右側に位置する利用者が検出される。ここでの検出は、ステップS51において実行される認識と同様に、例えば、顔の輪郭点を抽出したり、顔の器官を抽出したりすることで行われる。   For example, it is assumed that an image as shown in FIG. 36 is acquired as a photographed image. First, a user located on the right side in the captured image is detected. The detection here is performed by, for example, extracting an outline point of a face or extracting an organ of a face, as in the recognition performed in step S51.

そして、検出された顔の情報と、データベースに登録されている顔の情報(認識結果)とが比較される。例えば、データベースに登録されている顔の情報が、顔の輪郭点の位置関係に関する情報であった場合、検出された顔の輪郭点の位置関係の情報が生成され、生成された情報と、登録されている情報とが比較される。   Then, the detected face information and the face information (recognition result) registered in the database are compared. For example, when the information of the face registered in the database is the information on the positional relation of the contour points of the face, the information of the positional relation of the detected contour points of the face is generated, and the generated information and registration The information being compared is compared.

まず、データベース内のID=0の情報と、検出された顔の情報とが比較され、顔照合信頼度が算出される。顔照合信頼度は、ID=0が割り当てられた利用者との照合結果が、どれだけ信頼できるかを示す値であり、この数値が高いほど、データベースに登録された顔と類似していることを示す。顔照合信頼度は、例えば0乃至1000の値をとり得る値とされる。   First, the information of ID = 0 in the database is compared with the information of the detected face to calculate the face matching reliability. The face matching reliability is a value indicating how reliable the matching result with the user assigned ID = 0 is, and the higher the value, the more similar the face registered in the database. Indicates The face matching reliability is, for example, a value that can take a value of 0 to 1000.

図36においては、右側に位置する利用者のID=0との顔照合信頼度は、710と算出されている。また、同様に、ID=1との顔照合信頼度は、650と算出されている。このように、1つの顔に対して、ID毎に顔照合信頼度が算出される。   In FIG. 36, the face matching reliability with the user ID = 0 on the right side is calculated as 710. Similarly, the face matching reliability with ID = 1 is calculated as 650. Thus, the face matching reliability is calculated for each ID for one face.

そして、ステップS56において、レタッチ処理部602は、顔照合信頼度が高いIDをその画像の利用者のIDとして確定する。図36の例では、撮影画像内の右側に位置する利用者は、ID=0との顔照合信頼度の方が、ID=1との顔照合信頼度よりも高いので、右側に位置する利用者は、ID=0が割り当てられた利用者であると判断される。よって、図23に示された撮影画像においては、右側に位置する利用者は、ID=0が割り当てられた利用者であると確定される。   Then, in step S56, the retouch processing unit 602 determines an ID with a high degree of face matching reliability as the ID of the user of the image. In the example of FIG. 36, the user located on the right side in the captured image has a higher face matching reliability with ID = 0 than the face matching reliability with ID = 1. The person is judged to be a user assigned ID = 0. Therefore, in the photographed image shown in FIG. 23, the user located on the right side is determined to be the user assigned ID = 0.

ステップS57において、撮影画像内に他の顔があるか否かが判断される。上述した例では、右側に位置する利用者に対する処理が終了しただけであるので、まだ左側に位置する利用者の顔は処理していないと判断され、処理はステップS55に戻る。   In step S57, it is determined whether there is another face in the captured image. In the example described above, only the process for the user located on the right side is completed, so it is determined that the face of the user still located on the left side is not processed, and the process returns to step S55.

左側に位置している利用者の顔に対しても、右側に位置している利用者の顔に対する処理と同様の処理が行われることで、ID毎の顔照合信頼度が算出される。図36の例では、左側に位置する利用者のID=0との顔照合信頼度は700であり、ID=1との顔照合信頼度は800であると算出されている。   Also for the face of the user located on the left side, the same process as the process for the face of the user located on the right side is performed to calculate the face matching reliability for each ID. In the example of FIG. 36, the face matching reliability with the user ID = 0 on the left side is 700, and the face matching reliability with the ID = 1 is calculated to be 800.

よって、図36の例では、撮影画像内の左側に位置する利用者は、ID=0との顔照合信頼度の方が、ID=1との顔照合信頼度よりも低いので、左側に位置する利用者は、ID=1の利用者であると判断される。よって、図36に示される撮影画像においては、左側に位置する利用者は、ID=1が割り当てられた利用者であると確定される。   Therefore, in the example of FIG. 36, the user located on the left side in the captured image is located on the left side because the face matching reliability with ID = 0 is lower than the face matching reliability with ID = 1. It is determined that the user who is performing the process is an ID = 1 user. Therefore, in the photographed image shown in FIG. 36, the user located on the left side is determined to be the user assigned ID = 1.

このようにして、撮影画像内の利用者毎にIDが割り当てられる。仮に、2人の利用者がデータベースに登録されている状態で、3人の利用者が検出された場合、その中の1人の利用者の顔照合信頼度は、他の利用者の顔照合信頼度よりも低い値となる。そのような他の利用者よりも低い顔照合信頼度が算出された利用者は、データベースに登録されていない利用者であるとして処理される。   Thus, an ID is assigned to each user in the captured image. If two users are registered in the database and three users are detected, then the face matching reliability of one of the users is the face matching of the other users. It is lower than the reliability. A user whose face matching reliability is lower than that of other users is treated as a user not registered in the database.

このようにして、撮影画像内の利用者毎にIDを割り当てる処理が、全ての撮影画像に対して行われる。例えば、通常撮影により5枚の撮影画像が取得される場合、5枚の撮影画像が処理されたと判断されるまで、まだIDが割り振られていない撮影画像に対する処理が繰り返される。   In this manner, the process of assigning an ID to each user in the photographed image is performed on all photographed images. For example, when five captured images are acquired by normal imaging, the process on the captured image to which an ID has not been assigned is repeated until it is determined that the five captured images have been processed.

その結果、撮影画像毎に、撮影画像内の利用者に対してIDが割り当てられ、同一のIDは、同一の利用者であるとして処理される。このようにして、撮影画像毎に、データベースに登録されている利用者との照合が行われることで、撮影画像毎に、どの利用者が、どの立ち位置で撮影されているかを判断することができる。   As a result, for each photographed image, an ID is assigned to the user in the photographed image, and the same ID is processed as being the same user. In this manner, for each photographed image, the collation with the user registered in the database is performed to determine which user is photographed at which standing position for each photographed image. it can.

例えば、ID=0が割り当てられた利用者Aが、脚の長さを伸ばすという指示を出したとき、各撮影画像において、ID=0が割り当てられた画像に対して、脚の長さを伸ばすための画像処理が実行される。   For example, when the user A assigned ID = 0 issues an instruction to extend the leg length, the leg length is extended with respect to the image assigned ID = 0 in each photographed image. Image processing is performed.

利用者の立ち位置は、全ての撮影画像において同じであるとは限らない。すなわち、例えば、1回目の撮影で左側に立っていた利用者が、2回目の撮影では右側に立ち位置を変えているような場合もある。このような立ち位置の変更があったような場合でも、撮影画像毎に利用者を認証しているため、適切に画像処理を施すことが可能となる。すなわち、立ち位置などに関係なく、利用者が所望した画像処理(レタッチ処理)を、利用者毎に施すことが可能となる。   The standing position of the user is not necessarily the same in all photographed images. That is, for example, there may be a case where the user standing on the left side in the first shooting changes the position on the right side in the second shooting. Even when there is such a change in the standing position, since the user is authenticated for each photographed image, image processing can be appropriately performed. That is, regardless of the standing position or the like, it is possible to perform image processing (retouching processing) desired by the user for each user.

以上においては、利用者の顔を認識することで、撮影画像に写る利用者を認証する処理について説明したが、利用者の全身を認識することで、撮影画像に写る利用者を認証することもできる。   In the above, the process of authenticating the user shown in the photographed image by recognizing the face of the user has been described. However, the user shown in the photographed image may be authenticated by recognizing the whole body of the user. it can.

(認証処理の例2)
次に、図37のフローチャートを参照して、認証処理の第2の例について説明する。図37の処理もまた、例えば、認識撮影が行われた後から、通常撮影が終了するまでの間に行われてもよいし、通常撮影が終了し、編集画面が表示される前までの間に行われてもよい。
(Example 2 of authentication process)
Next, a second example of the authentication process will be described with reference to the flowchart of FIG. The process of FIG. 37 may also be performed, for example, after the recognition shooting is performed until the normal shooting ends, or until the normal shooting ends and the editing screen is displayed. May be performed.

ステップS71において、レタッチ処理部602は、認識撮影により得られた認識用画像において、人物の全身を認識する。ここでは、認識用画像として距離画像が生成され、生成された距離画像から人物領域が抽出されることで、人物の全身が認識される。ここで、距離画像は、例えば、TOF(Time of Flight)方式により、照射光と反射光との位相差を用いて、撮影空間A1内の対象物までの距離を示す距離値を、距離画像の各画素の画素値として算出することで生成される。TOF方式に限らず、ストラクチャ光照明方式やInfraredDepth方式、ステレオカメラ方式などの公知の方式より、距離画像が生成されるようにしてもよい。   In step S71, the retouch processing unit 602 recognizes the whole body of the person in the recognition image obtained by the recognition imaging. Here, a distance image is generated as a recognition image, and the human region is extracted from the generated distance image, whereby the whole body of the person is recognized. Here, the distance image is, for example, a TOF (Time of Flight) method using a phase difference between the irradiation light and the reflected light to indicate a distance value indicating the distance to the object in the imaging space A1. It is generated by calculating as the pixel value of each pixel. The distance image may be generated by a known method such as a structure light illumination method, an infrared depth method, or a stereo camera method without being limited to the TOF method.

ステップS72において、レタッチ処理部602は、認識された人物の全身にIDを割り当て、その全身画像を登録する。   In step S72, the retouch processing unit 602 assigns an ID to the entire body of the recognized person, and registers the entire body image.

ここでは、まず、利用者(被写体)の全身の輪郭点が全て抽出される。抽出された輪郭点により全身認証信頼度が算出される。全身認証信頼度が最も高い全身の座標情報が確認され、その全身の中点が画像内の左側にあるか、右側にあるかで、利用者が認識され、IDが割り当てられる。IDが割り当てられた利用者の全身画像に加え、全身の輪郭点の位置関係や、輪郭点で囲まれる領域に含まれる肌色領域を示す情報が、認識結果としてデータベースに登録される。   Here, first, all contour points of the whole body of the user (subject) are extracted. The whole body authentication reliability is calculated from the extracted contour points. The coordinate information of the whole body having the highest whole body authentication reliability is confirmed, and the user is recognized and an ID is assigned depending on whether the middle point of the whole body is on the left side or the right side in the image. In addition to the whole body image of the user to which the ID is assigned, information indicating the positional relationship of contour points of the whole body and the skin color area included in the area surrounded by the contour points is registered in the database as a recognition result.

なお、輪郭点全域ではなく、レタッチ処理の対象となる脚などの部分だけが抽出されてもよい。   Note that not the entire contour point but only the part such as the leg to be subjected to the retouching process may be extracted.

ステップS73において、レタッチ処理部602は、撮影画像を取得する。レタッチ処理部602は、通常撮影が行われる度に撮影画像を取得するようにしてもよいし、通常撮影が全て終了した後に、全ての撮影画像を取得するようにしてもよい。   In step S73, the retouch processing unit 602 acquires a captured image. The retouch processing unit 602 may acquire the photographed image every time normal photographing is performed, or may acquire all photographed images after all the normal photographing is completed.

ステップS74において、レタッチ処理部602は、取得された撮影画像から、1つの全身を検出し、データベースに登録されている情報との比較を行う。   In step S74, the retouch processing unit 602 detects one whole body from the acquired captured image, and compares it with information registered in the database.

ステップS75において、レタッチ処理部602は、比較結果を用いて、ID毎に全身照合信頼度を算出する。全身照合信頼度の算出は、上述した顔照合信頼度の算出と同様にして行われる。   In step S75, the retouch processing unit 602 calculates the whole-body matching reliability for each ID using the comparison result. The calculation of the whole-body matching reliability is performed in the same manner as the calculation of the face matching reliability described above.

ステップS76において、レタッチ処理部602は、全身照合信頼度が高いIDをその画像の利用者のIDとして確定する。   In step S76, the retouch processing unit 602 determines an ID with a high whole-body matching reliability as the ID of the user of the image.

ステップS77において、撮影画像内に他の全身があるか否かが判断される。撮影画像において、上述した処理がされていない全身があると判断された場合、ステップS75に戻り、それ以降の処理が繰り返される。   In step S77, it is determined whether there is another whole body in the captured image. If it is determined in the photographed image that there is a whole body not subjected to the above-described processing, the process returns to step S75, and the subsequent processing is repeated.

このようにして、撮影画像内の利用者毎にIDが割り当てられる処理が、全ての撮影画像に対して行われる。例えば、通常撮影により5枚の撮影画像が取得される場合、5枚の撮影画像が処理されたと判断されるまで、まだIDが割り振られていない撮影画像に対する処理が繰り返される。   In this manner, the process of assigning an ID to each user in a captured image is performed on all captured images. For example, when five captured images are acquired by normal imaging, the process on the captured image to which an ID has not been assigned is repeated until it is determined that the five captured images have been processed.

その結果、撮影画像毎に、撮影画像内の利用者に対してIDが割り当てられ、同一のIDは、同一の利用者であるとして処理される。このようにして、撮影画像毎に、データベースに登録されている利用者との照合が行われることで、撮影画像毎に、どの利用者が、どの立ち位置で撮影されているかを判断することができる。   As a result, for each photographed image, an ID is assigned to the user in the photographed image, and the same ID is processed as being the same user. In this manner, for each photographed image, the collation with the user registered in the database is performed to determine which user is photographed at which standing position for each photographed image. it can.

なお、図37の処理によれば、顔の認識に失敗するような場合であっても、利用者の全身を認識することができるので、より確実に利用者を認証することができるようになる。   Note that according to the process of FIG. 37, even if the face recognition fails, the user's entire body can be recognized, so that the user can be more reliably authenticated. .

<変形例>
以下においては、上述した実施の形態の変形例について説明する。
<Modification>
Hereinafter, modifications of the above-described embodiment will be described.

(レタッチパレットの表示条件)
以上においては、特定の画角で撮影された撮影画像が編集対象となったときのみ、レタッチ処理の選択を受け付けるためのレタッチパレットが編集画面に表示されるものとしたが、他の条件に応じてレタッチパレットが表示されるようにしてもよい。
(Retouching palette display conditions)
In the above, the retouching palette for accepting the selection of the retouching process is displayed on the editing screen only when the captured image captured at a specific angle of view is to be edited, but according to the other conditions The retouching palette may be displayed.

例えば、撮影画像に写る利用者の髪の長さに応じて、レタッチパレットが表示されるようにする。具体的には、撮影画像に写る利用者の髪の長さが所定の長さより短い場合に、レタッチパレットが表示されるようにする。   For example, the retouching palette is displayed according to the length of the user's hair appearing in the photographed image. Specifically, the retouching palette is displayed when the length of the user's hair shown in the photographed image is shorter than a predetermined length.

また、撮影画像に写る利用者の顔における化粧の状態に応じて、レタッチパレットが表示されるようにしてもよい。具体的には、撮影画像に写る利用者の顔に、一切化粧が施されてない場合(いわゆるすっぴんの場合)や、薄い化粧が施されている場合に、レタッチパレットが表示されるようにする。化粧の状態は、例えば、撮影画像に写る利用者の顔のシミやしわなどから推定されるようにする。   Further, the retouching palette may be displayed according to the state of makeup in the face of the user appearing in the photographed image. Specifically, the retouching palette is displayed when no makeup is applied to the face of the user in the photographed image (in the case of so-called top) or when light makeup is applied. . The state of makeup is estimated, for example, from stains or wrinkles on the user's face in the photographed image.

これにより、利用者の顔がすっぴんや薄化粧の状態であっても、撮影画像に写る利用者の顔を、完成度の高い見た目の顔に仕上げることができる。   As a result, even if the user's face is in a state of thinness or makeup, it is possible to finish the user's face in the photographed image into a highly complete look.

さらに、編集対象となる撮影画像に写る利用者の目の認識が成功しているか否かに応じて、レタッチパレットが表示されるようにしてもよい。具体的には、編集対象となる撮影画像に写る利用者の目の認識が成功している場合にのみ、レタッチパレットが表示されるようにする。   Furthermore, the retouching palette may be displayed depending on whether or not the user's eyes in the captured image to be edited have been recognized successfully. Specifically, the retouching palette is displayed only when recognition of the user's eyes in the photographed image to be edited has succeeded.

上述したように、レタッチ処理は、撮影画像における人物の顔や顔パーツが認識されることで適切に施される。そのため、編集対象となる撮影画像に写る利用者の目の認識が成功している場合にのみ、レタッチパレットが表示されるようにすることで、レタッチ処理が適切に施されるようにすることができる。   As described above, the retouching process is appropriately performed by recognizing the face or face part of the person in the captured image. Therefore, the retouching process can be appropriately performed by displaying the retouching palette only when the user's eyes in the captured image to be edited are recognized successfully. it can.

また、撮影に関するコースとして、芸能人やモデル、キャラクタなどとコラボレーションしたコラボコースを用意するようにした場合、コラボコースが選択されたか否かに応じて、レタッチパレットが表示されるようにしてもよい。通常、コラボコースのようなコースが選択された場合、芸能人やモデル、キャラクタなどが撮影画像に一緒に写り込んだり、スタンプ画像として合成されたりするため、撮影画像における利用者自身の見た目はさほど重視されない。そこで、撮影に関するコースとして、コラボコース以外のコースが選択された場合に、レタッチパレットが表示されるようにする。   In addition, when a collaboration course in collaboration with an entertainer, a model, a character, or the like is prepared as a course related to shooting, the retouching palette may be displayed depending on whether the collaboration course is selected. Usually, when a course such as a collaboration course is selected, celebrities, models, characters, etc. are reflected together in the photographed image or combined as a stamp image, so the appearance of the user himself in the photographed image is much emphasized I will not. Therefore, when a course other than the collaboration course is selected as a course related to shooting, the retouching palette is displayed.

(他の画面表示例)
以上においては、編集画面にレタッチパレットが表示されるものとしたが、レタッチ処理の選択を受け付けるためだけのレタッチ画面が表示されるようにしてもよい。
(Another screen display example)
Although the retouching palette is displayed on the editing screen in the above, the retouching screen may be displayed only for receiving the selection of the retouching process.

図38は、レタッチ画面の例を示す図である。   FIG. 38 is a diagram showing an example of the retouching screen.

図38のレタッチ画面は、編集処理において、例えば編集画面が表示される前に、タブレット内蔵モニタ131に表示されるものとするが、撮影処理において例えば6回の撮影が終了した後に表示されるようにしてもよい。   Although the retouching screen in FIG. 38 is displayed on the tablet built-in monitor 131 before the editing screen is displayed, for example, in the editing process, it is displayed after, for example, six times of shooting ends in the shooting process. You may

図38の例では、レタッチ画面の上段に、6枚の撮影画像として、5枚のアップ画像731乃至734と1枚の全身画像735が表示されている。   In the example of FIG. 38, five up images 731 to 734 and one full-body image 735 are displayed as the six captured images on the top of the retouch screen.

また、レタッチ画面の下段左側には、アップ画像用のレタッチパレット740−1が表示され、レタッチ画面の下段右側には、全身画像用のレタッチパレット740−2が表示されている。   In addition, a retouching pallet for up image is displayed on the lower left side of the retouching screen, and a retouching pallet 740-2 for whole body image is displayed on the lower right side of the retouching screen.

レタッチパレット740−1には、透明感アップボタン751、まるく大きくボタン752、および涙袋ボタン753の3つのボタンが表示されている。これらのボタン751乃至753は、いずれも図14のボタン551乃至553と同様の機能を有し、アップ画像に写る被写体の目およびその近傍の領域に対するレタッチ処理の選択を受け付けるためのボタンである。   On the retouching pallet 740-1, three buttons of a transparency-up button 751, a large and round button 752, and a tear bag button 753 are displayed. These buttons 751 to 753 have the same functions as the buttons 551 to 553 in FIG. 14, and are buttons for receiving the selection of the retouching process for the eye of the subject shown in the up image and the area in the vicinity thereof.

これらのボタンが操作されると、アップ画像731乃至734に表示されている被写体の目およびその近傍の領域に、操作されたボタンに対応するレタッチ処理が施される。このとき、全身画像735に表示されている被写体には、操作されたボタンに対応するレタッチ処理は施されないものとするが、そのレタッチ処理が施されるようにしてもよい。   When these buttons are operated, the retouching process corresponding to the operated button is performed on the eye of the subject displayed in the up images 731 to 734 and an area in the vicinity thereof. At this time, the retouching process corresponding to the operated button is not performed on the subject displayed in the full-body image 735, but the retouching process may be performed.

また、図38の例でも、図14の例と同様、透明感アップボタン751、まるく大きくボタン752、および涙袋ボタン753それぞれに対応して、OFFボタン761乃至763が表示されている。   Also in the example of FIG. 38, as in the example of FIG. 14, the OFF buttons 761 to 763 are displayed corresponding to the transparent feeling up button 751, the round big button 752, and the tear bag button 753, respectively.

レタッチパレット740−2には、脚長ボタン771、脚細ボタン772、および背高ボタン773の3つのボタンが表示されている。これらのボタン771乃至773は、いずれも図18のボタン611乃至613と同様の機能を有し、全身画像に写る被写体の脚または全身の領域に対するレタッチ処理の選択を受け付けるためのボタンである。   On the retouching pallet 740-2, three buttons of a leg length button 771, a leg thin button 772 and a height button 773 are displayed. Each of these buttons 771 to 773 has the same function as that of the buttons 611 to 613 in FIG. 18, and is a button for accepting the selection of the retouching process for the leg or the whole body area of the subject shown in the whole body image.

これらのボタンが操作されると、全身画像735に表示されている被写体の脚または全身の領域に、操作されたボタンに対応するレタッチ処理が施される。このとき、アップ画像731乃至734に表示されている被写体には、操作されたボタンに対応するレタッチ処理は施されないものとする。   When these buttons are operated, a retouch process corresponding to the operated button is performed on the region of the leg or whole body of the subject displayed in the full-body image 735. At this time, it is assumed that the retouching process corresponding to the operated button is not performed on the objects displayed in the up images 731 to 734.

また、図38の例でも、図18の例と同様、脚長ボタン771、脚細ボタン772、および背高ボタン773それぞれに対応して、OFFボタン781乃至783が表示されている。   Also in the example of FIG. 38, as in the example of FIG. 18, the OFF buttons 781 to 783 are displayed corresponding to the leg length button 771, the leg thin button 772 and the height button 773, respectively.

なお、図38の例において、レタッチ処理の対象となる撮影画像を利用者に選択させ、選択された撮影画像の画角(撮影範囲)に応じて、レタッチパレット740−1または740−2をグレーアウト表示させるようにしてもよい。   In the example of FIG. 38, the user is allowed to select a photographed image to be subjected to retouching processing, and the retouching pallet 740-1 or 740-2 is grayed out according to the angle of view (photographing range) of the selected photographed image. It may be displayed.

例えば、レタッチ処理の対象となる撮影画像として、アップ画像731乃至734のいずれかが選択された場合には、レタッチパレット740−2がグレーアウト表示され、レタッチパレット740−1のみが操作可能となるようにする。また、レタッチ処理の対象となる撮影画像として、全身画像735が選択された場合には、レタッチパレット740−1がグレーアウト表示され、レタッチパレット740−2のみが操作可能となるようにする。   For example, when any of the up images 731 to 734 is selected as a photographed image to be subjected to the retouching process, the retouching pallet 740-2 is grayed out and only the retouching pallet 740-1 can be operated. Make it Further, when the whole-body image 735 is selected as a photographed image to be subjected to the retouching process, the retouching pallet 740-1 is grayed out so that only the retouching pallet 740-2 can be operated.

これにより、利用者は、レタッチパレット740−1,740−2のどちらを操作すればよいかを簡単に把握することができる。   Thus, the user can easily grasp which one of the retouching pallets 740-1 and 740-2 should be operated.

上述した実施の形態では、写真シール作成装置1は、得られた撮影画像や編集画像をシール紙に印刷するとともに、サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、撮影画像や編集画像をシール紙に印刷せずに、サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、撮影画像や編集画像をサーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。   In the embodiment described above, the photograph sticker creating apparatus 1 is configured to print the obtained photographed image or edited image on a sticker sheet and to transmit it to the server to provide it to the portable terminal of the user. . Not limited to this, it is also possible to adopt a configuration in which the photographed image or the edited image is only provided to the user's portable terminal by transmitting it to the server without printing it on a sticker sheet. Conversely, it is also possible to adopt a configuration in which only printing on a sticker sheet is performed without transmitting the photographed image or the edited image to the server.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。なお、上述した一連の処理を実行させるソフトウェアを構成するプログラムは、写真シール作成装置1にインストールされてもよいし、携帯端末上で起動するアプリケーションとして携帯端末にインストールされてもよい。   The series of processes described above can be performed by hardware or software. When the above-described series of processes are executed by software, a program that configures the software is installed from a network or a recording medium. In addition, the program which comprises the software which performs a series of processes mentioned above may be installed in the photo sticker creation apparatus 1, and may be installed in a portable terminal as an application started on a portable terminal.

この記録媒体は、例えば、図10に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア319により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM312や、記憶部316に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 10, this recording medium is distributed to distribute the program to the administrator of the photograph sticker creating apparatus 1 separately from the apparatus main body. It comprises a removable medium 319 comprising a flexible disk, an optical disk (including CD-ROM and DVD), a magneto-optical disk, or a semiconductor memory. In addition to these, the recording medium is configured by the ROM 312 in which a program distributed to the administrator in a state of being incorporated in the apparatus main body in advance is recorded, a hard disk included in the storage unit 316 or the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, in the step of describing the program recorded on the recording medium, processing performed in time series according to the described order is, of course, parallel or not necessarily processed in time series. It also includes processing to be executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。   In the above, the print medium is not limited to the seal paper and the photo paper. For example, the image may be printed on paper or a film of a predetermined size, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, a seal layout image in which one or more photographed images are arranged may be printed on these print media.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   Further, the embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present technology.

なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。   In addition, the effect described in this specification is an illustration to the last, is not limited, and may have other effects.

1 写真シール作成装置
401 事前選択処理部
402 撮影処理部
403 編集処理部
404 印刷処理部
601 表示制御部
602 レタッチ処理部
603 合成処理部
1 photo sticker creation apparatus 401 preselection processing unit 402 photographing processing unit 403 editing processing unit 404 printing processing unit 601 display control unit 602 retouching processing unit 603 combining processing unit

Claims (10)

利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成する撮影処理部と、
複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示する表示制御部と、
特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施すレタッチ処理部と
を備え、
前記表示制御部は、
前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、
前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない
写真作成ゲーム機。
A photographing processing unit that generates a plurality of photographed images by photographing the user as a subject at a plurality of angles of view;
A display control unit that displays an editing screen for receiving an editing input for editing any of the plurality of photographed images;
And a retouch processing unit that performs retouch processing on the subject captured in the captured image captured at a specific angle of view.
The display control unit
The retouching GUI for receiving the selection of the retouching process is displayed on the editing screen only when the captured image captured at the specific angle of view becomes the edit target.
The retouching GUI is not displayed on the editing screen when the captured image captured at another angle of view other than the specific angle of view becomes the edit target.
前記レタッチ処理部は、前記被写体の顔および上半身を撮影範囲としたアップ撮影により得られたアップ画像に写る前記被写体に対して前記レタッチ処理を施し、
前記表示制御部は、前記アップ画像が前記編集対象となったときのみ、前記レタッチ用GUIを前記編集画面に表示する
請求項1に記載の写真作成ゲーム機。
The retouch processing unit performs the retouching process on the subject captured in an up image obtained by up shooting with the face and upper body of the subject taken in the shooting range.
The photo creating game machine according to claim 1, wherein the display control unit displays the retouching GUI on the editing screen only when the up image is to be edited.
前記レタッチ処理部は、前記被写体の全身を撮影範囲とした全身撮影により得られた全身画像に写る前記被写体に対して前記レタッチ処理を施し、
前記表示制御部は、前記全身画像が前記編集対象となったときのみ、前記レタッチ用GUIを前記編集画面に表示する
請求項1に記載の写真作成ゲーム機。
The retouching processing unit performs the retouching process on the subject captured in a whole-body image obtained by whole-body imaging in which the entire body of the subject is captured.
The photo creating game machine according to claim 1, wherein the display control unit displays the retouching GUI on the editing screen only when the whole-body image is to be edited.
前記全身撮影は、斜め上から見た前記被写体の全身が写る前記全身画像を得る撮影である
請求項3に記載の写真作成ゲーム機。
The photograph creation game machine according to claim 3, wherein the whole body photographing is a photographing for obtaining the whole body image in which the whole body of the subject viewed from obliquely above is photographed.
前記全身撮影は、正面から見た前記被写体の全身が写る前記全身画像を得る撮影である
請求項3に記載の写真作成ゲーム機。
4. The game machine according to claim 3, wherein the whole body photographing is a photographing for obtaining the whole body image in which the whole body of the subject viewed from the front is photographed.
前記表示制御部は、前記他の画角で撮影された前記撮影画像が前記編集対象となったとき、前記レタッチ用GUIではなく、前記編集対象となった前記撮影画像に合成されるコンテンツを選択するためのコンテンツ選択用GUIを前記編集画面に表示する
請求項1乃至5のいずれかに記載の写真作成ゲーム機。
The display control unit selects, when the photographed image photographed at the other angle of view becomes the editing target, a content to be synthesized with the photographed image to be edited instead of the retouching GUI. The picture creation game machine according to any one of claims 1 to 5, wherein a content selection GUI for displaying is displayed on the editing screen.
前記表示制御部は、前記特定の画角で撮影された前記撮影画像が前記編集対象となったとき、前記編集画面において、前記編集対象となる前記撮影画像に写る複数の前記被写体のうち、前記レタッチ処理の対象となる前記被写体の選択を受け付ける
請求項1乃至6のいずれかに記載の写真作成ゲーム機。
The display control unit is configured to, when the photographed image photographed at the specific angle of view becomes the editing target, the subject among the plurality of subjects shown in the photographed image to be edited on the editing screen. The picture creation game machine according to any one of claims 1 to 6, wherein the selection of the subject to be subjected to retouching processing is received.
前記表示制御部は、
複数の前記撮影画像それぞれに対応するサムネイル画像を前記編集画面に表示し、
前記編集画面において、複数の前記サムネイル画像のいずれかが選択されることで、前記編集対象となる前記撮影画像を、選択された前記サムネイル画像に対応する前記撮影画像に切り替えて表示する
請求項1乃至7のいずれかに記載の写真作成ゲーム機。
The display control unit
Displaying a thumbnail image corresponding to each of the plurality of photographed images on the editing screen;
By selecting any one of the plurality of thumbnail images on the editing screen, the photographed image to be edited is switched to the photographed image corresponding to the selected thumbnail image and displayed. 7. A photo creating game machine according to any one of 7 to 7.
写真作成ゲーム機が、
利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成し、
複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示し、
特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施し、
前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、
前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない
編集方法。
A photo creation game machine
A plurality of photographed images are generated by photographing the user as a subject at a plurality of angles of view,
Displaying an editing screen for receiving an editing input for editing any of the plurality of photographed images,
Subjecting the subject captured in the captured image captured at a specific angle of view to retouch processing;
The retouching GUI for receiving the selection of the retouching process is displayed on the editing screen only when the captured image captured at the specific angle of view becomes the edit target.
The editing method does not display the retouching GUI on the editing screen when the captured image captured at another angle of view other than the specific angle of view becomes the edit target.
コンピュータを、
利用者を被写体として複数の画角で撮影を行うことで、複数の撮影画像を生成する撮影処理部と、
複数の前記撮影画像のいずれかを編集対象とした編集入力を受け付ける編集画面を表示する表示制御部と、
特定の画角で撮影された前記撮影画像に写る前記被写体に対してレタッチ処理を施すレタッチ処理部と
して機能させるためのプログラムであって、
前記表示制御部は、
前記特定の画角で撮影された前記撮影画像が前記編集対象となったときのみ、前記レタッチ処理の選択を受け付けるためのレタッチ用GUIを前記編集画面に表示し、
前記特定の画角以外の他の画角で撮影された前記撮影画像が前記編集対象となったときには、前記レタッチ用GUIを前記編集画面に表示しない
プログラム。
Computer,
A photographing processing unit that generates a plurality of photographed images by photographing the user as a subject at a plurality of angles of view;
A display control unit that displays an editing screen for receiving an editing input for editing any of the plurality of photographed images;
A program for functioning as a retouch processing unit that performs retouch processing on the subject captured in the captured image captured at a specific angle of view,
The display control unit
The retouching GUI for receiving the selection of the retouching process is displayed on the editing screen only when the captured image captured at the specific angle of view becomes the edit target.
The program for not displaying the retouching GUI on the editing screen when the captured image captured at another angle of view other than the specific angle of view becomes the edit target.
JP2018003493A 2018-01-12 2018-01-12 Photo-creating game consoles, editing methods, and programs Active JP7032642B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018003493A JP7032642B2 (en) 2018-01-12 2018-01-12 Photo-creating game consoles, editing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018003493A JP7032642B2 (en) 2018-01-12 2018-01-12 Photo-creating game consoles, editing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019124746A true JP2019124746A (en) 2019-07-25
JP7032642B2 JP7032642B2 (en) 2022-03-09

Family

ID=67398673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003493A Active JP7032642B2 (en) 2018-01-12 2018-01-12 Photo-creating game consoles, editing methods, and programs

Country Status (1)

Country Link
JP (1) JP7032642B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016133977A (en) * 2015-01-19 2016-07-25 辰巳電子工業株式会社 Picture shooting game machine, image creation method and image creation program
JP2017129651A (en) * 2016-01-19 2017-07-27 株式会社メイクソフトウェア Picture-taking game machine and control program of the same
JP2017203989A (en) * 2017-06-14 2017-11-16 辰巳電子工業株式会社 Imaging device
JP2017229013A (en) * 2016-06-24 2017-12-28 フリュー株式会社 Game machine for forming photograph and display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016133977A (en) * 2015-01-19 2016-07-25 辰巳電子工業株式会社 Picture shooting game machine, image creation method and image creation program
JP2017129651A (en) * 2016-01-19 2017-07-27 株式会社メイクソフトウェア Picture-taking game machine and control program of the same
JP2017229013A (en) * 2016-06-24 2017-12-28 フリュー株式会社 Game machine for forming photograph and display method
JP2017203989A (en) * 2017-06-14 2017-11-16 辰巳電子工業株式会社 Imaging device

Also Published As

Publication number Publication date
JP7032642B2 (en) 2022-03-09

Similar Documents

Publication Publication Date Title
JP5418708B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP5201430B1 (en) Photo sticker creation apparatus and method, and program
JP2015146566A (en) Image generation device, method, and program
JP6880394B2 (en) Photographing game console and shooting method
JP6810336B2 (en) Photo creation game console and display method
JP2017121044A (en) Photo seal producing apparatus and image processing method
JP6853475B2 (en) Photo creation game console and display method
JP5904192B2 (en) Photo sticker creation apparatus, image processing method, and program
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP7032642B2 (en) Photo-creating game consoles, editing methods, and programs
JP7140962B2 (en) Image processing device, control method, and program
JP2018107515A (en) Photograph formation game machine and image processing method
JP7074994B2 (en) Photographing game console and image processing method
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP6232662B2 (en) Photography game machine and its control program
JP2018026750A (en) Photograph creation game machine and imaging method
JP2019186903A (en) Photo creation game machine, image display method, and program
JP6376421B1 (en) Photo creation game machine, display method, and program
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP2019066778A (en) Photo creation game machine, image processing method, and program
JP6842038B2 (en) Photographing game console and image processing method
JP6691292B2 (en) Photo sticker creating apparatus and shooting method
JP6978660B2 (en) Photographing game equipment, image display method, and image display program
JP6443028B2 (en) Image generation apparatus, image generation method, and print medium
JP5979463B1 (en) Photo sticker creation apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R150 Certificate of patent or registration of utility model

Ref document number: 7032642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150