JP7074994B2 - Photographing game console and image processing method - Google Patents

Photographing game console and image processing method Download PDF

Info

Publication number
JP7074994B2
JP7074994B2 JP2017178839A JP2017178839A JP7074994B2 JP 7074994 B2 JP7074994 B2 JP 7074994B2 JP 2017178839 A JP2017178839 A JP 2017178839A JP 2017178839 A JP2017178839 A JP 2017178839A JP 7074994 B2 JP7074994 B2 JP 7074994B2
Authority
JP
Japan
Prior art keywords
image
area
face
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017178839A
Other languages
Japanese (ja)
Other versions
JP2018106678A (en
Inventor
恭子 多田
莉恵 北野
裕香 南
彩香 和田
有美 澁谷
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Publication of JP2018106678A publication Critical patent/JP2018106678A/en
Application granted granted Critical
Publication of JP7074994B2 publication Critical patent/JP7074994B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本技術は、写真作成ゲーム機および画像処理方法に関し、特に、満足度の高い画像を提供することができるようにする写真作成ゲーム機および画像処理方法に関する。 The present technology relates to a photo-creating game machine and an image processing method, and more particularly to a photo-creating game machine and an image processing method that enable a highly satisfactory image to be provided.

従来、アミューズメント施設等に設置される写真シール機が知られている。写真シール機は、利用者を撮影し、利用者の操作に応じて撮影画像に対して編集を施す。写真シール機は、編集が施された撮影画像をシール紙に印刷する。 Conventionally, a photo sticker machine installed in an amusement facility or the like is known. The photo sticker machine photographs the user and edits the captured image according to the operation of the user. The photo sticker machine prints the edited photographed image on the sticker paper.

近年、写真シール機においては、撮影画像に適切な画像処理を施すために、撮影画像に対する顔認識が行われている。 In recent years, in a photo sticker machine, face recognition is performed on a photographed image in order to perform appropriate image processing on the photographed image.

例えば、特許文献1には、顔を認識するための認識撮影により得られた画像から顔を検出・登録し、登録された顔と、その後の撮影により得られた撮影画像における顔とを照合することが開示されている。これにより、撮影画像に写る利用者毎の顔に、目の大きさや形状を変更する画像処理を施すことが可能となる。 For example, in Patent Document 1, a face is detected and registered from an image obtained by recognition imaging for recognizing a face, and the registered face is collated with a face in a captured image obtained by subsequent imaging. Is disclosed. This makes it possible to perform image processing for changing the size and shape of the eyes on the face of each user in the captured image.

また、特許文献2には、撮影画像において、顔認識により検出された顔の器官の位置に、その器官に対応する化粧用画像(メイクアップスタンプ)を合成することが開示されている。 Further, Patent Document 2 discloses that a cosmetic image (makeup stamp) corresponding to an organ of a face detected by face recognition is synthesized in a photographed image.

特開2013-243648号公報Japanese Unexamined Patent Publication No. 2013-243648 特開2015-34836号公報Japanese Unexamined Patent Publication No. 2015-34836

しかしながら、特許文献1や特許文献2に開示されている構成では、顔やその器官の認識に失敗した場合、撮影画像に適切な画像処理を施すことはできず、満足度の高い画像が提供されなかった。 However, in the configurations disclosed in Patent Document 1 and Patent Document 2, if the recognition of the face or its organ fails, appropriate image processing cannot be applied to the captured image, and a highly satisfying image is provided. There wasn't.

本技術は、このような状況に鑑みてなされたものであり、より確実に、満足度の高い画像を提供することができるようにするものである。 This technique has been made in view of such a situation, and makes it possible to more reliably provide a highly satisfying image.

本技術の写真作成ゲーム機は、撮影画像において顔またはその一部を認識する認識部と、認識に成功した前記顔またはその一部の領域に対して、利用者の操作によらずに、第1の画像処理を施す第1の画像処理部と、前記撮影画像において、前記利用者の操作により、認識に失敗したことで前記第1の画像処理が施されなかった前記顔またはその一部の領域特定する領域特定部と、前記領域特定部により特定された前記顔またはその一部の領域に対して第2の画像処理を施す第2の画像処理部とを備える。 The photo-creating game machine of the present technology has a recognition unit that recognizes a face or a part thereof in a captured image, and a region of the face or a part thereof that has been successfully recognized , regardless of the user's operation . The first image processing unit that performs the image processing of 1 and the face or a part thereof that has not been subjected to the first image processing due to failure in recognition due to the operation of the user in the captured image. A region specifying unit for specifying an area and a second image processing unit for performing a second image processing on the face or a part of the region specified by the region specifying unit are provided.

本技術の画像処理方法は、撮影画像において顔またはその一部を認識し、認識に成功した前記顔またはその一部の領域に対して、利用者の操作によらずに、第1の画像処理を施し、前記撮影画像において、前記利用者の操作により、認識に失敗したことで前記第1の画像処理が施されなかった前記顔またはその一部の領域特定し、特定された前記顔またはその一部の領域に対して第2の画像処理を施すステップを含む。 The image processing method of the present technology recognizes a face or a part thereof in a captured image, and performs first image processing on the area of the face or a part thereof that has been successfully recognized without any operation by a user. In the captured image, the face or a part of the face to which the first image processing was not performed due to the failure in recognition by the operation of the user is specified, and the specified face or the specified area or a part thereof is specified. A step of performing a second image processing on a part of the area is included.

本技術においては、撮影画像において顔またはその一部が認識され、認識に成功した前記顔またはその一部の領域に対して、利用者の操作によらずに、第1の画像処理が施され、前記撮影画像において、前記利用者の操作により、認識に失敗したことで前記第1の画像処理が施されなかった前記顔またはその一部の領域特定され、特定された前記顔またはその一部の領域に対して第2の画像処理が施される。 In the present technique, the face or a part thereof is recognized in the captured image, and the first image processing is applied to the area of the face or a part thereof that has been successfully recognized without any operation by the user. In the captured image, the face or a part of the area to which the first image processing has not been performed due to the failure in recognition is specified by the operation of the user, and the specified face or one thereof. A second image process is applied to the area of the portion.

本技術によれば、より確実に、満足度の高い画像を提供することが可能となる。 According to this technique, it is possible to more reliably provide a highly satisfying image.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the appearance of the photograph sticker making apparatus of this technique. 写真シール作成装置の外観を他の角度からみた斜視図である。It is a perspective view which looked at the appearance of the photograph sticker making apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining the movement of a user. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of the preselection part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of the photographing part. 背景部の構成例を示す図である。It is a figure which shows the structural example of the background part. 床材を示す斜視図である。It is a perspective view which shows the floor material. 編集ユニットの正面の構成例を示す図である。It is a figure which shows the configuration example of the front of an editing unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the configuration example of the side surface of an editing unit. シール紙の例を示す図である。It is a figure which shows the example of a sticker paper. 編集画像のレイヤ構成の例を示す図である。It is a figure which shows the example of the layer composition of an edited image. 写真シール作成装置の構成例を示すブロック図である。It is a block diagram which shows the configuration example of the photograph sticker making apparatus. 写真シール作成装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional composition example of the photograph sticker making apparatus. 編集処理部の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of an edit processing part. レタッチ処理部の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of a retouch processing part. 写真シール作成ゲーム処理について説明するフローチャートである。It is a flowchart explaining the photo sticker making game process. 編集処理について説明するフローチャートである。It is a flowchart explaining the editing process. 自動レタッチ処理について説明するフローチャートである。It is a flowchart explaining the automatic retouching process. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 手動レタッチ処理のガイダンスポップアップの例を示す図である。It is a figure which shows the example of the guidance pop-up of a manual retouching process. 手動レタッチ処理の使い方ポップアップの例を示す図である。It is a figure which shows the example of the usage pop-up of the manual retouching process. 手動レタッチ処理について説明するフローチャートである。It is a flowchart explaining the manual retouching process. 手動レタッチ処理の対象となる領域の特定について説明する図である。It is a figure explaining the identification of the area to be the target of the manual retouching process. 手動レタッチ処理の結果について説明する図である。It is a figure explaining the result of the manual retouching process. 手動レタッチ処理の対象となる領域の特定について説明する図である。It is a figure explaining the identification of the area to be the target of the manual retouching process. 編集画面の他の例を示す図である。It is a figure which shows the other example of an edit screen. 手動レタッチ処理の使い方ポップアップの他の例を示す図である。It is a figure which shows another example of the usage pop-up of the manual retouching process. 手動レタッチ処理の使い方ポップアップの他の例を示す図である。It is a figure which shows another example of the usage pop-up of the manual retouching process. 手動レタッチ処理の対象となる領域の特定について説明する図である。It is a figure explaining the identification of the area to be the target of the manual retouching process. 手動レタッチ処理において描画される線の角度制限について説明する図である。It is a figure explaining the angle limitation of the line drawn in the manual retouching process.

<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance of photo sticker making device>
1 and 2 are perspective views showing a configuration example of the appearance of the photo sticker creating device 1.

写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。 The photo sticker creating device 1 is a game machine that provides a photographed image and an edited image. The photo sticker creating device 1 provides an image to a user by printing the image on a sticker paper or making the image viewable on the user's mobile terminal. The photo sticker creating device 1 is installed in an amusement facility such as a game center or a store.

写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。 The users of the photo sticker making device 1 are mainly high school girls and young women. In the photo sticker creating device 1, a plurality of users, such as mainly two or three people, can enjoy the game per set. Of course, in the photo sticker creating device 1, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creating device 1, the user takes a picture by himself / herself as a subject. By editing, the user synthesizes a composite image such as handwritten characters or a stamp image with an image selected from the captured images obtained by shooting. As a result, the captured image is edited into a colorful image. The user receives a sticker paper on which the edited image, which is an edited image, is printed, and ends the series of games.

写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。 The photo sticker creation device 1 can be said to be a photo creation game machine that provides a photo creation game.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。 As shown in FIG. 1, the photo sticker creating device 1 is basically configured by being installed in a state where the photographing unit 11 and the editing unit 12 are in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected.

撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。 The photographing unit 11 has a box-shaped housing having a size large enough for a person to enter, and is composed of a preselection unit 20, a photographing unit 21, and a background unit 22. The preselection unit 20 is installed on the side surface of the photographing unit 21. The space in front of the preselection unit 20 is the preselection space in which the preselection process is performed. Further, the photographing unit 21 and the background unit 22 are installed at a predetermined distance from each other. The space formed between the photographing unit 21 and the background unit 22 is the photographing space in which the photographing process is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。 As the preselection process, the preselection unit 20 provides guidance for introducing the game provided by the photo sticker creating device 1, and makes various settings in the photography process performed in the photography space. The preselection unit 20 is provided with a coin slot for the user to insert the price, a touch panel monitor used for various operations, and the like. The preselection unit 20 appropriately guides the user in the preselection space to the shooting space according to the availability of the shooting space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。 The photographing unit 21 is a device for photographing a user as a subject. The photographing unit 21 is located in front of the user who has entered the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space.

撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。 Assuming that the left side surface is the left side surface and the right side surface is the right side surface when viewed from the user facing the front in the shooting space, the left side surface of the photographing unit 21 is composed of the side panel 41A and the right side surface is composed of the side panel 41B. Will be done. Further, the front surface of the photographing unit 21 is composed of the front panel 42. The preselection unit 20 described above is installed on the side panel 41A. The preselection unit 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。 The background portion 22 is composed of a back panel 51, a side panel 52A, and a side panel 52B. The back panel 51 is a plate-shaped member located on the back side of the user facing the front. The side panel 52A is a plate-shaped member attached to the left end of the back panel 51 and having a narrower width than the side panel 41A. The side panel 52B is a plate-shaped member attached to the right end of the back panel 51 and having a width narrower than that of the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。 The side panel 41A and the side panel 52A are provided on substantially the same plane. The upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A which is a plate-shaped member. The lower portions of the side panel 41A and the side panel 52A are connected by, for example, a connecting portion 23A'which is a metal member provided on the floor surface. Similarly, the side panel 41B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 41B and the side panel 52B are connected by the connecting portion 23B. The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B'.

撮影空間の床には、板状の部材である床材27が敷かれる。 A flooring material 27, which is a plate-shaped member, is laid on the floor of the photographing space.

なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、所望の背景画像が、シートが写っている利用者の背景の部分に合成される。 For example, a green chroma key sheet is attached to the surface of the back panel 51 on the shooting space side. The photo sticker creating device 1 takes a picture with a sheet for chroma key as a background, and performs chroma key composition in a shooting process and an editing process. As a result, the desired background image is combined with the background portion of the user in which the sheet is shown.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。 An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance / exit of the photographing space. Further, the opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance / exit of the photographing space.

撮影空間の上方には、撮影部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。 Above the photographing space, a ceiling surrounded by the front surface of the photographing unit 21, the connecting portion 23A, and the connecting portion 23B is formed. A ceiling strobe unit 24 is provided on a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B.

天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。 The ceiling strobe unit 24 has a built-in strobe that irradiates light into the shooting space in accordance with shooting. Inside the ceiling strobe unit 24, a fluorescent lamp is provided in addition to the strobe. As a result, the ceiling strobe unit 24 also functions as lighting for the shooting space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。 The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 so that one side surface is in contact with the front panel 42 of the photographing unit 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。 Assuming that the configuration of the editing unit 12 shown in FIG. 1 is the configuration on the front side, the configuration used for the editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can perform editing work at the same time.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。 The front side of the editing unit 12 is composed of a surface 61 and a slope 62 formed above the surface 61. The surface 61 is perpendicular to the floor surface and substantially parallel to the side panel 41A of the photographing unit 21. A monitor with a built-in tablet and a stylus are provided on the slope 62 as a configuration used for editing work. On the left side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. On the right side of the slope 62, a columnar support portion 63B that supports the other end of the lighting device 64 is provided. A support portion 65 for supporting the curtain rod 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを、組み合わせて構成される。3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。 A curtain rod 26 is attached above the editing unit 12. The curtain rail 26 is composed of a combination of three rails 26A to 26C. The three rails 26A to 26C are combined so that the shape when viewed from above is U-shaped. One ends of the rail 26A and the rail 26B provided in parallel are fixed to the connecting portion 23A and the connecting portion 23B, respectively, and the other ends of the rail 26A and the rail 26B are joined to both ends of the rail 26C, respectively.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 26 so that the space in front of the front and the space in front of the back of the editing unit 12 cannot be seen from the outside. The space in front of the front and the space behind the back of the editing unit 12 surrounded by the curtain are the editing spaces in which the user performs editing work.

後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。 As will be described later, the left side surface of the editing unit 12 is provided with a discharge port from which the printed sticker paper is discharged. The space in front of the left side of the editing unit 12 is a printing waiting space for the user to wait for the printed sticker paper to be ejected.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About the movement of users>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described.

図3は、写真シール作成装置1を上から見た平面図である。 FIG. 3 is a plan view of the photo sticker creating device 1 as viewed from above.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。 The user inserts the price into the coin slot in the preselection space A0, which is the space in front of the preselection unit 20. Next, the user makes various settings according to the screen displayed on the touch panel monitor. For example, the user performs preselection work such as selection of a course related to shooting performed in the shooting space.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 As shown by the white arrow # 1, the user who has completed the preselection work has a shooting space A1 formed between the shooting unit 21 and the background unit 22 from the entrance / exit G1 between the side panel 41A and the side panel 52A. to go into. The user performs shooting work by using a camera or a touch panel monitor provided in the shooting unit 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2-1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2-2に移動する。 The user who has completed the shooting work can either leave the shooting space A1 from the entrance / exit G1 and move to the editing space A2-1 as indicated by the white arrow # 2, or move to the editing space A2-1 as indicated by the white arrow # 3. Exit the shooting space A1 and move to the editing space A2-2.

編集空間A2-1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2-2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2-1と編集空間A2-2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2-1または編集空間A2-2に移動した利用者は、編集作業を開始する。編集空間A2-1の利用者と、編集空間A2-2の利用者は同時に編集作業を行うことができる。 The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the vacant one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts the editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2-1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2-1から印刷待ち空間A3に移動する。また、編集空間A2-2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2-2から印刷待ち空間A3に移動する。 After the editing work is completed, printing of the edited image is started. When printing is started, the user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the printing waiting space A3 as indicated by the white arrow # 4. Further, the user who has completed the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 5.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。 The user who has moved to the print waiting space A3 waits for printing to finish. When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side surface of the editing unit 12, and ends a series of photo sticker creation games.

次に、各装置の構成について説明する。 Next, the configuration of each device will be described.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Structure of preselection unit>
FIG. 4 is a diagram showing a configuration example of the preselection unit 20.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択などに用いられる画面が表示される。 A touch panel monitor 71 is provided on the upper side of the preselection unit 20. The touch panel monitor 71 is composed of a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated on the monitor. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and accepting a user's selection operation. The touch panel monitor 71 displays a screen used for selecting the number of users.

タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。 A speaker 72 is provided below the touch panel monitor 71. The speaker 72 outputs a guidance voice for preselection processing, BGM (Back Ground Music), a sound effect, and the like. A coin insertion / return port 73 for inserting coins by the user is provided adjacent to the speaker 72.

<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Structure of shooting unit>
FIG. 5 is a diagram showing a configuration example of the front surface of the photographing unit 21. The photographing unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42.

正面パネル42の中央よりやや上側には、カメラユニット81が設けられる。カメラユニット81の正面には、カメラ91、タッチパネルモニタ92、および正面ストロボ93が設けられる。 A camera unit 81 is provided slightly above the center of the front panel 42. A camera 91, a touch panel monitor 92, and a front strobe 93 are provided on the front surface of the camera unit 81.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91は、利用者を被写体として撮影を行う撮影部として機能する。 The camera 91 is, for example, a single-lens reflex camera, and is mounted inside the camera unit 81 so that the lens is exposed. The camera 91 has an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the photographing space A1. The camera 91 functions as a shooting unit that shoots with the user as a subject.

カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。 The moving image captured by the camera 91 (hereinafter, also referred to as a live view image) is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing such as when shooting is instructed is saved as a shooting image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。 The touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 is composed of a monitor such as an LCD and a touch panel laminated on the monitor. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91, and a function that displays various GUIs and accepts a user's selection operation.

正面ストロボ93は、カメラ91の上方に設けられる。正面ストロボ93は、乳白アクリル板よりなる、三日月状の発光面を有する。正面ストロボ93は、カメラ91による撮影に合わせて発光することで、被写体としての利用者の顔付近を正面から照射する。 The front strobe 93 is provided above the camera 91. The front strobe 93 has a crescent-shaped light emitting surface made of a milky white acrylic plate. The front strobe 93 emits light in accordance with the shooting by the camera 91 to illuminate the vicinity of the user's face as a subject from the front.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボユニット82が設置される。上ストロボユニット82は、利用者の正面上方から、利用者の顔および上半身に光を照射する。 Above the camera unit 81, an upper strobe unit 82 with a curved light emitting surface facing the user is installed. The upper strobe unit 82 irradiates the user's face and upper body with light from above the front of the user.

カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボユニット83が設けられる。 Below the camera unit 81, a foot strobe unit 83 that irradiates the lower body and feet of the user with light is provided.

上ストロボユニット82および足元ストロボユニット83は、蛍光灯とストロボ発光可能な照明機器とにより構成される。上ストロボユニット82および足元ストロボユニット83は、撮影空間を明るくして、利用者の操作性や安全性を確保するために、撮影空間内を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングでストロボ発光し、被写体となる利用者に光を照射する。 The upper strobe unit 82 and the foot strobe unit 83 are composed of a fluorescent lamp and a lighting device capable of strobe light emission. The upper strobe unit 82 and the foot strobe unit 83 brighten the shooting space, constantly illuminate the shooting space in order to ensure user operability and safety, and improve the image quality of the shot image. The strobe fires at the shooting timing to illuminate the user who is the subject.

足元ストロボユニット83と側面パネル41Aとの間には、箱状部84が設けられる。また、足元ストロボユニット83と側面パネル41Bとの間には、箱状部85が設けられる。箱状部84,85の上面は、写真シール作成装置1の設置面と略水平な面をなし、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。 A box-shaped portion 84 is provided between the foot strobe unit 83 and the side panel 41A. Further, a box-shaped portion 85 is provided between the foot strobe unit 83 and the side panel 41B. The upper surfaces of the box-shaped portions 84 and 85 form a surface substantially horizontal to the installation surface of the photo sticker making device 1, and are used as a luggage storage place for a user who performs photography work to put baggage and the like.

なお、図示はしないが、正面パネル42の例えば天井付近には、スピーカが設けられる。そのスピーカは、撮影処理の案内音声、BGM、効果音などを出力する。 Although not shown, a speaker is provided near the ceiling of the front panel 42, for example. The speaker outputs guidance voice, BGM, sound effect, etc. for shooting processing.

<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Structure of background part>
FIG. 6 is a diagram showing a configuration example of the background portion 22 on the photographing space A1 side.

背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。 A strobe 101 on the back surface is installed above the back panel 51. The strobe 101 on the back surface irradiates the user with light from above the back surface.

図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。 In the figure, the rear left strobe 102 is installed on the left side of the rear panel 51. The rear left strobe 102 irradiates the user from the rear right side. In the figure, the rear right strobe 103 is installed on the right side of the rear panel 51. The rear right strobe 103 irradiates the user from the rear left side.

また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられる。クロマキーシート121の色は、例えば緑色とされる。 Further, the chroma key sheet 121 is attached to the surface of the back panel 51 on the shooting space A1 side (front side in the drawing). The color of the chroma key sheet 121 is, for example, green.

なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面の下側(床面側)にも、クロマキーシート121と同様に、クロマキーシートが貼り付けられる。 Although not shown, the chroma key sheet is also attached to the lower side (floor surface side) of the surface of the side panels 52A and 52B on the photographing space A1 side in the same manner as the chroma key sheet 121.

図7は、床材27を示す斜視図である。説明の便宜上、撮影部21、側面パネル41Aなどの図示を省略している。 FIG. 7 is a perspective view showing the floor material 27. For convenience of explanation, illustrations of the photographing unit 21, the side panel 41A, and the like are omitted.

床材27の後方寄りの位置には、横長長方形の床シート27Aが、その長辺が背面パネル51と略平行になるように貼り付けられる。図7において、背面パネル51のある方向が撮影空間A1の後方となり、白抜き矢印で示す、撮影部21のある方向が撮影空間A1の前方となる。 A horizontally long rectangular floor sheet 27A is attached to a position near the rear of the floor material 27 so that its long side is substantially parallel to the back panel 51. In FIG. 7, the direction in which the back panel 51 is located is behind the photographing space A1, and the direction in which the photographing unit 21 is indicated by the white arrow is in front of the photographing space A1.

床シート27Aの前方寄りには、目印図形28-1乃至28-4が並べて印刷され、その後方に、目印図形28-5乃至28-8が並べて印刷される。2行×4列に配置された目印図形28-1乃至28-8は、それぞれ視覚的に異なる図形であり、全体が例えば黒色で塗りつぶされている。 Mark figures 28-1 to 28-4 are printed side by side on the front side of the floor sheet 27A, and mark figures 28-5 to 28-8 are printed side by side behind the mark figures 28-1 to 28-4. The marker figures 28-1 to 28-8 arranged in 2 rows × 4 columns are visually different figures, and the whole is filled with black, for example.

1行目の目印図形28-1は菱形の目印であり、目印図形28-2はハート型の目印である。目印図形28-3は四つ葉のクローバー型の目印であり、目印図形28-4は正方形の目印である。 The mark figure 28-1 on the first line is a diamond-shaped mark, and the mark figure 28-2 is a heart-shaped mark. The mark figure 28-3 is a four-leaf cloverleaf mark, and the mark figure 28-4 is a square mark.

また、2行目の目印図形28-5は四枚の花びらからなる花状の目印であり、目印図形28-6は星型の目印である。目印図形28-7は円形の目印であり、目印図形28-8はチューリップの花びら状の目印である。 Further, the mark figure 28-5 on the second line is a flower-shaped mark composed of four petals, and the mark figure 28-6 is a star-shaped mark. The mark figure 28-7 is a circular mark, and the mark figure 28-8 is a tulip petal-shaped mark.

それぞれの目印図形は、1人の利用者がその両足を載せることが出来るような、略30cm×30cmの範囲内に収まる程度の大きさを有している。それぞれの大きさが異なるようにしてもよい。 Each mark figure has a size that fits within a range of approximately 30 cm × 30 cm so that one user can put both feet on it. Each size may be different.

後に詳述するように、目印図形28-1乃至28-8は、撮影時の立ち位置を利用者毎に誘導するための目印として用いられる。 As will be described in detail later, the mark figures 28-1 to 28-8 are used as marks for guiding the standing position at the time of shooting for each user.

例えば、利用者の人数が2人であり、上半身が大きく写る画像を撮影する場合、カメラ91に向かって右側に立っている利用者の立ち位置として、四つ葉のクローバー型の目印図形28-3が指定され、左側に立っている利用者の立ち位置として、ハート型の目印図形28-2が指定される。 For example, when the number of users is two and an image showing a large upper body is taken, the four-leaf cloverleaf marker figure 28-is set as the standing position of the user standing on the right side of the camera 91. 3 is designated, and a heart-shaped marker figure 28-2 is designated as the standing position of the user standing on the left side.

目印図形28-1乃至28-8は、それぞれ、利用者の人数、撮影する画像の画角(範囲)などに応じて、最適な立ち位置を指定することができるような位置に印刷されている。なお、最適な立ち位置は、ストロボからの光が被写体に対して十分に照射される位置、カメラ91の撮影範囲から外れない位置、背景と顔の大きさのバランスがよくなる位置等を意味する。 The marker figures 28-1 to 28-8 are printed at positions where the optimum standing position can be specified according to the number of users, the angle of view (range) of the image to be captured, and the like. .. The optimum standing position means a position where the light from the strobe is sufficiently irradiated to the subject, a position which does not deviate from the shooting range of the camera 91, a position where the balance between the background and the size of the face is improved, and the like.

目印図形として、黒色以外の色を付した図形、所定の模様を付した図形、または、色と模様を付した図形を用いるようにしてもよい。目印図形毎に、形状、大きさ、模様、および色のうちの少なくともいずれかを変えるようにすることも可能である。図7に示す目印図形28-1乃至28-8は、色は黒色として同じ色であるが、それぞれ形状を変えた図形である。 As the mark figure, a figure with a color other than black, a figure with a predetermined pattern, or a figure with a color and a pattern may be used. It is also possible to change at least one of the shape, size, pattern, and color for each marker figure. The mark figures 28-1 to 28-8 shown in FIG. 7 have the same color as black, but have different shapes.

<編集ユニットの構成>
図8は、編集ユニット12の正面側(編集空間A2-1側)の構成例を示す図である。
<Structure of editing unit>
FIG. 8 is a diagram showing a configuration example of the front side (editing space A2-1 side) of the editing unit 12.

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。 A monitor with a built-in tablet 131 is provided at substantially the center of the slope 62. A touch pen 132A is provided on the left side of the tablet built-in monitor 131. A stylus 132B is provided on the right side of the tablet built-in monitor 131.

タブレット内蔵モニタ131は、タブレットとディスプレイを積層して構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 The tablet built-in monitor 131 is configured by stacking a tablet and a display. The tablet enables operation input using the touch pen 132A or the touch pen 132B. The tablet built-in monitor 131 displays, for example, an editing screen used for editing work. When two users edit at the same time, the touch pen 132A is used by the user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side of the tablet built-in monitor 131. ..

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。 The operation using the touch pen 132A and the operation using the touch pen 132B are distinguished. As appropriate, only the operation using the touch pen 132A is possible for the display on the left side of the tablet built-in monitor 131, and only the operation using the touch pen 132B is possible for the display on the right side. Hereinafter, when it is not necessary to distinguish between the touch pen 132A and the touch pen 132B as appropriate, they are collectively referred to as the touch pen 132.

図9は、編集ユニット12の左側面の構成例を示す図である。 FIG. 9 is a diagram showing a configuration example of the left side surface of the editing unit 12.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2-1の利用者が写る画像、または、編集空間A2-2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。 A sticker paper discharge port 161 is provided on the lower side of the left side surface of the editing unit 12. A printer is provided inside the editing unit 12. The printer prints an image of the user of the editing space A2-1 or an image of the user of the editing space A2-2 on the sticker paper in a predetermined layout and discharges the image from the sticker paper ejection port 161.

<シール紙の例>
図10は、写真シール作成装置1により作成されるシール紙の例を示す図である。
<Example of sticker paper>
FIG. 10 is a diagram showing an example of a sticker paper produced by the photo sticker creating device 1.

利用者が例えば2人である場合、図10に示すようなレイアウトで写真(編集画像)が印刷されたシール紙が2枚分作成され、利用者に提供される。図10に示すレイアウトは複数種類用意されているレイアウトのうちの1つであり、利用者は好みのレイアウトを選択することができる。 When there are two users, for example, two stickers with photographs (edited images) printed in the layout shown in FIG. 10 are created and provided to the users. The layout shown in FIG. 10 is one of a plurality of types of layouts, and the user can select a desired layout.

1枚のシール紙には、略名刺サイズの編集画像印刷領域181Aと、横長帯状のおまけ画像印刷領域181Bが形成される。編集画像印刷領域181Aの略左半分には編集画像191-1が大きく印刷され、その右側に、4枚の編集画像191-2乃至191-5が、編集画像191-1より小さいサイズで2行×2列に並べて印刷される。 An edited image printing area 181A having a size of a business card and a horizontally long strip-shaped extra image printing area 181B are formed on one sticker paper. The edited image 191-1 is printed in a large size on the substantially left half of the edited image print area 181A, and four edited images 191-2 to 191-5 are printed on the right side of the edited image 191-1 in two lines with a size smaller than that of the edited image 191-1. × Printed side by side in 2 columns.

編集画像191-1乃至191-5は、被写体の顔と上半身が大きく写る画像であるアップ画像に対して編集が施されることによって生成された画像である。実際には、適宜、利用者の背景には、所定の色や柄の画像である背景画像が合成され、利用者の前景には、手書きの文字やスタンプ画像などの前景画像が合成される。 The edited images 191-1 to 191-5 are images generated by editing the close-up image, which is an image in which the face and upper body of the subject are largely captured. Actually, a background image which is an image of a predetermined color or pattern is combined with the background of the user as appropriate, and a foreground image such as a handwritten character or a stamp image is combined with the foreground of the user.

撮影処理においては、アップ画像の他に、頭の上から膝下付近までの広い範囲が写る画像の撮影も行われる。この画像は、例えば、洋服のコーディネートを残しておくために用いられる。以下、適宜、洋服のコーディネートを残しておくためなどに用いられる、アップ画像よりも撮影範囲の広い画像をコーディネート画像という。 In the shooting process, in addition to the close-up image, an image showing a wide range from above the head to near the knee is also shot. This image is used, for example, to preserve the coordination of clothes. Hereinafter, an image having a wider shooting range than the close-up image, which is used to keep the coordination of clothes as appropriate, is referred to as a coordinated image.

アップ画像とコーディネート画像は縦横比が異なる。例えば、アップ画像の横方向の長さと縦方向の長さの比は1:1.2であり、コーディネート画像の横方向の長さと縦方向の長さの比は1:1.5である。この例においては、コーディネート画像は、シール紙には印刷されないものとされている。 The aspect ratio of the close-up image and the coordinated image are different. For example, the ratio of the horizontal length to the vertical length of the close-up image is 1: 1.2, and the ratio of the horizontal length to the vertical length of the coordinated image is 1: 1.5. In this example, the coordinated image is not printed on the sticker paper.

おまけ画像印刷領域181Bには、床シート27Aに印刷された目印図形28-1乃至28-8と同じようなシンプルな形状にトリミングされた撮影画像192-1乃至192-5が横に並べて印刷される。おまけ画像印刷領域181Bに印刷されている画像は、例えばはさみで切り取って用いられる。 In the bonus image printing area 181B, photographed images 192-1 to 192-5 trimmed into a simple shape similar to the marker figures 28-1 to 28-8 printed on the floor sheet 27A are printed side by side. To. The image printed in the bonus image print area 181B is used by cutting it with scissors, for example.

編集前の画像ではなく、編集済みの画像(編集画像191-1乃至191-5と同じ画像)がトリミングされて撮影画像192-1乃至192-5として印刷されるようにしてもよい。 Instead of the image before editing, the edited image (the same image as the edited images 191-1 to 191-5) may be trimmed and printed as captured images 192-1 to 192-5.

おまけ画像印刷領域181Bの余白にはシールIDなどが印刷される。シールIDは、写真シール作成装置1からサーバに送信された画像をスマートフォンなどの携帯端末で閲覧するときに利用される。 Bonus A sticker ID or the like is printed in the margin of the image print area 181B. The sticker ID is used when viewing an image transmitted from the photo sticker creation device 1 to the server on a mobile terminal such as a smartphone.

携帯端末に対する画像の送信は、写真シール作成装置1から送信された画像を携帯端末に取り込む(保存する)ためのWebサイトである画像取得サイトを管理するサーバを介して行われることになる。利用者は、携帯端末に取り込んだ画像をSNS(Social Networking Service)に投稿したり、壁紙に設定したりして利用することができる。以下、適宜、画像取得サイトを管理するサーバを画像取得サイト管理サーバという。 The image is transmitted to the mobile terminal via a server that manages an image acquisition site, which is a website for importing (storing) the image transmitted from the photo sticker creating device 1 into the mobile terminal. The user can post the image captured on the mobile terminal to SNS (Social Networking Service) or set it as wallpaper for use. Hereinafter, the server that manages the image acquisition site is referred to as an image acquisition site management server as appropriate.

図11は、編集画像のレイヤ構造の例を示す図である。 FIG. 11 is a diagram showing an example of the layer structure of the edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、背景画像P11、人物画像P12、前景画像P13の各レイヤの画像から構成される。 The leftmost edited image P1 is an image generated by editing. The edited image P1 is composed of images of each layer of the background image P11, the person image P12, and the foreground image P13.

図11の例において、背景画像P11は、レンガを重ねた壁面の柄の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、ペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、スタンプツールを用いて利用者によって入力されたスタンプ画像である。 In the example of FIG. 11, the background image P11 is an image of the pattern of the wall surface on which bricks are stacked. The foreground image P13 is an image including an image of handwritten characters of "Love my friend" and a heart-shaped image. The handwritten image of "Love my friend" is a pen image input by the user using the pen tool. The heart-shaped image is a stamp image input by the user using the stamp tool.

このように、編集画像P1は、撮影画像からクロマキー処理によって抽出した人物の領域の画像である人物画像P12を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させるようにすることも可能とされる。撮影画像に対しては、前景画像や背景画像が合成されることもあるし、編集処理を経たとしても利用者の操作によっては合成されないこともある。 As described above, the edited image P1 is generated by superimposing the person image P12, which is an image of the area of the person extracted from the captured image by chroma key processing, on the background image P11, and superimposing the foreground image P13 on the background image P11. It is also possible to input a pen image or a stamp image on the background image P11 and display it on the background of the subject. Foreground images and background images may be combined with the captured image, and even after editing, they may not be combined depending on the user's operation.

<写真シール作成装置の内部構成>
図12は、写真シール作成装置1の構成例を示すブロック図である。図12において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker making device>
FIG. 12 is a block diagram showing a configuration example of the photo sticker creating device 1. In FIG. 12, the same components as those described above are designated by the same reference numerals. Duplicate explanations will be omitted as appropriate.

図12に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。情報処理部であるPC部301は、例えば編集ユニット12の筐体内部に収納される。 As shown in FIG. 12, in the photo sticker creating device 1, the preselection unit 302, the photographing unit 304, the editing units 305A and 305B, and the printing unit 306 are external input / output interfaces 303 with respect to the PC (Personal Computer) unit 301. It is configured by being connected via. The PC unit 301, which is an information processing unit, is housed inside the housing of the editing unit 12, for example.

PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。 The CPU (Central Processing Unit) 311, ROM (Read Only Memory) 312, and RAM (Random Access Memory) 313 constituting the PC unit 301 are connected to each other by a bus 314.

CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。 The CPU 311 executes a predetermined program and controls the overall operation of the photo sticker creating device 1. The ROM 312 stores programs and data executed by the CPU 311. The RAM 312 temporarily stores data and programs processed by the CPU 311.

バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。 An input / output interface 315 is further connected to the bus 314. A storage unit 316, a communication unit 317, and a drive 318 are connected to the input / output interface 315.

記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。 The storage unit 316 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 316 stores various setting information and the like supplied from the CPU 311. The information stored in the storage unit 316 is appropriately read out by the CPU 311.

通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1の製造メーカが管理する画像取得サイト管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像取得サイト管理サーバにアクセスしてきた携帯端末上で表示されたり、その携帯端末にダウンロードされたりする。 The communication unit 317 is an interface of a network such as the Internet. The communication unit 317 communicates with an external device according to the control by the CPU 311. The communication unit 317 transmits the image selected by the user to, for example, an image acquisition site management server managed by the manufacturer of the photo sticker creation device 1. The image transmitted from the communication unit 317 is allocated and stored in a predetermined storage area, and is displayed on a mobile terminal that has accessed the image acquisition site management server, or downloaded to the mobile terminal.

ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。 A removable media 319 made of an optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 318. The programs and data read from the removable media 319 by the drive 318 are supplied to the CPU 311 and stored or installed in the storage unit 316.

入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。 An external input / output interface 303 is connected to the input / output interface 315. The control of each unit by the PC unit 301 is performed via the external input / output interface 303.

事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。 The preselection unit 302 realizes the preselection process for the user in the preselection space A0. The preselection unit 302 includes a touch panel monitor 71, a speaker 72, and a coin processing unit 321.

タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。 The touch panel monitor 71 displays various selection screens according to the control by the PC unit 301, and accepts the user's operation on the selection screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and various settings are made.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。 The coin processing unit 321 detects the insertion of coins into the coin insertion / return port 73. When the coin processing unit 321 detects that a predetermined amount of coins has been inserted, the coin processing unit 321 outputs an activation signal instructing the start of the game to the PC unit 301.

撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部304は、照明装置331、カメラ91、タッチパネルモニタ92、およびスピーカ332から構成される。 The shooting unit 304 realizes shooting processing for the user in the shooting space A1. The photographing unit 304 includes a lighting device 331, a camera 91, a touch panel monitor 92, and a speaker 332.

照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。 The lighting device 331 is each strobe unit in the photographing space A1 and emits light according to the lighting control signal supplied from the PC unit 301.

カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)をPC部301に出力する。 The camera 91 shoots according to the shutter control by the PC unit 301, and outputs the captured image (image data) obtained by the shooting to the PC unit 301.

編集部305Aは、編集空間A2-1にいる利用者を対象とした編集処理を実現する。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2-2にいる利用者を対象とした編集処理を実現し、編集部305Aと同一の構成を有する。なお、以下、編集部305A,305Bを特に区別しない場合には、単に、編集部305という。 The editorial unit 305A realizes an editing process for a user in the editing space A2-1. The editorial unit 305A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. The editing unit 305B realizes editing processing for the user in the editing space A2-2, and has the same configuration as the editing unit 305A. Hereinafter, when the editorial units 305A and 305B are not particularly distinguished, they are simply referred to as the editorial unit 305.

タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、編集対象となる撮影画像が編集される。 The tablet built-in monitor 131 displays the edit screen according to the control by the PC unit 301, and accepts the user's operation on the edit screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and the captured image to be edited is edited.

印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。 The printing unit 306 is configured to include a printer 351. A sticker paper unit 352 is attached to the printer 351.

プリンタ351は、内蔵するヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によって所定のカット位置でカットして、シール紙排出口161に排出する。 The printer 351 drives the built-in head 361 and prints an image on the roll-shaped sticker paper 363 stored in the sticker paper unit 352 based on the print data supplied from the PC unit 301. Further, the printer 351 cuts the sticker paper 363 on which the image is printed at a predetermined cut position by the cutter 362, and discharges the sticker paper 361 to the sticker paper discharge port 161.

<写真シール作成装置の機能構成例>
図13は、写真シール作成装置1の機能構成例を示すブロック図である。図13に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Example of functional configuration of photo sticker creation device>
FIG. 13 is a block diagram showing a functional configuration example of the photo sticker creating device 1. At least a part of the functional units shown in FIG. 13 is realized by executing a predetermined program by the CPU 311.

写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。 In the photo sticker creating device 1, a preselection processing unit 401, a shooting processing unit 402, an editing processing unit 403, and a printing processing unit 404 are realized.

事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択、背景画像の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。 The preselection processing unit 401 executes the preselection processing by controlling each unit of the preselection unit 302. By the pre-selection process, the number of users is selected, the background image is selected, and the like. Information indicating the content selected by the user is supplied to the photographing processing unit 402.

撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。 The photographing processing unit 402 performs imaging processing by controlling each unit of the photographing unit 304. The shooting processing unit 402 outputs the data of the shot image obtained by performing the shooting processing to the editing processing unit 403. Data of a plurality of captured images obtained by performing imaging a plurality of times is supplied from the photographing processing unit 402 to the editing processing unit 403.

編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に写る利用者の目の大きさや肌の明るさを調整する処理、撮影画像に対して編集を施す処理などが含まれる。 The editing processing unit 403 performs editing processing by controlling each unit of the editing unit 305. The editing process includes a process of adjusting the size of the user's eyes and the brightness of the skin in the captured image, a process of editing the captured image, and the like.

写真シール作成装置1が提供するゲームにおける編集処理には、撮影画像を用いて動画像を生成する処理も含まれる。この動画像は、静止画像である撮影画像を合成した各フレーム画像から構成され、例えば7秒間などの再生時間の短い動画像である。 The editing process in the game provided by the photo sticker creating device 1 also includes a process of generating a moving image using a photographed image. This moving image is composed of each frame image obtained by synthesizing a captured image which is a still image, and is a moving image having a short reproduction time such as 7 seconds.

利用者は、ゲームの終了後、画像取得サイト管理サーバにアクセスして動画像を自分の携帯端末に取り込み、SNSに投稿して用いたりすることができる。以下、適宜、撮影画像を用いて生成される動画像を、携帯用ミニ動画という。 After the game is over, the user can access the image acquisition site management server, import the moving image into his / her mobile terminal, and post it on SNS for use. Hereinafter, the moving image generated by using the captured image as appropriate is referred to as a portable mini moving image.

編集処理部403は、撮影画像の編集を終えた後、編集画像を所定のレイアウトで配置することによって印刷データを生成し、印刷処理部404に出力する。 After finishing editing of the captured image, the editing processing unit 403 generates print data by arranging the edited image in a predetermined layout and outputs the print data to the print processing unit 404.

印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。 The print processing unit 404 outputs print data to the printer 351 and prints the edited image.

<編集処理部の構成例>
図14は、編集処理部403の機能構成例を示すブロック図である。
<Configuration example of editing processing unit>
FIG. 14 is a block diagram showing a functional configuration example of the editing processing unit 403.

編集処理部403は、表示制御部431、編集制御部432、通信制御部433、およびレタッチ処理部434から構成される。 The edit processing unit 403 includes a display control unit 431, an edit control unit 432, a communication control unit 433, and a retouch processing unit 434.

表示制御部431は、タブレット内蔵モニタ131の表示を制御する。例えば、表示制御部431は、タブレット内蔵モニタ131に、撮影画像に施される画像処理の度合いを選択するための選択画面や、撮影画像を対象とした編集作業のための編集画面を表示させる。 The display control unit 431 controls the display of the tablet built-in monitor 131. For example, the display control unit 431 causes the tablet built-in monitor 131 to display a selection screen for selecting the degree of image processing applied to the captured image and an editing screen for editing work on the captured image.

編集制御部432は、編集画面に対する利用者の操作に応じて、撮影画像に編集を施す。具体的には、編集制御部432は、編集画面において利用者により選択された合成用画像を、撮影画像の所定の位置に合成する。 The editing control unit 432 edits the captured image according to the user's operation on the editing screen. Specifically, the editing control unit 432 synthesizes the compositing image selected by the user on the editing screen at a predetermined position of the captured image.

通信制御部433は、通信部317を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。例えば、通信制御部433は、通信部317を制御することで、撮影処理において得られた撮影画像や、編集処理において得られた編集画像を画像取得サイト管理サーバへ送信する。 The communication control unit 433 controls the communication unit 317 and performs processing related to communication via a network such as the Internet. For example, the communication control unit 433 controls the communication unit 317 to transmit the captured image obtained in the photographing process and the edited image obtained in the editing process to the image acquisition site management server.

レタッチ処理部434は、撮影処理において得られた撮影画像に対してレタッチ処理を施す。レタッチ処理は、撮影画像に写る顔やその一部を加工したり修整する画像処理をいう。 The retouch processing unit 434 performs retouch processing on the photographed image obtained in the photographing process. The retouching process is an image process for processing or modifying a face or a part thereof in a captured image.

次に、図15を参照して、レタッチ処理部434の機能構成例について説明する。 Next, an example of the functional configuration of the retouching processing unit 434 will be described with reference to FIG.

レタッチ処理部434は、認識部451、第1の画像処理部452、領域特定部453、および第2の画像処理部454から構成される。 The retouch processing unit 434 includes a recognition unit 451, a first image processing unit 452, an area specifying unit 453, and a second image processing unit 454.

認識部451は、撮影画像における顔、またはその器官(顔パーツ)を含む顔の一部を認識する。顔の一部には、顔パーツである目、鼻、口、耳の他、頬、顎、額、髪などが含まれる。認識部451は、認識対象とする部分の輪郭点を抽出し、それらを結んだ領域が顔や顔パーツであるか否かを判定することで、顔や顔パーツの認識を行う。なお、抽出される輪郭点の数は任意であり、認識される部位によって変えるようにしてもよい。 The recognition unit 451 recognizes a face in a captured image or a part of the face including an organ (face part) thereof. A part of the face includes facial parts such as eyes, nose, mouth and ears, as well as cheeks, chin, forehead and hair. The recognition unit 451 recognizes a face or a face part by extracting contour points of a portion to be recognized and determining whether or not a region connecting them is a face or a face part. The number of contour points to be extracted is arbitrary, and may be changed depending on the recognized portion.

また、認識対象とする部分の色を検出することで、顔や顔パーツの認識が行われるようにしてもよい。例えば、肌色が検出されたか否かによって顔を認識したり、白色と黒色とが検出されたか否かによって目を認識するようにする。なお、最終的にレタッチ処理の対象とする部分(例えば目)が認識されればよく、顔や他の顔パーツの検出を行わずに、目のみを検出するようにしてもよい。 Further, the face or the face part may be recognized by detecting the color of the portion to be recognized. For example, the face is recognized by whether or not the skin color is detected, and the eyes are recognized by whether or not white and black are detected. It is sufficient that the portion (for example, eyes) to be finally retouched is recognized, and only the eyes may be detected without detecting the face or other facial parts.

さらに、顔や顔の一部以外に、首や胸元、腕や手などを認識対象とするようにしてもよい。 Further, the neck, chest, arms, hands, and the like may be recognized in addition to the face and a part of the face.

第1の画像処理部452は、認識部451によって認識された顔または顔パーツの領域に対して、レタッチ処理を実現する画像処理を施す。例えば、第1の画像処理部452は、認識された目の領域に対して、目を大きくする画像処理を施す。 The first image processing unit 452 performs image processing that realizes retouching processing on the region of the face or the face part recognized by the recognition unit 451. For example, the first image processing unit 452 performs image processing for enlarging the eyes on the recognized eye area.

ここで、第1の画像処理部452が施す画像処理、すなわち、利用者の操作によらず、顔や顔パーツが認識されることで施される画像処理により実現されるレタッチ処理を、自動レタッチ処理という。 Here, the automatic retouching is performed by the image processing performed by the first image processing unit 452, that is, the retouching processing realized by the image processing performed by recognizing the face or the face part regardless of the user's operation. It is called processing.

領域特定部453は、利用者の操作により、撮影画像において、自動レタッチ処理の対象となった顔または顔パーツの領域と同じ領域を特定する。例えば、自動レタッチ処理の対象が目の領域である場合、領域特定部453は、利用者の操作により、撮影画像において目の領域を特定する。 The area specifying unit 453 identifies the same area as the area of the face or the face part that is the target of the automatic retouching process in the captured image by the operation of the user. For example, when the target of the automatic retouching process is the eye area, the area specifying unit 453 identifies the eye area in the captured image by the user's operation.

第2の画像処理部454は、領域特定部453により特定された顔やパーツの領域に対して、レタッチ処理を実現する画像処理を施す。例えば、第2の画像処理部454は、領域特定部453により特定された目の領域に対して、目を大きくする画像処理を施す。 The second image processing unit 454 performs image processing that realizes retouching processing on the area of the face or part specified by the area specifying unit 453. For example, the second image processing unit 454 performs image processing for enlarging the eyes on the eye area specified by the area specifying unit 453.

ここで、第2の画像処理部454が施す画像処理、すなわち、利用者の操作により顔や顔パーツが特定されることで施される画像処理により実現されるレタッチ処理を、手動レタッチ処理という。 Here, the image processing performed by the second image processing unit 454, that is, the retouching process realized by the image processing performed by specifying the face or the face part by the operation of the user is referred to as a manual retouching process.

なお、第1の画像処理部452および第2の画像処理部454による画像処理の対象は、1つの顔パーツに限らず、複数の顔パーツであってもよい。さらに、画像処理の対象として、顔パーツの領域だけでなく、その周囲の領域が含まれるようにしてもよい。これにより、顔パーツを含む領域に対してより自然な処理を施すことができ、また、認識/特定された顔パーツの位置がずれた場合であっても、その影響を大きく受けることなく処理を施すことができる。 The target of image processing by the first image processing unit 452 and the second image processing unit 454 is not limited to one face part, but may be a plurality of face parts. Further, the image processing target may include not only the area of the face part but also the area around the face part. This makes it possible to perform more natural processing on the area including the face part, and even if the position of the recognized / specified face part shifts, the processing is performed without being greatly affected by it. Can be applied.

<写真シール作成装置の動作>
ここで、図16のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker making device>
Here, the operation of the photo sticker creation device 1 that provides the photo sticker creation game will be described with reference to the flowchart of FIG.

ステップS1において、事前選択処理部401は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部321から供給される起動信号に基づいて判定し、硬貨が投入されたと判定するまで待機する。 In step S1, the preselection processing unit 401 determines whether or not a predetermined amount of coins has been inserted based on the activation signal supplied from the coin processing unit 321 and waits until it is determined that coins have been inserted. do.

ステップS1において、硬貨が投入されたと判定された場合、処理はステップS2に進む。ステップS2において、事前選択処理部401は、事前選択部302を制御することで、事前選択処理を行う。具体的には、事前選択処理部401は、撮影空間で行われる撮影に関するコースとして、利用者の人数に応じて行われるゲームの種類を決定する人数コースや、撮影空間で行われる撮影により得られる撮影画像の背景となる背景画像の選択などを利用者に行わせることで、各種の設定を行う。 If it is determined in step S1 that a coin has been inserted, the process proceeds to step S2. In step S2, the preselection processing unit 401 performs the preselection processing by controlling the preselection unit 302. Specifically, the preselection processing unit 401 is obtained by a number of people course that determines the type of game to be played according to the number of users as a course related to shooting performed in the shooting space, or a shooting performed in the shooting space. Various settings are made by letting the user select a background image to be the background of the captured image.

ステップS3において、撮影処理部402は、撮影部304を制御することで、撮影処理を行う。具体的には、撮影処理部402は、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ92にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影し、撮影画像を生成する。 In step S3, the photographing processing unit 402 performs the photographing process by controlling the photographing unit 304. Specifically, the shooting processing unit 402 displays a moving image of the subject captured by the camera 91 in a live view on the touch panel monitor 92, shoots the user in the shooting space A1 as the subject, and generates a shot image.

ステップS4において、編集処理部403は、編集空間A2-1と編集空間A2-2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで、編集処理を行う。具体的には、編集処理部403は、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせることで、編集が施された編集画像を生成する。 In step S4, the editing processing unit 403 controls the editing unit 305 corresponding to the editing space of the editing space A2-1 and the editing space A2-2, which is the destination of the user who has completed the shooting process. Then, edit it. Specifically, the editing processing unit 403 generates an edited image by causing the user to perform editing work on the captured image obtained by the photographing process.

ステップS5において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う(開始する)。具体的には、印刷処理部404は、編集処理により得られた編集画像をプリンタ351に出力してシール紙に印刷する。なお、撮影処理により得られた撮影画像が、シール紙に印刷されるようにしてもよい。 In step S5, the print processing unit 404 performs (starts) printing processing by controlling the printer 351. Specifically, the print processing unit 404 outputs the edited image obtained by the editing process to the printer 351 and prints it on the sticker paper. The photographed image obtained by the photographing process may be printed on the sticker paper.

印刷が終了すると、ステップS6において、プリンタ351は、画像が印刷されたシール紙をシール紙排出口161に排出し、処理を終了させる。 When printing is completed, in step S6, the printer 351 discharges the sticker paper on which the image is printed to the sticker paper discharge port 161 and ends the process.

<編集処理の詳細>
次に、図17のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS4の編集処理の詳細について説明する。
<Details of editing process>
Next, with reference to the flowchart of FIG. 17, the details of the editing process of step S4 in the series of processes of the above-mentioned photo sticker creation game will be described.

編集処理が開始されると、ステップS31において、表示制御部431は、目の大きさ・明るさ選択画面をタブレット内蔵モニタ131に表示させる。 When the editing process is started, in step S31, the display control unit 431 displays the eye size / brightness selection screen on the tablet built-in monitor 131.

目の大きさ・明るさ選択画面は、撮影画像に写る利用者の目の大きさと肌の明るさの選択に用いられる画面である。 The eye size / brightness selection screen is a screen used for selecting the user's eye size and skin brightness in the captured image.

目の大きさ・明るさ選択画面において、目の大きさと肌の明るさとが選択されると、処理はステップS32に進む。 When the eye size and the skin brightness are selected on the eye size / brightness selection screen, the process proceeds to step S32.

ステップS32において、表示制御部431は、タブレット内蔵モニタ131に名前入力画面を表示させる。 In step S32, the display control unit 431 causes the tablet built-in monitor 131 to display the name input screen.

名前入力画面は、利用者による名前の入力に用いられる画面である。名前入力画面には、名前の入力に用いることが可能なひらがなを選択するためのボタンと、選択されたボタンに対応する文字列が表示されるテキストボックスが表示される。 The name input screen is a screen used for a user to input a name. On the name input screen, a button for selecting hiragana that can be used for entering a name and a text box displaying a character string corresponding to the selected button are displayed.

名前入力画面において、名前の入力が終了すると、処理はステップS33に進む。 When the name input is completed on the name input screen, the process proceeds to step S33.

ステップS34において、表示制御部431は、編集画面をタブレット内蔵モニタ131に表示させる。 In step S34, the display control unit 431 causes the tablet built-in monitor 131 to display the edit screen.

編集画面は、編集対象となる撮影画像の編集に用いられる画面である。編集画面には、編集対象となる撮影画像と、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)が表示される。 The edit screen is a screen used for editing a photographed image to be edited. On the editing screen, the captured image to be edited and various editing tools (composite images) such as stamp images and pen images used for editing are displayed.

利用者は、タッチペン132A,132Bを用いて、スタンプ画像やペン画像などを編集対象となる撮影画像上の所定の位置へ重畳することで、編集対象となる撮影画像に対する合成用画像の合成が行われる。 The user uses the touch pens 132A and 132B to superimpose the stamp image, pen image, etc. on a predetermined position on the captured image to be edited, thereby synthesizing the composite image with the captured image to be edited. Will be.

すなわち、ステップS34において、編集制御部432は、利用者の操作に応じて、編集対象となる撮影画像に編集を施す。 That is, in step S34, the editing control unit 432 edits the captured image to be edited according to the operation of the user.

編集作業が終了すると、ステップS35において、表示制御部431は、分割数選択画面をタブレット内蔵モニタ131に表示させる。 When the editing work is completed, in step S35, the display control unit 431 displays the division number selection screen on the tablet built-in monitor 131.

分割数選択画面は、最終的に出力されるシール紙の分割数やシールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚の写真シールに配置される編集画像(撮影画像)の枚数や位置、大きさを決定するレイアウト(配置パターン)である。ここで、利用者により選択されたシールレイアウトに従って編集画像が配置されてなる画像、すなわち、シール紙に印刷されて最終的に出力される画像をレイアウト画像という。 The division number selection screen is a screen used for selecting the division number and the seal layout of the sticker paper to be finally output. The sticker layout is a layout (arrangement pattern) that determines the number, position, and size of edited images (photographed images) arranged on one photo sticker. Here, an image in which the edited image is arranged according to the sticker layout selected by the user, that is, an image printed on the sticker paper and finally output is called a layout image.

したがって、分割数選択画面には、例えば5枚の撮影画像それぞれに編集が施された編集画像が、異なるシールレイアウトで配置されたレイアウト画像が複数表示される。 Therefore, on the division number selection screen, for example, a plurality of layout images in which the edited images edited for each of the five captured images are arranged in different sticker layouts are displayed.

分割数選択画面において、レイアウト画像のいずれかが選択されると、処理はステップS36に進む。 When any of the layout images is selected on the division number selection screen, the process proceeds to step S36.

ステップS36において、表示制御部431は、ミニゲーム画面をタブレット内蔵モニタ131に表示させる。 In step S36, the display control unit 431 causes the tablet built-in monitor 131 to display the mini game screen.

ミニゲーム画面は、後述する携帯送信用画像以外に、利用者の所有する携帯端末に送信される動画像を当てる(選択させる)ためのゲームを行う画面である。詳細な説明は省略するが、この動画像は、撮影処理により得られた複数の撮影画像を用いて生成される。 The mini-game screen is a screen for playing a game for hitting (selecting) a moving image transmitted to a mobile terminal owned by a user, in addition to the image for mobile transmission described later. Although detailed description is omitted, this moving image is generated by using a plurality of captured images obtained by the imaging process.

ミニゲーム画面において、ゲームが行われ、携帯端末に送信される動画像が決定されると、処理はステップS37に進む。 When the game is played on the mini-game screen and the moving image to be transmitted to the mobile terminal is determined, the process proceeds to step S37.

ステップS37において、表示制御部431は、携帯送信用画像選択画面をタブレット内蔵モニタ131に表示させる。 In step S37, the display control unit 431 displays the image selection screen for mobile transmission on the tablet built-in monitor 131.

携帯送信用画像選択画面は、利用者の所有する携帯端末に送信するための携帯送信用画像の選択に用いられる画面である。携帯送信用画像選択画面には、5枚の撮影画像に加え、そのうちのいずれかに所定の編集が施された携帯送信専用の画像が表示される。 The image selection screen for mobile transmission is a screen used for selecting an image for mobile transmission to be transmitted to a mobile terminal owned by a user. On the image selection screen for mobile transmission, in addition to the five captured images, an image dedicated to mobile transmission with predetermined editing is displayed on any one of them.

携帯送信用画像選択画面において、画像のいずれかが選択されると、処理はステップS38に進む。 When any of the images is selected on the image selection screen for mobile transmission, the process proceeds to step S38.

ステップS38において、表示制御部431は、メールアドレス入力画面をタブレット内蔵モニタ131に表示させる。 In step S38, the display control unit 431 displays the e-mail address input screen on the tablet built-in monitor 131.

メールアドレス入力画面は、利用者の所有する携帯端末のメールアドレスの入力に用いられる画面である。メールアドレス入力画面には、メールアドレスに用いることが可能なアルファベットや記号、携帯電話機のキャリアを選択するためのボタンと、選択されたボタンに対応する文字列が表示されるテキストボックスが表示される。 The e-mail address input screen is a screen used for inputting the e-mail address of the mobile terminal owned by the user. The email address input screen displays alphabets and symbols that can be used for the email address, buttons for selecting the carrier of the mobile phone, and a text box that displays the character string corresponding to the selected button. ..

メールアドレス入力画面において、メールアドレスの入力が終了すると、処理はステップS39に進む。 When the input of the e-mail address is completed on the e-mail address input screen, the process proceeds to step S39.

ステップS39において、通信制御部433は、通信部317を制御することで、インターネットなどのネットワークを介して、利用者により選択された携帯送信用画像を、利用者により入力されたメールアドレスとともに、画像取得サイト管理サーバに送信する。 In step S39, the communication control unit 433 controls the communication unit 317 to display an image for mobile transmission selected by the user via a network such as the Internet, together with an e-mail address input by the user. Acquisition Send to the site management server.

画像取得サイト管理サーバは、利用者により入力されたメールアドレス宛てに、携帯端末が画像取得サイト管理サーバにアクセスするのに必要なURL(Uniform Resource Locator)が記載されたメールを送信する。そして、そのURLに基づいて、利用者が所有する携帯端末が、ネットワークを介して画像取得サイト管理サーバにアクセスすることで、画像取得サイト管理サーバに送信された携帯送信用画像が携帯端末に提供される。 The image acquisition site management server sends an e-mail containing the URL (Uniform Resource Locator) required for the mobile terminal to access the image acquisition site management server to the e-mail address entered by the user. Then, based on the URL, the mobile terminal owned by the user accesses the image acquisition site management server via the network, so that the mobile transmission image transmitted to the image acquisition site management server is provided to the mobile terminal. Will be done.

そして、ステップS40において、編集処理部403は、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、編集部305のタブレット内蔵モニタ131に案内画面を表示させることによって、または音声をスピーカ341から出力させることによって行われる。 Then, in step S40, the editing processing unit 403 guides the user who has completed the editing work to move to the print waiting space A3. Guidance for moving to the print waiting space A3 is performed by displaying a guidance screen on the tablet built-in monitor 131 of the editorial unit 305 or by outputting voice from the speaker 341.

以上のようにして、編集処理が行われる。 The editing process is performed as described above.

<自動レタッチ処理>
上述した編集処理の対象となる撮影画像に対しては、撮影画像における顔パーツが認識され、その結果に応じて、自動レタッチ処理が実行される。
<Automatic retouch processing>
Face parts in the captured image are recognized for the captured image to be edited as described above, and automatic retouching processing is executed according to the result.

ここで、図18のフローチャートを参照して、自動レタッチ処理について説明する。この処理が実行されるタイミングは、撮影処理以降であればよく、例えば、撮影作業を終え、利用者が編集空間に移動している間や、編集作業を行っている間などとされる。 Here, the automatic retouching process will be described with reference to the flowchart of FIG. The timing at which this process is executed may be after the shooting process, for example, while the shooting work is finished and the user is moving to the editing space, or while the editing work is being performed.

ステップS51において、認識部451は、撮影画像において顔パーツ、具体的には目を認識する。 In step S51, the recognition unit 451 recognizes a face part, specifically an eye, in the captured image.

ステップS52において、認識部451は、目の認識に成功したか否かを判定する。目の認識に成功したと判定された場合には、処理はステップS53に進む。 In step S52, the recognition unit 451 determines whether or not the eye recognition is successful. If it is determined that the eye recognition is successful, the process proceeds to step S53.

ステップS53において、第1の画像処理部452は、認識に成功した目の領域に対する画像処理、具体的には目を大きくする処理を施す。例えば、この処理は、撮影画像に写る目の大きさを、上述した目の大きさ・明るさ選択画面において選択された目の大きさに変える処理として施される。 In step S53, the first image processing unit 452 performs image processing on the region of the eyes that has been successfully recognized, specifically, processing for enlarging the eyes. For example, this process is performed as a process of changing the size of the eyes reflected in the captured image to the size of the eyes selected on the above-mentioned eye size / brightness selection screen.

一方、ステップS52において目の認識に成功しなかった(目の認識に失敗した)場合には、ステップS53はスキップされ、画像処理は施されない。 On the other hand, if the eye recognition is not successful (eye recognition fails) in step S52, step S53 is skipped and no image processing is performed.

例えば、目の輪郭点として、目尻と目頭の2点を抽出することで目の認識を行う場合、撮影画像における目が以下の状態にあるときに、目の認識に失敗するおそれがある。
(1)目尻または目頭に髪の毛がかかっている
(2)眼鏡をかけている
(3)目をつぶっている
(4)顔がカメラに正対しておらず、目が写っていない
For example, when eye recognition is performed by extracting two points, the outer corner of the eye and the inner corner of the eye, as contour points of the eye, the recognition of the eye may fail when the eye in the captured image is in the following state.
(1) Hair on the outer or inner corners of the eyes (2) Wearing glasses (3) Closed eyes (4) Face is not facing the camera and eyes are not visible

このような場合、利用者が、目の大きさ・明るさ選択画面において所望の目の大きさを選択したとしても、撮影画像に対して自動レタッチ処理は施されず、結果として、満足度の高い画像が提供されない可能性があった。 In such a case, even if the user selects the desired eye size on the eye size / brightness selection screen, the captured image is not automatically retouched, and as a result, the degree of satisfaction is satisfied. High images may not be provided.

そこで、本実施の形態においては、上述したような場合、特に(1),(2)のような場合であっても、満足度の高い画像を提供することができるようにする。 Therefore, in the present embodiment, it is possible to provide an image with a high degree of satisfaction even in the above-mentioned cases, especially in the cases (1) and (2).

例えば、編集画面において、認識に失敗した目の領域に対して、目を大きくする処理が施されるようにする。 For example, on the edit screen, a process of enlarging the eyes is performed on the area of the eyes that failed to be recognized.

<編集画面の例>
編集画面は、基本的に、主な構成が左右対称に設けられることによって構成される。左半分の領域は、タブレット内蔵モニタ131に向かって左側にいる利用者により用いられる領域である。右半分の領域は、タブレット内蔵モニタ131に向かって右側にいる利用者により用いられる領域である。このような編集画面の構成により、主に2人の利用者が同時に編集作業を行うことができる。
<Example of edit screen>
The edit screen is basically configured by providing the main configurations symmetrically. The left half area is an area used by the user on the left side of the tablet built-in monitor 131. The right half area is an area used by the user on the right side of the tablet built-in monitor 131. With such an editing screen configuration, mainly two users can perform editing work at the same time.

図19においては、編集画面の左半分の領域(左半分領域)が示されている。 In FIG. 19, the left half area (left half area) of the editing screen is shown.

左半分領域の中央上部には、サムネイル表示領域511が設けられる。サムネイル表示領域511は、撮影画像を表すサムネイル画像の表示領域である。利用者は、サムネイル表示領域511に表示されているサムネイル画像を選択することによって、編集対象とする撮影画像を選択する。 A thumbnail display area 511 is provided in the upper center of the left half area. The thumbnail display area 511 is a display area for a thumbnail image representing a captured image. The user selects the captured image to be edited by selecting the thumbnail image displayed in the thumbnail display area 511.

図19の例では、5枚の撮影画像を表すサムネイル画像がサムネイル表示領域511に並んで表示されている。 In the example of FIG. 19, thumbnail images representing five captured images are displayed side by side in the thumbnail display area 511.

左半分領域の略中央には、編集領域512が設けられる。編集領域512は、編集対象として選択された撮影画像の表示領域である。利用者は、タッチペン132Aを用いて編集ツールを選択し、編集領域512に表示された撮影画像の編集を行う。 An editing area 512 is provided substantially in the center of the left half area. The editing area 512 is a display area of a captured image selected as an editing target. The user selects an editing tool using the touch pen 132A and edits the captured image displayed in the editing area 512.

左半分領域の下部には、編集パレット513が表示される。編集パレット513は、ペン画像、スタンプ画像などの各種の編集ツール(合成用画像)の選択に用いられる。 The edit palette 513 is displayed at the bottom of the left half area. The editing palette 513 is used to select various editing tools (composite images) such as pen images and stamp images.

編集パレット513においては、タブ毎に各編集ツールが用意されている。利用者は、それぞれのタブを選択することによって、編集パレット513に表示される編集ツールを切り替える。例えば、「スタンプ」の名前が付されたタブは、スタンプ画像を選択するときに操作されるタブであり、「ペン」の名前が付されたタブは、ペン画像を選択するときに操作されるタブである。 In the editing palette 513, each editing tool is prepared for each tab. The user switches the editing tool displayed on the editing palette 513 by selecting each tab. For example, a tab named "Stamp" is a tab that is manipulated when selecting a stamp image, and a tab named "Pen" is manipulated when selecting a pen image. It's a tab.

編集領域512の左方には、手動レタッチ領域514およびメイクパレット515が設けられる。 A manual retouching area 514 and a make palette 515 are provided on the left side of the editing area 512.

手動レタッチ領域514は、目の領域に対する手動レタッチ処理を実行するために、編集対象となる撮影画像における目の大きさを選択するためのボタンの表示領域である。 The manual retouching area 514 is a display area of a button for selecting the size of the eyes in the captured image to be edited in order to execute the manual retouching process for the eye area.

手動レタッチ領域514には、「小さめ拡大」ボタン521、「大きめ拡大」ボタン522、および「初めから」ボタン523が設けられる。「小さめ拡大」ボタン521は、所定の拡大率で目を拡大するために操作されるボタンである。「大きめ拡大」ボタン522は、「小さめ拡大」ボタン521より大きい拡大率で目を拡大するために操作されるボタンである。「初めから」ボタン523は、「小さめ拡大」ボタン521または「大きめ拡大」ボタン522によって拡大された目の大きさを、元の大きさに戻すために操作されるボタンである。 The manual retouch area 514 is provided with a "small enlargement" button 521, a "large enlargement" button 522, and a "from the beginning" button 523. The "small enlargement" button 521 is a button operated to enlarge the eyes at a predetermined enlargement ratio. The "large enlargement" button 522 is a button operated to enlarge the eyes at a magnification larger than that of the "small enlargement" button 521. The "from the beginning" button 523 is a button operated to return the size of the eyes enlarged by the "small enlargement" button 521 or the "large enlargement" button 522 to the original size.

編集画面が、タブレット内蔵モニタ131に最初に表示された状態(デフォルトの状態)では、「初めから」ボタン523は、グレーアウト表示されており、「小さめ拡大」ボタン521および「大きめ拡大」ボタン522のいずれかが操作されると、グレーアウト表示が解除される。 When the edit screen is first displayed on the tablet built-in monitor 131 (default state), the "from the beginning" button 523 is grayed out, and the "small enlargement" button 521 and the "large enlargement" button 522 are displayed. When any of them is operated, the grayout display is canceled.

なお、図19の例では、目を拡大するために操作されるボタンとして、「小さめ拡大」ボタン521と「大きめ拡大」ボタン522の2つのボタンが設けられているが、単に、所定の拡大率で目を拡大するために操作される1つのボタンのみが設けられるようにしてもよい。 In the example of FIG. 19, two buttons, a "small enlargement" button 521 and a "large enlargement" button 522, are provided as buttons operated to enlarge the eyes, but they are simply a predetermined enlargement ratio. There may be only one button operated to magnify the eyes with.

メイクパレット515は、メイクツールを選択するためのアイコンの表示領域である。メイクツールは、撮影画像に写る利用者の顔を、化粧(メイク)を施したような顔にするための編集ツールである。メイクツールが選択されることで、撮影画像における顔パーツに対して、選択されたメイクツールに対応する画像処理が施される。なお、メイクツールに対応する画像処理は、メイクパレット515に対する利用者の選択操作(具体的には、メイクパレット515に設けられる「2人同時」ボタンまたは「1人ずつ」ボタンの押下)により、撮影画像に写る利用者それぞれに同時に施されるようにしてもよく、利用者毎に施されるようにしてもよい。 The make palette 515 is a display area for an icon for selecting a make tool. The make-up tool is an editing tool for making the user's face in the photographed image look like a make-up. When the make-up tool is selected, the face parts in the captured image are subjected to image processing corresponding to the selected make-up tool. The image processing corresponding to the make-up tool is performed by the user's selection operation for the make-up palette 515 (specifically, pressing the "two-person simultaneous" button or the "one-person at a time" button provided on the make-up palette 515). It may be applied to each user who appears in the captured image at the same time, or it may be applied to each user.

編集領域512の右方には、携帯おまけボタン516が設けられる。携帯おまけボタン516が操作されると、編集画面上に携帯おまけ作成用の画面(携帯おまけ作成画面)が表示され、利用者は携帯おまけの作成を行うことができる。携帯おまけは、例えば、携帯端末の待受画像に用いられたり、ブログやSNSなどのウェブサイトに公開される画像として用いられる。 A mobile bonus button 516 is provided on the right side of the editing area 512. When the mobile phone bonus button 516 is operated, a screen for creating a mobile phone bonus (mobile phone bonus creation screen) is displayed on the editing screen, and the user can create a mobile phone bonus. The mobile bonus is used, for example, as a standby image of a mobile terminal or as an image published on a website such as a blog or SNS.

さて、手動レタッチ領域514において、「小さめ拡大」ボタン521および「大きめ拡大」ボタン522のいずれかが操作されると、図20に示されるように、編集領域512上に、手動レタッチ処理の機能について説明するガイダンスポップアップ530が表示される。 Now, when either the "smaller enlargement" button 521 or the "larger enlargement" button 522 is operated in the manual retouching area 514, the function of the manual retouching process is performed on the editing area 512 as shown in FIG. A guidance pop-up 530 is displayed to explain.

ガイダンスポップアップ530には、手動レタッチ処理の機能について説明する文言および画像、「使う」ボタン531、並びに「使わない」ボタン532が表示される。 The guidance pop-up 530 displays words and images explaining the function of the manual retouching process, a "use" button 531 and a "not use" button 532.

図20の例において、「使わない」ボタン532が押下されると、ガイダンスポップアップ530は閉じられ、編集画面は、図19に示される表示の状態に遷移する。 In the example of FIG. 20, when the “not used” button 532 is pressed, the guidance pop-up 530 is closed and the editing screen transitions to the display state shown in FIG.

一方、「使う」ボタン531が押下されるか、手動レタッチ領域514において初めて「小さめ拡大」ボタン521および「大きめ拡大」ボタン522のいずれかが押下されると、図21に示されるように、編集領域512上に、手動レタッチ処理の機能の使い方について説明する使い方ポップアップ540が表示される。 On the other hand, when the "use" button 531 is pressed, or when either the "smaller enlargement" button 521 or the "larger enlargement" button 522 is pressed for the first time in the manual retouch area 514, the edit is performed as shown in FIG. A usage pop-up 540 explaining how to use the manual retouching processing function is displayed on the area 512.

使い方ポップアップ540には、手動レタッチ処理の機能の使い方を説明する文言および画像が表示される。具体的には、タッチペン132で目の左右をタッチして線を描く旨の説明文と、モデル画像の目の目頭から目尻へペン先が移動し線が描かれるアニメーションが表示される。 The usage pop-up 540 displays words and images explaining how to use the manual retouching function. Specifically, an explanation that the touch pen 132 touches the left and right of the eye to draw a line and an animation in which the pen tip moves from the inner corner of the eye to the outer corner of the eye in the model image and a line is drawn are displayed.

図21の状態で、使い方ポップアップ540左上に設けられている閉じるボタン541が押下されるか、編集画面上の使い方ポップアップ540以外の領域が押下されると、使い方ポップアップ540は閉じられ、編集画面は、図19に示される表示状態に遷移するとともに、手動レタッチ処理の機能が利用できる状態となる。 In the state of FIG. 21, when the close button 541 provided on the upper left of the usage pop-up 540 is pressed or the area other than the usage pop-up 540 on the editing screen is pressed, the usage pop-up 540 is closed and the editing screen is displayed. , The display state shown in FIG. 19 is changed, and the manual retouching processing function can be used.

上述したように、手動レタッチ処理の機能によれば、タッチペン132により撮影画像における目の領域を特定することで、その領域に対して目を大きくする処理が施される。 As described above, according to the manual retouching processing function, by specifying the eye region in the captured image with the touch pen 132, the processing of enlarging the eyes is performed with respect to the region.

<手動レタッチ処理>
ここで、図22のフローチャートを参照して、手動レタッチ処理について説明する。
<Manual retouching process>
Here, the manual retouching process will be described with reference to the flowchart of FIG.

ステップS71において、領域特定部453は、顔パーツの領域が特定されたか否かを判定する。具体的には、領域特定部453は、利用者のタッチペン132の操作により所定の領域が指定されたか否かを判定する。 In step S71, the area specifying unit 453 determines whether or not the area of the face part has been specified. Specifically, the area specifying unit 453 determines whether or not a predetermined area has been designated by the operation of the user's touch pen 132.

利用者のタッチペン132の操作により所定の領域が指定されるまで、ステップS71の処理は繰り返される。そして、利用者のタッチペン132の操作により所定の領域が指定された場合、領域特定部453は、指定された領域を顔パーツの領域として特定し、処理はステップS72に進む。 The process of step S71 is repeated until a predetermined area is designated by the operation of the user's touch pen 132. Then, when a predetermined area is designated by the operation of the user's touch pen 132, the area specifying unit 453 specifies the designated area as the area of the face part, and the process proceeds to step S72.

ステップS72において、第2の画像処理部454は、領域特定部453により特定された領域に対して画像処理を施す。 In step S72, the second image processing unit 454 performs image processing on the area specified by the area specifying unit 453.

例えば、図23に示されるように、撮影画像上で、タッチペン132により始点SPから終点EPまでの線551が描かれたとする。線551の長さがLであった場合、領域特定部453は、線551と垂直な2方向(図中上下方向)にL/4ずつの距離に、線551に平行な長さLの線分を設定する。そして、領域特定部453は、長辺の長さL、短辺の長さL/2の矩形領域552を、顔パーツの領域として特定する。 For example, as shown in FIG. 23, it is assumed that a line 551 from the start point SP to the end point EP is drawn by the touch pen 132 on the captured image. When the length of the line 551 is L, the area specifying portion 453 is a line having a length L parallel to the line 551 at a distance of L / 4 in two directions (vertical direction in the figure) perpendicular to the line 551. Set the minutes. Then, the area specifying portion 453 specifies a rectangular area 552 having a long side length L and a short side length L / 2 as a face part area.

そして、第2の画像処理部454は、矩形領域552において、線551により二分されるそれぞれの領域の画素を、線551から遠ざかる方向のみに拡大・移動する拡大・移動処理を、矩形領域552に対して施す。 Then, the second image processing unit 454 performs an enlargement / movement process of enlarging / moving the pixels of each area divided by the line 551 only in the direction away from the line 551 in the rectangular area 552 in the rectangular area 552. Apply to.

なお、タッチペン132により描画可能な線551の長さの上限は、撮影画像が表示される編集領域512の横幅の、例えば15%とされる。この値は、撮影画像において顔が極めて大きく写った場合に必要とされる値とされる。描画可能な線551の長さに上限を設けることで、不自然な画像が作成される可能性を低減することができる。 The upper limit of the length of the line 551 that can be drawn by the touch pen 132 is, for example, 15% of the width of the editing area 512 on which the captured image is displayed. This value is a value required when the face is extremely large in the captured image. By setting an upper limit on the length of the drawable line 551, the possibility that an unnatural image is created can be reduced.

また、点と判断されるような長さの線551では、上述した拡大・移動処理が施されないため、描画可能な線551の長さの下限は、数ピクセル程度とされる。なお、描画可能な線551の長さの上限および下限は、撮影画像の撮影範囲、言い換えると、撮影画像が、アップ画像であるか、コーディネート画像のような人物のほぼ全身が写る全身画像であるかによって異なる値をとるようにしてもよい。 Further, since the above-mentioned enlargement / movement processing is not performed on the line 551 having a length that is determined to be a point, the lower limit of the length of the drawable line 551 is set to about several pixels. The upper and lower limits of the length of the drawable line 551 are the shooting range of the shot image, in other words, the shot image is a close-up image or a whole-body image such as a coordinated image showing almost the whole body of a person. It may take different values depending on the type.

このような処理により、図24左側に示されるように、タッチペン132により、目頭から目尻へ線551が描かれた目の領域は、図24右側に示されるように、目が大きくなったように変化する。 By such processing, as shown on the left side of FIG. 24, the area of the eye on which the line 551 is drawn from the inner corner of the eye to the outer corner of the eye by the stylus 132 becomes larger as shown on the right side of FIG. 24. Change.

なお、上述した拡大・移動処理における画素の拡大率・移動量は、「小さめ拡大」ボタン521が押下されたときと、「大きめ拡大」ボタン522が押下されたときとで異なるものとする。具体的には、「小さめ拡大」ボタン521が押下されたときより、「大きめ拡大」ボタン522が押下されたときの方が、画素の拡大率・移動量は大きくなる。 The enlargement ratio / movement amount of the pixels in the above-mentioned enlargement / movement processing is different between when the "small enlargement" button 521 is pressed and when the "large enlargement" button 522 is pressed. Specifically, the enlargement ratio and the amount of movement of the pixels are larger when the "large enlargement" button 522 is pressed than when the "small enlargement" button 521 is pressed.

以上の処理によれば、顔パーツの認識に失敗した場合であっても、タッチペン132により、その顔パーツの領域を特定することで画像処理が施されるので、利用者に対して、より確実に、満足度の高い画像を提供することが可能となる。 According to the above processing, even if the recognition of the face part fails, the image processing is performed by specifying the area of the face part by the touch pen 132, so that the user can be more sure. In addition, it is possible to provide an image with a high degree of satisfaction.

<領域の特定について>
以上においては、タッチペン132により線を描くことで、顔パーツの領域が特定されるものとしたが、単に、例えば2点(目頭および目尻の2点)などの複数点をタッチペン132により指定し、それらを結ぶ線分に基づいて、顔パーツの領域が特定されるようにしてもよい。
<Regarding the identification of the area>
In the above, the area of the face part is specified by drawing a line with the touch pen 132, but simply, for example, a plurality of points such as two points (two points of the inner and outer corners of the eye) are designated by the touch pen 132. The area of the face part may be specified based on the line segment connecting them.

また、図25に示されるように、タッチペン132により最初に指定された点P1と、次に指定された点P2とを結ぶ線を対角線とする矩形領域561が、顔パーツの領域として特定されるようにしてもよい。 Further, as shown in FIG. 25, the rectangular area 561 having a diagonal line connecting the point P1 first designated by the touch pen 132 and the point P2 designated next is specified as the area of the face part. You may do so.

さらに、画面上で、撮影画像における顔の輪郭がタッチペン132によりなぞられることにより顔パーツの位置が推定されることで、顔パーツの領域が特定されるようにしてもよい。 Further, the area of the face part may be specified by estimating the position of the face part by tracing the contour of the face in the captured image on the screen with the touch pen 132.

また、顔パーツの領域が特定された後、画面上の撮影画像においてタッチペン132により指定された位置が、顔パーツの領域の中心となるようにしてもよい。この場合、領域の中心でドラッグ操作することで、顔パーツの領域を移動できるようにしてもよいし、画面上に十字キー(方向キー)を設け、その十字キーを操作することで、顔パーツの領域を移動できるようにしてもよい。また、画面上に拡大/縮小ボタンを設け、顔パーツの領域を拡大/縮小できるようにしてもよい。 Further, after the area of the face part is specified, the position designated by the touch pen 132 in the captured image on the screen may be the center of the area of the face part. In this case, you may be able to move the area of the face part by dragging at the center of the area, or you can provide a cross key (direction key) on the screen and operate the cross key to move the face part. You may be able to move the area of. Further, an enlargement / reduction button may be provided on the screen so that the area of the face part can be enlarged / reduced.

なお、画面上の所定の位置に、顔パーツの領域の大きさを示す目盛りを有するスライダーを設け、そのスライダーが操作されることで、顔パーツの領域の大きさが段階的に変化するようにしてもよいし、顔パーツの領域の大きさを示す図形が表示された複数のボタンを設け、選択されたボタンに応じて、顔パーツの領域の大きさが段階的に変化するようにしてもよい。 In addition, a slider having a scale indicating the size of the area of the face part is provided at a predetermined position on the screen, and the size of the area of the face part is changed stepwise by operating the slider. Alternatively, a plurality of buttons displaying a figure indicating the size of the area of the face part may be provided so that the size of the area of the face part changes stepwise according to the selected button. good.

また、画面に対する操作に、タッチペン132に代えて指を用いるようにしてもよい。この場合、ピンチインやピンチアウトなどの操作によって、顔パーツの領域の大きさが調整されるようしてもよい。具体的には、ピンチアウトの操作により、顔パーツの領域が大きくなり、ピンチインの操作により、顔パーツの領域が小さくなるようにする。さらに、画面上でのタッチペン132や指の移動方向に応じて、顔パーツの領域の大きさが調整されるようにしてもよい。 Further, a finger may be used instead of the touch pen 132 to operate the screen. In this case, the size of the area of the face part may be adjusted by an operation such as pinch-in or pinch-out. Specifically, the pinch-out operation increases the area of the face part, and the pinch-in operation reduces the area of the face part. Further, the size of the area of the face part may be adjusted according to the movement direction of the touch pen 132 or the finger on the screen.

なお、手動レタッチ処理の機能は、認識に成功した顔パーツの領域にも利用することができる。そこで、画面上の撮影画像において、認識されている顔パーツの近傍をタッチペン132や指でタッチすることで、顔パーツの領域が特定されるようにしてもよい。また、画面上に、顔パーツそれぞれに対応するボタンを設け、選択されたボタンに応じて、顔パーツの領域が特定されるようにしてもよい。 The manual retouching process function can also be used for the area of the face part that has been successfully recognized. Therefore, in the captured image on the screen, the area of the face part may be specified by touching the vicinity of the recognized face part with the touch pen 132 or a finger. Further, a button corresponding to each face part may be provided on the screen so that the area of the face part can be specified according to the selected button.

<レタッチ処理の他の例>
以上においては、レタッチ処理として、目を大きくする処理が施される例について説明したが、目を大きくする処理以外の処理が施されるようにしてもよい。例えば、レタッチ処理として、目を小さくする処理や、目の形状をたれ目、つり目などに変える処理、目全体の位置を変更する処理が施されるようにしてもよい。
<Other examples of retouching processing>
In the above, an example in which a process of enlarging the eyes is performed as the retouching process has been described, but a process other than the process of enlarging the eyes may be performed. For example, as the retouching process, a process of making the eyes smaller, a process of changing the shape of the eyes into a sagging eye, a hanging eye, or the like, or a process of changing the position of the entire eye may be performed.

また、手動レタッチ処理の機能を利用した場合、目を大きくする処理以外に、目の領域のシャープネスを変更する処理が施されるようにしてもよい。例えば、「小さめ拡大」ボタン521が押下された場合には、シャープネスを弱めに設定し、「大きめ拡大」ボタン522が押下された場合には、シャープネスを強めに設定するようにする。これにより、目を大きくするだけだと生じてしまう見た目の違和感を抑えることができるようになる。 Further, when the function of the manual retouching process is used, a process of changing the sharpness of the eye area may be performed in addition to the process of enlarging the eyes. For example, when the "small enlargement" button 521 is pressed, the sharpness is set to be weak, and when the "large enlargement" button 522 is pressed, the sharpness is set to be strong. As a result, it becomes possible to suppress the uncomfortable appearance that occurs only by enlarging the eyes.

さらに、目の領域において黒目の領域が特定できる場合には、その黒目の領域を大きくする処理がさらに施されるようにしてもよい。これにより、黒目に写り込むキャッチライトを目立たせることができる。 Further, if the black eye area can be specified in the eye area, a process of enlarging the black eye area may be further performed. This makes it possible to make the catch light reflected in the black eyes stand out.

また、目に対するレタッチ処理以外にも、鼻や口、顔に対するレタッチ処理が施されるようにしてもよい。 In addition to the retouching process for the eyes, the retouching process for the nose, mouth, and face may be performed.

例えば、鼻に対するレタッチ処理として、鼻筋の部分にハイライトを入れるような処理が施されるようにする。この場合、鼻筋の部分の明度を高くする処理が施されるようにしてもよいし、鼻筋の部分にハイライトを模した画像を合成する処理が施されるようにしてもよい。 For example, as a retouching process for the nose, a process for highlighting the nasal muscles is performed. In this case, a process of increasing the brightness of the nasal muscle portion may be performed, or a process of synthesizing an image imitating a highlight may be performed on the nasal muscle portion.

また、口に対するレタッチ処理として、唇を厚くしたり薄くするような処理が施されるようにする。また、開いている口を閉じた口にするような処理が施されるようにしてもよい。 In addition, as a retouching process for the mouth, a process for thickening or thinning the lips is performed. In addition, a process may be applied so that the open mouth is changed to the closed mouth.

さらに、顔に対するレタッチ処理として、顔を小さくするような処理が施されるようにする。この場合、顔の輪郭部分の領域を、顔の中心に移動させる処理が施されるようにする。 Further, as a retouching process for the face, a process for making the face smaller is performed. In this case, the process of moving the area of the contour portion of the face to the center of the face is performed.

なお、手動レタッチ処理(図22の処理)は、顔パーツの領域を特定する度に実行されるようにしてもよい。しかしながら、際限なく目が大きくなると、撮影画像に写る顔が不自然になるため、処理の回数に上限を設けるようにしてもよい。この場合、上限回数を超えてタッチペン132による線551が描画されたり、上限回数を超えた状態で「小さめ拡大」ボタン521または「大きめ拡大」ボタン522が操作されたときには、これ以上手動レタッチ処理の機能を利用できない旨のポップアップが表示されるようにする。 The manual retouching process (process of FIG. 22) may be executed every time the area of the face part is specified. However, if the eyes become infinitely large, the face appearing in the captured image becomes unnatural, so that an upper limit may be set for the number of processes. In this case, when the line 551 is drawn by the touch pen 132 in excess of the upper limit number of times, or when the "small enlargement" button 521 or the "large enlargement" button 522 is operated in a state where the upper limit number of times is exceeded, the manual retouching process is further performed. Display a pop-up indicating that the function cannot be used.

なお、手動レタッチ処理の上限回数は、撮影画像の撮影範囲、言い換えると、撮影画像が、アップ画像であるか、コーディネート画像のような人物のほぼ全身が写る全身画像であるかによって異なる回数としてもよい。具体的には、全身画像においては、アップ画像と比較して、画像全体における顔パーツの領域が小さく目立たないので、処理の対象が全身画像の場合には、アップ画像の場合より処理の上限回数を少なくするなどしてもよい。 The maximum number of manual retouching processes may differ depending on the shooting range of the shot image, in other words, whether the shot image is a close-up image or a whole-body image such as a coordinated image that shows almost the entire body of a person. good. Specifically, in the full-body image, the area of the face part in the entire image is smaller and less conspicuous than in the close-up image. May be reduced.

また、手動レタッチ処理は、手動レタッチ処理が既に(一度)施されている領域には、再び施されないようにしてもよいし、自動レタッチ処理(図18の処理)が既に施されている領域には、施されないようにしてもよい。 Further, the manual retouching process may not be performed again on the area where the manual retouching process has already been performed (once), or on the area where the automatic retouching process (process of FIG. 18) has already been performed. May not be applied.

<手動レタッチ処理の他の例>
(例1)
顔パーツの領域の特定の仕方として、撮影画像における顔パーツ毎に、顔パーツの領域が特定されるようにしてもよい。具体的には、上述したように、顔パーツそれぞれに対応するボタンが、例えば編集パレット513に表示されるようにする。例えば、目に対応するボタンが押下されることで、目の領域に、目を大きくする処理が施される。この場合、目の領域は、認識に成功することにより特定されるか、または、顔全体の領域における顔パーツそれぞれの位置関係から推定されるものとする。これにより、目の認識に成功した場合であっても失敗した場合であっても、タッチペン132で目頭と目尻とを結ぶ線を描くという手間をかけずに、手動レタッチ処理が施されるようになる。
<Other examples of manual retouching processing>
(Example 1)
As a method of specifying the area of the face part, the area of the face part may be specified for each face part in the captured image. Specifically, as described above, the buttons corresponding to each of the face parts are displayed on, for example, the edit palette 513. For example, when the button corresponding to the eye is pressed, the eye area is subjected to a process of enlarging the eye. In this case, the eye area shall be identified by successful recognition or estimated from the positional relationship of each face part in the area of the entire face. As a result, regardless of whether the eye recognition is successful or unsuccessful, the manual retouching process can be performed without the trouble of drawing a line connecting the inner and outer corners of the eye with the stylus 132. Become.

(例2)
撮影画像における顔毎に、顔パーツの領域が特定されるようにしてもよい。具体的には、顔パーツに対応するボタンとは別に、手動レタッチ処理の対象を、撮影画像における利用者1人ずつにするためのボタンと、利用者全員にするためのボタンとが表示されるようにする。手動レタッチ処理の対象を利用者1人ずつにするためのボタンが押下された場合、選択された1人の利用者のみに手動レタッチ処理が施され、手動レタッチ処理の対象を利用者全員にするためのボタンが押下された場合、利用者全員に手動レタッチ処理が施される。
(Example 2)
The area of the face part may be specified for each face in the captured image. Specifically, apart from the buttons corresponding to the face parts, a button for manually retouching the target for each user in the captured image and a button for all users are displayed. To do so. When the button for targeting the manual retouching process to each user is pressed, the manual retouching process is performed only for one selected user, and the target of the manual retouching process is set to all users. When the button for is pressed, all users are manually retouched.

(例3)
撮影画像全体における顔の占める割合に応じて、顔パーツの拡大率を変更するようにしてもよい。具体的には、撮影画像において顔が大きく写っている場合には、顔パーツの拡大率を高くし、顔が小さく写っている場合には、顔パーツの拡大率を小さくする。これにより、撮影画像に写る顔が大きいほど、撮影画像全体の写りの印象を決める目の大きさを強調することができる。
(Example 3)
The enlargement ratio of the face parts may be changed according to the proportion of the face in the entire captured image. Specifically, when the face is large in the captured image, the enlargement ratio of the face parts is increased, and when the face is small, the enlargement ratio of the face parts is decreased. As a result, the larger the face in the captured image, the more the size of the eyes that determines the impression of the entire captured image can be emphasized.

なお、撮影画像において複数の利用者が写っている場合には、それぞれの顔の大きさの平均に応じて、顔パーツの拡大率を変更するようにしてもよい。 When a plurality of users are shown in the captured image, the enlargement ratio of the face parts may be changed according to the average of the sizes of the faces.

また、手動レタッチ処理として、目を大きくする処理以外に、目の領域の明度、彩度、コントラストなどの色調を補正する処理が施されるようにしてもよい。この場合、各種の色調を示すボタンを設け、目の領域の色調が、選択されたボタンに対応する色調に補正されるようにする。これにより、撮影画像を、より理想的な写りの画像に仕上げることができる。 Further, as the manual retouching process, in addition to the process of enlarging the eyes, a process of correcting the color tone such as the brightness, saturation, and contrast of the eye area may be performed. In this case, buttons indicating various color tones are provided so that the color tones in the eye area are corrected to the color tones corresponding to the selected buttons. As a result, the captured image can be finished into a more ideal image.

(例4)
目の認識において、両方の目の認識の成功をもって、認識に成功したと判定するようにしてもよい。
(Example 4)
In the recognition of the eyes, the success of the recognition of both eyes may be judged as the success of the recognition.

ここで、片方の目のみの認識に成功している場合、認識に失敗したもう片方の目のみが、手動レタッチ処理の対象となるようにしてもよい。この場合、手動レタッチ領域514において「小さめ拡大」ボタン521または「大きめ拡大」ボタン522が操作されたときに、認識に成功した目の領域をグレースケール表示するなど、その領域の表示を異ならせるようにしてもよい。これにより、認識に成功した目が手動レタッチ処理の対象でないことを、利用者に把握させることができる。 Here, if only one eye is successfully recognized, only the other eye that fails to be recognized may be the target of the manual retouching process. In this case, when the "small enlargement" button 521 or the "large enlargement" button 522 is operated in the manual retouch area 514, the area of the eye that has been successfully recognized is displayed in grayscale, and the display of that area is changed. You may do it. This makes it possible for the user to understand that the eye that has been successfully recognized is not the target of the manual retouching process.

また、両方の目の認識に失敗した状態で、片方の目の領域が特定され、かつ、鼻や口などの他の顔パーツの認識に成功している場合、それらの位置関係から、もう片方の目の領域が特定(推定)されるようにしてもよい。なお、この状態で、撮影画像上で両方の目について目頭と目尻との間の長さを比較し、明らかに異なる長さである場合には、いずれか一方の領域は目の領域でないおそれがあるので、その領域は、手動レタッチ処理の対象から除外されるようにしてもよい。 Also, if the area of one eye is identified and the other facial parts such as the nose and mouth are successfully recognized when the recognition of both eyes fails, the other is determined from the positional relationship between them. The area of the eye may be specified (estimated). In this state, the lengths between the inner and outer corners of the eyes are compared for both eyes on the captured image, and if the lengths are clearly different, one of the regions may not be the region of the eyes. Therefore, the area may be excluded from the target of the manual retouching process.

(例5)
顔パーツの認識の成功をもって、顔全体の認識を行うようにした場合、顔パーツの認識に失敗したとしても、その領域が特定されることで、顔全体の認識に成功したとするようにしてもよい。
(Example 5)
If the recognition of the entire face is performed with the success of the recognition of the face parts, even if the recognition of the face parts fails, the area is specified so that the recognition of the entire face is successful. May be good.

例えば、目の認識に失敗して顔全体の認識を行えない場合、目の領域が特定されることで、顔全体の認識に成功したこととする。これにより、顔全体の領域における目以外の顔パーツの位置が推定されるので、目以外の顔パーツ、例えば唇に対して、唇の色を変更するなどの処理を施すことが可能となる。 For example, when the recognition of the eyes fails and the recognition of the entire face cannot be performed, it is assumed that the recognition of the entire face is successful by specifying the area of the eyes. As a result, the positions of the face parts other than the eyes are estimated in the entire area of the face, so that it is possible to perform processing such as changing the color of the lips on the face parts other than the eyes, for example, the lips.

<画像取得サイト管理サーバ・携帯端末でのレタッチ処理>
レタッチ処理は、写真シール作成装置1だけでなく、画像取得サイト管理サーバや携帯端末において行われるようにしてもよい。
<Retouch processing on image acquisition site management server / mobile terminal>
The retouching process may be performed not only on the photo sticker creating device 1 but also on the image acquisition site management server or the mobile terminal.

画像取得サイト管理サーバにおいてレタッチ処理が行われる場合、写真シール作成装置1において行われた手動レタッチ処理のパラメータと、いずれの処理も施されていない撮影画像とが、画像取得サイト管理サーバに送信されるようにする。画像取得サイト管理サーバは、撮影画像に対して、そのパラメータを用いてレタッチ処理を施す。このとき、画像取得サイト管理サーバは、写真シール作成装置1からのパラメータとは異なるパラメータを用いるようにしてもよい。 When the retouching process is performed on the image acquisition site management server, the parameters of the manual retouching process performed on the photo sticker creation device 1 and the captured image without any processing are transmitted to the image acquisition site management server. To do so. The image acquisition site management server performs retouching processing on the captured image using the parameters. At this time, the image acquisition site management server may use parameters different from the parameters from the photo sticker creation device 1.

携帯端末においてレタッチ処理が行われる場合には、写真シール作成装置1において行われた手動レタッチ処理と同様のレタッチ処理が行われるようにしてもよいし、写真シール作成装置1において行われた手動レタッチ処理とは独立して、撮影画像に対するレタッチ処理が行われるようにしてもよい。 When the retouching process is performed on the mobile terminal, the retouching process similar to the manual retouching process performed on the photo sticker creating device 1 may be performed, or the manual retouching performed on the photo sticker creating device 1 may be performed. The retouching process for the captured image may be performed independently of the process.

<人数について>
撮影画像に写る利用者の人数に応じて、手動レタッチ処理が実行されるようにしてもよい。
<About the number of people>
The manual retouching process may be executed according to the number of users in the captured image.

例えば、撮影画像に写る利用者が4人以上など、所定の人数以上である場合には、利用者同士の顔が重なり、顔パーツを認識できない可能性があるので、手動レタッチ処理が実行されるようにする。 For example, if there are four or more users in the captured image, or more than a predetermined number of users, the faces of the users may overlap and the face parts may not be recognized, so the manual retouching process is executed. To do so.

逆に、撮影画像に写る利用者が2人以下など、所定の人数以下である場合には、撮影画像における顔の占める割合が高くなり、顔の印象が画像全体の写りに影響を与えるので、手動レタッチ処理が実行されるようにしてもよい。 On the contrary, when the number of users in the captured image is less than a predetermined number, such as two or less, the proportion of the face in the captured image becomes high, and the impression of the face affects the appearance of the entire image. The manual retouching process may be executed.

さらに、撮影画像に写る利用者が2人などの特定の人数である場合にのみ、手動レタッチ処理が実行されるようにしてもよい。 Further, the manual retouching process may be executed only when the number of users shown in the captured image is a specific number such as two.

<撮影範囲について>
撮影処理において、撮影画像として、人物の顔と上半身が写るアップ画像と、人物の全身が写る全身画像の、異なる撮影範囲の画像が生成されるようにした場合、撮影範囲に応じて、手動レタッチ処理が実行されるようにしてもよい。
<About the shooting range>
In the shooting process, when a close-up image showing the face and upper body of a person and a full-body image showing the whole body of a person are generated as shot images, manual retouching is performed according to the shooting range. The process may be executed.

例えば、全身画像は、アップ画像と比較して画像における顔の占める割合が低いので、全身画像に対して手動レタッチ処理は実行されないようにし、アップ画像に対してのみ手動レタッチ処理が実行されるようにする。 For example, in a full-body image, the proportion of the face in the image is lower than that in the close-up image, so the manual retouching process should not be executed for the full-body image, and the manual retouching process should be executed only for the close-up image. To.

なお、アップ画像および全身画像に加え、撮影画像として、人物の膝より上が写る膝上画像が生成されるようにした場合、膝上画像に対しては、手動レタッチ処理が実行されないようにしてもよいし、実行されるようにしてもよい。 In addition to the close-up image and the whole body image, when the above-knee image showing the person above the knee is generated as the captured image, the manual retouching process is not executed for the above-knee image. It may be executed or it may be executed.

<特別撮影について>
上述した撮影処理において行われる通常の撮影以外に、動画像撮影や、複数の撮影画像を配置し合成したコラージュ画像を得るための撮影、複数の利用者を被写体とした1回の撮影により利用者毎の撮影画像を得るための撮影などの、特別な撮影(特別撮影)が行われるようにしてもよい。
<About special shooting>
In addition to the normal shooting performed in the above-mentioned shooting process, a user can shoot a moving image, shoot to obtain a collage image in which multiple shot images are arranged and combined, and shoot a single shot with multiple users as subjects. Special shooting (special shooting) such as shooting for obtaining a shot image for each shot may be performed.

このような特別撮影は、画像における顔の写りを良くすることよりも、面白味をもたせたり、特別感を与えることを目的としている。そこで、特別撮影により得られた画像に対しては、手動レタッチ処理は実行されないようにし、通常の撮影により得られた撮影画像に対してのみ、手動レタッチ処理が実行されるようにする。 Such special shooting is intended to give a more interesting or special feeling than to improve the appearance of the face in the image. Therefore, the manual retouching process is not executed for the image obtained by the special shooting, and the manual retouching process is executed only for the captured image obtained by the normal shooting.

<自動レタッチ処理の変形例>
以上においては、編集処理において選択された目の大きさに応じて、自動レタッチ処理が実行されるものとしたが、事前選択処理や撮影処理において、目の大きさが選択されるようにしてもよい。
<Modification example of automatic retouch processing>
In the above, it is assumed that the automatic retouching process is executed according to the eye size selected in the editing process, but even if the eye size is selected in the preselection process or the shooting process. good.

ここで、撮影処理において、例えば5回の撮影が行われ、得られた5枚の撮影画像のうち、4枚の撮影画像においては2人の利用者についての目が認識され、1枚の撮影画像においては2人の利用者についての目が認識されなかったとする。この場合、1枚の撮影画像においては、少なくとも1人の利用者について目の認識に失敗していることになる。この場合、目の認識に失敗した利用者について、目以外に認識されている顔パーツに基づいて、目の領域を推定する。これにより、目の認識に失敗した場合であっても、自動レタッチ処理が施されるようになる。 Here, in the shooting process, for example, five shots are taken, and among the five shot images obtained, the eyes of two users are recognized in the four shot images, and one shot is taken. It is assumed that the eyes of the two users are not recognized in the image. In this case, in one captured image, the recognition of the eyes of at least one user has failed. In this case, for the user who failed to recognize the eyes, the area of the eyes is estimated based on the face parts recognized other than the eyes. As a result, even if the eye recognition fails, the automatic retouching process is performed.

また、この場合、編集画面においては、目の認識に失敗した撮影画像であることを利用者に把握させるような表示がなされるようにしてもよい。 Further, in this case, the editing screen may be displayed so that the user can understand that the captured image has failed to recognize the eyes.

さらに、自動レタッチ処理は、撮影時に表示されるライブビュー画像に対して施されるようにしてもよい。この場合、処理対象となる顔パーツが正しく認識されるように、利用者に対して、ライブビュー画像に適切に映るようなガイダンスが出力されるようにしてもよい。 Further, the automatic retouching process may be applied to the live view image displayed at the time of shooting. In this case, guidance may be output to the user so that the face part to be processed is correctly recognized.

以上においては、編集画面において、認識に失敗した目の領域に対して、目を大きくする処理が施されるものとしたが、これに加えて、左右の目の大きさが異なる場合に、左右の目の大きさを揃える処理が施されるようにしてもよい。 In the above, on the edit screen, the processing to enlarge the eyes is applied to the area of the eyes that failed to be recognized. In addition to this, when the sizes of the left and right eyes are different, the left and right eyes are processed. The processing may be performed to make the size of the eyes uniform.

<編集画面の他の例>
図26は、編集画面の他の例を示す図である。
<Other examples of edit screen>
FIG. 26 is a diagram showing another example of the edit screen.

なお、図26の編集画面において、サムネイル表示領域611、編集領域612、および編集パレット613は、図19の編集画面におけるサムネイル表示領域511、編集領域512、および編集パレット513とそれぞれ同様の機能を有する。 In the edit screen of FIG. 26, the thumbnail display area 611, the edit area 612, and the edit palette 613 have the same functions as the thumbnail display area 511, the edit area 512, and the edit palette 513 in the edit screen of FIG. ..

編集領域612の左方には、手動レタッチ領域614が設けられる。 A manual retouching area 614 is provided on the left side of the editing area 612.

手動レタッチ領域614は、目の領域に対する手動レタッチ処理を実行するために、編集対象となる撮影画像における目の大きさを変えるためのボタンの表示領域である。 The manual retouching area 614 is a display area of a button for changing the size of the eyes in the captured image to be edited in order to execute the manual retouching process for the eye area.

手動レタッチ領域614には、「直す」ボタン621,622、および、OFFボタン623が設けられる。 The manual retouch area 614 is provided with a "fix" button 621 and 622 and an OFF button 623.

「直す」ボタン621は、左右の目の大きさを同一にするために操作されるボタンである。 The "fix" button 621 is a button operated to make the size of the left and right eyes the same.

「直す」ボタン621が操作されると、図27に示されるように、編集領域612上に、左右の目の大きさを同一にする手動レタッチ処理の機能について説明する使い方ポップアップ630が表示される。 When the "fix" button 621 is operated, as shown in FIG. 27, a usage pop-up 630 explaining the function of the manual retouching process for making the left and right eyes the same size is displayed on the editing area 612. ..

使い方ポップアップ630には、左右の目の大きさを同一にする手動レタッチ処理の機能の使い方を説明する文言および画像が表示される。具体的には、「小さい方の目をタッチしてね!」のメッセージと、モデルとなる人物の左右の目の部分が拡大されたモデル画像が表示される。図27のモデル画像は、タッチペン132のペン先が、モデルの左右の目のうちの小さい方の目の部分にタッチされる様子を表すアニメーションとして表示される。 The usage pop-up 630 displays words and images explaining how to use the manual retouching function that makes the left and right eyes the same size. Specifically, the message "Please touch the smaller eye!" And the model image with the left and right eyes of the model person enlarged are displayed. The model image of FIG. 27 is displayed as an animation showing how the tip of the touch pen 132 is touched by the smaller eye portion of the left and right eyes of the model.

図27の状態で、使い方ポップアップ630右上に設けられている閉じるボタン631が押下されると、使い方ポップアップ630は閉じられる。 In the state of FIG. 27, when the close button 631 provided on the upper right of the usage pop-up 630 is pressed, the usage pop-up 630 is closed.

「直す」ボタン622は、目を拡大するために操作されるボタンである。 The "fix" button 622 is a button operated to enlarge the eyes.

「直す」ボタン622が操作されると、図28に示されるように、編集領域612上に、目を拡大する手動レタッチ処理の機能について説明する使い方ポップアップ640が表示される。 When the "fix" button 622 is operated, as shown in FIG. 28, a usage pop-up 640 explaining the function of the manual retouching process for enlarging the eyes is displayed on the editing area 612.

使い方ポップアップ640には、目を拡大する手動レタッチ処理の機能の使い方を説明する文言および画像が表示される。具体的には、「認識を外した目の上にラインを引いてね」のメッセージと、モデルとなる人物の左右の目の部分が拡大されたモデル画像が表示される。図28のモデル画像は、タッチペン132のペン先が、モデルの左右の目のうちの認識に失敗した方の目の目頭から目尻へ移動して線が描かれる様子を表すアニメーションとして表示される。 The usage pop-up 640 displays words and images explaining how to use the function of the manual retouching process that enlarges the eyes. Specifically, the message "Draw a line on the unrecognized eyes" and the model image with the left and right eyes of the model person enlarged are displayed. The model image of FIG. 28 is displayed as an animation showing how the tip of the touch pen 132 moves from the inner corner of the eye to the outer corner of the eye of the left and right eyes of the model, which fails to recognize, and a line is drawn.

図28の状態で、使い方ポップアップ640右上に設けられている閉じるボタン641が押下されると、使い方ポップアップ640は閉じられる。 In the state of FIG. 28, when the close button 641 provided on the upper right of the usage pop-up 640 is pressed, the usage pop-up 640 is closed.

このように、図26の編集画面においては、左右の目の大きさを同一にする手動レタッチ処理と、認識に失敗した目を拡大する手動レタッチ処理の2つの処理の機能を利用することができる。 As described above, on the editing screen of FIG. 26, two processing functions, a manual retouching process for making the left and right eyes the same size and a manual retouching process for enlarging the eyes that failed to be recognized, can be used. ..

そのため、この例では、使い方ポップアップ630や使い方ポップアップ640が表示された状態でも、それぞれの機能を実現する操作を受付可能とする。これにより、利用者は、「直す」ボタン621および「直す」ボタン622のいずれかを選択した後、タッチペン132でいずれの操作(小さい方の目をタッチするのか、または、認識に失敗した目の目頭から目尻へ線を描くのか)を、間違えることなく行うことができる。すなわち、上述した2種類の手動レタッチ処理は、その処理毎に機能を実現する操作が異なる。そこで、選択された処理に対応する使い方ポップアップが表示されるようにすることで、利用者は、その使い方ポップアップを確認しながら、所望する機能を実現する操作を間違えることなく行うことができる。 Therefore, in this example, even when the usage pop-up 630 and the usage pop-up 640 are displayed, it is possible to accept operations for realizing each function. As a result, after selecting either the "fix" button 621 or the "fix" button 622, the user can use the touch pen 132 to perform which operation (touch the smaller eye or the eye that fails to recognize). Do you draw a line from the inner corner of the eye to the outer corner of the eye?) Without making a mistake. That is, in the above-mentioned two types of manual retouching processing, the operation for realizing the function is different for each processing. Therefore, by displaying the usage pop-up corresponding to the selected process, the user can perform the operation to realize the desired function without making a mistake while checking the usage pop-up.

なお、使い方ポップアップ630や使い方ポップアップ640が表示された状態で、編集領域612の撮影画像に写る目の領域に対する操作を可能とするよう、使い方ポップアップ630,640はいずれも編集領域612上の中央下部の領域に表示される。 In addition, in the state where the usage pop-up 630 and the usage pop-up 640 are displayed, the usage pop-up 630 and 640 are both in the lower center of the editing area 612 so that the operation for the eye area reflected in the captured image of the editing area 612 is possible. It is displayed in the area of.

また、上述した2種類の手動レタッチ処理の機能の使い方を説明する使い方ポップアップが表示される以外にも、編集画面に対する操作により実行されるその他の処理の機能の使い方を説明する使い方ポップアップが表示されるようにしてもよい。例えば、目や唇、頬などの顔パーツに対して選択されたメイクツールの機能の使い方を説明する使い方ポップアップや、目の形状を変える画像処理の機能の使い方を説明する使い方ポップアップなどが表示されるようにしてもよい。この場合、これらの使い方ポップアップもまた、対応する処理が施される領域に対する操作を可能とするよう、顔や目の領域を隠さない領域に表示されるようにする。 In addition to the usage pop-up that explains how to use the above-mentioned two types of manual retouching processing functions, a usage pop-up that explains how to use other processing functions executed by operations on the edit screen is displayed. You may do so. For example, a usage pop-up explaining how to use the function of the selected makeup tool for facial parts such as eyes, lips, and cheeks, and a usage pop-up explaining how to use the image processing function that changes the shape of the eyes are displayed. You may do so. In this case, these usage pop-ups are also displayed in an area that does not hide the face or eye area so that the corresponding processing area can be operated.

OFFボタン623は、「直す」ボタン621および「直す」ボタン622が操作されることにより施された処理を全て解除する(無効にする)ためのボタンである。 The OFF button 623 is a button for canceling (invalidating) all the processing performed by operating the "fix" button 621 and the "fix" button 622.

編集画面のデフォルトの状態では、OFFボタン623は、図26に示されるように、グレーアウト表示されており、「直す」ボタン621および「直す」ボタン622のいずれかが操作されると、図27または図28に示されるように、グレーアウト表示が解除される。 In the default state of the edit screen, the OFF button 623 is grayed out as shown in FIG. 26, and when either the "fix" button 621 or the "fix" button 622 is operated, FIG. 27 or As shown in FIG. 28, the grayout display is canceled.

なお、編集領域612の右下方に設けられる「戻る」ボタン615が操作された場合、「直す」ボタン621および「直す」ボタン622が操作されることにより施された処理のうち、直近に操作されたボタンにより施された処理が1つだけ解除される。 When the "back" button 615 provided at the lower right of the editing area 612 is operated, the most recent operation is performed by operating the "fix" button 621 and the "fix" button 622. Only one process performed by the button is canceled.

例えば、「直す」ボタン621が操作されることで、撮影画像に写る一方の利用者に対して左右の目の大きさを同一にする手動レタッチ処理が施された後、「直す」ボタン622が操作されることで、撮影画像に写る他方の利用者に対して認識に失敗した目を拡大する手動レタッチ処理が施されたとする。 For example, by operating the "fix" button 621, a manual retouching process for making the left and right eye sizes the same for one user appearing in the captured image is performed, and then the "fix" button 622 is pressed. It is assumed that the manual retouching process for enlarging the eyes that failed to be recognized is applied to the other user in the captured image by being operated.

この状態で、OFFボタン623が操作された場合、一方の利用者に対して施された左右の目の大きさを同一にする手動レタッチ処理と、他方の利用者に対して施された認識に失敗した目を拡大する手動レタッチ処理とが、いずれも解除される。 When the OFF button 623 is operated in this state, the manual retouching process for making the left and right eye sizes the same for one user and the recognition for the other user are performed. The manual retouching process that enlarges the failed eye is canceled.

一方、「戻る」ボタン615が操作された場合、直近に操作されたボタンにより他方の利用者に対して施された認識に失敗した目を拡大する手動レタッチ処理のみが解除される。「戻る」ボタン615がさらに操作されると、その前に操作されたボタンにより一方の利用者に対して施された左右の目の大きさを同一にする手動レタッチ処理のみが解除される。 On the other hand, when the "back" button 615 is operated, only the manual retouching process for enlarging the eyes that failed to be recognized by the most recently operated button is canceled. When the "back" button 615 is further operated, only the manual retouching process for making the left and right eyes the same size applied to one user by the previously operated button is released.

なお、図27の使い方ポップアップ630や図28の使い方ポップアップ640に表示されるモデル画像は、撮影画像から切り出された利用者の目の部分の拡大画像であってもよい。この場合、利用者それぞれの目の部分の拡大画像が表示されるようにし、選択された拡大画像に対応する利用者が、手動レタッチ処理の対象となるようにしてもよい。 The model image displayed in the usage pop-up 630 of FIG. 27 and the usage pop-up 640 of FIG. 28 may be an enlarged image of the user's eye portion cut out from the captured image. In this case, the enlarged image of each eye portion may be displayed, and the user corresponding to the selected enlarged image may be the target of the manual retouching process.

<手動レタッチ処理における画像処理の詳細>
ここで、上述した2種類の手動レタッチ処理における画像処理の詳細について説明する。
<Details of image processing in manual retouching processing>
Here, the details of the image processing in the above-mentioned two types of manual retouching processing will be described.

左右の目の大きさを同一にする手動レタッチ処理においては、撮影画像において認識された目の領域がタッチペン132によりタッチされることで、例えばその目の中心点を基準に、目の輪郭点が中心点から遠ざかるように移動させる処理が施される。もちろんこれに限らず、目の輪郭点を結ぶことで囲まれる目の領域を拡大する処理が施されるなど、タッチペン132によりタッチされた方の目の領域が拡大する処理が施されればよい。 In the manual retouching process in which the sizes of the left and right eyes are made the same, the area of the eye recognized in the captured image is touched by the touch pen 132, so that the contour point of the eye is, for example, based on the center point of the eye. Processing is performed to move it away from the center point. Of course, the present invention is not limited to this, and it is sufficient to perform a process of enlarging the area of the eye touched by the touch pen 132, such as a process of enlarging the area of the eye surrounded by connecting the contour points of the eyes. ..

なお、「直す」ボタン621が操作された後、目の領域以外の領域がタッチペン132によりタッチされた場合には、いずれの処理も施されないようにする。 If an area other than the eye area is touched by the touch pen 132 after the "fix" button 621 is operated, no processing is performed.

認識に失敗した目を拡大する手動レタッチ処理においては、図29に示されるように、撮影画像上で、タッチペン132により目頭(始点P11)から目尻(終点P12)に向かって線651が描かれることで、図23を参照して説明した処理が施される。なお、図29の例では、線651が描画されるとともに、始点P11を目頭、終点P12を目尻とした目を模したアイコン652が表示される。 In the manual retouching process for enlarging the eyes that failed to be recognized, as shown in FIG. 29, a line 651 is drawn from the inner corner of the eye (start point P11) to the outer corner of the eye (end point P12) by the touch pen 132 on the captured image. Then, the process described with reference to FIG. 23 is performed. In the example of FIG. 29, the line 651 is drawn, and the icon 652 imitating the eyes with the start point P11 as the inner corner of the eye and the end point P12 as the outer corner of the eye is displayed.

なお、始点P11から終点P12に向かって描かれる線651は、編集領域612上、横方向(左右方向)に描かれた場合にのみ有効とされ、それ以外の方向(縦方向や斜め方向)に描かれた場合については無効とする。 The line 651 drawn from the start point P11 to the end point P12 is valid only when drawn in the horizontal direction (horizontal direction) on the editing area 612, and is valid in other directions (vertical direction or diagonal direction). If it is drawn, it will be invalid.

しかしながら、利用者の中には、顔を傾けた状態で撮影を行う利用者もおり、その状態で得られる撮影画像には、利用者の顔、ひいては目が傾いて写ることになる。このような場合、認識に失敗した目を拡大する手動レタッチ処理において、描画される線651について上述した制限を設けることは好ましくない。 However, some users take pictures with their faces tilted, and the photographed images obtained in that state show the user's face and, by extension, their eyes tilted. In such a case, it is not preferable to set the above-mentioned limitation on the drawn line 651 in the manual retouching process for enlarging the eyes that failed to be recognized.

そこで、図30に示されるように、始点P11を原点とした2次元平面上で、始点P11から終点P12に向かって描かれる線651と横軸(x軸)とのなす角度について制限を設ける。具体的には、線651と横軸(x軸)とのなす角度が、0°乃至40°,130°乃至210°,320°乃至360°の範囲にある場合には、線651を有効とするようにする。すなわち、線651と横軸(x軸)とのなす角度が、41°乃至129°,211°乃至319°の範囲にある場合には、線651は無効となり、描画もされなければ、目を拡大する処理も施されない。 Therefore, as shown in FIG. 30, a limit is set on the angle formed by the horizontal axis (x axis) and the line 651 drawn from the start point P11 toward the end point P12 on the two-dimensional plane with the start point P11 as the origin. Specifically, when the angle formed by the line 651 and the horizontal axis (x axis) is in the range of 0 ° to 40 °, 130 ° to 210 °, 320 ° to 360 °, the line 651 is effective. To do. That is, when the angle formed by the line 651 and the horizontal axis (x axis) is in the range of 41 ° to 129 °, 211 ° to 319 °, the line 651 becomes invalid, and if it is not drawn, the eyes are closed. No enlargement processing is applied.

これにより、利用者の目が傾いて写る撮影画像に対しても、認識に失敗した目を拡大する手動レタッチ処理の機能を利用することが可能となる。 This makes it possible to use the manual retouching processing function for enlarging the eyes that have failed to be recognized even for the captured image in which the user's eyes are tilted.

また、この例においても、手動レタッチ処理の上限回数が設けられるようにする。この場合、手動レタッチ処理の種類(左右の目の大きさを同一にするか、認識に失敗した目を拡大するか)によらず、処理の合計回数が上限回数を超えた場合には、これ以上手動レタッチ処理の機能を利用できない旨のポップアップが表示されるようにする。 Further, also in this example, the upper limit number of manual retouching processes is set. In this case, regardless of the type of manual retouching process (whether the left and right eyes are the same size or the eyes that failed to be recognized are enlarged), if the total number of processes exceeds the upper limit, this is the case. A pop-up indicating that the manual retouching processing function cannot be used is displayed.

ここで、手動レタッチ処理の上限回数は、利用者の人数に応じて行われるゲームの種類を決定する人数コースによって異なるものとする。 Here, the upper limit of the number of manual retouching processes shall differ depending on the number of people course that determines the type of game to be played according to the number of users.

例えば、人数コースとして、2人の利用者に適したゲームを提供する2人用コースが選択されている場合には、2人の利用者の左右それぞれの目の領域に対して、1回ずつのみ手動レタッチ処理を許容するよう、手動レタッチ処理の上限回数を4回とする。また、人数コースとして、3人以上の利用者に適したゲームを提供する3人以上コースが選択されている場合には、最大5人の利用者の左右それぞれの目の領域に対して、1回ずつのみ手動レタッチ処理を許容するよう、手動レタッチ処理の上限回数を10回とする。 For example, when a two-person course that provides a game suitable for two users is selected as the number of people course, once for each of the left and right eye areas of the two users. The upper limit of the manual retouching process is set to 4 so that the manual retouching process is allowed only. In addition, when a course of 3 or more people who provides a game suitable for 3 or more users is selected as the number of people course, 1 for each of the left and right eye areas of a maximum of 5 users. The upper limit of the manual retouching process is set to 10 so that the manual retouching process is allowed only once.

上述した実施の形態では、写真シール作成装置1は、得られた画像をシール紙に印刷するとともに、画像取得サイト管理サーバに送信することで利用者の携帯端末に提供する構成を採るものとした。これに限らず、画像をシール紙に印刷せずに、画像取得サイト管理サーバに送信することで利用者の携帯端末に提供するのみの構成を採ることも可能である。また逆に、画像を画像取得サイト管理サーバに送信せずに、シール紙に印刷するのみの構成を採ることも可能である。 In the above-described embodiment, the photo sticker creating device 1 is configured to print the obtained image on a sticker paper and send it to the image acquisition site management server to provide it to the user's mobile terminal. .. Not limited to this, it is also possible to adopt a configuration in which the image is only provided to the user's mobile terminal by transmitting the image to the image acquisition site management server without printing it on the sticker paper. On the contrary, it is also possible to adopt a configuration in which the image is only printed on the sticker paper without being transmitted to the image acquisition site management server.

すなわち、本技術は、画像がシール紙に印刷された写真シールを作成する写真シール作成装置に限らず、単に、画像を作成するゲームを提供する写真作成ゲーム機に適用することができる。 That is, the present technology can be applied not only to a photo sticker making device for making a photo sticker in which an image is printed on a sticker paper, but also to a photo making game machine that simply provides a game for making an image.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 The series of processes described above can be executed by hardware or software. When the series of processes described above is executed by software, the programs constituting the software are installed from a network or a recording medium.

この記録媒体は、例えば、図12に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、そのプログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク、もしくは半導体メモリなどよりなるリムーバブルメディア319により構成される。また、これらだけでなく、記録媒体は、装置本体にあらかじめ組み込まれた状態で管理者に配信されるプログラムが記録されているROM312や、記憶部316に含まれるハードディスクなどで構成される。 This recording medium is, for example, as shown in FIG. 12, a magnetic disk on which the program is recorded, which is distributed to distribute the program to the administrator of the photo sticker creation device 1 separately from the device main body. It is composed of a removable medium 319 including a flexible disk), an optical disk (including a CD-ROM and a DVD), a magneto-optical disk, or a semiconductor memory. In addition to these, the recording medium is composed of a ROM 312 in which a program to be distributed to the administrator is recorded in a state of being preliminarily incorporated in the main body of the apparatus, a hard disk included in the storage unit 316, and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program to be recorded on a recording medium are not only processed in chronological order in the order described, but also in parallel or in parallel, even if they are not necessarily processed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではない。例えば、所定のサイズの紙やフィルム、プリペイドカードやIC(Integrated Circuit)カードなどのカード、あるいは、Tシャツなどの布地などに、画像を印刷するようにしてもよい。この場合、1または複数の撮影画像が配置されたシールレイアウト画像が、これらの印刷媒体に印刷されるようにしてもよい。 In the above, the print medium is not limited to the sticker paper and the photo paper. For example, the image may be printed on a predetermined size of paper or film, a card such as a prepaid card or an IC (Integrated Circuit) card, or a cloth such as a T-shirt. In this case, a sticker layout image in which one or a plurality of captured images are arranged may be printed on these print media.

また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Further, the embodiment of the present technique is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technique.

1 写真シール作成装置
401 事前選択処理部
402 撮影処理部
403 編集処理部
404 印刷処理部
431 表示制御部
432 編集制御部
433 通信制御部
434 レタッチ処理部
451 認識部
452 第1の画像処理部
453 領域特定部
454 第2の画像処理部
1 Photo sticker creation device 401 Preselection processing unit 402 Imaging processing unit 403 Editing processing unit 404 Printing processing unit 431 Display control unit 432 Editing control unit 433 Communication control unit 434 Retouching processing unit 451 Recognition unit 452 First image processing unit 453 Area Specific part 454 Second image processing part

Claims (10)

撮影画像において顔またはその一部を認識する認識部と、
認識に成功した前記顔またはその一部の領域に対して、利用者の操作によらずに、第1の画像処理を施す第1の画像処理部と、
前記撮影画像において、前記利用者の操作により、認識に失敗したことで前記第1の画像処理が施されなかった前記顔またはその一部の領域特定する領域特定部と、
前記領域特定部により特定された前記顔またはその一部の領域に対して第2の画像処理を施す第2の画像処理部と
を備える写真作成ゲーム機。
A recognition unit that recognizes a face or a part of it in a captured image,
A first image processing unit that performs first image processing on the face or a part of the area that has been successfully recognized without any operation by the user .
In the captured image, the area specifying portion that specifies the area of the face or a part thereof that has not been subjected to the first image processing due to the recognition failure due to the operation of the user, and the area specifying portion.
A photo-creating game machine including a second image processing unit that performs a second image processing on the face or a part of the region specified by the region specifying unit.
前記認識部は、前記撮影画像において顔パーツを認識し、
前記第1の画像処理部は、認識に成功した前記顔パーツの領域に対して前記第1の画像処理を施し、
前記領域特定部は、前記撮影画像において前記顔パーツの領域を特定し、
前記第2の画像処理部は、前記領域特定部により特定された前記顔パーツの領域に対して前記第2の画像処理を施す
請求項1に記載の写真作成ゲーム機。
The recognition unit recognizes the face part in the captured image, and the recognition unit recognizes the face part.
The first image processing unit performs the first image processing on the region of the face part that has been successfully recognized.
The area specifying portion identifies the area of the face part in the captured image, and determines the area of the face part.
The photo-creating game machine according to claim 1, wherein the second image processing unit performs the second image processing on the area of the face part specified by the area specifying unit.
前記領域特定部は、前記撮影画像において、前記利用者の操作により指定された領域を、前記顔パーツの領域として特定する
請求項2に記載の写真作成ゲーム機。
The photo-creating game machine according to claim 2, wherein the area specifying unit specifies an area designated by the operation of the user in the photographed image as an area of the face part.
前記第2の画像処理部は、前記第2の画像処理が既に施されている領域には、前記第2の画像処理を施さない
請求項3に記載の写真作成ゲーム機。
The photo-creating game machine according to claim 3, wherein the second image processing unit does not perform the second image processing on the area where the second image processing has already been performed.
前記第2の画像処理部は、前記第1の画像処理が既に施されている領域には、前記第2の画像処理を施さない
請求項3または4に記載の写真作成ゲーム機。
The photo-creating game machine according to claim 3 or 4, wherein the second image processing unit does not perform the second image processing in the area where the first image processing has already been performed.
前記顔パーツは目であり、
前記第1および第2の画像処理は、目の領域を拡大する処理である
請求項2乃至5のいずれかに記載の写真作成ゲーム機。
The face parts are eyes,
The photo-creating game machine according to any one of claims 2 to 5, wherein the first and second image processing are processes for enlarging the area of the eyes.
前記領域特定部は、前記撮影画像における前記顔毎に、前記顔パーツの領域を特定する
請求項2乃至6のいずれかに記載の写真作成ゲーム機。
The photo-creating game machine according to any one of claims 2 to 6, wherein the area specifying unit specifies an area of the face part for each face in the captured image.
前記領域特定部は、前記撮影画像における前記顔パーツ毎に、前記顔パーツの領域を特定する
請求項2乃至6のいずれかに記載の写真作成ゲーム機。
The photo-creating game machine according to any one of claims 2 to 6, wherein the area specifying unit specifies an area of the face part for each face part in the photographed image.
前記撮影画像として、人物の顔および上半身が写るアップ画像と、前記人物の全身が写る全身画像とを生成する撮影処理部をさらに備え、
前記領域特定部は、前記撮影画像が前記アップ画像である場合に、前記撮影画像において前記顔パーツの領域を特定する
請求項2乃至8のいずれかに記載の写真作成ゲーム機。
As the photographed image, a photographing processing unit for generating a close-up image in which the face and upper body of the person is captured and a whole-body image in which the whole body of the person is captured is further provided.
The photo-creating game machine according to any one of claims 2 to 8, wherein the area specifying unit specifies an area of the face part in the photographed image when the photographed image is the close-up image.
撮影画像において顔またはその一部を認識し、
認識に成功した前記顔またはその一部の領域に対して、利用者の操作によらずに、第1の画像処理を施し、
前記撮影画像において、前記利用者の操作により、認識に失敗したことで前記第1の画像処理が施されなかった前記顔またはその一部の領域特定し、
特定された前記顔またはその一部の領域に対して第2の画像処理を施す
ステップを含む画像処理方法。
Recognize the face or a part of it in the captured image
The first image processing is applied to the face or a part of the area that has been successfully recognized, without any operation by the user .
In the captured image, the area of the face or a part thereof , which was not subjected to the first image processing due to the failure in recognition due to the operation of the user, was identified.
An image processing method including a step of performing a second image processing on the identified face or a part thereof.
JP2017178839A 2016-12-22 2017-09-19 Photographing game console and image processing method Active JP7074994B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016249601 2016-12-22
JP2016249601 2016-12-22

Publications (2)

Publication Number Publication Date
JP2018106678A JP2018106678A (en) 2018-07-05
JP7074994B2 true JP7074994B2 (en) 2022-05-25

Family

ID=62787306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017178839A Active JP7074994B2 (en) 2016-12-22 2017-09-19 Photographing game console and image processing method

Country Status (1)

Country Link
JP (1) JP7074994B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020170097A (en) * 2019-04-04 2020-10-15 フリュー株式会社 Photo creation game machine, image processing method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013243648A (en) 2012-04-25 2013-12-05 Furyu Kk Photograph seal machine, and processing method and program for photograph seal machine

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013243648A (en) 2012-04-25 2013-12-05 Furyu Kk Photograph seal machine, and processing method and program for photograph seal machine

Also Published As

Publication number Publication date
JP2018106678A (en) 2018-07-05

Similar Documents

Publication Publication Date Title
JP5201430B1 (en) Photo sticker creation apparatus and method, and program
JP6810336B2 (en) Photo creation game console and display method
JP6880394B2 (en) Photographing game console and shooting method
JP6765054B2 (en) Photo creation game console and display method
JP6792154B2 (en) Photographing game console and image processing method
JP7074994B2 (en) Photographing game console and image processing method
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP7152687B2 (en) Display control device, display control method, program
JP2016177015A (en) Photo seal creation device and image processing method
JP6558209B2 (en) Imaging device
JP6232662B2 (en) Photography game machine and its control program
JP5904192B2 (en) Photo sticker creation apparatus, image processing method, and program
JP5505751B2 (en) Image editing apparatus and method, and program
JP6853475B2 (en) Photo creation game console and display method
JP7041342B2 (en) Image processing equipment, image processing methods, and programs
JP2016213780A (en) Photograph sticker creation device and image display method
JP2020187250A (en) Photograph creation game machine, game providing method, and program
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP6842038B2 (en) Photographing game console and image processing method
JP2019192061A (en) Photograph creation game machine, control method and program
JP6982230B2 (en) Photographing game console and image processing method
JP6376421B1 (en) Photo creation game machine, display method, and program
JP6671015B2 (en) Photo sticker making apparatus and image processing method
JP6867587B2 (en) Photographing game consoles, information processing methods, and programs
JP6959497B2 (en) Photographing game console and shooting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7074994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150