JP2021039654A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2021039654A
JP2021039654A JP2019161940A JP2019161940A JP2021039654A JP 2021039654 A JP2021039654 A JP 2021039654A JP 2019161940 A JP2019161940 A JP 2019161940A JP 2019161940 A JP2019161940 A JP 2019161940A JP 2021039654 A JP2021039654 A JP 2021039654A
Authority
JP
Japan
Prior art keywords
image
unit
user
editing
eyelash
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019161940A
Other languages
Japanese (ja)
Inventor
栞里 庄
Shiori Sho
栞里 庄
悠里 溝口
Yuri Mizoguchi
悠里 溝口
妥美 呉屋
Yasumi Kureya
妥美 呉屋
里香 笹野
Rika Sasano
里香 笹野
晃司 松村
Koji Matsumura
晃司 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2019161940A priority Critical patent/JP2021039654A/en
Publication of JP2021039654A publication Critical patent/JP2021039654A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To allow for making eyes appear bigger in a more natural way.SOLUTION: An image processing device according to an aspect of the disclosed technique is configured to detect eyes of a user in a captured image acquired by photographing the user as an object, deform an eyelash image of eyelashes to fit the outline of the detected eyes, and add the deformed eyelash image to the captured image along the outline of the eyes. The disclosed technique can be applied to photo creation game machines configured to provide a series of games for printing captured images on sticker paper sheets.SELECTED DRAWING: Figure 25

Description

本技術は、特に、より自然な形で目を大きく見せることができるようにした画像処理装置、画像処理方法、およびプログラムに関する。 The present technology particularly relates to image processing devices, image processing methods, and programs that allow the eyes to appear larger in a more natural way.

従来、写真シール作成装置が知られている。写真シール作成装置は、利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供するものである。写真シール作成装置は遊戯施設などに設置される。 Conventionally, a photo sticker making device is known. The photo sticker creating device photographs a user, causes the user to edit the photographed image, and prints the edited image on a sticker paper to provide the photographed image. The photo sticker making device is installed in amusement facilities and the like.

写真シール作成装置が提供する1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影を行った後、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集して、編集済みの画像をシール紙に印刷するものとなる。 The flow of one game provided by the photo sticker creation device is usually that after shooting a user in the shooting space as a subject, the user is moved to the editing space and the image is displayed according to the operation performed in the editing space. It will be edited and the edited image will be printed on the sticker paper.

特許文献1には、編集用のツールとして用意されたつけまつげの機能を用いることによって、撮影画像に写る利用者の顔を、化粧を施したような顔にすることができる技術が記載されている。つけまつげの機能が選択された場合、つけまつげを表す化粧用画像が顔の目の部分に合成される。 Patent Document 1 describes a technique that can make a user's face appearing in a photographed image look like a make-up by using a false eyelash function prepared as an editing tool. .. When the false eyelash function is selected, a cosmetic image showing false eyelashes is combined with the eye part of the face.

特開2018−201183号公報JP-A-2018-2011183 特開2015−187849号公報Japanese Unexamined Patent Publication No. 2015-187849

目の形は人それぞれ異なることから、定型のつけまつげの画像をそのまま合成しただけでは、合成後の見え方が不自然になってしまうことがある。 Since the shape of the eyes is different for each person, simply synthesizing the image of the standard false eyelashes may make the appearance after synthesizing unnatural.

本技術はこのような状況に鑑みてなされたものであり、より自然な形で目を大きく見せることができるようにするものである。 This technology was made in view of this situation, and makes it possible to make the eyes look bigger in a more natural way.

本技術の一側面の画像処理装置は、利用者を被写体として撮影して得られた撮影画像に写る前記利用者の目を検出する検出部と、まつげを表す画像であるまつげ画像を、検出した目の輪郭の形状に合わせて変形させる変形部と、変形後の前記まつげ画像を目の輪郭に沿って合成する合成部とを備える。 The image processing device on one aspect of the present technology detects a detection unit that detects the user's eyes in the captured image obtained by photographing the user as a subject, and an eyelash image that is an image representing the eyelashes. It includes a deformed portion that deforms according to the shape of the contour of the eye, and a composite portion that synthesizes the deformed eyelash image along the contour of the eye.

本技術の一側面においては、利用者を被写体として撮影して得られた撮影画像に写る前記利用者の目が検出され、まつげを表す画像であるまつげ画像が、検出された目の輪郭の形状に合わせて変形され、変形後の前記まつげ画像が目の輪郭に沿って合成される。 In one aspect of the present technology, the user's eyes appearing in the captured image obtained by photographing the user as a subject are detected, and the eyelash image, which is an image representing the eyelashes, is the shape of the detected eye contour. The deformed eyelash image is combined along the contour of the eye.

本技術によれば、より自然な形で目を大きく見せることができる。 According to this technology, it is possible to make the eyes look bigger in a more natural way.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the appearance of the photograph sticker making apparatus of this technology. 写真シール作成装置の外観を他の角度から見た斜視図である。It is a perspective view which looked at the appearance of the photographic sticker making apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining the movement of a user. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of the preselection part. 撮影部の構成例を示す斜視図である。It is a perspective view which shows the structural example of the photographing part. 撮影部の構成例を示す斜視図である。It is a perspective view which shows the structural example of the photographing part. カメラの角度調整の例を示す図である。It is a figure which shows the example of the angle adjustment of a camera. 背景部の構成例を示す図である。It is a figure which shows the structural example of the background part. 操作部の構成例を示す図である。It is a figure which shows the structural example of the operation part. 編集ユニットの正面側の構成例を示す図である。It is a figure which shows the configuration example of the front side of an editing unit. カーテンの取り付け例を示す図である。It is a figure which shows the installation example of a curtain. カーテンの裏面のデザイン例を示す図である。It is a figure which shows the design example of the back surface of a curtain. 鏡面部の利用例を示す図である。It is a figure which shows the use example of the mirror surface part. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the configuration example of the side surface of an editing unit. 編集画像のレイヤ構造の例を示す図である。It is a figure which shows the example of the layer structure of an edited image. 写真シール作成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the photographic sticker making apparatus. 写真シール作成装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the photograph sticker making apparatus. 図17の撮影処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the photographing processing part of FIG. 図17の編集処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the editing processing part of FIG. 図19の編集用画像生成部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image generation part for editing of FIG. 領域の検出の例を示す図である。It is a figure which shows the example of the detection of a region. 図20のまつげ処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the eyelash processing part of FIG. 逆さまつげの除去の例を示す図である。It is a figure which shows the example of the removal of an upside-down thorn. まつげ画像の変形の例を示す図である。It is a figure which shows the example of the deformation of an eyelash image. まつげ画像の合成の例を示す図である。It is a figure which shows the example of composition of the eyelash image. 写真シール作成装置の動作について説明するフローチャートである。It is a flowchart explaining operation of a photo sticker making apparatus. 図26のステップS3において行われる編集処理について説明するフローチャートである。It is a flowchart explaining the editing process performed in step S3 of FIG. 落書き前自撮りの案内画面の表示例を示す図である。It is a figure which shows the display example of the guidance screen of self-portrait before graffiti. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 図27のステップS42において行われる編集用画像生成処理について説明するフローチャートである。It is a flowchart explaining the editing image generation processing performed in step S42 of FIG. 27. 図30のステップS64において行われるまつげ処理について説明するフローチャートである。It is a flowchart explaining the eyelash processing performed in step S64 of FIG. メイクツールの選択中の編集パレットを拡大して示す図である。It is a figure which shows the enlargement of the edit palette which a make-up tool is selected. アイカラーツールによって生成される画像の例を示す図である。It is a figure which shows the example of the image generated by the eye color tool. アイカラーツール選択時の画像処理に用いられるマスク画像の例を示す図である。It is a figure which shows the example of the mask image used for the image processing at the time of selecting an eye color tool. 黒目領域の色の変更の例を示す図である。It is a figure which shows the example of the color change of a black eye area. 目の輪郭の濃さの調整の例を示す図である。It is a figure which shows the example of the adjustment of the density of the contour of an eye. 目の輪郭の濃さの調整の他の例を示す図である。It is a figure which shows another example of adjustment of the density of the contour of an eye.

<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<Appearance of photo sticker making device>
1 and 2 are perspective views showing a configuration example of the appearance of the photo sticker making device 1.

写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。 The photo sticker creating device 1 is a game machine that provides a photographed image and an edited image. The photo sticker creating device 1 provides an image to a user by printing the image on a sticker paper or making the image viewable on the user's mobile terminal. The photo sticker creating device 1 is installed in an amusement facility such as a game center or a store.

写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。 The users of the photo sticker making device 1 are mainly high school girls and young women. In the photo sticker creating device 1, a plurality of users, such as two or three people, can enjoy the game per group. Of course, in the photo sticker creating device 1, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creating device 1, the user takes a picture by himself / herself as a subject. By editing, the user synthesizes a composite image such as handwritten characters or a stamp image with an image selected from the captured images obtained by shooting. As a result, the captured image is edited into a colorful image. The user receives a sticker paper on which the edited image, which is an edited image, is printed, and ends the series of games.

写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。 The photo sticker creation device 1 can be said to be a photo creation game machine that provides a photo creation game.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。 As shown in FIG. 1, the photo sticker creating device 1 is basically configured by being installed in a state where the photographing unit 11 and the editing unit 12 are in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected.

撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。 The photographing unit 11 has a box-shaped housing having a size large enough for a person to enter, and is composed of a preselection unit 20, a photographing unit 21, and a background unit 22. The preselection unit 20 is installed on the side surface of the photographing unit 21. The space in front of the preselection unit 20 becomes a preselection space in which the preselection process is performed. Further, the photographing unit 21 and the background unit 22 are installed at a predetermined distance from each other. The space formed between the photographing unit 21 and the background unit 22 becomes a photographing space in which the photographing process is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、事前選択空間にいる利用者を撮影空間へと案内する。 As the preselection process, the preselection unit 20 provides guidance for introducing the game provided by the photo sticker creation device 1, and makes various settings in the shooting process performed in the shooting space. The preselection unit 20 is provided with a coin slot for the user to insert a price, a touch panel monitor used for various operations, and the like. The preselection unit 20 guides the user in the preselection space to the shooting space according to the availability of the shooting space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。 The photographing unit 21 is a device for photographing a user as a subject. The shooting unit 21 is located in front of the user who has entered the shooting space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space.

撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。 Assuming that the left side surface is the left side surface and the right side surface is the right side surface when viewed from the user facing the front in the shooting space, the left side surface of the photographing unit 21 is composed of the side panel 41A and the right side surface is composed of the side panel 41B. Will be done. Further, the front surface of the photographing unit 21 is composed of the front panel 42. The above-mentioned preselection unit 20 is installed on the side panel 41A. The preselection unit 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネルから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。 The background portion 22 is composed of a back panel 51, a side panel 52A, and a side panel. The back panel 51 is a plate-shaped member located on the back side of the user facing the front. The side panel 52A is a plate-shaped member attached to the left end of the back panel 51 and having a width narrower than that of the side panel 41A. The side panel 52B is a plate-shaped member attached to the right end of the back panel 51 and having a width narrower than that of the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。 The side panel 41A and the side panel 52A are provided on substantially the same plane. The upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A which is a plate-shaped member. The lower part of the side panel 41A and the side panel 52A are connected by a connecting portion 23A'which is, for example, a metal member provided on the floor surface. Similarly, the side panel 41B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower part of the side panel 41B and the side panel 52B is connected by the connecting portion 23B'.

側面パネル41Aと側面パネル52Aは、撮影空間の左側面を囲む部材となり、側面パネル41Bと側面パネル52Bは、撮影空間の右側面を囲む部材となる。 The side panel 41A and the side panel 52A are members that surround the left side surface of the shooting space, and the side panel 41B and the side panel 52B are members that surround the right side surface of the shooting space.

撮影空間の床には、板状の部材である床材27が敷かれる。 A flooring material 27, which is a plate-shaped member, is laid on the floor of the photographing space.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。 The opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance / exit of the photographing space. Further, an opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance / exit of the photographing space.

撮影空間の天井の一部には、ビニル素材の部材や板状の部材からなる天井シート24が設けられる。 A ceiling sheet 24 made of a vinyl material member or a plate-shaped member is provided on a part of the ceiling of the shooting space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結して設けられる。 The editing unit 12 is a device for editing a captured image. The editing unit 12 is provided so as to be connected to the photographing unit 11 so that one side surface is in contact with the front panel 42 of the photographing unit 21.

図2に示す編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。 Assuming that the configuration of the editing unit 12 shown in FIG. 2 is the configuration on the front side, the configuration used in the editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can perform editing work at the same time.

編集ユニット12の正面側は、垂直な面61と、面61の上方に形成された斜面62から構成される。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の右側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の左側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。 The front side of the editing unit 12 is composed of a vertical surface 61 and a slope 62 formed above the surface 61. A monitor with a built-in tablet and a touch pen are provided on the slope 62 as a configuration used for editing work. On the right side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. On the left side of the slope 62, a columnar support portion 63B that supports the other end of the lighting device 64 is provided. A support portion 65 for supporting the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを組み合わせて構成される。 A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C.

3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ固定される。 The three rails 26A to 26C are combined so that the shape when viewed from above is U-shaped. One ends of the rail 26A and the rail 26B provided in parallel are fixed to the connecting portion 23A and the connecting portion 23B, respectively, and the other ends of the rail 26A and the rail 26B are fixed to both ends of the rail 26C, respectively.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにするためのカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集ユニット12の正面前方の空間と背面前方の空間が、利用者が編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 26 so that the space in front of the front and the space in front of the back of the editing unit 12 cannot be seen from the outside. The space in front of the front and the space in front of the back of the editing unit 12 surrounded by the curtain attached to the curtain rail 26 are the editing spaces for the user to perform editing work.

編集ユニット12の側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。 On the side surface of the editing unit 12, a discharge port for discharging the printed sticker paper is provided. The space in front of the side surface of the editing unit 12 becomes a printing waiting space for the user to wait for the printed sticker paper to be ejected.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the movement of the user accompanying it will be described.

図3は、写真シール作成装置1を上から見た平面図である。 FIG. 3 is a plan view of the photo sticker creating device 1 as viewed from above.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って事前選択作業を行う。例えば、利用者は、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。 The user inserts the price into the coin slot in the preselection space A0, which is the space in front of the preselection unit 20. Next, the user performs the preselection work according to the screen displayed on the touch panel monitor. For example, the user performs preselection work such as selection of a course related to shooting performed in the shooting space.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 As shown by the white arrow # 1, the user who has completed the preselection work has a shooting space A1 formed between the shooting unit 21 and the background portion 22 from the entrance / exit G1 between the side panel 41A and the side panel 52A. to go into. The user performs shooting work by using a camera or a touch panel monitor provided in the shooting unit 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2−2に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2−1に移動する。 The user who has completed the shooting work either exits the shooting space A1 from the entrance / exit G1 and moves to the editing space A2-2 as indicated by the white arrow # 2, or moves to the editing space A2-2 as indicated by the white arrow # 3. Exits the shooting space A1 and moves to the editing space A2-1.

編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。 The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the vacant one of the two editing spaces is guided as the destination.

編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。編集空間A2−1と編集空間A2−2を区別する必要がない場合、適宜、まとめて編集空間A2という。 The user who has moved to the editing space A2-1 or the editing space A2-2 starts the editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time. When it is not necessary to distinguish between the editing space A2-1 and the editing space A2-2, they are collectively referred to as the editing space A2 as appropriate.

編集作業が終了した後、編集画像の印刷が開始される。編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−2から印刷待ち空間A3に移動する。 After the editing work is completed, printing of the edited image is started. The user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the white arrow # 5. Further, the user who has completed the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 4.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。 The user who has moved to the print waiting space A3 waits for the print to finish. When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the side surface of the editing unit 12, and ends a series of photo sticker creation games.

次に、各装置の構成について説明する。 Next, the configuration of each device will be described.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Structure of preselection unit>
FIG. 4 is a diagram showing a configuration example of the preselection unit 20.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択に用いられる画面などが表示される。 A touch panel monitor 71 is provided on the upper side of the preselection unit 20. The touch panel monitor 71 is composed of a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated on the monitor. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and accepting a user's selection operation. The touch panel monitor 71 displays a screen or the like used for selecting the number of users.

タッチパネルモニタ71の下方にはスピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72の隣に、利用者が硬貨を入れる硬貨投入返却口73が設けられる。 A speaker 72 is provided below the touch panel monitor 71. The speaker 72 outputs guidance voice for preselection processing, BGM (Back Ground Music), sound effect, and the like. Next to the speaker 72, a coin insertion / return port 73 for inserting coins by the user is provided.

<撮影部の構成>
図5および図6は、撮影部21の構成例を示す斜視図である。
<Structure of shooting section>
5 and 6 are perspective views showing a configuration example of the photographing unit 21.

撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。 The photographing unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42.

正面パネル42の略中央には箱状のカメラユニット81が設けられる。カメラユニット81の正面には、カメラ91とタッチパネルモニタ92が設けられる。カメラ91の右側には、スマートフォンホルダ93が設けられる。 A box-shaped camera unit 81 is provided at substantially the center of the front panel 42. A camera 91 and a touch panel monitor 92 are provided on the front surface of the camera unit 81. A smartphone holder 93 is provided on the right side of the camera 91.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有する。カメラ91は、撮影空間A1にいる利用者を被写体として撮影を行う撮影部として機能する。 The camera 91 is, for example, a single-lens reflex camera, and is mounted inside the camera unit 81 so that the lens is exposed. The camera 91 has an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The camera 91 functions as a shooting unit that shoots a user in the shooting space A1 as a subject.

また、カメラ91は、上下方向の首振り機能(角度調整機能)を有する。 Further, the camera 91 has a vertical swing function (angle adjustment function).

図7は、カメラ91の角度調整の例を示す図である。 FIG. 7 is a diagram showing an example of angle adjustment of the camera 91.

図7に示すように、カメラ91は、カメラユニット81の内部において姿勢を変えることによって、光軸の向きを上下方向に調整することが可能とされる。図7において、破線矢印はレンズの光軸の向きを表す。 As shown in FIG. 7, the camera 91 can adjust the direction of the optical axis in the vertical direction by changing the posture inside the camera unit 81. In FIG. 7, the dashed arrow indicates the direction of the optical axis of the lens.

図7A乃至Cに示すように、例えば、写真シール作成装置1の接地面と略水平な方向を上限とし、下限となる所定の下向きの角度までの範囲で、カメラ91の角度を調整することが可能とされる。 As shown in FIGS. 7A to 7C, for example, the angle of the camera 91 can be adjusted within a range up to a predetermined downward angle, which is the lower limit, with the upper limit being a direction substantially horizontal to the ground plane of the photo sticker making device 1. It is possible.

このようなカメラ91の角度の調整は、後述するように、撮影を行っている利用者の操作に従って電動で行われる。利用者は、カメラ91の角度を好みの角度に調整して、撮影を行うことができる。 Such adjustment of the angle of the camera 91 is performed electrically according to the operation of the user who is taking a picture, as will be described later. The user can adjust the angle of the camera 91 to a desired angle and perform shooting.

カメラ91により取り込まれた動画像に基づいて生成されたライブビュー画像は、タッチパネルモニタ92に表示される。所定のタイミングでカメラ91により取り込まれた静止画像は撮影画像として保存される。 The live view image generated based on the moving image captured by the camera 91 is displayed on the touch panel monitor 92. The still image captured by the camera 91 at a predetermined timing is saved as a captured image.

タッチパネルモニタ92はカメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれたライブビュー画像を表示するライブビューモニタとしての機能と、各種のGUIを表示して利用者の選択操作を受け付ける機能を備えている。 The touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 is composed of a monitor such as an LCD and a touch panel laminated on the monitor. The touch panel monitor 92 has a function as a live view monitor that displays a live view image captured by the camera 91, and a function that displays various GUIs and accepts a user's selection operation.

カメラ91の右側には、スマートフォンの置き場となるスマートフォンホルダ93が設けられる。スマートフォンホルダ93は、スマートフォンを横向きで置くのに十分な長さとなるように形成される。 On the right side of the camera 91, a smartphone holder 93 that serves as a storage place for smartphones is provided. The smartphone holder 93 is formed so as to have a length sufficient for placing the smartphone sideways.

利用者は、自分のスマートフォンをスマートフォンホルダ93に置き、スマートフォンを利用して、ゲーム中の自身の様子を動画像や静止画像として撮影することができる。 The user can place his / her smartphone on the smartphone holder 93 and use the smartphone to take a picture of himself / herself during the game as a moving image or a still image.

カメラユニット81の上方には、カメラユニット81の位置(カメラ91の位置)を基準として左に偏った状態で上ストロボユニット82が設置される。上ストロボユニット82は、カメラユニット81の上方と左上方の略全体を覆うようにして設けられる。 Above the camera unit 81, the upper strobe unit 82 is installed in a state of being biased to the left with respect to the position of the camera unit 81 (the position of the camera 91). The upper strobe unit 82 is provided so as to cover substantially the entire upper and upper left sides of the camera unit 81.

上ストロボユニット82の正面は、斜め下方を向くように前傾したパネルと、その下方に設けられ、略垂直面を構成するパネルとから構成される。上ストロボユニット82の正面が、透光性を有する乳白色の板状の部材を用いた発光面として構成される。上ストロボユニット82は、カメラ91による撮影に合わせて発光し、利用者の正面左上方から、主に利用者の顔と上半身にストロボ光を照射する。 The front surface of the upper strobe unit 82 is composed of a panel tilted forward so as to face diagonally downward, and a panel provided below the panel and forming a substantially vertical surface. The front surface of the upper strobe unit 82 is configured as a light emitting surface using a milky white plate-shaped member having translucency. The upper strobe unit 82 emits light in accordance with the shooting by the camera 91, and irradiates the strobe light mainly on the user's face and upper body from the upper left of the front of the user.

カメラユニット81の下方には、主に利用者の下半身および足元にストロボ光を照射する足元ストロボユニット83が設けられる。 Below the camera unit 81, a foot strobe unit 83 that mainly irradiates the lower body and feet of the user with strobe light is provided.

足元ストロボユニット83は、正面視において横長長方形となる正面全体が発光面となるように、側面パネル41Aと側面パネル41Bとの間に隙間なく形成される。足元ストロボユニット83の上面は、写真シール作成装置1の設置面と略水平な面であり、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。 The foot strobe unit 83 is formed without a gap between the side panel 41A and the side panel 41B so that the entire front surface, which is a horizontally long rectangle when viewed from the front, is a light emitting surface. The upper surface of the foot strobe unit 83 is a surface substantially horizontal to the installation surface of the photo sticker creating device 1, and is used as a luggage storage place for a user performing photography work to put baggage and the like.

上ストロボユニット82と足元ストロボユニット83の内部には、常時点灯する電球とストロボ発光管が設けられる。上ストロボユニット82と足元ストロボユニット83は、電球を発光させることによって撮影空間内を常時照らすとともに、撮影タイミングに合わせてストロボ発光管を発光させることによって、被写体となる利用者にストロボ光を照射する。 Inside the upper strobe unit 82 and the foot strobe unit 83, a light bulb and a strobe arc tube that are always lit are provided. The upper strobe unit 82 and the foot strobe unit 83 constantly illuminate the shooting space by emitting a light bulb, and irradiate the user who is the subject with the strobe light by emitting a strobe light emitting tube at the shooting timing. ..

なお、正面パネル42の天井付近にはスピーカが設けられる。スピーカからは、撮影処理の案内音声、BGM、効果音などが出力される。スピーカが背景部22に設けられるようにしても良い。 A speaker is provided near the ceiling of the front panel 42. Guidance voice, BGM, sound effects, etc. of the shooting process are output from the speaker. The speaker may be provided in the background portion 22.

図8は、背景部22の撮影空間A1側の構成例を示す図である。 FIG. 8 is a diagram showing a configuration example of the background portion 22 on the shooting space A1 side.

背面パネル51の内側には、緑色などの所定の色のシートが貼り付けられる。撮影された画像に写る緑色の領域を検出することによってクロマキー処理が行われ、人物の領域が検出される。 A sheet of a predetermined color such as green is attached to the inside of the back panel 51. Chroma key processing is performed by detecting the green area in the captured image, and the area of the person is detected.

背面パネル51の左端に取り付けられる側面パネル52Bの内側には操作部53が設けられる。 An operation unit 53 is provided inside the side panel 52B attached to the left end of the back panel 51.

操作部53は、図9に示すように、カメラ91の向きを上方向または下方向に調整するときに押下される角度調整ボタン53Aと、撮影を停止するときに押下される撮影停止ボタン53Bとから構成される。 As shown in FIG. 9, the operation unit 53 includes an angle adjustment button 53A pressed when adjusting the direction of the camera 91 upward or downward, and a shooting stop button 53B pressed when stopping shooting. Consists of.

カメラ91による撮影は、10秒間隔などの所定の間隔で連続して行われる。撮影停止ボタン53Bは、その連続撮影を一時的に停止させるために押下される。利用者は、連続撮影を一時的に停止させている状態で、角度調整ボタン53Aを押下し、カメラ91の角度を調整することができる。 Shooting by the camera 91 is continuously performed at predetermined intervals such as 10 second intervals. The shooting stop button 53B is pressed to temporarily stop the continuous shooting. The user can adjust the angle of the camera 91 by pressing the angle adjustment button 53A while the continuous shooting is temporarily stopped.

操作部53が側面パネル52Bに設けられていることにより、カメラ91に顔を向けている利用者の立ち位置は、無意識のうちに、撮影空間A1において右側に僅かに寄った位置となる。撮影空間A1において操作部53の対角となる正面左側の位置に設けられた上ストロボユニット82から立ち位置までの距離を確保することにより、適切な光量の光によって、上ストロボユニット82から利用者を照射することが可能となる。 Since the operation unit 53 is provided on the side panel 52B, the standing position of the user facing the camera 91 is unknowingly slightly closer to the right side in the shooting space A1. By securing the distance from the upper strobe unit 82 provided at the position on the left side of the front diagonal to the operation unit 53 in the shooting space A1 to the standing position, the user can use the upper strobe unit 82 with an appropriate amount of light. It becomes possible to irradiate.

側面パネル52Bに設けられた操作部53は、利用者の立ち位置を無意識のうちに誘導する機能をも有する。操作部53が側面パネル52A側に設けられるようにしてもよい。 The operation unit 53 provided on the side panel 52B also has a function of unknowingly guiding the standing position of the user. The operation unit 53 may be provided on the side panel 52A side.

<編集ユニットの構成>
図10は、編集ユニット12の正面側(図3の編集空間A2−1側)の構成例を示す図である。背面側(図3の編集空間A2−2側)にも同様の構成が設けられる。
<Structure of editing unit>
FIG. 10 is a diagram showing a configuration example of the front side (editing space A2-1 side of FIG. 3) of the editing unit 12. A similar configuration is provided on the back side (editing space A2-2 side in FIG. 3).

斜面62のほぼ中央にはタブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。 A tablet built-in monitor 131 is provided at substantially the center of the slope 62. A touch pen 132A is provided on the left side of the tablet built-in monitor 131. A touch pen 132B is provided on the right side of the tablet built-in monitor 131.

タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 The tablet built-in monitor 131 displays, for example, an editing screen used for editing work. When two users edit at the same time, the touch pen 132A is used by the user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side of the tablet built-in monitor 131. ..

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。 The operation using the touch pen 132A and the operation using the touch pen 132B are distinguished. As appropriate, only the operation using the touch pen 132A is possible for the display on the left side of the tablet built-in monitor 131, and only the operation using the touch pen 132B is possible for the display on the right side. Hereinafter, when it is not necessary to distinguish between the touch pen 132A and the touch pen 132B as appropriate, they are collectively referred to as the touch pen 132.

照明装置64の下方であって、照明装置64を支持する柱状の支持部63Aと支持部63Bの間には、アクリルミラー板などにより構成される鏡面部66が設けられる。鏡面部66は略垂直な面を形成する。 Below the lighting device 64, a mirror surface portion 66 made of an acrylic mirror plate or the like is provided between the columnar support portion 63A and the support portion 63B that support the lighting device 64. The mirror surface portion 66 forms a substantially vertical surface.

図10においては、鏡面となる鏡面部66の範囲が色を付して示されている。鏡面部66の横方向の幅は、タブレット内蔵モニタ131の横方向の幅より広い幅となる。鏡面部66には、編集空間A2−1にいる利用者の顔付近を含めて、編集空間A2−1の内部の様子が写り込むことになる。 In FIG. 10, the range of the mirror surface portion 66 to be the mirror surface is shown in color. The lateral width of the mirror surface portion 66 is wider than the lateral width of the tablet built-in monitor 131. The inside of the editing space A2-1 is reflected in the mirror surface portion 66, including the vicinity of the user's face in the editing space A2-1.

図11は、カーテンの取り付け例を示す図である。 FIG. 11 is a diagram showing an example of attaching a curtain.

図11に示すように、編集ユニット12の上方のカーテンレール26には、編集空間A2が外から見えないようにするためのカーテン取り付けられる。図11の例においては、レール26Cにカーテン111が取り付けられ、編集ユニット12の正面側のレール26Bにカーテン112が取り付けられている。編集ユニット12の背面側のレール26Aにも、カーテン112と同様のカーテンが取り付けられる。 As shown in FIG. 11, a curtain is attached to the curtain rail 26 above the editing unit 12 so that the editing space A2 cannot be seen from the outside. In the example of FIG. 11, the curtain 111 is attached to the rail 26C, and the curtain 112 is attached to the rail 26B on the front side of the editing unit 12. A rail similar to the curtain 112 is also attached to the rail 26A on the back side of the editing unit 12.

ビニル素材のカーテン111、カーテン112の表面には、写真シール作成装置1が目立つように所定のデザインが施される。また、カーテン111とカーテン112のうち、少なくともカーテン112には、表面だけでなく裏面(編集空間A2−1側の面)にも、所定のデザインが施される。 The surfaces of the vinyl material curtain 111 and the curtain 112 are provided with a predetermined design so that the photo sticker making device 1 stands out. Further, of the curtain 111 and the curtain 112, at least the curtain 112 is provided with a predetermined design not only on the front surface but also on the back surface (the surface on the editing space A2-1 side).

図12は、カーテン112の裏面のデザイン例を示す図である。 FIG. 12 is a diagram showing a design example of the back surface of the curtain 112.

図12に示すように、カーテン112の裏面には、キャラクタや文字がプリントされることによってデザインが施される。 As shown in FIG. 12, the back surface of the curtain 112 is designed by printing characters and characters.

図12の例においては、キャラクタである鳥のイラストと花のイラストからなるデザインが施されている。カーテン112の上方には、花に囲まれた「Happy!」の文字が、左右反転した状態でプリントされている。他のイラストがプリントされたり、風景や人物の写真がプリントされるといったように、カーテン112の裏面のデザインは任意である。 In the example of FIG. 12, a design including an illustration of a bird, which is a character, and an illustration of a flower is given. Above the curtain 112, the letters "Happy!" Surrounded by flowers are printed in a left-right inverted state. The design of the back of the curtain 112 is optional, such as printing other illustrations or printing pictures of landscapes or people.

編集空間A2−1にいる利用者は、図12に示すようなデザインが施されたカーテン112に自分の背中を向けて立つことになる。利用者の前方にある鏡面部66には、利用者の背景として、カーテン112のデザインも写り込む。 The user in the editing space A2-1 stands with his / her back facing the curtain 112 designed as shown in FIG. The design of the curtain 112 is also reflected on the mirror surface portion 66 in front of the user as the background of the user.

図13は、鏡面部66の利用例を示す図である。 FIG. 13 is a diagram showing a usage example of the mirror surface portion 66.

図13に示すように、編集空間A2−1にいる利用者は、自分のスマートフォンのカメラを鏡面部66に向けて、鏡面部66に写っている自分の様子を撮影することができる。図13の例においては利用者が1人だけ示されているが、2人でゲームを行っている場合、2人で撮影を行うことができる。 As shown in FIG. 13, a user in the editing space A2-1 can point the camera of his / her smartphone toward the mirror surface portion 66 and take a picture of himself / herself reflected in the mirror surface portion 66. In the example of FIG. 13, only one user is shown, but when the game is played by two people, the shooting can be performed by two people.

すなわち、鏡面部66は、編集空間A2−1にいる利用者が、いわゆる自撮り(自分撮り)を鏡越しで行うために用意されるものである。 That is, the mirror surface portion 66 is prepared for the user in the editing space A2-1 to take a so-called self-portrait (self-portrait) through the mirror.

カーテン112の裏面には上述したようなデザインが施されているから、利用者は、カーテン112に施されたデザインを自分の背景にして自撮りを行うことができる。また、左右反転の状態でプリントされているカーテン112の文字は、図13に示すように、正転した状態で鏡面部66に写り込む。自撮りによって得られた画像には、カーテン112にプリントされた文字が、正転した状態で写ることになる。 Since the back surface of the curtain 112 is provided with the design as described above, the user can take a selfie with the design applied to the curtain 112 as his / her background. Further, as shown in FIG. 13, the characters of the curtain 112 printed in the left-right inverted state are reflected on the mirror surface portion 66 in the forward-rotated state. In the image obtained by taking a self-portrait, the characters printed on the curtain 112 are captured in a normal rotation state.

利用者は、編集空間A2−1での自撮りによって撮影した画像を、自分が利用しているSNS(Social Networking Service)のサイトにアップロードし、友達などに見せることができる。 The user can upload the image taken by taking a selfie in the editing space A2-1 to the site of the SNS (Social Networking Service) that he / she is using and show it to his / her friends.

このように、写真シール作成装置1は、撮影空間A1において撮影を行うだけでなく、編集空間A2においても撮影を行うことが可能な装置である。後述するように、編集の開始時、自撮りを行うことが利用者に対して案内される。撮影を終えて編集空間A2に移動した利用者に対しては、編集の前に、自撮りを行う時間が確保される。 As described above, the photo sticker creating device 1 is a device capable of not only shooting in the shooting space A1 but also shooting in the editing space A2. As will be described later, the user is instructed to take a selfie at the start of editing. For the user who has moved to the editing space A2 after shooting, time for taking a selfie is secured before editing.

なお、編集空間A2−1側に取り付けられるカーテン112の裏面のデザインと、編集空間A2−2側に取り付けられるカーテン112の裏面のデザインが異なるデザインであってもよい。利用者は、いずれのデザインのカーテン112が設置された方の編集空間A2に案内されるのかを楽しむことができる。 The design of the back surface of the curtain 112 attached to the editing space A2-1 side and the design of the back surface of the curtain 112 attached to the editing space A2-2 side may be different. The user can enjoy being guided to the editing space A2 of which design the curtain 112 is installed.

カーテン112の裏面のデザインとして、商品やサービスの広告などがプリントされるようにしてもよい。 As the design of the back surface of the curtain 112, advertisements for products and services may be printed.

図14は、編集ユニット12の側面の構成例を示す図である。 FIG. 14 is a diagram showing a configuration example of the side surface of the editing unit 12.

編集ユニット12の側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。プリンタにより、編集空間A2−1において編集作業を行った利用者が写る画像、または、編集空間A2−2において編集作業を行った利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。 A sticker paper discharge port 161 is provided on the lower side of the side surface of the editing unit 12. A printer is provided inside the editing unit 12. The printer prints an image of the user who performed the editing work in the editing space A2-1 or an image of the user who performed the editing work in the editing space A2-2 on the sticker paper in a predetermined layout, and seals the sticker. It is discharged from the paper discharge port 161.

<編集画像のレイヤ構造>
図15は、編集画像のレイヤ構造の例を示す図である。
<Layer structure of edited image>
FIG. 15 is a diagram showing an example of the layer structure of the edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、基本的に、背景画像P11、人物画像P12、前景画像P13の各レイヤの画像から構成される。各種の画像処理の対象となるレイヤも適宜設定される。 The leftmost edited image P1 is an image generated by editing. The edited image P1 is basically composed of images of each layer of the background image P11, the person image P12, and the foreground image P13. Layers to be subject to various image processing are also set as appropriate.

図15の例において、背景画像P11は、単色の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、ペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、スタンプツールを用いて利用者によって入力されたスタンプ画像である。 In the example of FIG. 15, the background image P11 is a monochromatic image. The foreground image P13 is an image including a handwritten character image of "Love my friend" and a heart-shaped image. The handwritten image of "Love my friend" is a pen image input by the user using the pen tool. The heart-shaped image is a stamp image input by the user using the stamp tool.

このように、編集画像P1は、撮影画像からクロマキー処理によって抽出した人物の領域の画像である人物画像P12を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させるようにすることも可能とされる。撮影画像に対しては、前景画像や背景画像が合成されることもあるし、編集処理を経たとしても利用者の操作によっては合成されないこともある。 As described above, the edited image P1 is generated by superimposing the person image P12, which is an image of the area of the person extracted from the captured image by the chroma key processing, on the background image P11, and superimposing the foreground image P13 on the background image P11. It is also possible to input a pen image or a stamp image on the background image P11 and display it on the background of the subject. Foreground images and background images may be combined with the captured image, and even after editing, they may not be combined depending on the user's operation.

図15の例においては、人物画像P12として、利用者の略胸付近から上の範囲が大きく写る画像が示されている。撮影処理においては、このように顔が大きく写る撮影画像であるアップ画像が撮影される。アップ画像の撮影は例えば複数回行われる。利用者の全身が写る全身画像の撮影が行われるようにしてもよい。 In the example of FIG. 15, as the person image P12, an image in which a large range above the vicinity of the user's chest is shown is shown. In the shooting process, a close-up image, which is a shot image in which the face appears large in this way, is shot. The close-up image is taken, for example, a plurality of times. A full-body image showing the whole body of the user may be taken.

<写真シール作成装置の内部構成>
図16は、写真シール作成装置1の構成例を示すブロック図である。図16において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker making device>
FIG. 16 is a block diagram showing a configuration example of the photo sticker creating device 1. In FIG. 16, the same components as those described above are designated by the same reference numerals. Duplicate explanations will be omitted as appropriate.

図16に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。情報処理部であるPC部301は、例えば編集ユニット12の筐体内部に搭載される。 As shown in FIG. 16, in the photo sticker creating device 1, the preselection unit 302, the photographing unit 304, the editing units 305A and 305B, and the printing unit 306 are external input / output interfaces 303 with respect to the PC (Personal Computer) unit 301. It is configured by being connected via. The PC unit 301, which is an information processing unit, is mounted inside the housing of the editing unit 12, for example.

PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。 The CPU (Central Processing Unit) 311, ROM (Read Only Memory) 312, and RAM (Random Access Memory) 313 that make up the PC unit 301 are connected to each other by the bus 314.

CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。 The CPU 311 executes a predetermined program and controls the overall operation of the photo sticker creating device 1. The ROM 312 stores programs and data executed by the CPU 311. The RAM 312 temporarily stores data and programs processed by the CPU 311.

バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。 An input / output interface 315 is further connected to the bus 314. A storage unit 316, a communication unit 317, and a drive 318 are connected to the input / output interface 315.

記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。 The storage unit 316 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 316 stores various setting information and the like supplied from the CPU 311. The information stored in the storage unit 316 is appropriately read out by the CPU 311.

通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1のメーカーが管理する画像管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像管理サーバにアクセスしてきた携帯端末上で表示されたり、携帯端末にダウンロードされたりする。 The communication unit 317 is an interface of a network such as the Internet. The communication unit 317 communicates with an external device according to the control of the CPU 311. The communication unit 317 transmits the image selected by the user to, for example, an image management server managed by the manufacturer of the photo sticker creation device 1. The image transmitted from the communication unit 317 is allocated and stored in a predetermined storage area, and is displayed on the mobile terminal that has accessed the image management server or downloaded to the mobile terminal.

ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。 A removable media 319 made of an optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 318. The programs and data read from the removable media 319 by the drive 318 are supplied to the CPU 311 and stored or installed in the storage unit 316.

入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。 An external input / output interface 303 is connected to the input / output interface 315. The control of each unit by the PC unit 301 is performed via the external input / output interface 303.

事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を行う。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。 The preselection unit 302 performs a preselection process for the user in the preselection space A0. The preselection unit 302 includes a touch panel monitor 71, a speaker 72, and a coin processing unit 321.

タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。 The touch panel monitor 71 displays various selection screens according to the control by the PC unit 301, and accepts the user's operation on the selection screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and various settings are made.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。 The coin processing unit 321 detects the insertion of coins into the coin insertion / return port 73. When the coin processing unit 321 detects that a predetermined amount of coins has been inserted, the coin processing unit 321 outputs an activation signal instructing the start of the game to the PC unit 301.

撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を行う。撮影部304は、操作部53、カメラ91、カメラ駆動部91A、タッチパネルモニタ92、照明装置331、およびスピーカ332から構成される。 The shooting unit 304 performs shooting processing for the user in the shooting space A1. The photographing unit 304 includes an operation unit 53, a camera 91, a camera driving unit 91A, a touch panel monitor 92, a lighting device 331, and a speaker 332.

操作部53は、角度調整ボタン53A、撮影停止ボタン53Bに対する利用者の操作に応じて、利用者の操作を表す信号をPC部301に出力する。 The operation unit 53 outputs a signal indicating the user's operation to the PC unit 301 in response to the user's operation on the angle adjustment button 53A and the shooting stop button 53B.

カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)をPC部301に出力する。 The camera 91 shoots according to the shutter control by the PC unit 301, and outputs the captured image (image data) obtained by the shooting to the PC unit 301.

カメラ駆動部91Aは、PC部301による制御に従って、カメラ91の上下方向の角度を調整する。 The camera drive unit 91A adjusts the vertical angle of the camera 91 according to the control by the PC unit 301.

照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。照明装置331には、上ストロボユニット82と足元ストロボユニット83が含まれる。 The lighting device 331 is each strobe unit in the photographing space A1 and emits light according to a lighting control signal supplied from the PC unit 301. The lighting device 331 includes an upper strobe unit 82 and a foot strobe unit 83.

スピーカ332は、撮影空間A1の各位置に設けられたスピーカにより構成される。 The speaker 332 is composed of speakers provided at each position of the photographing space A1.

編集部305Aは、編集空間A2−1にいる利用者を対象とした編集処理を行う。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2−2にいる利用者を対象とした編集処理を行い、編集部305Aと同一の構成を有する。以下、適宜、編集部305A,305Bをまとめて編集部305という。 The editorial unit 305A performs editing processing for the user in the editing space A2-1. The editorial unit 305A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. The editorial unit 305B performs editing processing for the user in the editing space A2-2, and has the same configuration as the editorial unit 305A. Hereinafter, the editorial departments 305A and 305B are collectively referred to as the editorial department 305 as appropriate.

タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、編集対象となる撮影画像が編集される。 The tablet built-in monitor 131 displays the edit screen according to the control by the PC unit 301, and accepts the user's operation on the edit screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and the captured image to be edited is edited.

印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。 The printing unit 306 is configured to include a printer 351. A sticker paper unit 352 is attached to the printer 351.

プリンタ351は、内蔵するヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によって所定のカット位置でカットして、シール紙排出口161に排出する。 The printer 351 drives the built-in head 361 and prints an image on the roll-shaped sticker paper 363 stored in the sticker paper unit 352 based on the print data supplied from the PC unit 301. Further, the printer 351 cuts the sticker paper 363 on which the image is printed by the cutter 362 at a predetermined cut position, and discharges the sticker paper 361 to the sticker paper discharge port 161.

<写真シール作成装置の機能構成例>
図17は、写真シール作成装置1の機能構成例を示すブロック図である。図17に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Example of functional configuration of photo sticker creation device>
FIG. 17 is a block diagram showing a functional configuration example of the photo sticker creating device 1. At least a part of the functional units shown in FIG. 17 is realized by executing a predetermined program by the CPU 311.

写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。 In the photo sticker creating device 1, a preselection processing unit 401, a photographing processing unit 402, an editing processing unit 403, and a printing processing unit 404 are realized.

事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。 The preselection processing unit 401 executes the preselection processing by controlling each unit of the preselection unit 302. The number of users is selected by the pre-selection process. Information representing the content selected by the user is supplied to the photographing processing unit 402.

撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。 The shooting processing unit 402 performs shooting processing by controlling each unit of the shooting unit 304. The shooting processing unit 402 outputs the data of the shot image obtained by performing the shooting process to the editing processing unit 403. Data of a plurality of captured images obtained by performing imaging a plurality of times is supplied from the photographing processing unit 402 to the editing processing unit 403.

編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に写る利用者の目の大きさを調整するための画像処理、撮影画像に対して編集を施すための画像処理などが含まれる。 The editing processing unit 403 performs editing processing by controlling each unit of the editing unit 305. The editing process includes image processing for adjusting the size of the user's eyes appearing in the captured image, image processing for editing the captured image, and the like.

撮影画像の編集後、編集処理部403は、分割数の選択に用いられる画面、画像管理サーバに送信する画像の選択に用いられる画面などの各種の画面をタブレット内蔵モニタ131に表示する。編集処理部403は、利用者により選択された分割数に従って各編集画像を配置することによって印刷データを生成し、印刷処理部404に出力する。また、編集処理部403は、利用者により選択された編集画像を画像管理サーバに送信する。 After editing the captured image, the editing processing unit 403 displays various screens such as a screen used for selecting the number of divisions and a screen used for selecting an image to be transmitted to the image management server on the tablet built-in monitor 131. The editing processing unit 403 generates print data by arranging each edited image according to the number of divisions selected by the user, and outputs the print data to the printing processing unit 404. In addition, the editing processing unit 403 transmits the edited image selected by the user to the image management server.

印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。 The print processing unit 404 outputs print data to the printer 351 and prints the edited image.

<撮影処理部の詳細構成>
図18は、撮影処理部402の構成例を示すブロック図である。
<Detailed configuration of the shooting processing unit>
FIG. 18 is a block diagram showing a configuration example of the photographing processing unit 402.

撮影処理部402は、撮影制御部411、画像処理部412、表示制御部413、および画像記憶部414から構成される。 The shooting processing unit 402 includes a shooting control unit 411, an image processing unit 412, a display control unit 413, and an image storage unit 414.

撮影制御部411は、カメラ91を制御することによって動画像の撮影を行い、撮影を行うことによって得られた画像を画像処理部412に出力する。撮影制御部411から出力された動画像はライブビュー画像の生成に用いられる。 The shooting control unit 411 shoots a moving image by controlling the camera 91, and outputs the image obtained by shooting to the image processing unit 412. The moving image output from the shooting control unit 411 is used to generate a live view image.

また、撮影制御部411は、カウントダウンに合わせて静止画像の撮影を行い、撮影を行うことによって得られた静止画像を画像処理部412に出力する。撮影制御部411から出力された静止画像は撮影画像の生成に用いられる。 Further, the shooting control unit 411 shoots a still image in accordance with the countdown, and outputs the still image obtained by the shooting to the image processing unit 412. The still image output from the shooting control unit 411 is used to generate the shooting image.

画像処理部412は、撮影制御部411から供給された動画像の各フレームから矩形領域をトリミングにより切り出し、切り出した画像からなる動画像を生成する。画像処理部412により生成された動画像は、ライブビュー画面に表示するライブビュー画像として用いられる。 The image processing unit 412 cuts out a rectangular region from each frame of the moving image supplied from the shooting control unit 411 by trimming, and generates a moving image composed of the cut out images. The moving image generated by the image processing unit 412 is used as a live view image to be displayed on the live view screen.

また、画像処理部412は、撮影制御部411から供給された静止画像から矩形領域をトリミングにより切り出すことによって、所定の画角の撮影画像を生成する。画像処理部412により生成された撮影画像は、画像記憶部414に供給され、記憶される。 Further, the image processing unit 412 generates a photographed image having a predetermined angle of view by cutting out a rectangular region from the still image supplied from the photographing control unit 411 by trimming. The captured image generated by the image processing unit 412 is supplied to and stored in the image storage unit 414.

表示制御部413は、ライブビュー画面などの、タッチパネルモニタ92の各種の画面の表示を制御する。 The display control unit 413 controls the display of various screens of the touch panel monitor 92, such as the live view screen.

画像記憶部414は、画像処理部412により生成された撮影画像を記憶する。撮影処理が終了した場合、画像記憶部414に記憶された撮影画像は編集処理部403に供給される。 The image storage unit 414 stores the captured image generated by the image processing unit 412. When the shooting process is completed, the shot image stored in the image storage unit 414 is supplied to the editing processing unit 403.

<編集処理部の詳細構成>
図19は、図17の編集処理部403の構成例を示すブロック図である。
<Detailed configuration of editing processing unit>
FIG. 19 is a block diagram showing a configuration example of the editing processing unit 403 of FIG.

編集処理部403は、選択受付部431、編集用画像生成部432、編集制御部433、表示制御部434、印刷データ生成部435、および通信制御部436から構成される。編集制御部433には黒目処理部433Aと輪郭調整部433Bが含まれる。 The editing processing unit 403 includes a selection receiving unit 431, an editing image generation unit 432, an editing control unit 433, a display control unit 434, a print data generation unit 435, and a communication control unit 436. The editing control unit 433 includes a black eye processing unit 433A and a contour adjusting unit 433B.

選択受付部431は、タブレット内蔵モニタ131に表示された画面に対する利用者の操作を受け付ける。選択受付部431により受け付けられた利用者の操作の内容を表す情報は、編集制御部433と表示制御部434に供給される。 The selection reception unit 431 accepts the user's operation on the screen displayed on the tablet built-in monitor 131. Information representing the content of the user's operation received by the selection reception unit 431 is supplied to the edit control unit 433 and the display control unit 434.

編集用画像生成部432は、撮影処理部402から供給された撮影画像に基づいて、編集用の撮影画像を生成する。例えば、画像処理部412(図18)によるトリミング後のそれぞれの画像を原画として、レタッチ処理などの各種の処理を原画に対して施して得られた画像が、編集用の撮影画像となる。編集用画像生成部432により生成された編集用の撮影画像は、編集制御部433と表示制御部434に供給される。 The editing image generation unit 432 generates a captured image for editing based on the captured image supplied from the photographing processing unit 402. For example, each image after trimming by the image processing unit 412 (FIG. 18) is used as an original image, and an image obtained by performing various processing such as retouching processing on the original image becomes a captured image for editing. The captured image for editing generated by the editing image generation unit 432 is supplied to the editing control unit 433 and the display control unit 434.

編集制御部433は、選択受付部431から出力された情報に基づいて、編集用画像生成部432から供給された編集用の撮影画像の編集を行う。編集は、手書きの文字やスタンプ画像などの合成用画像を、編集対象となっている撮影画像に合成する画像処理である。 The editing control unit 433 edits the captured image for editing supplied from the editing image generation unit 432 based on the information output from the selection reception unit 431. Editing is an image process of synthesizing a composite image such as handwritten characters or a stamp image with a captured image to be edited.

編集用画像生成部432により行われるレタッチ処理が、利用者による選択内容に応じた画像処理を複数の撮影画像のそれぞれに一括して施す処理であるのに対して、編集は、利用者による選択内容に応じた画像処理を、そのとき編集対象となっている1枚の撮影画像に施す処理である。レタッチ処理時、目の大きさなどを撮影画像毎に選択することができるようにしてもよい。 The retouching process performed by the editing image generation unit 432 is a process of collectively performing image processing according to the content selected by the user on each of a plurality of captured images, whereas editing is selection by the user. This is a process of performing image processing according to the content on one captured image to be edited at that time. At the time of retouching processing, the size of the eyes and the like may be selectable for each captured image.

編集制御部433は、編集結果を表す情報を表示制御部434に出力し、編集画面の表示に反映させる。 The editing control unit 433 outputs information representing the editing result to the display control unit 434 and reflects it on the display of the editing screen.

編集制御部433は、編集が終了した場合、編集を施して得られた撮影画像である編集画像を印刷データ生成部435と通信制御部436に出力する。 When the editing is completed, the editing control unit 433 outputs the edited image, which is a captured image obtained by editing, to the print data generation unit 435 and the communication control unit 436.

編集制御部433の黒目処理部433Aは、編集画面に対する利用者の操作に応じて、撮影画像に写るそれぞれの利用者の黒目の色を変更する処理である黒目処理を行う。 The black eye processing unit 433A of the edit control unit 433 performs black eye processing, which is a process of changing the color of the black eyes of each user in the captured image according to the user's operation on the edit screen.

編集制御部433の輪郭調整部433Bは、編集画面に対する利用者の操作に応じて画像処理を行い、編集用の撮影画像に写る利用者の特定の部位を強調させる。例えば、目全体、または、黒目部分などの目の一部を強調させるための画像処理が輪郭調整部433Bにより行われる。 The contour adjusting unit 433B of the editing control unit 433 performs image processing according to the user's operation on the editing screen, and emphasizes a specific part of the user appearing in the captured image for editing. For example, image processing for emphasizing the entire eye or a part of the eye such as the black eye portion is performed by the contour adjusting unit 433B.

表示制御部434は、利用者による操作に用いられる操作画面をタブレット内蔵モニタ131に表示し、利用者の操作に応じて操作画面の表示を制御する。表示制御部434には、編集用画像生成部432から出力された撮影画像、編集制御部433から出力された編集画像などが供給される。表示制御部434に供給された各種の画像は操作画面の表示に用いられる。 The display control unit 434 displays the operation screen used for the operation by the user on the tablet built-in monitor 131, and controls the display of the operation screen according to the operation of the user. The display control unit 434 is supplied with a captured image output from the editing image generation unit 432, an edited image output from the editing control unit 433, and the like. Various images supplied to the display control unit 434 are used for displaying the operation screen.

印刷データ生成部435は、編集制御部433から供給された編集画像を所定のレイアウトで配置することによって印刷データを生成する。印刷データ生成部435は、印刷データを印刷処理部404に出力し、シール紙363に印刷させる。 The print data generation unit 435 generates print data by arranging the edited images supplied from the edit control unit 433 in a predetermined layout. The print data generation unit 435 outputs the print data to the print processing unit 404 and causes the sticker paper 363 to print.

通信制御部436は、通信部317を制御し、編集制御部433から供給された編集画像を画像管理サーバに送信する。 The communication control unit 436 controls the communication unit 317 and transmits the edited image supplied from the editing control unit 433 to the image management server.

図20は、編集用画像生成部432の構成例を示すブロック図である。 FIG. 20 is a block diagram showing a configuration example of the editing image generation unit 432.

編集用画像生成部432は、領域検出部451、レタッチ処理部452、性別判定部453、まつげ処理部454、および縮小部455により構成される。 The editing image generation unit 432 is composed of an area detection unit 451, a retouch processing unit 452, a gender determination unit 453, an eyelash processing unit 454, and a reduction unit 455.

撮影処理部402から供給された撮影画像は、領域検出部451、レタッチ処理部452、および性別判定部453に入力される。編集用画像生成部432の各部による処理は、それぞれの撮影画像を対象として行われる。 The captured image supplied from the photographing processing unit 402 is input to the area detection unit 451, the retouch processing unit 452, and the gender determination unit 453. The processing by each unit of the editing image generation unit 432 is performed for each captured image.

領域検出部451は、撮影画像に写る人物である利用者の領域を検出するとともに、利用者の各部位の領域を検出する。例えば、利用者の顔の領域、顔を構成する部位としての目、まぶた、鼻、唇、頬の領域、髪の毛の領域などが領域検出部451により検出される。 The area detection unit 451 detects the area of the user who is a person appearing in the captured image, and also detects the area of each part of the user. For example, the area of the user's face, the areas of the eyes, eyelids, nose, lips, cheeks, and hair as the parts constituting the face are detected by the area detection unit 451.

図21は、領域の検出の例を示す図である。 FIG. 21 is a diagram showing an example of region detection.

2人の女性が写る撮影画像P101が供給された場合、それぞれの利用者を対象として、顔や、顔の各部位の領域の検出が行われる。例えば左側に写る利用者からは、左右のそれぞれの目の領域を含む各領域が検出される。 When the photographed image P101 showing two women is supplied, the face and the region of each part of the face are detected for each user. For example, from the user on the left side, each area including the areas of the left and right eyes is detected.

左側に写る利用者の右目の領域に注目した場合、図21の左側に拡大して示すように、黒目領域A11と、黒目領域A11の左右の白目領域A12,A13がそれぞれ検出される。 When paying attention to the area of the user's right eye reflected on the left side, the black eye area A11 and the left and right white eye areas A12 and A13 of the black eye area A11 are detected, respectively, as shown enlarged to the left side of FIG.

白目領域A12は、鼻に近い方の白目の領域であり、白目領域A13は、耳に近い方の白目の領域である。位置p1は目頭の位置を表し、位置p2は目尻の位置を表す。黒目領域A11には、上ストロボユニット82と足元ストロボユニット83の発光により、それぞれの形状や大きさに応じたキャッチライトが写り込む。 The white eye region A12 is the region of the white eye closer to the nose, and the white eye region A13 is the region of the white eye closer to the ear. The position p1 represents the position of the inner corner of the eye, and the position p2 represents the position of the outer corner of the eye. In the black eye region A11, the upper strobe unit 82 and the foot strobe unit 83 emit light, and catch lights corresponding to their respective shapes and sizes are reflected.

黒目領域と白目領域の検出は、例えば、ニューラルネットワークなどにより構成される予測モデルに基づいて行われる。領域検出部451に対しては、機械学習によってあらかじめ生成された、目の各領域を検出するための予測モデルが用意されている。 The detection of the black eye region and the white eye region is performed based on a prediction model configured by, for example, a neural network. For the region detection unit 451, a prediction model for detecting each region of the eye, which is generated in advance by machine learning, is prepared.

領域検出部451に用意される予測モデルは、例えば、撮影画像を入力とし、目の各領域のマスク画像、目の周りの肌の領域のマスク画像を出力とするモデルである。予測モデルから出力されたマスク画像により、黒目領域と白目領域の各領域の位置、大きさ、形状などが表される。 The prediction model prepared in the region detection unit 451 is, for example, a model in which a photographed image is input and a mask image of each region of the eye and a mask image of the skin region around the eye are output. The mask image output from the prediction model represents the position, size, shape, etc. of each region of the black eye region and the white eye region.

黒目領域と白目領域の検出が、予測モデルを用いるのではなく、画像を解析することによって抽出された各領域の特徴量に基づくマッチングにより行われるようにしてもよい。この場合、黒目領域と白目領域の各領域の特徴量を表すデータが領域検出部451には用意される。 The detection of the black eye region and the white eye region may be performed by matching based on the feature amount of each region extracted by analyzing the image, instead of using the prediction model. In this case, the area detection unit 451 prepares data representing the feature amounts of each of the black-eye area and the white-eye area.

目の各領域だけでなく、顔全体や、顔の他の各部の領域についても、機械学習によって生成された予測モデルを用いて検出されるようにしてもよい。また、特徴量に基づくマッチングにより検出されるようにしてもよい。 Not only each region of the eye, but also the entire face and other regions of the face may be detected using a prediction model generated by machine learning. Further, it may be detected by matching based on the feature amount.

図20の領域検出部451は、以上のようにして検出した各領域の情報をレタッチ処理部452とまつげ処理部454に出力する。領域検出部451から出力される情報により、撮影画像に写るそれぞれの利用者の左右の目の黒目領域と白目領域の位置、大きさ、形状などが表される。領域検出部451による検出結果を表す情報は、後段の編集制御部433にも供給される。 The area detection unit 451 of FIG. 20 outputs the information of each area detected as described above to the retouch processing unit 452 and the eyelash processing unit 454. The information output from the area detection unit 451 represents the positions, sizes, shapes, and the like of the black-eye area and the white-eye area of the left and right eyes of each user in the captured image. Information representing the detection result by the area detection unit 451 is also supplied to the editing control unit 433 in the subsequent stage.

レタッチ処理部452は、撮影画像に対してレタッチ処理を施す。レタッチ処理は、顔の輪郭の調整、目の大きさの調整などの、撮影画像に写る利用者の特定の部位に対する画像処理である。画像処理の対象となる各領域が、領域検出部451から供給される情報により特定される。レタッチ処理が施された撮影画像は、まつげ処理部454に供給される。 The retouch processing unit 452 performs retouch processing on the captured image. The retouching process is an image process for a specific part of the user in the captured image, such as adjusting the contour of the face and adjusting the size of the eyes. Each region to be image-processed is specified by the information supplied from the region detection unit 451. The photographed image that has undergone the retouching process is supplied to the eyelash processing unit 454.

肌の明るさの調整などの他の処理がレタッチ処理として行われるようにしてもよい。特定の部位に対する処理ではなく、画像全体を対象としたフィルタ処理などの他の画像処理が行われるようにしてもよい。 Other processes such as adjusting the brightness of the skin may be performed as the retouch process. Other image processing such as filtering processing for the entire image may be performed instead of processing for a specific part.

性別判定部453は、撮影画像に写るそれぞれの利用者の性別を判定し、判定結果を表す情報をまつげ処理部454に出力する。性別判定部453による判定についても、機械学習によって生成された予測モデルに基づいて行われるようにしてもよいし、画像を解析することによって抽出された各領域の特徴量に基づくマッチングにより行われるようにしてもよい。 The gender determination unit 453 determines the gender of each user reflected in the captured image, and outputs information representing the determination result to the eyelash processing unit 454. The determination by the gender determination unit 453 may also be performed based on the prediction model generated by machine learning, or may be performed by matching based on the feature amount of each region extracted by analyzing the image. It may be.

まつげ処理部454は、レタッチ処理部452から供給された撮影画像に写るそれぞれの利用者のまつげ(睫毛)を強調する画像処理であるまつげ処理を行う。まつげ処理は、性別判定部453による判定結果に基づいて、例えば女性だけを対象として行われる。まつげ処理が施されることによってまつげが強調された撮影画像は、縮小部455に供給される。まつげ処理部454により行われるまつげ処理については後に詳述する。 The eyelash processing unit 454 performs eyelash processing, which is an image processing that emphasizes the eyelashes (eyelashes) of each user reflected in the captured image supplied from the retouching processing unit 452. The eyelash processing is performed only on women, for example, based on the determination result by the gender determination unit 453. The photographed image in which the eyelashes are emphasized by the eyelash processing is supplied to the reduction unit 455. The eyelash processing performed by the eyelash processing unit 454 will be described in detail later.

縮小部455は、まつげ処理部454から供給された撮影画像を縮小することによって、編集用の撮影画像を生成する。撮影画像の縮小は、例えば画素を間引き、撮影画像を構成する画素数を減らすことによって行われる。縮小部455により生成された編集用の撮影画像は、編集制御部433などに供給される。 The reduction unit 455 generates a photographed image for editing by reducing the photographed image supplied from the eyelash processing unit 454. The reduction of the captured image is performed, for example, by thinning out the pixels and reducing the number of pixels constituting the captured image. The captured image for editing generated by the reduction unit 455 is supplied to the editing control unit 433 and the like.

このように、編集用画像生成部432においては、レタッチ処理とまつげ処理は、縮小前の原画に対して施されることになる。データ量の多い撮影画像を対象として、精細な処理を施すことが可能となる。 As described above, in the editing image generation unit 432, the retouching process and the eyelash processing are performed on the original image before reduction. It is possible to perform fine processing on a captured image having a large amount of data.

図22は、図20のまつげ処理部454の構成例を示すブロック図である。 FIG. 22 is a block diagram showing a configuration example of the eyelash processing unit 454 of FIG.

まつげ処理部454は、逆さまつげ除去部461、変形部462、合成部463、およびまつげ強調処理部464により構成される。 The eyelash processing unit 454 is composed of an upside-down eyelash removing unit 461, a deforming unit 462, a composite unit 463, and an eyelash enhancing processing unit 464.

レタッチ処理部452から供給されたレタッチ処理後の撮影画像は逆さまつげ除去部461に入力される。また、領域検出部451により検出された各領域の情報は、まつげ処理部454の各部に入力される。性別判定部453による性別の判定結果を表す情報は、変形部462と合成部463に入力される。 The captured image after the retouch processing supplied from the retouch processing unit 452 is input to the upside-down thorn removal unit 461. Further, the information of each area detected by the area detection unit 451 is input to each unit of the eyelash processing unit 454. Information representing the gender determination result by the gender determination unit 453 is input to the deformation unit 462 and the synthesis unit 463.

逆さまつげ除去部461は、撮影画像に写る利用者の目に逆さまつげがある場合、逆さまつげを画像処理によって除去する。逆さまつげは、上まつげのうち、下向きになって生えていて白目領域にかかっているまつげ、および、下まつげのうち、上向きになって生えていて白目領域にかかっているまつげである。白目領域の位置などについては、領域検出部451から供給された情報に基づいて特定される。 The upside-down sword removing unit 461 removes the upside-down sword by image processing when the user's eyes appear in the captured image have an upside-down sword. Upside down lashes are the upper lashes that grow downward and hang on the white eye area, and the lower lashes that grow upward and hang on the white eye area. The position of the white eye region and the like are specified based on the information supplied from the region detection unit 451.

図23は、逆さまつげの除去の例を示す図である。 FIG. 23 is a diagram showing an example of removing the upside-down thorn.

図23の左側に破線の円C1で囲んで示すように白目領域A13にまつげがかかって写っている場合、逆さまつげ除去部461は、まつげを構成する画素を、周りの白目領域A13の画素で置き換える(補間する)ことによって、図23の右側に示すように逆さまつげを除去する。 When the white eye area A13 is covered with eyelashes as shown by being surrounded by the broken line circle C1 on the left side of FIG. 23, the upside-down eyelash removing unit 461 replaces the pixels constituting the eyelashes with the pixels of the surrounding white eye area A13. By (interpolating), the upside-down eyelashes are removed as shown on the right side of FIG.

白目領域A13にまつげがかかって写っていることは、白目領域の標準の色として設定された白色以外の色の画素が白目領域A13内にある場合に、その画素を異常画素として検出することによって特定される。逆さまつげ除去部461には、白目領域の標準の色を表す情報があらかじめ設定されている。 The fact that the white-eye area A13 is covered with eyelashes means that when a pixel of a color other than white, which is set as the standard color of the white-eye area, is in the white-eye area A13, the pixel is detected as an abnormal pixel. Be identified. Information representing a standard color of the white-eyed region is preset in the upside-down thorn removal unit 461.

逆さまつげ除去部461においては、標準の色以外の色の画素である異常画素を、周りにある白色の画素で補間することによって、逆さまつげの除去が行われる。 In the upside-down thorn removal unit 461, the upside-down thorns are removed by interpolating abnormal pixels, which are pixels of colors other than the standard color, with white pixels around them.

白色以外の色の画素を異常画素として検出し、白色の画素で補間する処理が逆さまつげ除去部461において行われるため、結果的に、充血して赤くなっている部分なども除去されることになる。 Since the process of detecting pixels of a color other than white as abnormal pixels and interpolating with the white pixels is performed by the upside-down ridge removing unit 461, as a result, the reddish part due to hyperemia is also removed. ..

以上のようにして逆さまつげが除去された撮影画像が逆さまつげ除去部461から出力される。撮影画像に写る利用者の目に逆さまつげがない場合、逆さまつげ除去部461に入力された撮影画像はそのまま出力される。 The captured image from which the upside-down thorns have been removed as described above is output from the upside-down thorn removal unit 461. If the user's eyes appearing in the captured image do not have an upside-down eyelid, the captured image input to the upside-down eyelid removing unit 461 is output as it is.

変形部462は、逆さまつげ除去部461から供給された撮影画像に写る利用者が女性である場合、その利用者の目の上側の輪郭の形状に合わせて、まつげ画像を変形させる。変形部462には、まつげを表現したテクスチャ画像であるまつげ画像があらかじめ記憶されている。変形部462による変形後のまつげ画像が、撮影画像に写る利用者の目の部分に対する合成に用いられる。 When the user in the photographed image supplied from the upside-down eyelash removing unit 461 is a woman, the deforming portion 462 deforms the eyelash image according to the shape of the contour on the upper side of the user's eyes. The deformed portion 462 stores in advance an eyelash image, which is a texture image expressing the eyelashes. The deformed eyelash image by the deformed portion 462 is used for compositing the user's eye portion in the captured image.

図24は、まつげ画像の変形の例を示す図である。 FIG. 24 is a diagram showing an example of deformation of the eyelash image.

変形部462は、図24の左上に示すような、デフォルトの形状のまつげ画像P111を有している。撮影画像に写る利用者の例えば右目ERの上側の輪郭の形状が、図24の左下に示す位置p1から位置p2までの曲線で表される場合、変形部462は、まつげ画像P111を位置p1−位置p2間の曲線の特定の区間の形状に合わせて変形させ、図24の右側に示す、変形後のまつげ画像P111’を生成する。位置p1−位置p2間の曲線は、領域検出部451から供給された情報に基づいて特定される。 The deformed portion 462 has an eyelash image P111 having a default shape as shown in the upper left of FIG. 24. If the shape of the upper contour of the user, for example, the right eye E R caught on the captured image is represented by the curve from the position p1 shown in the lower left of Figure 24 to the position p2, deformation unit 462, the position eyelashes image P111 p1 The curve between −position p2 is deformed according to the shape of a specific section, and the deformed eyelash image P111'shown on the right side of FIG. 24 is generated. The curve between position p1-position p2 is specified based on the information supplied from the region detection unit 451.

変形部462は、以上のようにして変形したまつげ画像を合成部463に出力する。デフォルトのまつげ画像が複数用意されており、変形に用いられるまつげ画像が選択されるようにしてもよい。まつげ画像の選択が、利用者により行われるようにしてもよいし、まつげ処理部454において自動的に行われるようにしてもよい。 The deforming unit 462 outputs the eyelash image deformed as described above to the compositing unit 463. A plurality of default eyelash images are prepared, and the eyelash image used for transformation may be selected. The selection of the eyelash image may be performed by the user, or may be automatically performed by the eyelash processing unit 454.

図22の合成部463は、逆さまつげ除去部461から供給された撮影画像に写る女性の利用者の目の上側の輪郭に沿って、変形部462により変形されたまつげ画像を合成する。 The compositing section 463 of FIG. 22 synthesizes the eyelash image deformed by the deforming section 462 along the contour of the upper side of the eyes of the female user reflected in the photographed image supplied from the upside-down eyelash removing section 461.

図25は、まつげ画像の合成の例を示す図である。 FIG. 25 is a diagram showing an example of synthesizing eyelash images.

図25の左上に示すような変形後のまつげ画像P111’が供給された場合、合成部463は、図25の右側に示すように、まつげ画像P111’を右目ERの上側の輪郭に沿って合成する。右目ERの上側の輪郭の位置は、領域検出部451から供給された情報に基づいて特定される。 'If is supplied, the synthesis unit 463, as shown on the right side of FIG. 25, the eyelashes image P111' eyelashes image P111 after deformation as shown in the upper left of FIG. 25 along the upper contour of the right eye E R Synthesize. Position of the upper contour of the right eye E R is specified based on the information supplied from the area detection section 451.

以上のようなまつげ画像の合成が左目についても同様にして行われる。左目に対するまつげ画像の合成は、例えば、右目用として用意されたまつげ画像P111を用いて行われる。 The above eyelash image composition is performed in the same manner for the left eye. The composition of the eyelash image for the left eye is performed using, for example, the eyelash image P111 prepared for the right eye.

この場合、変形部462は、まつげ画像P111の左右を反転させ、左右反転後のまつげ画像P111の形状を、左目の上側の形状に合わせて変形させる。合成部463は、変形部462による変形後のまつげ画像P111を左目の上側の輪郭に沿って合成する。 In this case, the deforming portion 462 inverts the left and right of the eyelash image P111, and deforms the shape of the eyelash image P111 after the left and right inversion according to the shape of the upper side of the left eye. The compositing unit 463 synthesizes the eyelash image P111 after being deformed by the deforming portion 462 along the upper contour of the left eye.

このように、左目に対するまつげ画像の合成には、右目用として用意されたまつげ画像の左右を反転させた画像が用いられる。左目に対する処理が右目用の画像を用いて行われるため、用意しておく必要があるまつげ画像の数を減らすことができる。反対に、左目用のまつげ画像が用意されており、右目に対する処理が、左目用の画像を用いて行われるようにしてもよい。当然、右目用と左目用のそれぞれのまつげ画像が用意されるようにしてもよい。 As described above, in the composition of the eyelash image for the left eye, the left-right inverted image of the eyelash image prepared for the right eye is used. Since the processing for the left eye is performed using the image for the right eye, the number of eyelash images that need to be prepared can be reduced. On the contrary, an eyelash image for the left eye is prepared, and the processing for the right eye may be performed using the image for the left eye. Of course, eyelash images for the right eye and each eyelash image for the left eye may be prepared.

以上のようなまつげ画像の合成は、撮影画像に写るそれぞれの女性を対象として行われる。合成部463は、まつげ画像の合成後の撮影画像を図22のまつげ強調処理部464に出力する。 The above-mentioned composition of eyelash images is performed for each woman in the photographed image. The compositing unit 463 outputs the captured image after compositing the eyelash images to the eyelash enhancing processing unit 464 of FIG. 22.

まつげ強調処理部464は、合成部463から供給された撮影画像に写るまつげを画像処理によって強調させる。例えば、上まつげと下まつげの1本1本を太くする処理や、色を濃くする処理が行われる。まつげ強調処理部464は、まつげを強調した撮影画像を出力する。 The eyelash enhancement processing unit 464 emphasizes the eyelashes appearing in the captured image supplied from the composition unit 463 by image processing. For example, a process of thickening each of the upper eyelashes and the lower eyelashes and a process of darkening the color are performed. The eyelash enhancement processing unit 464 outputs a photographed image in which the eyelashes are emphasized.

<写真シール作成装置の動作>
ここで、図26のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。図26の処理は、例えば、所定の金額分の硬貨が投入されたときに開始される。
<Operation of photo sticker making device>
Here, the operation of the photo sticker creation device 1 that provides the photo sticker creation game will be described with reference to the flowchart of FIG. 26. The process of FIG. 26 is started, for example, when a predetermined amount of coins are inserted.

ステップS1において、事前選択処理部401は、事前選択部302を制御することで事前選択処理を行う。事前選択処理により、例えば、利用者の人数の選択、撮影コースの選択などが行われる。いずれの選択も、タッチパネルモニタ71に表示される選択画面を用いて行われる。 In step S1, the preselection processing unit 401 performs the preselection processing by controlling the preselection unit 302. By the pre-selection process, for example, the number of users is selected, the shooting course is selected, and the like. Both selections are made using the selection screen displayed on the touch panel monitor 71.

ステップS2において、撮影処理部402は、撮影部304を制御することで撮影処理を行う。 In step S2, the photographing processing unit 402 performs the photographing process by controlling the photographing unit 304.

例えば、撮影処理部402は、立ち位置の誘導を行った後、カメラ91により取り込まれた動画像に基づいて、ライブビュー画面をタッチパネルモニタ92に表示させる。また、撮影処理部402は、ライブビュー画面を表示させた後、撮影空間A1にいる利用者を被写体として静止画像の連続撮影を行う。 For example, the shooting processing unit 402 guides the standing position and then displays the live view screen on the touch panel monitor 92 based on the moving image captured by the camera 91. Further, after displaying the live view screen, the shooting processing unit 402 continuously shoots a still image with the user in the shooting space A1 as a subject.

ステップS3において、編集処理部403は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで編集処理を行う。 In step S3, the editing processing unit 403 controls the editing unit 305 corresponding to the editing space of the editing space A2-1 and the editing space A2-2, which is the destination of the user who has completed the shooting process. Edit with.

例えば、編集処理部403は、タブレット内蔵モニタ131に編集画面を表示させ、撮影画像に対して利用者に編集作業を行わせる。編集画面には、編集対象の撮影画像とともに、撮影画像に合成する合成用画像を選択するときに操作されるボタンなどが表示される。編集処理の詳細については図27のフローチャートを参照して後述する。 For example, the editing processing unit 403 causes the tablet built-in monitor 131 to display the editing screen, and causes the user to perform editing work on the captured image. On the edit screen, along with the captured image to be edited, buttons and the like that are operated when selecting a composite image to be combined with the captured image are displayed. The details of the editing process will be described later with reference to the flowchart of FIG. 27.

ステップS4において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う。印刷処理部404は、編集処理部403により生成された印刷データをプリンタ351に出力してシール紙363に印刷させる。 In step S4, the print processing unit 404 performs the print process by controlling the printer 351. The print processing unit 404 outputs the print data generated by the editing processing unit 403 to the printer 351 and prints it on the sticker paper 363.

印刷が終了した場合、ステップS5において、プリンタ351は、カッター362で切り離したシール紙363をシール紙排出口161に排出する。 When printing is completed, in step S5, the printer 351 discharges the sticker paper 363 separated by the cutter 362 to the sticker paper discharge port 161.

写真シール作成装置1の利用者の各グループに対しては、以上のような一連の処理からなる写真作成ゲームが提供される。あるグループの利用者に続けて他のグループの利用者が写真シール作成装置1の利用を開始した場合、写真シール作成装置1の利用を先に始めた利用者の写真シール作成ゲームと、後から始めた利用者の写真シール作成ゲームとが適宜並行して行われることになる。適宜、写真シール作成ゲームを単にゲームともいう。 For each group of users of the photo sticker creation device 1, a photo creation game including the above series of processes is provided. When a user of a certain group and a user of another group start using the photo sticker making device 1, the photo sticker making game of the user who started using the photo sticker making device 1 first and later The user's photo sticker creation game that started will be played in parallel as appropriate. As appropriate, the photo sticker creation game is also simply referred to as a game.

<編集処理>
次に、図27のフローチャートを参照して、図26のステップS3において行われる編集処理について説明する。
<Editing process>
Next, the editing process performed in step S3 of FIG. 26 will be described with reference to the flowchart of FIG. 27.

ステップS41において、編集処理部403の表示制御部434(図19)は、落書き前自撮りの案内画面をタブレット内蔵モニタ131に表示させる。ここでいう落書きは、撮影画像の編集のことを意味する。編集は、タッチペン132を用いて、撮影画像を落書きするようにして行われる。 In step S41, the display control unit 434 (FIG. 19) of the editing processing unit 403 causes the tablet built-in monitor 131 to display the guidance screen for self-portrait before graffiti. The graffiti here means editing a photographed image. Editing is performed by using the touch pen 132 to scribble the captured image.

図28は、落書き前自撮りの案内画面の表示例を示す図である。 FIG. 28 is a diagram showing a display example of a guidance screen for self-portrait before graffiti.

図28に示すように、落書き前自撮りの案内画面の左側には、モデルの人物が鏡面部66越しに自撮りを行っている様子を表す画像が表示される。案内画面の右側には、自撮りによって得られた画像のサンプル画像が表示される。それぞれの画像の下には、画像の内容を説明するメッセージが表示される。 As shown in FIG. 28, on the left side of the guidance screen for self-portrait before graffiti, an image showing a model person taking a self-portrait through the mirror surface portion 66 is displayed. On the right side of the guidance screen, a sample image of the image obtained by taking a selfie is displayed. Below each image, a message explaining the content of the image is displayed.

このような案内画面を表示させることにより、鏡面部66を用いてどのような自撮りを行うことができるのかを利用者に分かりやすく伝えることができる。 By displaying such a guidance screen, it is possible to inform the user in an easy-to-understand manner what kind of self-portrait can be taken using the mirror surface portion 66.

編集空間A2に移動してきた利用者は、案内画面に従って、自分のスマートフォンを用意し、鏡面部66越しに自撮りを行う。 The user who has moved to the editing space A2 prepares his / her own smartphone according to the guidance screen and takes a selfie through the mirror surface 66.

図27の説明に戻り、ステップS42において、編集用画像生成部432は編集用画像生成処理を行う。編集用画像生成処理により、それぞれの撮影画像を元にして編集用の撮影画像が生成される。 Returning to the description of FIG. 27, in step S42, the editing image generation unit 432 performs the editing image generation process. The editing image generation process generates a captured image for editing based on each captured image.

撮影処理においては、例えば最大8枚の撮影画像の撮影が行われる。撮影画像の枚数が多いため、それぞれの撮影画像に基づいて行われる編集用の撮影画像の生成には一定の時間が必要になる。編集用の撮影画像の生成は、編集前の自撮り用に確保された時間を利用して行われる。利用者は、編集用の撮影画像の生成が行われている間も、退屈せずに待つことができる。 In the shooting process, for example, a maximum of eight shot images are shot. Since the number of captured images is large, it takes a certain amount of time to generate captured images for editing based on each captured image. The captured image for editing is generated by utilizing the time reserved for self-shooting before editing. The user can wait without getting bored while the captured image for editing is being generated.

利用者が自撮りを行っている間に行われる編集用画像生成処理の詳細については図30のフローチャートを参照して後述する。 Details of the editing image generation process performed while the user is taking a selfie will be described later with reference to the flowchart of FIG.

ステップS43において、表示制御部434は、キープ画像の選択画面をタブレット内蔵モニタ131に表示させる。図28の案内画面に代えてキープ画像の選択画面がタブレット内蔵モニタ131に表示されることにより、利用者は自撮りを終え、タブレット内蔵モニタ131の表示に従ってキープ画像の選択を行う。 In step S43, the display control unit 434 causes the tablet built-in monitor 131 to display the keep image selection screen. By displaying the keep image selection screen on the tablet built-in monitor 131 instead of the guidance screen of FIG. 28, the user finishes taking a selfie and selects the keep image according to the display of the tablet built-in monitor 131.

キープ画像は、実際に編集する撮影画像である。キープ画像として選択可能な撮影画像の枚数は例えば4枚として設定されている。キープ画像の選択画面には、レタッチ処理が施された撮影画像が並べて表示される。選択画面を用いて行われる選択は、最大8枚の撮影画像の中から4枚の撮影画像を選択するようにして行われる。 The keep image is a photographed image that is actually edited. The number of captured images that can be selected as the keep image is set to, for example, four. On the keep image selection screen, the retouched captured images are displayed side by side. The selection made using the selection screen is made by selecting four captured images from a maximum of eight captured images.

4枚などの所定の枚数のキープ画像が選択された場合、ステップS44において、表示制御部434は、編集画面をタブレット内蔵モニタ131に表示させる。編集画面には、編集対象となる撮影画像とともに、編集に用いられるスタンプ画像やペン画像などの各種の編集ツール(合成用画像)を選択するときに押下されるボタンなどが表示される。 When a predetermined number of keep images such as four images are selected, in step S44, the display control unit 434 causes the tablet built-in monitor 131 to display the edit screen. On the editing screen, along with the captured image to be edited, buttons pressed when selecting various editing tools (composite images) such as stamp images and pen images used for editing are displayed.

図29は、タブレット内蔵モニタ131に表示される編集画面の例を示す図である。 FIG. 29 is a diagram showing an example of an editing screen displayed on the tablet built-in monitor 131.

編集画面には、編集領域501L,501Rがそれぞれ左右に並べて設けられる。編集領域501L,501Rの間には、キープ画像として選択された撮影画像のサムネイルが表示されるサムネイル表示領域502が設けられる。 Editing areas 501L and 501R are provided side by side on the editing screen, respectively. Between the editing areas 501L and 501R, a thumbnail display area 502 for displaying the thumbnail of the captured image selected as the keep image is provided.

また、編集領域501L,501Rそれぞれの下方には、編集パレット503L,503Rが設けられる。編集パレット503L,503Rの間には、編集パレット503L,503Rに表示される編集ツールのカテゴリを選択するためのカテゴリ選択ボタン群504が設けられる。 Further, below each of the editing areas 501L and 501R, editing palettes 503L and 503R are provided. Between the editing palettes 503L and 503R, a category selection button group 504 for selecting the category of the editing tool displayed on the editing palettes 503L and 503R is provided.

このような構成により、編集画面においては、編集対象として選択された撮影画像の編集入力が2人の利用者によって個別に受け付けられる。 With such a configuration, on the editing screen, the editing input of the captured image selected as the editing target is individually accepted by the two users.

以下において、編集領域501L,501R、編集パレット503L,503Rをそれぞれ区別しない場合には、単に、編集領域501、編集パレット503という。 In the following, when the editing areas 501L and 501R and the editing palettes 503L and 503R are not distinguished from each other, they are simply referred to as editing areas 501 and editing palettes 503.

編集領域501は、編集入力を行う対象として選択されたキープ画像(編集対象画像)の表示領域である。利用者は、タッチペン132を用いて編集ツールを選択し、編集領域501に表示されたキープ画像の編集を行う。 The editing area 501 is a display area of a keep image (editing target image) selected as a target for editing input. The user selects an editing tool using the touch pen 132 and edits the keep image displayed in the editing area 501.

サムネイル表示領域502は、キープ画像を表すサムネイルの表示領域である。利用者は、サムネイル表示領域502に表示されているサムネイルを選択することによって、編集入力を行うキープ画像を選択する。 The thumbnail display area 502 is a thumbnail display area representing a keep image. The user selects a keep image for editing input by selecting a thumbnail displayed in the thumbnail display area 502.

編集パレット503は、ペンツール、くっつきツール、スタンプツール、メイクツールなどの各種の編集ツールの選択に用いられるアイコンなどが表示される領域である。なお、くっつきツールは、顔の認識結果に基づいた位置に所定の画像を合成するときに用いられる編集ツールである。また、メイクツールは、目、唇、頬などを対象として、メイクを模した画像処理を施すときに用いられる編集ツールである。 The editing palette 503 is an area in which icons used for selecting various editing tools such as a pen tool, a sticking tool, a stamp tool, and a makeup tool are displayed. The sticking tool is an editing tool used when synthesizing a predetermined image at a position based on a face recognition result. The make-up tool is an editing tool used when performing image processing imitating make-up on the eyes, lips, cheeks, and the like.

カテゴリ選択ボタン群504は、編集パレット503に表示させる編集ツールのカテゴリを切り替えるときに押下されるボタンから構成される。 The category selection button group 504 is composed of buttons that are pressed when switching the category of the editing tool to be displayed on the editing palette 503.

図29の例においては、タブレット内蔵モニタ131に向かって左側の利用者によりカテゴリ選択ボタン群504のペンボタンが選択されている。編集パレット503Lには、ペンツールを選択するためのアイコンなどが表示される。 In the example of FIG. 29, the pen button of the category selection button group 504 is selected by the user on the left side of the tablet built-in monitor 131. An icon for selecting a pen tool and the like are displayed on the edit palette 503L.

また、右側の利用者によりカテゴリ選択ボタン群504のメイクボタンが選択されている。編集パレット503Rには、メイクツールを選択するためのボタンなどが表示される。 Further, the make button of the category selection button group 504 is selected by the user on the right side. Buttons for selecting a make-up tool and the like are displayed on the edit palette 503R.

サムネイル表示領域502の下には、スマートフォンの外観を模した2つの携帯おまけボタン505L,505Rが並べて表示される。携帯おまけボタン505L,505Rが操作された場合、携帯おまけの作成を行うときに用いられるボタンなどが表示される。なお、携帯おまけは、携帯端末の待ち受け画面に表示されたり、SNSにアップロードされたりする画像など、携帯端末上で用いられることを前提とした画像である。作成された携帯おまけは、携帯端末への送信専用の画像として画像管理サーバに送信される。 Below the thumbnail display area 502, two mobile bonus buttons 505L and 505R that imitate the appearance of a smartphone are displayed side by side. When the mobile bonus buttons 505L and 505R are operated, buttons and the like used when creating the mobile bonus are displayed. The mobile bonus is an image that is premised on being used on a mobile terminal, such as an image that is displayed on the standby screen of the mobile terminal or uploaded to SNS. The created mobile bonus is sent to the image management server as an image dedicated to transmission to the mobile terminal.

サムネイル表示領域502の上にはBGM選択領域506が表示される。BGM選択領域506は、編集作業中のBGMの選曲や音量の調整を行うときに操作される。 The BGM selection area 506 is displayed above the thumbnail display area 502. The BGM selection area 506 is operated when selecting a BGM or adjusting the volume during editing work.

図27の説明に戻り、ステップS45において、編集制御部433は、編集画面に対する利用者の操作に応じて、編集対象となる撮影画像に編集を施す。編集が施されることによって生成された編集画像は印刷データ生成部435に供給される。 Returning to the description of FIG. 27, in step S45, the editing control unit 433 edits the captured image to be edited according to the user's operation on the editing screen. The edited image generated by the editing is supplied to the print data generation unit 435.

終了ボタンが操作されるなどして編集が終了した場合、ステップS46において、表示制御部434は、分割数選択画面をタブレット内蔵モニタ131に表示させる。 When the editing is completed by operating the end button or the like, in step S46, the display control unit 434 displays the division number selection screen on the tablet built-in monitor 131.

分割数選択画面は、シールレイアウトの選択に用いられる画面である。シールレイアウトは、1枚のシール紙363に配置される編集画像の枚数や位置、大きさを決定するレイアウト(配置パターン)である。シール紙363には、利用者により選択されたシールレイアウトに従って配置された編集画像が印刷される。 The division number selection screen is a screen used for selecting the sticker layout. The sticker layout is a layout (arrangement pattern) that determines the number, position, and size of edited images arranged on one sticker paper 363. An edited image arranged according to the sticker layout selected by the user is printed on the sticker paper 363.

ステップS47において、表示制御部434は、送信画像選択画面をタブレット内蔵モニタ131に表示させる。 In step S47, the display control unit 434 causes the tablet built-in monitor 131 to display the transmission image selection screen.

利用者は、画像管理サービスを利用するためには会員登録を行う必要があり、会員には有料会員と無料会員がある。有料会員は画像管理サーバに送信された全ての画像を取得して自分の携帯端末にダウンロードしたりすることができるのに対して、無料会員は1枚の画像だけを取得することができる。送信画像選択画面は、無料会員が取得する1枚の画像を選択するのに用いられる画面である。なお、画像管理サービスは、ゲームにおいて作成され、写真シール作成装置1から画像管理サーバに送信された画像を利用者に提供するサービスである。 The user needs to register as a member in order to use the image management service, and the members include paid members and free members. Paid members can acquire all the images sent to the image management server and download them to their mobile terminals, while free members can acquire only one image. The transmission image selection screen is a screen used for selecting one image acquired by a free member. The image management service is a service that provides the user with an image created in the game and transmitted from the photo sticker creation device 1 to the image management server.

ステップS48において、編集処理部403は、メールアドレス入力画面をタブレット内蔵モニタ131に表示させる。 In step S48, the editing processing unit 403 displays the e-mail address input screen on the tablet built-in monitor 131.

メールアドレス入力画面は、利用者のメールアドレスの入力に用いられる画面である。メールアドレス入力画面には、メールアドレスに用いることが可能なアルファベットや記号、スマートフォンなどの携帯電話機のキャリアを選択するためのボタンなどが表示される。 The e-mail address input screen is a screen used for inputting a user's e-mail address. On the e-mail address input screen, alphabets and symbols that can be used for the e-mail address, buttons for selecting a carrier of a mobile phone such as a smartphone, and the like are displayed.

ステップS49において、通信制御部436は、編集画像を画像管理サーバに送信する。画像管理サーバに対しては、適宜、撮影画像も送信される。すなわち、編集画像だけでなく、編集画像の元になった撮影画像も画像管理サーバに対して送信される。 In step S49, the communication control unit 436 transmits the edited image to the image management server. Captured images are also transmitted to the image management server as appropriate. That is, not only the edited image but also the captured image that is the source of the edited image is transmitted to the image management server.

また、画像管理サーバに対しては、写真シール作成装置1の機器ID、撮影日時、送信画像選択画面からどの画像が選択されたのかを表す情報なども送信される。 Further, the device ID of the photo sticker creation device 1, the shooting date and time, information indicating which image is selected from the transmission image selection screen, and the like are also transmitted to the image management server.

ステップS50において、印刷データ生成部435は、利用者により選択されたレイアウトで編集画像を配置することによって印刷データを生成する。印刷データは印刷処理部404に供給され、編集画像の印刷に用いられる(図26のステップS4)。 In step S50, the print data generation unit 435 generates print data by arranging the edited image in the layout selected by the user. The print data is supplied to the print processing unit 404 and used for printing the edited image (step S4 in FIG. 26).

ステップS51において、表示制御部434は、案内画面をタブレット内蔵モニタ131に表示させることによって、編集作業を終えた利用者に対して、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、スピーカ341から音声を出力することによっても行われる。 In step S51, the display control unit 434 guides the user who has completed the editing work to move to the print waiting space A3 by displaying the guidance screen on the tablet built-in monitor 131. Guidance for moving to the print waiting space A3 is also performed by outputting voice from the speaker 341.

その後、図26のステップS3に戻り、それ以降の処理が行われる。 After that, the process returns to step S3 of FIG. 26, and the subsequent processing is performed.

以上のように、写真シール作成装置1のゲームにおいては、撮影空間A1だけでなく、編集空間A2においても撮影を行うことが可能とされる。利用者は、編集空間A2にいてゲームを行っている自分達の様子を自撮りによって残しておくことができる。 As described above, in the game of the photo sticker creating device 1, it is possible to shoot not only in the shooting space A1 but also in the editing space A2. Users can take a selfie of themselves playing the game in the editing space A2.

<編集用画像生成処理>
次に、図30のフローチャートを参照して、図27のステップS42において行われる編集用画像生成処理について説明する。
<Image generation process for editing>
Next, the editing image generation process performed in step S42 of FIG. 27 will be described with reference to the flowchart of FIG.

ステップS61において、性別判定部453は、撮影画像に写るそれぞれの利用者の性別を判定する。 In step S61, the gender determination unit 453 determines the gender of each user in the captured image.

ステップS62において、レタッチ処理部452は、撮影画像に対してレタッチ処理を施す。レタッチ処理部452によるレタッチ処理は、撮影処理時にタッチパネルモニタ92に表示されたレタッチ画面を用いて選択された内容に従って行われる。 In step S62, the retouching processing unit 452 performs retouching processing on the captured image. The retouching process by the retouching processing unit 452 is performed according to the content selected by using the retouching screen displayed on the touch panel monitor 92 during the shooting process.

例えば、レタッチ処理部452は、撮影画像に写る利用者の目を検出し、検出した目の大きさを調整する処理をそれぞれの撮影画像を対象として行う。レタッチ処理部452は、目の大きさの調整以外の複数種類の画像処理を、それぞれの撮影画像を対象として行う。 For example, the retouching processing unit 452 detects the user's eyes appearing in the captured image and adjusts the size of the detected eyes for each captured image. The retouching processing unit 452 performs a plurality of types of image processing other than adjusting the size of the eyes on each captured image.

ステップS63において、領域検出部451は、撮影画像に写る利用者の目の領域を検出する。 In step S63, the area detection unit 451 detects the area of the user's eyes in the captured image.

ステップS64において、まつげ処理部454は、撮影画像に写っているまつげを強調する画像処理であるまつげ処理を行う。まつげ処理の詳細については図31のフローチャートを参照して後述する。 In step S64, the eyelash processing unit 454 performs eyelash processing, which is an image process for emphasizing the eyelashes appearing in the captured image. The details of the eyelash processing will be described later with reference to the flowchart of FIG.

ステップS65において、縮小部455は、まつげ処理部454から供給された撮影画像を縮小して編集用の撮影画像を生成する。 In step S65, the reduction unit 455 reduces the captured image supplied from the eyelash processing unit 454 to generate a captured image for editing.

ステップS66において、編集用画像生成部432は、全ての撮影画像の処理が終わったか否かを判定し、まだ処理が終わっていない撮影画像があると判定した場合、ステップS61以降の処理を繰り返し実行する。 In step S66, the editing image generation unit 432 determines whether or not the processing of all the captured images has been completed, and if it is determined that there is a captured image that has not been processed yet, the processes after step S61 are repeatedly executed. To do.

全ての撮影画像の処理が終わったとステップS66において判定した場合、図27のステップS42に戻り、それ以降の処理が行われる。 If it is determined in step S66 that the processing of all the captured images has been completed, the process returns to step S42 in FIG. 27, and subsequent processing is performed.

<まつげ処理>
次に、図31のフローチャートを参照して、図30のステップS64において行われるまつげ処理について説明する。
<Eyelash processing>
Next, the eyelash processing performed in step S64 of FIG. 30 will be described with reference to the flowchart of FIG. 31.

ステップS81において、まつげ処理部454は、性別判定部453による性別の判定結果に基づいて、処理対象になっている撮影画像に女性が写っているか否かを判定する。 In step S81, the eyelash processing unit 454 determines whether or not a woman is included in the photographed image to be processed, based on the gender determination result by the gender determination unit 453.

上述したように、まつげを強調する画像処理であるまつげ処理は、女性だけを対象として行われ、男性を対象としては行われない。処理対象になっている撮影画像に女性が写っていない、すなわち、撮影画像に写っている利用者全員が男性であるとステップS81において判定された場合、図31のステップS82以降の処理はスキップされる。 As described above, the eyelash processing, which is an image processing for emphasizing the eyelashes, is performed only for women, not for men. If it is determined in step S81 that no woman is shown in the captured image to be processed, that is, all the users in the captured image are men, the processes after step S82 in FIG. 31 are skipped. To.

これにより、男性のまつげを強調するような画像処理が行われるのを防ぐことが可能となる。 This makes it possible to prevent image processing that emphasizes male eyelashes from being performed.

ステップS82以降の処理のうちの少なくとも一部の処理が、男性を対象として行われるようにしてもよい。 At least a part of the processes after step S82 may be performed for men.

処理対象になっている撮影画像に女性が写っているとステップS81において判定された場合、処理はステップS82に進む。複数の女性が写っている場合、1人ずつ注目してステップS82以降の処理が行われる。 If it is determined in step S81 that a woman is shown in the captured image to be processed, the process proceeds to step S82. When a plurality of women are shown, the processes after step S82 are performed by paying attention to each woman.

ステップS82において、逆さまつげ除去部461は、目の領域のうちの白目領域に含まれる異常画素を検出し、周辺画素で補間することによって逆さまつげを除去する。 In step S82, the upside-down eyelid removing unit 461 detects an abnormal pixel included in the white-eye area of the eye area and removes the upside-down eyelid by interpolating with peripheral pixels.

ステップS83において、変形部462は、図24を参照して説明したようにして、目の上側の輪郭の形状に合わせて、まつげ画像を変形させる。 In step S83, the deforming portion 462 deforms the eyelash image according to the shape of the contour on the upper side of the eye as described with reference to FIG. 24.

ステップS84において、合成部463は、変形部462により変形されたまつげ画像を、撮影画像に写る、処理対象の女性の目の上側の輪郭に沿って合成する。 In step S84, the compositing unit 463 synthesizes the eyelash image deformed by the deforming portion 462 along the upper contour of the eye of the woman to be processed, which is reflected in the captured image.

ここで、処理対象の女性の両方の目が開いている場合、両目に対してまつげ画像の合成が行われる。例えば、閾値となる度合いより目の開きの度合いが低い場合(閉じている場合)、まつげ画像の合成を含むまつげを強調する処理が、その閉じている目を対象としては行われないようにしてもよい。 Here, when both eyes of the woman to be processed are open, the eyelash image is synthesized for both eyes. For example, if the degree of eye opening is lower than the threshold (when the eye is closed), the process of emphasizing the eyelashes, including the composition of the eyelash image, should not be performed for the closed eye. May be good.

ウインクなどをして閉じている目を対象としてまつげの強調が行われるとした場合、不自然な見栄えになる可能性があるが、そのようなことを防ぐことが可能となる。 If the eyelashes are emphasized by winking the eyes that are closed, the appearance may be unnatural, but such a situation can be prevented.

ステップS85において、まつげ強調処理部464は、まつげを画像処理によって強調させる。例えば、上まつげと下まつげを検出し、その1本1本を太くしたり、濃くしたりすることによって、まつげの強調が行われる。まつげの1本1本を太くしたり、濃くしたりする処理は、上まつげとして合成されたまつげ画像を構成するまつげの1本1本に対しても施される。 In step S85, the eyelash enhancement processing unit 464 enhances the eyelashes by image processing. For example, the upper eyelashes and the lower eyelashes are detected, and each of them is thickened or thickened to emphasize the eyelashes. The process of thickening or thickening each eyelash is also applied to each eyelash that constitutes the eyelash image synthesized as the upper eyelash.

すなわち、この例においては、上まつげに対しては、まつげ画像の合成に加えて、さらに、1本1本を太くしたりする処理が施されることになる。また、上まつげと下まつげは、それぞれ異なる処理によって強調されることになる。 That is, in this example, the upper eyelashes are further subjected to a process of thickening each eyelash in addition to the composition of the eyelash images. In addition, the upper eyelashes and the lower eyelashes will be emphasized by different treatments.

その後、図30のステップS64に戻り、それ以降の処理が行われる。 After that, the process returns to step S64 of FIG. 30 and the subsequent processing is performed.

以上のように、撮影画像に写る女性に対するまつげの強調は、テンプレートとして用意されたまつげ画像をそのまま合成するのではなく、目の輪郭の形状に合わせて変形させたまつげ画像を合成するようにして行われる。 As described above, the emphasis on the eyelashes for women in the captured image is not to combine the eyelash images prepared as a template as they are, but to combine the eyelash images deformed according to the shape of the contour of the eyes. Will be done.

撮影時の表情などにより、それぞれの利用者の目の形状は異なるものとなる。それぞれの利用者の目の形状に合わせて変形させたまつげ画像を合成することにより、より自然な形でまつげを強調させ、目を大きく見せることが可能となる。 The shape of each user's eyes will differ depending on the facial expression at the time of shooting. By synthesizing the eyelash images deformed according to the shape of each user's eyes, it is possible to emphasize the eyelashes in a more natural way and make the eyes look larger.

また、まつげ画像の合成後、上まつげと下まつげの1本1本を強調することにより、まつげ画像として合成されたまつげを、利用者の自分のまつげに馴染ませることが可能となる。 In addition, by emphasizing each of the upper eyelashes and the lower eyelashes after synthesizing the eyelash images, it is possible to blend the combined eyelashes as the eyelash image with the user's own eyelashes.

<メイクツール機能>
・アイカラーツール
ここで、編集画面に用意されるメイクツールを用いた編集について説明する。
<Makeup tool function>
-Eye color tool Here, editing using the make-up tool prepared on the edit screen will be described.

図32は、メイクツール選択中の、図29の編集パレット503Rを拡大して示す図である。 FIG. 32 is an enlarged view showing the editing palette 503R of FIG. 29 while the make tool is being selected.

編集パレット503Rの上には、メイクツールの選択に用いられる選択ボタン511−1乃至511−5が並べて表示される。 On the edit palette 503R, selection buttons 511-1 to 511-5 used for selecting a make tool are displayed side by side.

選択ボタン511−1は、小顔に見えるためのメイクを行う小顔ツールを選択するときに押下されるボタンである。 The selection button 511-1 is a button that is pressed when selecting a small face tool for making a small face to look like a small face.

選択ボタン511−2は、黒目部分の色を変えるアイカラーツールを選択するときに押下されるボタンである。利用者は、アイカラーツールを使うことにより、カラーコンタクトレンズを装着しているかのようなメイクをすることができる。図32の例においては、選択ボタン511−2が押下され、アイカラーツールが選択されている。 The selection button 511-2 is a button that is pressed when selecting an eye color tool that changes the color of the black eye portion. By using the eye color tool, the user can make up as if he / she is wearing colored contact lenses. In the example of FIG. 32, the selection button 511-2 is pressed and the eye color tool is selected.

選択ボタン511−3は、目の輪郭の濃さを調整する輪郭濃度調整ツールを選択するときに押下されるボタンである。 The selection button 511-3 is a button pressed when selecting a contour density adjusting tool for adjusting the density of the contour of the eye.

選択ボタン511−4は、唇の色を変えるリップツールを選択するときに押下されるボタンである。選択ボタン511−5は、チークの色を変えるチークツールを選択するときに押下されるボタンである。 The selection button 511-4 is a button pressed when selecting a lip tool that changes the color of the lips. The selection button 511-5 is a button that is pressed when selecting a cheek tool that changes the color of the cheek.

アイカラーツールが選択されている場合、図32に示すように、編集パレット503Rの左側には顔画像領域512が表示される。顔画像領域512は、顔認識を行うことによって切り出された、撮影画像に写る利用者の顔の画像の表示領域である。 When the eye color tool is selected, the face image area 512 is displayed on the left side of the editing palette 503R, as shown in FIG. The face image area 512 is a display area of the user's face image captured in the captured image, which is cut out by performing face recognition.

顔画像領域512に顔が表示されている利用者を対象として、黒目の色を変更する処理である黒目処理が黒目処理部433A(図19)により行われる。図32の例においては、図29において編集領域501Rに表示されている撮影画像に写る2人の利用者のうちの右側の利用者がアイカラーツールの対象の利用者として表示されている。 The black eye processing unit 433A (FIG. 19) performs the black eye processing, which is a process of changing the color of the black eyes, for the user whose face is displayed in the face image area 512. In the example of FIG. 32, the user on the right side of the two users shown in the captured image displayed in the editing area 501R in FIG. 29 is displayed as the target user of the eye color tool.

顔画像領域512の下には、アイカラーツールの対象とする利用者を切り替えるときに押下される切り替えボタン513が表示される。 Below the face image area 512, a switching button 513 that is pressed when switching the target user of the eye color tool is displayed.

顔画像領域512の右側には、アイカラーの選択に用いられるボタンであるカラー選択ボタン514−1乃至514−4が表示される。円形のボタンであるカラー選択ボタン514−1乃至514−4には、それぞれ、ブラウン、ショコラ、グレー、ブラックの色が割り当てられている。 On the right side of the face image area 512, color selection buttons 514-1 to 514-4, which are buttons used for selecting the eye color, are displayed. The color selection buttons 514-1 to 514-4, which are circular buttons, are assigned colors of brown, chocolate, gray, and black, respectively.

例えばカラー選択ボタン514−1が押下された場合、編集領域501Rに表示されている撮影画像に写る利用者のうち、アイカラーツールの対象として選択されている利用者の黒目領域の色がブラウンに変更される。 For example, when the color selection button 514-1 is pressed, the color of the black eye area of the user selected as the target of the eye color tool among the users reflected in the captured image displayed in the editing area 501R becomes brown. Be changed.

また、カラー選択ボタン514−2が押下された場合、編集領域501Rに表示されている撮影画像に写る利用者のうち、アイカラーツールの対象として選択されている利用者の黒目領域の色がショコラに変更される。 When the color selection button 514-2 is pressed, the color of the black eye area of the user selected as the target of the eye color tool among the users reflected in the captured image displayed in the editing area 501R is chocolate. Is changed to.

図33は、アイカラーツールによって生成される画像の例を示す図である。 FIG. 33 is a diagram showing an example of an image generated by the eye color tool.

撮影画像P101が編集対象として選択され、右側の利用者がアイカラーツールの対象として選択されている場合、カラー選択ボタン514−1乃至514−4が押下されることに応じて、編集領域501Rの撮影画像が、枠Fで囲んで示す右側の利用者の黒目領域の色が変更された撮影画像P101−1乃至P101−4に切り替えられる。 When the captured image P101 is selected as the editing target and the user on the right side is selected as the target of the eye color tool, the color selection buttons 514-1 to 514-4 are pressed, and the editing area 501R is selected. The captured image is switched to the captured images P101-1 to P101-4 in which the color of the black eye region of the user on the right side, which is surrounded by the frame F, is changed.

図33の例においては同じ画像として示されているが、撮影画像P101−1は、右側の利用者の黒目領域の色がブラウンに変更された画像であり、撮影画像P101−2は、右側の利用者の黒目領域の色がショコラに変更された画像である。撮影画像P101−3は、右側の利用者の黒目領域の色がグレーに変更された画像であり、撮影画像P101−4は、右側の利用者の黒目領域の色がブラックに変更された画像である。 In the example of FIG. 33, the same image is shown, but the captured image P101-1 is an image in which the color of the black eye region of the user on the right side is changed to brown, and the captured image P101-2 is the image on the right side. This is an image in which the color of the user's black eye area is changed to chocolate. The photographed image P101-3 is an image in which the color of the black eye area of the user on the right side is changed to gray, and the photographed image P101-4 is an image in which the color of the black eye area of the user on the right side is changed to black. is there.

切り替えボタン513が押下される毎に、左側に写る利用者、右側に写る利用者、2人の利用者の順に、アイカラーツールの対象とする利用者が切り替えられる。 Each time the switching button 513 is pressed, the user to be the target of the eye color tool is switched in the order of the user on the left side, the user on the right side, and the two users.

例えば、アイカラーツールの対象とする利用者が左側に写る利用者として選択されている場合、カラー選択ボタン514−1乃至514−4が押下されることに応じて、編集領域501Rの撮影画像が、左側の利用者の黒目領域の色が変更された撮影画像に切り替えられる。 For example, when the target user of the eye color tool is selected as the user to be reflected on the left side, the captured image in the editing area 501R is displayed in response to the pressing of the color selection buttons 514-1 to 514-4. , The color of the black eye area of the user on the left side can be switched to the changed captured image.

また、アイカラーツールの対象とする利用者が全員である2人の利用者として選択されている場合、カラー選択ボタン514−1乃至514−4が押下されることに応じて、編集領域501Rの撮影画像が、左側と右側の2人の利用者の黒目領域の色が変更された撮影画像に切り替えられる。 Further, when the target users of the eye color tool are selected as two users who are all, the color selection buttons 514-1 to 514-4 are pressed, and the editing area 501R The captured image is switched to the captured image in which the colors of the black eye areas of the two users on the left and right sides have been changed.

このように、アイカラーツールを利用することにより、利用者は、1枚の撮影画像毎に、かつ、撮影画像に写っている利用者毎に、黒目の色を変えることができる。また、利用者は、2人の利用者の目の色を同時に変えることもできる。 In this way, by using the eye color tool, the user can change the color of the black eye for each photographed image and for each user reflected in the photographed image. The user can also change the eye color of the two users at the same time.

図32のカラー選択ボタン514−4の右下には、アイカラーツールの機能をオフにするときに押下されるオフボタン515が表示される。オフボタン515が押下された場合、編集領域501Rには、黒目処理が施されていない撮影画像が表示される。 At the lower right of the color selection button 514-4 of FIG. 32, an off button 515 that is pressed when the function of the eye color tool is turned off is displayed. When the off button 515 is pressed, the captured image without the black eye processing is displayed in the editing area 501R.

図34は、アイカラーツール選択時の画像処理に用いられるマスク画像の例を示す図である。 FIG. 34 is a diagram showing an example of a mask image used for image processing when the eye color tool is selected.

編集用の撮影画像の生成時、図34Aに示す撮影画像P101に基づいて、図34Bに示すような、目の各領域を表すマスク画像が生成される。上述したように、編集用の撮影画像の生成時、編集用画像生成部432の領域検出部451(図20)においては、機械学習により生成された予測モデルを用いて、目の各領域などを表すマスク画像Mが生成される。 At the time of generating the photographed image for editing, a mask image representing each region of the eye as shown in FIG. 34B is generated based on the photographed image P101 shown in FIG. 34A. As described above, when the captured image for editing is generated, the area detection unit 451 (FIG. 20) of the editing image generation unit 432 uses the prediction model generated by machine learning to detect each region of the eye and the like. A mask image M to represent is generated.

図34Bの例においては、マスク画像Mを構成する画素のうち、2人の利用者のそれぞれの目の輪郭、目の黒目の輪郭、およびまつげを表す画素が白色の画素によって表されている。このようなマスク画像Mを用いて、黒目処理部433Aにより黒目処理が行われる。 In the example of FIG. 34B, among the pixels constituting the mask image M, the contours of the eyes of the two users, the contours of the black eyes of the eyes, and the pixels representing the eyelashes are represented by white pixels. Using such a mask image M, black eye processing is performed by the black eye processing unit 433A.

図35は、黒目領域の色の変更の例を示す図である。 FIG. 35 is a diagram showing an example of changing the color of the black eye region.

アイカラーツールによって黒目の色を変更することが選択された場合、黒目処理部433Aは、マスク画像Mを用いて、アイカラーツールの対象とする利用者の黒目領域を抽出する。図35の上段の例においては、右目ERの黒目領域A11Rと、左目ELの黒目領域A11Lがマスク画像Mに基づいて抽出されている。 When it is selected to change the color of the black eye by the eye color tool, the black eye processing unit 433A extracts the black eye region of the user who is the target of the eye color tool by using the mask image M. In the upper example of FIG. 35, the black eye region A11 R of the right eye E R and the black eye region A11 L of the left eye E L are extracted based on the mask image M.

また、黒目処理部433Aは、抽出した黒目領域である黒目領域A11R,A11Lを構成する画素の色を、ブラウン、ショコラ、グレー、ブラックの中から利用者により選択された色に変更する。図35の下段において黒目領域A11R,A11Lにハッチを付して示していることは、黒目領域A11R,A11Lの画素の色が変更されていることを表す。 Further, the black eye processing unit 433A changes the color of the pixels constituting the black eye areas A11 R and A11 L, which are the extracted black eye areas, to a color selected by the user from brown, chocolate, gray, and black. That are shown hatched in the iris region A11 R, A11 L in the lower part of FIG. 35 indicates that the color of a pixel of the iris region A11 R, A11 L is changed.

黒目領域を構成する画素の色の変更は、例えば、オリジナルの色の色相を、選択された色に応じた量だけ変更するようにして行われる。ブラウン、ショコラ、グレー、ブラックのそれぞれの色に対しては、変更の程度(量)を含む、色相の変更の仕方があらかじめ設定されている。 The color of the pixels constituting the black eye region is changed, for example, by changing the hue of the original color by an amount corresponding to the selected color. For each of the brown, chocolate, gray, and black colors, the method of changing the hue, including the degree (amount) of the change, is preset.

すなわち、選択された色に変更するのではなく、オリジナルの黒目の色を基準にして、その基準の色を、選択された色に応じて調整するようにして色の変更が行われる。 That is, instead of changing to the selected color, the color is changed by adjusting the reference color according to the selected color based on the original black eye color.

色相ではなく、明度、彩度などの他のパラメータを変更することによって、または、複数のパラメータの組み合わせを変更することによって、黒目領域の色が変更されるようにしてもよい。 The color of the black eye region may be changed by changing other parameters such as lightness and saturation instead of hue, or by changing the combination of a plurality of parameters.

黒目領域を構成する各画素に対してフィルタ処理を施したり、所定のトーンカーブを用いて輝度を調整したりするようにして色の変更が行われるようにしてもよい。 The color may be changed by applying a filter process to each pixel constituting the black eye region or adjusting the brightness by using a predetermined tone curve.

このように、黒目領域の色の変更は、黒目領域の形状と同じ形状を有する略円形の画像を撮影画像の上に合成するのではなく、撮影画像の画素の色自体を変更するようにして行われる。また、人ごとに微妙に異なるオリジナルの色を元にして、オリジナルの色を変更するようにして黒目領域の色の変更が行われる。 In this way, changing the color of the black eye region does not combine a substantially circular image having the same shape as the black eye region on the captured image, but changes the pixel color itself of the captured image. Will be done. In addition, the color of the black eye region is changed by changing the original color based on the original color that is slightly different for each person.

ブラウン、ショコラ、グレー、ブラックの中から同じ色を選択したとしても人ごとに微妙に異なる色となるため、黒目領域の印象を、違和感なく、自然な見映えがする状態で変更することが可能となる。 Even if the same color is selected from brown, chocolate, gray, and black, the color will be slightly different for each person, so it is possible to change the impression of the black eye area in a state that looks natural without discomfort. It becomes.

仮に、所定の色の円形の画像を黒目領域に合成する形で黒目領域の色の変更が行われるとした場合、人によっては、黒目領域の色が大きく変わってしまったり、目の向きやストロボ光の当たり方などに応じた見え方の違いが損なわれてしまったりすることがあるが、そのような不自然な色の変更が行われるのを防ぐことが可能となる。 If the color of the black eye area is changed by synthesizing a circular image of a predetermined color with the black eye area, the color of the black eye area may change significantly depending on the person, or the direction of the eyes or the strobe. The difference in appearance depending on how the light hits may be impaired, but it is possible to prevent such an unnatural color change.

・輪郭濃度調整ツール
次に、輪郭濃度調整ツールを用いて行われる目の輪郭の濃さの調整について説明する。
-Contour density adjustment tool Next, the adjustment of the contour density of the eyes performed using the contour density adjustment tool will be described.

選択ボタン511−3が押下された場合、編集パレット503Rには、例えば、目の輪郭の濃さの調整に用いられるスライドバーが表示される。編集パレット503Rの左側には顔画像領域512が表示される。 When the selection button 511-3 is pressed, the edit palette 503R displays, for example, a slide bar used for adjusting the density of the contour of the eye. The face image area 512 is displayed on the left side of the editing palette 503R.

顔画像領域512に顔が表示されている利用者を対象として、目の輪郭の濃さを変更する処理である輪郭濃度調整処理が輪郭調整部433B(図19)により行われる。輪郭濃度調整処理も、領域検出部451により生成されたマスク画像Mを用いて行われる。 For the user whose face is displayed in the face image area 512, the contour density adjustment process, which is a process of changing the density of the contour of the eyes, is performed by the contour adjustment unit 433B (FIG. 19). The contour density adjustment process is also performed using the mask image M generated by the area detection unit 451.

図36は、目の輪郭の濃さの調整の例を示す図である。 FIG. 36 is a diagram showing an example of adjusting the density of the contour of the eye.

目の輪郭を濃くすることが輪郭濃度調整ツールによって選択された場合、輪郭調整部433Bは、目の輪郭、目の黒目の輪郭、および、まつげを、マスク画像Mを用いて抽出する。 When darkening the contour of the eye is selected by the contour density adjusting tool, the contour adjusting unit 433B extracts the contour of the eye, the contour of the black eye of the eye, and the eyelashes by using the mask image M.

また、輪郭調整部433Bは、抽出したそれぞれの部分が濃くなるように、画素の色を調整する。例えば、抽出したそれぞれの部分を太くすることによって、または、色を濃くすることによって、目の輪郭、目の黒目の輪郭、および、まつげの調整が行われる。図36の下段の例においては、目の輪郭、目の黒目の輪郭(左右の縁)、および、まつげが、図36の上段の状態より濃い状態で示されている。 Further, the contour adjusting unit 433B adjusts the color of the pixel so that each of the extracted portions becomes darker. For example, the contours of the eyes, the contours of the black eyes of the eyes, and the eyelashes are adjusted by thickening each extracted portion or by darkening the color. In the lower example of FIG. 36, the contours of the eyes, the contours of the black eyes (left and right edges), and the eyelashes are shown in a darker state than in the upper state of FIG.

図37は、目の輪郭の濃さの調整の他の例を示す図である。 FIG. 37 is a diagram showing another example of adjusting the density of the contour of the eye.

目の輪郭を薄くすることが輪郭濃度調整ツールによって選択された場合、輪郭調整部433Bは、目の輪郭、目の黒目の輪郭、および、まつげを、マスク画像Mを用いて抽出する。 When thinning the contour of the eye is selected by the contour density adjusting tool, the contour adjusting unit 433B extracts the contour of the eye, the contour of the black eye of the eye, and the eyelashes by using the mask image M.

また、輪郭調整部433Bは、抽出したそれぞれの部分が薄くなるように、画素の色を調整する。例えば、抽出したそれぞれの部分を細くすることによって、または、色を薄くすることによって、目の輪郭、目の黒目の輪郭、および、まつげの調整が行われる。 Further, the contour adjusting unit 433B adjusts the color of the pixel so that each of the extracted portions becomes lighter. For example, the contours of the eyes, the contours of the black eyes of the eyes, and the eyelashes are adjusted by making each of the extracted parts thinner or lighter in color.

このように、目の輪郭の調整は、マスク画像Mに基づいて、目の輪郭、目の黒目の輪郭、および、まつげを一体として調整するようにして行われる。スライドバーが複数表示され、目の輪郭、目の黒目の輪郭、および、まつげの濃さのそれぞれを調整することができるようにしてもよい。 In this way, the eye contour is adjusted by adjusting the eye contour, the black eye contour of the eye, and the eyelashes as a unit based on the mask image M. A plurality of slide bars may be displayed so that the contours of the eyes, the contours of the black eyes, and the darkness of the eyelashes can be adjusted.

このような輪郭濃度調整処理が、輪郭濃度調整ツールの対象とする利用者を選択して行われる。 Such contour density adjustment processing is performed by selecting a user to be the target of the contour density adjustment tool.

例えば、図32を参照して説明したように、輪郭濃度調整ツールの対象とする利用者が右側に写る利用者として選択されている場合、スライドバーが操作されることに応じて、編集領域501Rの撮影画像が、右側の利用者の目の輪郭の濃さが変更された撮影画像に切り替えられる。 For example, as described with reference to FIG. 32, when the target user of the contour density adjustment tool is selected as the user to be reflected on the right side, the editing area 501R is operated according to the operation of the slide bar. The captured image of is switched to the captured image in which the density of the contour of the right user's eyes is changed.

同様に、輪郭濃度調整ツールの対象とする利用者が左側に写る利用者として選択されている場合、スライドバーが操作されることに応じて、編集領域501Rの撮影画像が、左側の利用者の目の輪郭の濃さが変更された撮影画像に切り替えられる。 Similarly, when the target user of the contour density adjustment tool is selected as the user to be reflected on the left side, the captured image of the editing area 501R is displayed on the left side of the user in response to the operation of the slide bar. You can switch to the captured image with the density of the outline of the eyes changed.

また、輪郭濃度調整ツールの対象とする利用者が2人の利用者として選択されている場合、スライドバーが操作されることに応じて、編集領域501Rの撮影画像が、左側と右側の2人の利用者の目の輪郭の濃さが変更された撮影画像に切り替えられる。 Further, when the target users of the contour density adjustment tool are selected as two users, the captured images of the editing area 501R are displayed on the left side and the right side in response to the operation of the slide bar. It is possible to switch to the captured image in which the density of the contour of the user's eyes is changed.

このように、輪郭濃度調整ツールを利用することにより、利用者は、1枚の撮影画像毎に、かつ、撮影画像に写っている利用者毎に、目の輪郭の濃さを変えることができる。また、利用者は、2人の利用者の目の輪郭の濃さを同時に変えることもできる。 In this way, by using the contour density adjustment tool, the user can change the density of the contour of the eyes for each photographed image and for each user reflected in the photographed image. .. The user can also change the density of the contours of the eyes of the two users at the same time.

アイカラーツールと輪郭濃度調整ツールを合わせて利用することにより、利用者は、黒目の色については利用者毎に個別に調整し、目の輪郭などの濃さについては2人まとめて調整するといったことが可能となる。また、利用者は、黒目の色については2人まとめて調整し、目の輪郭などの濃さについては利用者毎に個別に調整するといったことが可能となる。 By using the eye color tool and the contour density adjustment tool together, the user adjusts the color of the black eyes individually for each user, and adjusts the darkness of the contours of the eyes together. It becomes possible. In addition, it is possible for two users to adjust the color of the black eyes together and to adjust the darkness of the contours of the eyes individually for each user.

<変形例>
・他のメイクツールの例
メイクツールとして用意されるリップツール、チークツールを用いた処理が、アイカラーツールと同様にして行われるようにしてもよい。
<Modification example>
-Examples of other make-up tools Processing using the lip tool and cheek tool prepared as make-up tools may be performed in the same way as the eye color tool.

例えば選択ボタン511−4が押下され、リップツールが選択された場合、リップツールの対象として選択された利用者の唇の色が、編集パレット503Rに表示されたボタンを用いて選択された色に応じて変更される。マスク画像を用いて抽出された唇領域を構成する画素の色の変更が、オリジナルの唇の色を基準にして、その基準の色を、選択された色に応じて調整するようにして行われる。 For example, when the selection button 511-4 is pressed and the lip tool is selected, the color of the lips of the user selected as the target of the lip tool becomes the color selected using the button displayed on the edit palette 503R. It will be changed accordingly. The color of the pixels that make up the lip region extracted using the mask image is changed based on the original lip color, and the reference color is adjusted according to the selected color. ..

・出力先に応じた処理の切り替え
アイカラーツールによって色が変更される黒目領域は、画像全体に対して狭い領域である。仮に、黒目領域の色を変更した複数枚の画像を並べてシール紙に印刷した場合、それぞれの画像に写る黒目が小さいために、レイアウトによっては、黒目領域の色の違いを表現できないことがある。また、黒目全体が不自然な色に見えてしまうことがある。
-Switching processing according to the output destination The black eye area whose color is changed by the eye color tool is a narrow area with respect to the entire image. If a plurality of images in which the color of the black eye area is changed are printed side by side on a sticker paper, the difference in color of the black eye area may not be expressed depending on the layout because the black eyes appearing in each image are small. Also, the entire black eye may appear unnatural.

アイカラーツールによる黒目領域の色の変更が、編集画面に表示する画像には反映され、シール紙に印刷する画像には反映されないようにしてもよい。この場合、それぞれの撮影画像を対象として、編集画面に表示する画像を生成するための処理と、シール紙に印刷する画像を生成するための処理とが、利用者の操作に応じて行われることになる。 The change in the color of the black eye area by the eye color tool may be reflected in the image displayed on the editing screen and not reflected in the image printed on the sticker paper. In this case, for each photographed image, the process for generating the image to be displayed on the edit screen and the process for generating the image to be printed on the sticker paper are performed according to the operation of the user. become.

すなわち、撮影画像P101が編集対象として選択されている場合において、アイカラーツールによる黒目領域の色の変更が利用者により指示された場合、黒目領域の色を変更した撮影画像P101が、編集画面に表示する画像として生成されるとともに、黒目領域の色を変更していない撮影画像P101が、シール紙に印刷する画像として生成される。 That is, when the captured image P101 is selected as the editing target and the user instructs the user to change the color of the black eye region by the eye color tool, the captured image P101 having the color of the black eye region changed is displayed on the editing screen. The photographed image P101 in which the color of the black eye region is not changed is generated as an image to be displayed and is generated as an image to be printed on the sticker paper.

これにより、画像の出力先に応じて適切な画像を生成することができ、不自然な見え方の画像がシール紙に印刷されてしまうといったことを防ぐことが可能となる。 As a result, an appropriate image can be generated according to the output destination of the image, and it is possible to prevent an image having an unnatural appearance from being printed on the sticker paper.

なお、黒目領域の色を変更した状態で編集画面に表示された撮影画像P101に対しては、各種の編集ツールを用いた編集が利用者の操作に応じて施される。編集については施され、黒目領域の色については変更されていない画像がシール紙には印刷されることになる。 The captured image P101 displayed on the editing screen with the color of the black eye region changed is edited by various editing tools according to the user's operation. An image that has been edited and the color of the black eye area has not been changed will be printed on the sticker paper.

画像の出力先が編集画面(タブレット内蔵モニタ131)またはシール紙であるものとしたが、他の出力先に応じて処理が切り替えられるようにしてもよい。出力先には、タッチパネルモニタ92などの写真シール作成装置1に設けられる構成だけでなく、利用者のスマートフォンのモニタ、画像管理サーバが含まれる。 Although the output destination of the image is assumed to be the editing screen (tablet built-in monitor 131) or sticker paper, the processing may be switched according to another output destination. The output destination includes not only the configuration provided in the photo sticker creating device 1 such as the touch panel monitor 92, but also the monitor of the user's smartphone and the image management server.

なお、画像の印刷媒体がシール紙である場合について説明したが、印刷用紙、樹脂製のカード、布などの各種の媒体がシール紙に代えて用いられるようにしてもよい。 Although the case where the image printing medium is the sticker paper has been described, various media such as the printing paper, the resin card, and the cloth may be used instead of the sticker paper.

・プログラムについて
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
-About the program The series of processes described above can be executed by hardware or software. When a series of processes are executed by software, the programs constituting the software are installed on a computer embedded in dedicated hardware, a general-purpose personal computer, or the like.

インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図16に示されるリムーバブルメディア319に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM312や記憶部316に、あらかじめインストールしておくことができる。 The installed program is provided by being recorded on a removable media 319 shown in FIG. 16 including an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.) or a semiconductor memory. It may also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting. The program can be pre-installed in the ROM 312 or the storage unit 316.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.

本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。 The effects described herein are merely exemplary and not limited, and may have other effects.

本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present technology is not limited to the above-described embodiment, and various changes can be made without departing from the gist of the present technology.

例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present technology can have a cloud computing configuration in which one function is shared and jointly processed by a plurality of devices via a network.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, each step described in the above-mentioned flowchart can be executed by one device or can be shared and executed by a plurality of devices.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.

1 写真シール作成装置, 66 鏡面部, 82 上ストロボユニット, 91 カメラ, 92 タッチパネルモニタ, 131 タブレット内蔵モニタ, 301 PC部, 302 事前選択部, 304 撮影部, 305 編集部, 306 印刷部, 401 事前選択処理部, 402 撮影処理部, 403 編集処理部, 404 印刷処理部, 411 撮影制御部, 412 画像処理部, 413 表示制御部, 414 画像記憶部, 431 選択受付部, 432 編集用画像生成部, 433 編集制御部, 434 表示制御部, 435 印刷データ生成部, 436 通信制御部, 451 領域検出部, 452 レタッチ処理部, 453 性別判定部, 454 まつげ処理部, 455 縮小部 1 Photo sticker making device, 66 Mirror surface unit, 82 Upper strobe unit, 91 Camera, 92 Touch panel monitor, 131 Tablet built-in monitor, 301 PC unit, 302 Preselection unit, 304 Imaging unit, 305 Editing department, 306 Printing unit, 401 Advance Selection processing unit, 402 Shooting processing unit, 403 Editing processing unit, 404 Printing processing unit, 411 Shooting control unit, 412 Image processing unit, 413 Display control unit, 414 Image storage unit, 431 Selection reception unit, 432 Editing image generation unit , 433 edit control unit, 434 display control unit, 435 print data generation unit, 436 communication control unit, 451 area detection unit, 452 retouch processing unit, 453 gender determination unit, 454 eyelid processing unit, 455 reduction unit.

Claims (11)

利用者を被写体として撮影して得られた撮影画像に写る前記利用者の目を検出する検出部と、
まつげを表す画像であるまつげ画像を、検出した目の輪郭の形状に合わせて変形させる変形部と、
変形後の前記まつげ画像を目の輪郭に沿って合成する合成部と
を備える画像処理装置。
A detection unit that detects the user's eyes in the captured image obtained by shooting the user as a subject, and
A deformed part that deforms the eyelash image, which is an image representing the eyelashes, according to the shape of the detected eye contour.
An image processing device including a compositing unit that synthesizes the deformed eyelash image along the contour of the eye.
前記まつげ画像は、上まつげを表す画像であり、
前記変形部は、検出した目の上側の輪郭の形状に合わせて前記まつげ画像を変形し、
前記合成部は、変形後の前記まつげ画像を目の上側の輪郭に沿って合成する
請求項1に記載の画像処理装置。
The eyelash image is an image showing the upper eyelash,
The deformed portion deforms the eyelash image according to the shape of the detected contour on the upper side of the eye.
The image processing apparatus according to claim 1, wherein the compositing unit synthesizes the deformed eyelash image along the contour of the upper side of the eye.
逆さまつげを検出し、画像処理によって除去する逆さまつげ除去部をさらに備える
請求項1または2に記載の画像処理装置。
The image processing apparatus according to claim 1 or 2, further comprising an upside-down thorn removing unit that detects an upside-down thorn and removes it by image processing.
前記逆さまつげ除去部は、白目領域に含まれる白色以外の色の画素を周辺の画素で補間することによって逆さまつげを除去する
請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the upside-down thorn removal unit removes upside-down thorns by interpolating pixels of a color other than white included in the white eye region with peripheral pixels.
前記合成部は、逆さまつげの除去が行われた後に、変形後の前記まつげ画像を合成する
請求項3または4に記載の画像処理装置。
The image processing apparatus according to claim 3 or 4, wherein the compositing unit synthesizes the deformed eyelash image after the upside-down eyelashes are removed.
上下のうちの少なくとも一方のまつげを画像処理によって強調する強調処理部をさらに備える
請求項1乃至5のいずれかに記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 5, further comprising an emphasizing processing unit that emphasizes at least one of the upper and lower eyelashes by image processing.
前記撮影画像に写る前記利用者の性別を判定する判定部をさらに備え、
前記合成部は、前記まつげ画像の合成を、女性の目を対象として行い、男性の目を対象としては行わない
請求項1乃至6のいずれかに記載の画像処理装置。
A determination unit for determining the gender of the user reflected in the captured image is further provided.
The image processing apparatus according to any one of claims 1 to 6, wherein the synthesizing unit synthesizes the eyelash image for female eyes and not for male eyes.
前記まつげ画像の合成後の前記撮影画像を縮小し、編集用の画像を生成する編集用画像生成部と、
前記利用者による操作に応じて、前記編集用の画像に対して編集を施す編集処理部と
をさらに備える請求項1乃至7のいずれかに記載の画像処理装置。
An editing image generation unit that reduces the captured image after synthesizing the eyelash images and generates an image for editing.
The image processing apparatus according to any one of claims 1 to 7, further comprising an editing processing unit that edits the image for editing in response to an operation by the user.
前記検出部は、前記撮影画像に写る複数の前記利用者のそれぞれの目を検出し、
前記変形部は、前記まつげ画像を、それぞれの前記利用者の目の輪郭の形状に合わせて変形させ、
前記合成部は、前記撮影画像に写る複数の前記利用者の全員を対象として、変形後の前記まつげ画像の合成を行う
請求項1乃至8のいずれかに記載の画像処理装置。
The detection unit detects each eye of the plurality of users reflected in the captured image, and detects the eyes of the plurality of users.
The deformed portion deforms the eyelash image according to the shape of the contour of each user's eyes.
The image processing apparatus according to any one of claims 1 to 8, wherein the compositing unit synthesizes the deformed eyelash image for all of the plurality of users appearing in the captured image.
画像処理装置が、
利用者を被写体として撮影して得られた撮影画像に写る前記利用者の目を検出し、
まつげを表す画像であるまつげ画像を、検出した目の輪郭の形状に合わせて変形させ、
変形後の前記まつげ画像を目の輪郭に沿って合成する
画像処理方法。
The image processing device
Detecting the user's eyes in the captured image obtained by shooting the user as a subject,
The eyelash image, which is an image representing the eyelashes, is deformed according to the shape of the detected eye contour.
An image processing method for synthesizing the deformed eyelash image along the contour of the eye.
コンピュータに、
利用者を被写体として撮影して得られた撮影画像に写る前記利用者の目を検出し、
まつげを表す画像であるまつげ画像を、検出した目の輪郭の形状に合わせて変形させ、
変形後の前記まつげ画像を目の輪郭に沿って合成する
処理を実行させるためのプログラム。
On the computer
Detecting the user's eyes in the captured image obtained by shooting the user as a subject,
The eyelash image, which is an image representing the eyelashes, is deformed according to the shape of the detected eye contour.
A program for executing a process of synthesizing the deformed eyelash image along the contour of the eye.
JP2019161940A 2019-09-05 2019-09-05 Image processing device, image processing method, and program Pending JP2021039654A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019161940A JP2021039654A (en) 2019-09-05 2019-09-05 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161940A JP2021039654A (en) 2019-09-05 2019-09-05 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021039654A true JP2021039654A (en) 2021-03-11

Family

ID=74846835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161940A Pending JP2021039654A (en) 2019-09-05 2019-09-05 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021039654A (en)

Similar Documents

Publication Publication Date Title
JP5748651B2 (en) Image processing apparatus, image processing method, and program
JP2023164461A (en) Image processing apparatus, image processing method, and program
JP2017121044A (en) Photo seal producing apparatus and image processing method
JP5825542B1 (en) Photo sticker creation apparatus and display method
JP7152687B2 (en) Display control device, display control method, program
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP7401727B2 (en) Image processing device, image processing method, and image processing program
JP7140962B2 (en) Image processing device, control method, and program
JP2021039654A (en) Image processing device, image processing method, and program
JP7132492B2 (en) Image processing device, display control method, and program
JP2018107515A (en) Photograph formation game machine and image processing method
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP7074994B2 (en) Photographing game console and image processing method
JP2020144780A (en) Image processing device, image processing method, and image processing program
JP2021044734A (en) Image processing device, image processing method, and program
JP6303561B2 (en) Image processing apparatus and photographing method
JP6465333B2 (en) Image processing apparatus and image processing method
JP6421969B2 (en) Image processing apparatus and control method
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP7319535B2 (en) Photo-making game machine, control method, and program
JP6982230B2 (en) Photographing game console and image processing method
JP7290826B2 (en) Image processing device, image processing method, and program
JP7319534B2 (en) camera
JP6376421B1 (en) Photo creation game machine, display method, and program
JP2024064430A (en) Photo creation game machine, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240319