JP2021043797A - Image processing device, image processing method, and image processing program - Google Patents

Image processing device, image processing method, and image processing program Download PDF

Info

Publication number
JP2021043797A
JP2021043797A JP2019166395A JP2019166395A JP2021043797A JP 2021043797 A JP2021043797 A JP 2021043797A JP 2019166395 A JP2019166395 A JP 2019166395A JP 2019166395 A JP2019166395 A JP 2019166395A JP 2021043797 A JP2021043797 A JP 2021043797A
Authority
JP
Japan
Prior art keywords
region
image processing
unit
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019166395A
Other languages
Japanese (ja)
Inventor
小林 潤一
Junichi Kobayashi
潤一 小林
卓麻 鈴木
Takuma Suzuki
卓麻 鈴木
真衣子 重松
Maiko Shigematsu
真衣子 重松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2019166395A priority Critical patent/JP2021043797A/en
Publication of JP2021043797A publication Critical patent/JP2021043797A/en
Pending legal-status Critical Current

Links

Images

Abstract

To identify a user's specific area to be processed and apply image processing preferable for the user.SOLUTION: An image processing device includes: a photographing unit (220) that photographs a user to generate image data; an extraction unit (303) that extracts a first area which is an outline area of a predetermined portion of the user's face from the image data using a predetermined image extraction method; a generation unit (304) that uses the first area to generate a second area including at least part of the first area and identified as an image processing object; and an image processing unit (305) that processes the second area of the image data by a predetermined method.SELECTED DRAWING: Figure 10

Description

本発明は、撮影した画像に写る顔の特定の部位を処理する画像処理装置、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing method, and an image processing program that process a specific part of a face appearing in a captured image.

従来、撮影した画像に所定の画像処理を行い、ユーザに提供する写真シール作成装置が知られている。具体的には、唇の部分を認識し、唇画像に対して、画像処理を施すものがある。(例えば、特許文献1参照)。 Conventionally, there is known a photo sticker creating device that performs predetermined image processing on a captured image and provides it to a user. Specifically, there is a device that recognizes the lip portion and performs image processing on the lip image. (See, for example, Patent Document 1).

特許文献1には、例えば、顔画像の中の下側の領域内に存在する所定の色の領域を唇として認識し、認識された唇の部分に対応するマスク画像を生成し、唇画像を生成することが記載される。 In Patent Document 1, for example, a region of a predetermined color existing in a lower region in a face image is recognized as a lip, a mask image corresponding to the recognized lip portion is generated, and the lip image is generated. Described to generate.

特許第5549727号公報Japanese Patent No. 5549727

特許文献1においては、位置や色によって唇部分を特定するため、顔の向き、唇の色、赤いニキビの存在、障害物の存在等によっては、唇を正確に特定できないおそれがあった。また、例えば、眼鏡を着用する等により、目を正確に特定できない等、他の部分についても正確に特定できないおそれがあった。 In Patent Document 1, since the lip portion is specified by the position and color, there is a possibility that the lips cannot be accurately specified depending on the orientation of the face, the color of the lips, the presence of red acne, the presence of obstacles, and the like. In addition, for example, by wearing eyeglasses, the eyes may not be accurately identified, and other parts may not be accurately identified.

本発明は、以上のような課題を解決し、処理対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施す画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。 The present invention provides an image processing apparatus, an image processing method, and an image processing program that solves the above problems, identifies a specific area of a user to be processed, and performs image processing preferable to the user. With the goal.

本発明に係る画像処理装置の第1の態様は、利用者を撮影し、画像データを生成する撮影部と、画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出する抽出部と、第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成する生成部と、画像データの前記第2の領域に対して定められる方法で処理する画像処理部とを備える。 A first aspect of the image processing apparatus according to the present invention is an imaging unit that photographs a user and generates image data, and a contour of a predetermined portion of the user's face using a predetermined image extraction method from the image data. An extraction unit that extracts a first region, which is a region, and a generation unit that uses the first region to generate a second region that includes at least a part of the first region and is specified as an image processing target. And an image processing unit that processes the second region of the image data by a predetermined method.

これにより、処理対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify a specific area of the user to be processed and perform image processing preferable to the user.

本発明に係る画像処理装置の第2の態様は、利用者を撮影し、画像データを生成する撮影部と、画像データから、セマンティックセグメンテーションを用いて利用者の顔の所定部位の輪郭領域である領域を抽出する抽出部と、第1の領域を用いて、当該第1の領域を少なくとも一部を含む第2の領域を生成する生成部と、画像データの前記第2の領域に対して定められる方法で処理する画像処理部とを備える。 A second aspect of the image processing apparatus according to the present invention is a photographing unit that photographs a user and generates image data, and a contour region of a predetermined portion of the user's face using semantic segmentation from the image data. An extraction unit for extracting a region, a generation unit for generating a second region including at least a part of the first region using the first region, and a second region of image data are defined. It is provided with an image processing unit that processes by the above-mentioned method.

これにより、処理対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify a specific area of the user to be processed and perform image processing preferable to the user.

抽出部は、利用者の口について、上唇と、下唇と、唇以外との第1の領域を抽出し、生成部は、各第1の領域に対応する第2の領域を生成し、画像処理部は、上唇の領域に対し上唇用の処理、下唇の領域に対し下唇用の処理を実行してもよい。 The extraction unit extracts a first region of the user's mouth from the upper lip, the lower lip, and other than the lips, and the generation unit generates a second region corresponding to each first region and images. The processing unit may perform a treatment for the upper lip on the region of the upper lip and a treatment for the lower lip on the region of the lower lip.

これにより、利用者の口について領域を特定し、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify an area of the user's mouth and perform image processing preferable to the user.

抽出部は、唇以外の第1の領域として、舌、歯、歯肉又は粘膜の少なくともいずれかを抽出し、生成部は、各第1の領域に対応する第2の領域を生成し、画像処理部は、生成部が生成した領域毎の処理を実行してもよい。 The extraction unit extracts at least one of the tongue, teeth, gingiva or mucous membrane as the first region other than the lips, and the generation unit generates a second region corresponding to each first region and performs image processing. The unit may execute processing for each area generated by the generation unit.

これにより、利用者の口の内部について領域を特定し、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify an area inside the user's mouth and perform image processing preferable to the user.

第2の領域のうち上唇と下唇の領域は、口紅を塗るのに好ましい範囲とすることができる。 The upper lip and lower lip areas of the second area can be the preferred areas for applying lipstick.

これにより、利用者の口の美観について、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to perform image processing preferable to the user with respect to the aesthetic appearance of the user's mouth.

抽出部は、利用者の目について、黒目の第1の領域を抽出し、生成部は、黒目の第1の領域に対応する第2の領域を生成し、画像処理部は、黒目の第2の領域に対し黒目用の処理を実行してもよい。 The extraction unit extracts the first region of the black eye for the user's eye, the generation unit generates the second region corresponding to the first region of the black eye, and the image processing unit generates the second region of the black eye. The processing for black eyes may be executed for the area of.

これにより、利用者の黒目について領域を特定し、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify an area for the user's black eye and perform image processing preferable to the user.

抽出部は、利用者の目について、白目の第1の領域を抽出し、生成部は、白目の第1の領域に対応する第2の領域を生成し、画像処理部は、白目の領域に対し白目用の処理を実行してもよい。 The extraction unit extracts the first region of the white eye for the user's eye, the generation unit generates the second region corresponding to the first region of the white eye, and the image processing unit generates the second region of the white eye. On the other hand, the process for white eyes may be executed.

これにより、利用者の白目について領域を特定し、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify an area for the white of the user and perform image processing preferable to the user.

第2の領域は、サイズ又は色の少なくともいずれかを変更するのに好ましい範囲とすることができる。 The second region can be a preferred range for changing at least either size or color.

これにより、利用者の目の美観について、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to perform image processing preferable to the user with respect to the aesthetic appearance of the user's eyes.

抽出部は、さらに、睫毛の第1の領域を抽出し、生成部は、睫毛の第1の領域に対応する第2の領域を生成し、画像処理部は、睫毛の第2の領域に対し睫毛用の処理を実行してもよい。 The extraction unit further extracts the first region of the eyelashes, the generation unit generates a second region corresponding to the first region of the eyelashes, and the image processing unit generates the second region of the eyelashes with respect to the second region of the eyelashes. Processing for eyelashes may be performed.

これにより、利用者の睫毛について領域を特定し、利用者にとって好ましい画像処理を施すことができる。 Thereby, the area of the eyelashes of the user can be specified, and image processing preferable to the user can be performed.

生成部は、予め生成された学習データを用いて学習された機械学習モデルを使用して第2の領域を生成してもよい。 The generation unit may generate a second region using a machine learning model learned using the learning data generated in advance.

これにより、生成された領域に対して画像処理することで、利用者にとって好ましい画像処理をすることができる。 As a result, it is possible to perform image processing preferable to the user by performing image processing on the generated area.

画像処理装置は、処理された画像データをシール紙にプリントする印刷処理部をさらに備えてもよい。 The image processing apparatus may further include a printing processing unit that prints the processed image data on the sticker paper.

これにより、画像処理された画像データをシール紙として提供することができる。 Thereby, the image-processed image data can be provided as a sticker paper.

本発明に係る画像処理方法の第1の態様は、利用者を撮影し、画像データを生成するステップと、画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出するステップと、第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成するステップと、画像データの第2の領域に対して定められる方法で処理するステップとを有する。 The first aspect of the image processing method according to the present invention is a step of photographing a user and generating image data, and a contour region of a predetermined portion of the user's face using a predetermined image extraction method from the image data. A step of extracting the first region, and a step of using the first region to generate a second region including at least a part of the first region and specified as an image processing target, and an image. It has a step of processing a second area of data in a defined manner.

これにより、処理対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify a specific area of the user to be processed and perform image processing preferable to the user.

本発明に係る画像処理プログラムの第1の態様は、コンピュータを、利用者を撮影し、画像データを生成する撮影部と、画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出する抽出部と、第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成する生成部と、画像データの第2の領域に対して定められる方法で処理する画像処理部として機能させる。 The first aspect of the image processing program according to the present invention is to use a computer, a photographing unit that photographs a user and generates image data, and a predetermined image extraction method from the image data to determine the user's face. Using the extraction unit that extracts the first region, which is the contour region of the portion, and the first region, a second region that includes at least a part of the first region and is specified as an image processing target is generated. It functions as a generation unit to be generated and an image processing unit that processes a second area of image data by a predetermined method.

これにより、処理対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify a specific area of the user to be processed and perform image processing preferable to the user.

本発明によれば、処理対象とする利用者の特定の領域を特定して画像処理を施すことができる。 According to the present invention, image processing can be performed by specifying a specific area of a user to be processed.

本発明の一実施形態である写真シール作成装置の斜視図である。It is a perspective view of the photographic sticker making apparatus which is one Embodiment of this invention. 写真シール作成装置の斜視図である。It is a perspective view of the photograph sticker making apparatus. 写真シール作成ゲーム中の利用者の空間移動を説明するための図である。It is a figure for demonstrating the space movement of a user in a photo sticker making game. 事前選択部の正面図である。It is a front view of the preselection part. 撮影部の正面図である。It is a front view of a photographing part. 背景部の撮影空間側の正面図である。It is a front view of the background part on the shooting space side. 編集ユニットの編集空間側の正面図である。It is a front view of the editing space side of an editing unit. 編集ユニットの左側面図である。It is a left side view of an editing unit. 写真シール作成装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the photographic sticker making apparatus. 写真シール作成装置の機能ブロックを示すブロック図である。It is a block diagram which shows the functional block of the photograph sticker making apparatus. 写真シール作成装置における口部分の領域抽出を説明する画像例である。This is an image example for explaining the area extraction of the mouth portion in the photo sticker making device. 写真シール作成装置における目部分の領域抽出を説明する画像例である。This is an image example for explaining the area extraction of the eye portion in the photo sticker making device. 写真シール作成装置で撮影される特徴的な口部分の画像の一例である。This is an example of a characteristic mouth image taken by a photo sticker making device. 写真シール作成装置で撮影される特徴的な口部分の画像の他の例である。This is another example of a characteristic mouth image taken by a photo sticker making device. 写真シール作成装置で撮影される特徴的な口部分の画像の他の例である。This is another example of a characteristic mouth image taken by a photo sticker making device. 写真シール作成装置で撮影される特徴的な口部分の画像の他の例である。This is another example of a characteristic mouth image taken by a photo sticker making device. 写真シール作成装置で撮影される特徴的な目部分の画像の一例である。This is an example of an image of a characteristic eye portion taken by a photo sticker making device. 写真シール作成装置で撮影される特徴的な目部分の画像の他の例である。This is another example of an image of a characteristic eye portion taken by a photo sticker making device. 写真シール作成装置で撮影される特徴的な目部分の画像の他の例である。This is another example of an image of a characteristic eye portion taken by a photo sticker making device. 写真シール作成装置で撮影される特徴的な目部分の画像の他の例である。This is another example of an image of a characteristic eye portion taken by a photo sticker making device. 写真シール作成装置による写真シール作成ゲームに関する一連の動作を示すフローチャートである。It is a flowchart which shows a series of operations about a photo sticker making game by a photo sticker making apparatus. 合成処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a synthesis process. 編集処理で利用される編集画面の一例である。This is an example of an editing screen used in the editing process.

以下、本発明の具体的な実施の形態について添付の図面を参照しながら説明する。なお、同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。さらに、各図面に記載した構成の形状、また、長さ、奥行および幅などの寸法は、実際の形状および寸法を反映させたものではなく、図面の明瞭化と簡略化のために適宜変更している。 Hereinafter, specific embodiments of the present invention will be described with reference to the accompanying drawings. Members having the same function are designated by the same reference numerals, and the description thereof will be omitted as appropriate. Furthermore, the shape of the configuration described in each drawing and the dimensions such as length, depth and width do not reflect the actual shape and dimensions, and are appropriately changed for the sake of clarity and simplification of the drawings. ing.

本発明に係る画像処理装置を、一例である写真シール作成装置として説明する。本発明を適用する写真シール作成装置は、撮影や編集等を利用者にゲームとして行わせ、その撮影・編集した画像を、写真シールやデータとして利用者に提供するゲーム装置である。写真シール作成装置1は、例えば、ゲームセンタ、ショッピングモールおよび観光地の店舗等に設置される。 The image processing apparatus according to the present invention will be described as an example photo sticker creating apparatus. The photo sticker creating device to which the present invention is applied is a game device in which a user is made to perform shooting and editing as a game, and the photographed and edited image is provided to the user as a photo sticker and data. The photo sticker creating device 1 is installed in, for example, a game center, a shopping mall, a store in a tourist spot, or the like.

写真シール作成装置が提供するゲームにおいて、利用者は、写真シール作成装置に設けられたカメラを用いて自分自身等を撮影する。利用者は、その撮影画像に対して、前景画像および/または背景画像を合成したり、また、編集用合成用画像としてのペン画像入力やスタンプ画像入力等の編集機能(落書き編集機能)を用いたりして編集を行い、撮影画像を彩り豊かなものにデザインする。そしてゲーム終了後、利用者は、編集した画像が印刷された写真シール等を成果物として受け取る。または、写真シール作成装置は編集した画像を利用者の携帯端末に提供し、利用者は携帯端末により成果物を受け取ることもできる。 In the game provided by the photo sticker making device, the user takes a picture of himself / herself or the like by using the camera provided in the photo sticker making device. The user synthesizes a foreground image and / or a background image with the captured image, and uses an editing function (doodle editing function) such as pen image input or stamp image input as a composite image for editing. Edit and design the captured image to make it colorful. After the game is over, the user receives a photo sticker or the like on which the edited image is printed as a deliverable. Alternatively, the photo sticker creating device provides the edited image to the user's mobile terminal, and the user can also receive the deliverable by the mobile terminal.

(写真シール作成装置の構成)
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1の利用者は、主に女子中学生および女子高校生などの若い女性が中心とされる。写真シール作成装置1において、1組当たり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。
(Configuration of photo sticker making device)
1 and 2 are perspective views showing a configuration example of the appearance of the photo sticker making device 1. The photo sticker creating device 1 is a game machine that provides a photographed image and an edited image. The photo sticker creating device 1 provides an image to a user by printing the image on a sticker paper or transmitting the image to a server in order to make the image viewable on the user's mobile terminal. The users of the photo sticker making device 1 are mainly young women such as junior high school girls and high school girls. In the photo sticker creating device 1, a plurality of users, such as mainly two or three people, can enjoy the game per group. Of course, in the photo sticker creating device 1, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が華やかな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creating device 1, the user takes a picture by himself / herself as a subject. By editing, the user synthesizes a composite image such as handwritten characters or a stamp image with an image selected from the captured images obtained by shooting. As a result, the captured image is edited into a gorgeous image. The user receives a sticker paper on which the edited image, which is an edited image, is printed, and ends the series of games.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。 As shown in FIG. 1, the photo sticker creating device 1 is basically configured by being installed in a state where the photographing unit 11 and the editing unit 12 are in contact with each other.

撮影ユニット11は、事前選択操作部20、撮影操作部21、および背景部22から構成される。事前選択操作部20は、撮影操作部21の側面に設置される。事前選択操作部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影操作部21と背景部22は所定の距離だけ離れて設置される。撮影操作部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。 The photographing unit 11 is composed of a preselection operation unit 20, a photographing operation unit 21, and a background unit 22. The preselection operation unit 20 is installed on the side surface of the shooting operation unit 21. The space in front of the preselection operation unit 20 is the preselection space in which the preselection process is performed. Further, the photographing operation unit 21 and the background unit 22 are installed at a predetermined distance. The space formed between the shooting operation unit 21 and the background unit 22 is the shooting space where the shooting process is performed.

事前選択操作部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を利用者に選択させるための処理を行ったりする。事前選択操作部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択操作部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。 As the preselection process, the preselection operation unit 20 provides guidance for introducing the game provided by the photo sticker creation device 1, and causes the user to select various settings in the shooting process performed in the shooting space. Or do. The preselection operation unit 20 is provided with a coin slot for the user to insert a price, a touch panel monitor used for various operations, and the like. The preselection operation unit 20 appropriately guides the user in the preselection space to the shooting space according to the availability of the shooting space.

撮影操作部21は、利用者を被写体として撮影するための装置である。撮影操作部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影操作部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影操作部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影操作部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択操作部20が設置されるものとする。なお、事前選択操作部20は、側面パネル41Bに設置されるようにしてもよいし、側面パネル41A,41Bの両方に設置されるようにしてもよい。 The shooting operation unit 21 is a device for shooting a user as a subject. The shooting operation unit 21 is located in front of the user who has entered the shooting space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the shooting operation unit 21 facing the shooting space. Assuming that the left side surface is the left side surface and the right side surface is the right side surface when viewed from the user facing the front in the shooting space, the left side surface of the shooting operation unit 21 is composed of the side panel 41A, and the right side surface is formed by the side panel 41B. It is composed. Further, the front surface of the photographing operation unit 21 is composed of the front panel 42. It is assumed that the above-mentioned preselection operation unit 20 is installed on the side panel 41A. The preselection operation unit 20 may be installed on the side panel 41B, or may be installed on both the side panels 41A and 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。 The background portion 22 is composed of a back panel 51, a side panel 52A, and a side panel 52B. The back panel 51 is a plate-shaped member located on the back side of the user facing the front. The side panel 52A is a plate-shaped member attached to the left end of the back panel 51 and having a width narrower than that of the side panel 41A. The side panel 52B is a plate-shaped member attached to the right end of the back panel 51 and having a width narrower than that of the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。 The side panel 41A and the side panel 52A are provided on substantially the same plane. The upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A which is a plate-shaped member. The lower part of the side panel 41A and the side panel 52A are connected by a connecting portion 23A'which is, for example, a metal member provided on the floor surface. Similarly, the side panel 41B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower part of the side panel 41B and the side panel 52B is connected by the connecting portion 23B'.

なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、利用者が所望する背景画像がシートの部分に合成される。 A green chroma key sheet is attached to the surface of the back panel 51 on the shooting space side, for example. The photo sticker creating device 1 takes a picture with a sheet for chroma key as a background, and performs chroma key composition in a shooting process and an editing process. As a result, the background image desired by the user is combined with the sheet portion.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。 The opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance / exit of the photographing space. Further, an opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance / exit of the photographing space.

撮影空間の上方には、撮影操作部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。 Above the shooting space, a ceiling surrounded by the front surface of the shooting operation unit 21, the connecting portion 23A, and the connecting portion 23B is formed. A ceiling strobe unit 24 is provided on a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that irradiates light into the shooting space in accordance with shooting. Inside the ceiling strobe unit 24, a fluorescent lamp is provided in addition to the strobe. As a result, the ceiling strobe unit 24 also functions as lighting for the shooting space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影操作部21の正面パネル42に接するようにして、撮影ユニット11に連結している。 The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the shooting unit 11 so that one side surface is in contact with the front panel 42 of the shooting operation unit 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。 Assuming that the configuration of the editing unit 12 shown in FIG. 1 is the configuration on the front side, the configuration used in the editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can perform editing work at the same time.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影操作部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。 The front side of the editing unit 12 is composed of a surface 61 and a slope 62 formed above the surface 61. The surface 61 is perpendicular to the floor surface and substantially parallel to the side panel 41A of the photographing operation unit 21. A monitor with a built-in tablet and a touch pen are provided on the slope 62 as a configuration used for editing work. On the left side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. On the right side of the slope 62, a columnar support portion 63B that supports the other end of the lighting device 64 is provided. A support portion 65 for supporting the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A,26B,26Cが、組み合わせられて構成される。3本のレール26A,26B,26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。 A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is composed of three rails 26A, 26B, and 26C in combination. The three rails 26A, 26B, and 26C are combined so that the shape when viewed from above is U-shaped. One ends of the rail 26A and the rail 26B provided in parallel are fixed to the connecting portion 23A and the connecting portion 23B, respectively, and the other ends of the rail 26A and the rail 26B are joined to both ends of the rail 26C, respectively.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 26 so that the space in front of the front and the space in front of the back of the editing unit 12 cannot be seen from the outside. The space in front of the front and the space behind the back of the editing unit 12 surrounded by the curtain are the editing spaces in which the user performs editing work.

また、後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。 Further, as will be described later, a discharge port for discharging the printed sticker paper is provided on the left side surface of the editing unit 12. The space in front of the left side of the editing unit 12 is a printing waiting space for the user to wait for the printed sticker paper to be ejected.

(利用者の移動)
ここで、画像作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成ゲーム中の利用者の空間移動を説明するための図である。
(Movement of users)
Here, the flow of the image creation game and the movement of the user accompanying it will be described. FIG. 3 is a diagram for explaining the spatial movement of the user during the photo sticker creation game.

まず、利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。 First, the user inserts the price into the coin slot in the preselection space A0, which is the space in front of the preselection operation unit 20. Next, the user makes various settings according to the screen displayed on the touch panel monitor. The user performs, for example, selection of a course related to shooting performed in the shooting space as a preselection operation.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影操作部21と背景部22の間に形成された撮影空間A1に入る。そして利用者は、撮影操作部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 The user who has completed the pre-selection work has a shooting space formed between the shooting operation unit 21 and the background unit 22 from the entrance / exit G1 between the side panel 41A and the side panel 52A, as shown by the white arrow # 1. Enter A1. Then, the user performs the shooting work by using the camera or the touch panel monitor provided in the shooting operation unit 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。 The user who has completed the shooting work either exits the shooting space A1 from the entrance / exit G1 and moves to the editing space A2-1 as indicated by the white arrow # 2, or moves to the editing space A2-1 as indicated by the white arrow # 3. Exits the shooting space A1 and moves to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影操作部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。 The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the shooting operation unit 21 or the like. For example, the vacant one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts the editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。 After the editing work is completed, printing of the edited image is started. When printing is started, the user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the white arrow # 4. Further, the user who has completed the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 5.

印刷待ち空間A3に移動した利用者は、画像の印刷の終了を待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の画像作成ゲームを終える。 The user who has moved to the print waiting space A3 waits for the end of printing the image. When the printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side surface of the editing unit 12, and ends the series of image creation games.

(事前選択部の構成)
次に、各装置の構成について説明する。図4は、事前選択操作部20の正面図である。
(Structure of preselection section)
Next, the configuration of each device will be described. FIG. 4 is a front view of the preselection operation unit 20.

事前選択操作部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、撮影に関するコースの選択、編集の対象となる編集対象画像における背景となる画像の選択、作成画像のレイアウト、画像作成ゲーム中に流れるBGM(Back Ground Music)、音および音声の少なくともいずれかの選択、並びに利用者の名前の入力などを行わせる事前選択処理に用いられる画面が表示される。 A touch panel monitor 71 is provided on the upper side of the preselection operation unit 20. The touch panel monitor 71 is composed of a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated on the monitor. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and accepting a user's selection operation. On the touch panel monitor 71, selection of a course related to shooting, selection of a background image in the image to be edited to be edited, layout of the created image, BGM (Back Ground Music) flowing during the image creation game, sound and sound A screen used for the pre-selection process for selecting at least one of them and inputting the user's name is displayed.

撮影に関するコースは、利用者が2人で撮影を行う2人用コースと、3人以上で撮影を行う大人数コースとが用意されている。また、男女のカップルで撮影を行うカップルコースが用意されていてもよい。 There are two courses for shooting, a course for two people who shoot with two users, and a course for a large number of people who shoot with three or more people. In addition, a couple course may be prepared in which a couple of men and women take pictures.

タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM、効果音などを出力する。また、スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。 A speaker 72 is provided below the touch panel monitor 71. The speaker 72 outputs guidance voice, BGM, sound effect, etc. for preselection processing. Further, a coin insertion / return port 73 for inserting coins by the user is provided adjacent to the speaker 72.

(撮影部の構成)
図5は、撮影部としての撮影操作部21の正面図である。撮影操作部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
(Structure of shooting section)
FIG. 5 is a front view of the photographing operation unit 21 as the photographing unit. The photographing operation unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42.

正面パネル42の中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91および表示部としてのタッチパネルモニタ92から構成される。 A camera unit 81 is provided in the center of the front panel 42. The camera unit 81 includes a camera 91 and a touch panel monitor 92 as a display unit.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー表示画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。 The camera 91 is, for example, a single-lens reflex camera, and is mounted inside the camera unit 81 so that the lens is exposed. The camera 91 has an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the photographing space A1. The moving image captured by the camera 91 (hereinafter, also referred to as a live view display image) is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing such as when shooting is instructed is saved as a shot image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。当該選択操作の具体例としては、撮影コースの選択、撮影開始および終了の指示(撮影の制御指示)、目の変形具合および色、ならびに肌の色の補正具合の選択、作成画像における背景画像となる画像の選択、ならびに画像作成ゲーム中のBGM(音・音声)の選択などが挙げられる。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。 The touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 is composed of a monitor such as an LCD and a touch panel laminated on the monitor. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91, and a function that displays various GUIs and accepts a user's selection operation. Specific examples of the selection operation include selection of a shooting course, instructions for starting and ending shooting (shooting control instructions), selection of eye deformation and color, and selection of skin color correction, and a background image in the created image. The selection of the image and the selection of the BGM (sound / voice) in the image creation game can be mentioned. A moving image (live view image) or a still image (photographed image) captured by the camera 91 is displayed on the touch panel monitor 92.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、正面上方から利用者の顔および上半身に光を照射する。 Above the camera unit 81, an upper strobe 82 with a curved light emitting surface facing the user is installed. The upper strobe 82 irradiates the user's face and upper body with light from above the front surface.

また、カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボ85が設けられる。なお、上ストロボ82と足元ストロボ85には、ストロボと蛍光灯が含まれている。 Further, below the camera unit 81, a foot strobe 85 that irradiates the lower body and feet of the user with light is provided. The upper strobe 82 and the foot strobe 85 include a strobe and a fluorescent lamp.

なお、図1および図5においては図示を省略するが、正面パネル42の例えば天井付近には、スピーカ93が設けられる。スピーカ93は、制御部201から出力される音声信号により、撮影処理の案内音声、BGM、効果音などを出力する。 Although not shown in FIGS. 1 and 5, a speaker 93 is provided near the ceiling of the front panel 42, for example. The speaker 93 outputs guidance voice, BGM, sound effect, etc. of the shooting process by the voice signal output from the control unit 201.

(背景部の構成)
図6は、背景部22の撮影空間A1側の正面図である。
(Structure of background part)
FIG. 6 is a front view of the background portion 22 on the shooting space A1 side.

背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。 A strobe 101 on the back surface is installed above the back panel 51. The strobe 101 on the back surface irradiates the user with light from above the back surface.

図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。 In the figure, the rear left strobe 102 is installed on the left side of the rear panel 51. The rear left strobe 102 irradiates the user from the rear right side. In the figure, the rear right strobe 103 is installed on the right side of the rear panel 51. The rear right strobe 103 irradiates the user from the rear left side.

また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられていてもよい。クロマキーシート121の色は、例えば緑色とされる。 Further, the chroma key sheet 121 may be attached to the surface of the back panel 51 on the shooting space A1 side (front side in the drawing). The color of the chroma key sheet 121 is, for example, green.

なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面にも、クロマキーシート121と同様に、クロマキーシートが貼り付けられていてもよい。 Although not shown, a chroma key sheet may be attached to the surface of the side panels 52A and 52B on the photographing space A1 side as well as the chroma key sheet 121.

(編集ユニットの構成)
図7は、編集ユニット12の編集空間A2−1側の正面図である。
(Organization of editing unit)
FIG. 7 is a front view of the editing unit 12 on the editing space A2-1 side.

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。例えば、2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 A tablet built-in monitor 131 is provided at substantially the center of the slope 62. A touch pen 132A is provided on the left side of the tablet built-in monitor 131. A touch pen 132B is provided on the right side of the tablet built-in monitor 131. The tablet built-in monitor 131 is configured by providing the tablet so as to expose the display. The tablet enables operation input using the touch pen 132A or the touch pen 132B. The tablet built-in monitor 131 displays, for example, an editing screen used for editing work. For example, when two users perform editing work at the same time, the touch pen 132A is used by the user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side of the tablet built-in monitor 131. Used.

図8は、編集ユニット12の左側面図である。 FIG. 8 is a left side view of the editing unit 12.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部には出力部としてのプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。 A sticker paper discharge port 161 is provided on the lower side of the left side surface of the editing unit 12. A printer as an output unit is provided inside the editing unit 12. The printer prints an image of the user of the editing space A2-1 or an image of the user of the editing space A2-2 on the sticker paper in a predetermined layout and discharges the image from the sticker paper discharge port 161.

(写真シール作成装置の内部構成)
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
(Internal configuration of photo sticker making device)
FIG. 9 is a block diagram showing an example of the internal configuration of the photo sticker creating device 1. In FIG. 9, the same components as those described above are designated by the same reference numerals. Duplicate explanations will be omitted as appropriate.

制御部201はCPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前選択操作部20、撮影操作部21、背景部22、編集操作部27A,27B、および印刷操作部28の各構成も接続される。 The control unit 201 is composed of a CPU (Central Processing Unit) and the like. The control unit 201 executes a program stored in the ROM (Read Only Memory) 206 or the storage unit 202, and controls the overall operation of the photo sticker creation device 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. Each configuration of the preselection operation unit 20, the shooting operation unit 21, the background unit 22, the editing operation units 27A and 27B, and the print operation unit 28 is also connected to the control unit 201.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。 The storage unit 202 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 202 stores various setting information and the like supplied from the control unit 201. The information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。 The communication unit 203 is an interface of a network such as the Internet. The communication unit 203 communicates with an external device according to the control by the control unit 201. The communication unit 203 transmits, for example, a photographed image or an edited image selected by the user to the server. The image transmitted from the communication unit 203 is allocated and stored in a predetermined storage area in the server, and is displayed or downloaded to the mobile terminal that has accessed the server.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。 A removable media 205 made of an optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 204. The programs and data read from the removable media 205 by the drive 204 are supplied to the control unit 201, and are stored or installed in the storage unit 202.

ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。 The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

事前選択操作部20は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択操作部20は、タッチパネルモニタ71、スピーカ72、および硬貨処理部74から構成される。 The preselection operation unit 20 realizes the preselection process for the user in the preselection space A0. The preselection operation unit 20 includes a touch panel monitor 71, a speaker 72, and a coin processing unit 74.

タッチパネルモニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。 The touch panel monitor 71 displays various selection screens according to the control by the control unit 201, and accepts the user's operation on the selection screen. An input signal representing the content of the user's operation is supplied to the control unit 201, and various settings are made.

硬貨処理部74は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部74は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。 The coin processing unit 74 detects the insertion of coins into the coin insertion / return port 73. When the coin processing unit 74 detects that a predetermined amount of coins has been inserted, the coin processing unit 74 outputs an activation signal instructing the start of the game to the control unit 201.

撮影操作部21は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部220は、上ストロボ82、左ストロボ83、右ストロボ84、足元ストロボ85、カメラ91、タッチパネルモニタ92、およびスピーカ93から構成される。 The shooting operation unit 21 realizes shooting processing for the user in the shooting space A1. The photographing unit 220 includes an upper strobe 82, a left strobe 83, a right strobe 84, a foot strobe 85, a camera 91, a touch panel monitor 92, and a speaker 93.

上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85は、撮影空間A1内に配置され、制御部201から供給される照明制御信号に従って発光する。 The upper strobe 82, the left strobe 83, the right strobe 84, and the foot strobe 85 are arranged in the photographing space A1 and emit light according to the illumination control signal supplied from the control unit 201.

カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。 The camera 91 shoots according to the shutter control by the control unit 201, and outputs the captured image (image data) obtained by the shooting to the control unit 201.

編集操作部27Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集操作部27Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ133から構成される。編集操作部27Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集操作部27Aと同一の構成を有する。なお、以下、編集操作部27A,27Bを特に区別しない場合には、単に、編集操作部27という。 The editing operation unit 27A realizes an editing process for a user in the editing space A2-1. The editing operation unit 27A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 133. The editing operation unit 27B realizes editing processing for the user in the editing space A2-2, and has the same configuration as the editing operation unit 27A. Hereinafter, when the editing operation units 27A and 27B are not particularly distinguished, they are simply referred to as the editing operation unit 27.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。 The tablet built-in monitor 131 displays the edit screen according to the control by the control unit 201, and accepts the user's operation on the edit screen. An input signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

印刷操作部28は、印刷待ち空間A3にいる利用者に、作成画像を印刷済みのシール紙を提供する印刷処理を実現する。印刷操作部28は、プリンタ140を含むように構成される。プリンタ140にはシール紙ユニット141が装着される。 The print operation unit 28 realizes a printing process of providing a sticker paper on which the created image has been printed to the user in the print waiting space A3. The print operation unit 28 is configured to include a printer 140. A sticker paper unit 141 is attached to the printer 140.

プリンタ140は、制御部201から供給された印刷データに基づいて、編集画像をシール紙ユニット141に収納されているシール紙142に印刷し、シール紙排出口161に排出する。 The printer 140 prints the edited image on the sticker paper 142 housed in the sticker paper unit 141 based on the print data supplied from the control unit 201, and discharges the edited image to the sticker paper discharge port 161.

(写真シール作成装置の機能ブロック)
図10は写真シール作成装置1の機能ブロックを示すブロック図である。写真シール作成装置1は、事前選択部210、撮影部220、編集部230、および印刷部240として機能する。また、制御部201は、本発明の写真シール作成プログラムを実行することにより、事前選択処理部301、撮影処理部302、抽出部303、生成部304、画像処理部305、合成部306、編集処理部307、および印刷処理部308として機能する。
(Functional block of photo sticker making device)
FIG. 10 is a block diagram showing a functional block of the photo sticker creating device 1. The photo sticker creating device 1 functions as a preselection unit 210, a photographing unit 220, an editing unit 230, and a printing unit 240. Further, the control unit 201 executes the photo sticker creation program of the present invention to execute the preselection processing unit 301, the shooting processing unit 302, the extraction unit 303, the generation unit 304, the image processing unit 305, the composition unit 306, and the editing process. It functions as a unit 307 and a print processing unit 308.

事前選択部210は、上述した事前選択操作部20と、事前選択処理部301とを備える。事前選択処理部301は、事前選択操作部20におけるタッチパネルモニタ71、スピーカ72、および硬貨処理部74を制御することで、事前選択処理を行う。事前選択処理部301は、撮影空間A1において行われる撮影に関するコースの選択のための選択画面等をタッチパネルモニタ71に表示させる。また事前選択処理部301は、タッチパネルモニタ71に対する、利用者の操作入力を受け付ける。具体的には、事前選択処理部301は、タッチパネルモニタ71に表示された選択画面に対する選択の操作入力、および利用者の名前の入力等を受け付ける。また事前選択処理部301は、各種の選択操作を説明するガイダンスの出力を制御する。事前選択処理部301は、各種の選択操作を説明する画面をタッチパネルモニタ71に表示させたり、各種の選択操作を説明する音声をスピーカ72から出力させたりする。 The preselection unit 210 includes the preselection operation unit 20 described above and the preselection processing unit 301. The preselection processing unit 301 performs the preselection processing by controlling the touch panel monitor 71, the speaker 72, and the coin processing unit 74 in the preselection operation unit 20. The preselection processing unit 301 causes the touch panel monitor 71 to display a selection screen or the like for selecting a course related to shooting performed in the shooting space A1. Further, the preselection processing unit 301 accepts a user's operation input to the touch panel monitor 71. Specifically, the preselection processing unit 301 accepts selection operation input for the selection screen displayed on the touch panel monitor 71, input of the user's name, and the like. Further, the preselection processing unit 301 controls the output of guidance for explaining various selection operations. The preselection processing unit 301 displays a screen explaining various selection operations on the touch panel monitor 71, and outputs sounds explaining various selection operations from the speaker 72.

撮影部220は、上述した撮影操作部21と、撮影処理部302とを備える。撮影処理部302は、撮影操作部21におけるカメラ91、タッチパネルモニタ92、およびスピーカ93を制御することで、撮影処理を行う。 The photographing unit 220 includes the above-mentioned photographing operation unit 21 and an imaging processing unit 302. The shooting processing unit 302 performs shooting processing by controlling the camera 91, the touch panel monitor 92, and the speaker 93 in the shooting operation unit 21.

撮影処理部302は、タッチパネルモニタ92に対する、利用者の操作入力を受け付ける。例えば、撮影空間A1における撮影処理は、撮影処理部302が、利用者によるタッチパネルモニタ92への接触操作を入力として受け付けることにより開始される。 The shooting processing unit 302 receives the user's operation input to the touch panel monitor 92. For example, the shooting process in the shooting space A1 is started when the shooting processing unit 302 accepts a user's contact operation with the touch panel monitor 92 as an input.

撮影処理部302は、カメラ91を制御し、利用者を被写体として撮影する。撮影には、動画像と静止画像とがある。撮影処理部302は、タッチパネルモニタ92の表示を制御することにより、カメラ91に取り込まれた動画像をタッチパネルモニタ92にライブビュー表示させたり、撮影結果である静止画像を撮影画像として表示させたりする。 The shooting processing unit 302 controls the camera 91 and shoots the user as a subject. There are two types of shooting: moving images and still images. By controlling the display of the touch panel monitor 92, the shooting processing unit 302 displays a moving image captured by the camera 91 in a live view on the touch panel monitor 92, or displays a still image as a shooting result as a shooting image. ..

また、撮影処理部302は、撮影枚数、利用者の立ち位置、サンプルポーズ、目線についてのメッセージ、および撮影タイミング等を説明するインストラクション画面をタッチパネルモニタ92に表示させる。さらに、それぞれのインストラクション画面に対応するナレーションの音声、およびBGMをスピーカ93から出力させる。 In addition, the shooting processing unit 302 causes the touch panel monitor 92 to display an instruction screen explaining the number of shots, the standing position of the user, the sample pose, a message about the line of sight, the shooting timing, and the like. Further, the narration voice corresponding to each instruction screen and the BGM are output from the speaker 93.

抽出部303は、予め定められる顔認識技術を利用して、撮影部220で撮影された画像データに含まれる利用者の顔領域を抽出する。画像データに複数の利用者が含まれる場合、抽出部303は、各利用者の顔領域を抽出する。 The extraction unit 303 extracts the user's face area included in the image data photographed by the photographing unit 220 by using a predetermined face recognition technique. When the image data includes a plurality of users, the extraction unit 303 extracts the face area of each user.

また、抽出部303は、画像データから抽出された各顔領域から、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域を第1の領域として抽出する。例えば、抽出部303は、第1の領域として、例えば周囲との色の違い等を用いて利用者の目の領域や口の領域を抽出する。このとき、抽出部303は、目の領域や口の領域について、全体としての輪郭を抽出するだけではなく、後述するように、目や口の具体的な構成に合わせて細分化して第1の領域を抽出する。 In addition, the extraction unit 303 extracts the contour region of the predetermined portion of the user's face as the first region from each face region extracted from the image data by using a predetermined image extraction method. For example, the extraction unit 303 extracts the user's eye region and mouth region as the first region by using, for example, a color difference from the surroundings. At this time, the extraction unit 303 not only extracts the outline of the eye region and the mouth region as a whole, but also subdivides the region into the first one according to the specific configuration of the eyes and the mouth, as will be described later. Extract the area.

ここで、抽出部303は、各領域の抽出方法として、セマンティックセグメンテーション技術を用いることができる。セグメンテーション技術によって各領域を抽出することで、各領域について画素単位での細かい抽出が可能となる。これにより、後段の生成部304において、各領域に対して画像処理の範囲を生成することが可能となり、また、画像処理部305において、各領域に応じて細かく設定された画像処理を実現することができる。 Here, the extraction unit 303 can use a semantic segmentation technique as an extraction method for each region. By extracting each region by the segmentation technology, it is possible to extract each region in detail on a pixel-by-pixel basis. As a result, the generation unit 304 in the subsequent stage can generate a range of image processing for each area, and the image processing unit 305 can realize image processing finely set according to each area. Can be done.

生成部304は、抽出部303が抽出した第1の領域を用いて、第1の領域の少なくとも一部を含み、画像処理の対象として設定される第2の領域を生成する。例えば、第2の領域は、画像処理対象に好ましいとされる範囲又は画像処理に好ましいとされる範囲に応じて設定される範囲である。なお、第1の領域と第2の領域とは同一の場合もある。また、第2の領域であっても、必ずしも画像処理がされるとは限らない。特に、このように画像処理がされない範囲については、第1の領域と第2の領域とが同一の場合がある。例えば、画像処理に好ましい範囲とは、唇の場合には、一般的に口紅を塗る場合に好適とされる範囲である。 The generation unit 304 uses the first region extracted by the extraction unit 303 to generate a second region including at least a part of the first region and set as a target of image processing. For example, the second region is a range that is preferred for the image processing target or a range that is set according to the range that is preferred for image processing. The first region and the second region may be the same. Further, even in the second region, image processing is not always performed. In particular, in the range where image processing is not performed in this way, the first region and the second region may be the same. For example, the preferred range for image processing is, in the case of lips, a range generally preferred for applying lipstick.

生成部304は、予め学習データによって学習された機械学習モデルを利用して、第1の領域から後述する各第2の領域を生成する。具体的には、機械学習モデルは、複数組の『顔領域の画像データ』及び『顔の所定部位の領域情報』を含む学習データを用いて学習されたものである。このとき、学習データが含む各画像データは、複数のバリエーションの画像データを含むことで、生成部304における処理の精度が向上する。特に、写真シール作成装置1は、アミューズメント機器とされることが多く、このような場合、利用者は、面白みのある画像を撮影することも多い。したがって、様々な向きや表情の顔画像が撮影されるため、どのような向きや表情の顔画像であったとしても、画像処理の各領域を特定できることが好ましい。したがって、例えば、図11乃至図20を用いて後述するような複数のバリエーションの画像データを用いることで、様々な顔画像に対応することが可能となる。 The generation unit 304 generates each second region, which will be described later, from the first region by using the machine learning model learned in advance from the training data. Specifically, the machine learning model is learned using learning data including a plurality of sets of "image data of a face region" and "region information of a predetermined portion of a face". At this time, each image data included in the learning data includes image data of a plurality of variations, so that the accuracy of processing in the generation unit 304 is improved. In particular, the photo sticker creating device 1 is often regarded as an amusement device, and in such a case, the user often takes an interesting image. Therefore, since face images of various orientations and facial expressions are taken, it is preferable that each region of image processing can be specified regardless of the face image of any orientation and facial expression. Therefore, for example, by using a plurality of variations of image data as described later with reference to FIGS. 11 to 20, it is possible to correspond to various face images.

《口マスク》
口の領域の抽出について、図11を用いて説明する。例えば、抽出部303は、口について「上唇」、「唇以外(例えば、口の中)」、「下唇」及び「その他」の領域に分けて抽出する。図11(a)に、画像データから抽出された利用者の顔領域のうち口を含む矩形領域の一例を示す。このような口の矩形領域の画像データがあるとき、抽出部303は、口の領域について、図11(b)に示すような細分化された領域として抽出する。具体的には、抽出部303は、口の矩形領域について、第1口領域A11として上唇の領域を抽出し、第2口領域A12として下唇の領域を抽出し、第3口領域A13として口のうち唇以外の領域を抽出する。また、図11(b)に示す領域A14は、口以外の領域であり、例えば、顔の肌の領域である。
《Mouth mask》
Extraction of the mouth region will be described with reference to FIG. For example, the extraction unit 303 divides the mouth into regions of "upper lip", "other than lips (for example, in the mouth)", "lower lip", and "other". FIG. 11A shows an example of a rectangular area including a mouth in the user's face area extracted from the image data. When there is image data of such a rectangular region of the mouth, the extraction unit 303 extracts the region of the mouth as a subdivided region as shown in FIG. 11B. Specifically, the extraction unit 303 extracts the upper lip region as the first mouth region A11, the lower lip region as the second mouth region A12, and the mouth as the third mouth region A13 with respect to the rectangular region of the mouth. The area other than the lips is extracted. Further, the region A14 shown in FIG. 11B is a region other than the mouth, for example, a region of the skin of the face.

生成部304は、抽出部303が抽出した図11(b)に示すような各第1の領域を用いて、図11(c)に示すような第2の領域を生成する。具体的には、生成部304は、予め定められる方法により、第1口領域A11から上唇についての画像処理の対象範囲である第4口領域B11を生成する。すなわち、生成部304は、口の美観を向上させる目的のため、上唇のうち口紅を塗る等により唇の色を変えたような画像処理をすることが好ましい範囲を第4口領域B11として生成する。例えば、上唇のうち、口紅を塗るのに好ましい範囲は、一般的には特に口の外側であり、口の内側まで口紅を塗ることは稀である。したがって、このように口紅を塗るのに好ましい範囲が、口紅を塗ったような画像処理をするために好ましい範囲とされ、生成部304は、第1口領域A11から、このように定められる上唇の外側の範囲を第4口領域B11として生成する。そのため、上唇であっても、口紅を塗らないような部分、例えば、上唇の内側が見えていたとしても、口紅を塗らないような上唇の内側については、第4口領域B11には該当しない。なお、図11(c)に示す第4口領域B11は、図11(b)に示す第1口領域A11と略同一である。 The generation unit 304 uses each of the first regions extracted by the extraction unit 303 as shown in FIG. 11 (b) to generate a second region as shown in FIG. 11 (c). Specifically, the generation unit 304 generates the fourth mouth region B11, which is the target range of image processing for the upper lip, from the first mouth region A11 by a predetermined method. That is, for the purpose of improving the aesthetic appearance of the mouth, the generation unit 304 generates as the fourth mouth region B11 a range in which it is preferable to perform image processing in which the color of the lips is changed by applying lipstick or the like. .. For example, the preferred area of the upper lip for applying lipstick is generally particularly outside the mouth, and it is rare to apply lipstick to the inside of the mouth. Therefore, such a preferable range for applying lipstick is set as a preferable range for performing image processing such as applying lipstick, and the generation unit 304 is defined from the first mouth region A11 of the upper lip as described above. The outer range is generated as the fourth port region B11. Therefore, even if the upper lip is not applied with lipstick, for example, even if the inside of the upper lip is visible, the inside of the upper lip without applying lipstick does not correspond to the fourth mouth region B11. The fourth opening region B11 shown in FIG. 11C is substantially the same as the first opening region A11 shown in FIG. 11B.

同様に、生成部304は、第2口領域A12から下唇についての画像処理の対象範囲である第5口領域B12を生成する。すなわち、生成部304は、口の美観を向上させる目的で、下唇のうち口紅を塗る等により唇の色を変えたような画像処理をすることが好ましい範囲を第5口領域B12として生成する。例えば、下唇についても、口紅を塗るのに好ましい範囲は、一般的には口の内側ではなく、口の外側である。したがって、生成部304は、第2口領域A12から、このように定められる下唇の外側の範囲を、図11(c)に示すように、第5口領域B12として生成する。そのため、下唇であっても、口紅を塗らないような部分、例えば、下唇の内側が見えていたとしても、口紅を塗らないような下唇の内側については、第5口領域B12には該当しない。また仮に、下唇が噛まれ、唇の色が薄くなった画像の場合、実際に口紅を塗るのが好ましい領域より狭い部分が下唇の第2領域A12として抽出部303に抽出されることがある。このような場合、生成部304は、第2口領域A12よりも広い、実際に口紅を塗るのが好ましい範囲にまで大きくした範囲を第5口領域B12として生成する。 Similarly, the generation unit 304 generates the fifth mouth region B12, which is the target range of image processing for the lower lip, from the second mouth region A12. That is, the generation unit 304 generates as the fifth mouth region B12 a range in which it is preferable to perform image processing in which the color of the lips is changed by applying lipstick or the like on the lower lip for the purpose of improving the aesthetic appearance of the mouth. .. For example, for the lower lip, the preferred area for applying lipstick is generally the outside of the mouth, not the inside of the mouth. Therefore, the generation unit 304 generates the range outside the lower lip defined in this way from the second mouth region A12 as the fifth mouth region B12 as shown in FIG. 11 (c). Therefore, even if the lower lip is not covered with lipstick, for example, even if the inside of the lower lip is visible, the inside of the lower lip that is not covered with lipstick is in the fifth mouth region B12. Not applicable. Further, in the case of an image in which the lower lip is bitten and the color of the lips is lightened, a portion narrower than the region where it is preferable to actually apply lipstick may be extracted to the extraction unit 303 as the second region A12 of the lower lip. is there. In such a case, the generation unit 304 generates the fifth mouth region B12, which is wider than the second mouth region A12 and is enlarged to a range where it is preferable to actually apply lipstick.

さらに、生成部304は、図11(c)に示すように、第3口領域A13から口のうち唇以外の領域についての画像処理の対象である第6口領域B13を生成する。ここで、生成部304は、例えば、口の領域のうち、第4口領域B11及び第5口領域B12を除いた唇以外の領域であって、歯、舌、唇の内側等を含む部分を第6口領域B13として生成することができる。したがって、図11(b)及び図11(c)を比較するとわかるように、第6口領域B13は、実際の下唇のうち内側の部分を含むことがある。 Further, as shown in FIG. 11C, the generation unit 304 generates the sixth mouth region B13, which is the target of image processing for the region of the mouth other than the lips, from the third mouth region A13. Here, the generation unit 304 includes, for example, a portion of the mouth region other than the lips excluding the fourth mouth region B11 and the fifth mouth region B12, including the teeth, the tongue, the inside of the lips, and the like. It can be generated as the sixth port region B13. Therefore, as can be seen by comparing FIGS. 11 (b) and 11 (c), the sixth mouth region B13 may include the inner part of the actual lower lip.

なお、図11(c)では、唇以外の領域を第6口領域B13として特定する例で説明するが、この領域内をさらに細かく区分(図示せず)してもよい。具体的には、歯、舌、唇の内側をそれぞれ異なる領域としてもよい。また、さらに細かくし、歯の1本ずつをそれぞれ異なる領域としてもよい。これにより、例えば、歯のホワイトニング効果のある画像処理を実行することが可能となる。 In FIG. 11C, an example in which a region other than the lips is specified as the sixth mouth region B13 will be described, but the region may be further subdivided (not shown). Specifically, the inside of the teeth, tongue, and lips may be different regions. Further, it may be made finer and each tooth may be a different region. This makes it possible to perform image processing having a tooth whitening effect, for example.

領域B14は、領域B11〜B13に含まれない口の外側の領域である。ここで、唇の外縁部のうち、口紅を塗らない縁部分については、この領域B14に含まれる。したがって、この領域B14は、肌の領域である。また、仮に、画像データにおいて口の上に何等かの物が写っている場合、この物の領域についても、領域B14として抽出される。また、生成部304は、図11(c)に示すように、口以外の領域である領域B14を生成してもよいが、この領域B14については、口に関する画像処理はされない。領域A14を利用することができる場合、口以外の領域B14を生成せずに代わりに、領域A14を用いてもよい。 Region B14 is a region outside the mouth that is not included in regions B11 to B13. Here, of the outer edge portion of the lips, the edge portion to which the lipstick is not applied is included in this region B14. Therefore, this region B14 is a skin region. Further, if some object is shown on the mouth in the image data, the area of this object is also extracted as the area B14. Further, as shown in FIG. 11C, the generation unit 304 may generate a region B14 which is a region other than the mouth, but the image processing related to the mouth is not performed on this region B14. If the region A14 can be used, the region A14 may be used instead of generating the region B14 other than the mouth.

ここでは、領域B11〜B13の各領域を含む情報を、口マスクとする。また、この口マスクで特定される各領域が、画像処理の対象となる。抽出部303が、顔領域から、このように口について細かく区分した第1の領域を抽出し、生成部304が各第2の領域に対応する画像処理の対象となる第2の領域を生成することで、各第2の領域について後段の画像処理部305において、それぞれの領域について対応する処理を実行することができる。 Here, the information including each region of the regions B11 to B13 is used as a mouth mask. In addition, each area specified by the mouth mask is subject to image processing. The extraction unit 303 extracts the first region finely divided about the mouth from the face region, and the generation unit 304 generates a second region to be image processed corresponding to each second region. As a result, the image processing unit 305 in the subsequent stage for each of the second regions can execute the corresponding processing for each region.

なお、ここでは、図11(a)に示す画像のような口部分を含む矩形領域を抽出し、この矩形領域から、口マスクの領域を抽出する例で説明したが、これに限定されない。例えば、抽出部303は、画像データから抽出された顔領域の全体から口マスクの領域を抽出してもよい。 Here, an example has been described in which a rectangular region including a mouth portion as shown in the image shown in FIG. 11A is extracted and a mouth mask region is extracted from this rectangular region, but the present invention is not limited to this. For example, the extraction unit 303 may extract the mouth mask region from the entire face region extracted from the image data.

《目マスク》
目の領域の抽出について、図12を用いて説明する。例えば、抽出部303は、目について「黒目」、「白目」、の領域に分けて抽出する。図12(a)に、画像データから抽出された利用者の顔領域のうち目を含む矩形領域の一例を示す。このような目の矩形領域の画像データがあるとき、抽出部303は、目の領域について、図12(b)に示すような細分化された領域として抽出する。具体的には、抽出部303は、目の領域について、第1目領域A21としていわゆる黒目の領域を抽出し、第2目領域A22としていわゆる白目の領域を抽出する。
《Eye mask》
Extraction of the eye region will be described with reference to FIG. For example, the extraction unit 303 divides the eyes into regions of "black eyes" and "white eyes" for extraction. FIG. 12A shows an example of a rectangular area including eyes in the user's face area extracted from the image data. When there is image data of such a rectangular region of the eyes, the extraction unit 303 extracts the region of the eyes as a subdivided region as shown in FIG. 12 (b). Specifically, the extraction unit 303 extracts the so-called black eye region as the first eye region A21 and the so-called white eye region as the second eye region A22.

ここで、抽出部303は、厳密な文言上の意味でその部位を特定して抽出するのではなく、画像処理を考慮して、また、抽出のしやすさを考慮して設定された領域を抽出する。具体的には、第3目領域B21は、黒目の領域であるが、黒色の領域という色で限定する領域ではなく、瞳孔及び虹彩を含む領域である。例えば、目の色が黒色である必要はなく、カラーコンタクトの着用や生まれつきの色等により、他の色であっても、この領域が第1目領域A21とされる。同様に、第2目領域A22は、白目の領域であるが、これは、目において白色の領域であるが、眼球のうち瞳孔及び虹彩を除いた白い部分という意味に限定する必要はなく、例えば、涙丘等の目の縁の部分を含んでもよい。 Here, the extraction unit 303 does not specify and extract the portion in a strict wording sense, but considers image processing and considers the ease of extraction, and sets the region. Extract. Specifically, the third eye region B21 is a region of the black eye, but is not a region limited by the color of the black region, but a region including the pupil and the iris. For example, the color of the eyes does not have to be black, and this region is designated as the first eye region A21 even if it is another color depending on the wearing of colored contacts, the natural color, and the like. Similarly, the second eye region A22 is a region of the white eye, which is a white region in the eye, but does not have to be limited to the meaning of the white portion of the eyeball excluding the pupil and the iris, for example. , The edge of the eye such as the caruncle may be included.

また、図12(b)に示す領域A23は、肌の領域であり、例えば、顔の肌の領域である。さらに、図12(b)に示す領域A24は、その他の領域として、目及び肌以外の領域であり、例えば、眉毛や髪の毛が該当する。また、仮に、睫毛が領域として特定できる場合、睫毛もこの領域に含まれる。 Further, the region A23 shown in FIG. 12B is a skin region, for example, a facial skin region. Further, the region A24 shown in FIG. 12B is a region other than the eyes and the skin as other regions, and corresponds to, for example, eyebrows and hair. If the eyelashes can be identified as an area, the eyelashes are also included in this area.

生成部304は、抽出部303が抽出した図12(b)に一例を示すような第1の領域を用いて、図12(c)に示すような第2の領域を生成する。具体的には、生成部304は、予め定められる方法により、第1目領域A21から黒目についての画像処理の対象範囲である第3目領域B21を生成する。すなわち、生成部304は、黒目のうち、例えば、サイズを大きくしたり、色を変更するのに好ましい範囲を第3目領域として生成する。仮に、黒目にライトを当てたことによって「キャッチライト」が存在し、また、このキャッチライトの部分が黒目の周縁部に存在することにより、キャッチライトの部分が誤って第2目領域A22に含まれる場合、生成部304は、この部分を黒目の部分と処理して第3目領域B21として生成する。ここでも、領域B21は、画像処理部305において目を大きく見せたり、色を調整する等の美観の向上のための画像処理を目的として設定されるものである。したがって、第3目領域B21は、厳密な文言上の意味でその部位を特定するものではない。 The generation unit 304 generates a second region as shown in FIG. 12 (c) by using the first region as shown in FIG. 12 (b) extracted by the extraction unit 303. Specifically, the generation unit 304 generates the third eye region B21, which is the target range of image processing for the black eyes, from the first eye region A21 by a predetermined method. That is, the generation unit 304 generates, for example, a region of the black eye that is preferable for increasing the size or changing the color as the third area. Assuming that the "catch light" exists by shining the light on the black eye, and the part of the catch light exists on the peripheral edge of the black eye, the part of the catch light is mistakenly included in the second eye area A22. If so, the generation unit 304 processes this portion as the black eye portion and generates it as the third eye region B21. Here, too, the area B21 is set in the image processing unit 305 for the purpose of image processing for improving the aesthetic appearance such as making the eyes look larger or adjusting the color. Therefore, the third region B21 does not specify the portion in a strict wording sense.

同様に、生成部304は、第2目領域A22から白目についての画像処理の対象範囲である第4目領域B22を生成する。すなわち、白目の部分には、実際に目の白い部分以外を含むこともあるため、例えば、目の白い部分のみを、濁りのない白色に画像処理する対象である第4目領域B22として生成する。ここでも、第4目領域B22は、画像処理部305において目を大きく見せたり、色を調整する等の美観の向上のための画像処理を目的として設定されるものである。したがって、第4目領域B22は、厳密な文言上の意味でその部位を特定するものではない。したがって、第2目領域A22は、眼球のうち瞳孔及び虹彩を除いた白い部分という意味に限定されない。 Similarly, the generation unit 304 generates the fourth area B22, which is the target range of image processing for the white eyes, from the second area A22. That is, since the white eye portion may actually include a portion other than the white portion of the eye, for example, only the white portion of the eye is generated as the fourth eye region B22 to be image-processed into white without turbidity. .. Here, too, the fourth area B22 is set in the image processing unit 305 for the purpose of image processing for improving the aesthetic appearance such as making the eyes look larger or adjusting the color. Therefore, the fourth region B22 does not specify the portion in a strict wording sense. Therefore, the second eye region A22 is not limited to the meaning of the white part of the eyeball excluding the pupil and the iris.

領域B23は、領域A23から生成される領域であって、目の領域を除いた肌の領域である。なお、図12(c)では、肌を1つの領域B23として特定する例で説明するが、この領域内をさらに細かく区分(図示せず)してもよい。例えば、生成部304は、肌のうち、目の周囲においてアイシャドウ等のメイクをする際に特定される領域である上瞼、下瞼及び瞼縁等を異なる領域として生成してもよい。また、生成部304は、二重瞼を特定する領域を生成してもよい。 The region B23 is a region generated from the region A23 and is a skin region excluding the eye region. In FIG. 12C, an example in which the skin is specified as one region B23 will be described, but the region may be further subdivided (not shown). For example, the generation unit 304 may generate different regions of the skin, such as the upper eyelid, lower eyelid, and eyelid edge, which are areas around the eyes that are specified when applying make-up such as eye shadow. In addition, the generation unit 304 may generate a region for specifying the double eyelid.

領域B24は、領域A24から生成される領域であって、領域B21〜B23に含まれない領域である。例えば、眉毛、目の周囲に存在する髪の毛等である。また、仮に画像データにおいて目の周囲に何等かの物が写っている場合、この物の領域についても、領域A24として抽出される。具体的には、利用者が眼鏡を着用する場合、眼鏡のフレームは、領域A24として抽出される。 The region B24 is a region generated from the region A24 and is not included in the regions B21 to B23. For example, eyebrows, hair existing around the eyes, and the like. Further, if some object is shown around the eyes in the image data, the area of this object is also extracted as the area A24. Specifically, when the user wears spectacles, the frame of the spectacles is extracted as region A24.

なお、生成部304は、図11(c)に示すように、目以外の領域である領域B23,B24を生成してもよいが、この領域B23,B24については、目に関する画像処理はされない。領域A23,B24を利用することができる場合、目以外の範囲として、領域A23,A24を用いてもよい。 As shown in FIG. 11C, the generation unit 304 may generate regions B23 and B24 that are regions other than the eyes, but the regions B23 and B24 are not subjected to image processing related to the eyes. When the areas A23 and B24 can be used, the areas A23 and A24 may be used as a range other than the eyes.

ここでは、領域B21,B22の各領域を含む情報を、目マスクとする。また、この目マスクで特定される各領域が、画像処理の対象となる。抽出部303が、顔領域から、このように目について細かく区分した第1の領域を抽出し、生成部304が各第1の領域に対応する画像処理の対象となる第2の領域を生成することで、各第2の領域について後段の画像処理部305により、それぞれの領域について対応する処理を実行することができる。このとき、睫毛を抽出することができた場合、睫毛を例えば、目マスクに含むことで、睫毛を肌の一部として画像処理されることを防止し、例えば、睫毛にマスカラを塗ったような睫毛の美観を向上させた画像処理をすることができる。 Here, the information including each region of the regions B21 and B22 is used as an eye mask. In addition, each area specified by the eye mask is subject to image processing. The extraction unit 303 extracts the first region that is finely divided about the eyes from the face region, and the generation unit 304 generates the second region that is the target of image processing corresponding to each first region. As a result, the image processing unit 305 in the subsequent stage can execute the corresponding processing for each of the second regions. At this time, if the eyelashes can be extracted, for example, by including the eyelashes in the eye mask, it is possible to prevent the eyelashes from being image-processed as a part of the skin, for example, as if the eyelashes were coated with mascara. Image processing that improves the aesthetic appearance of the eyelashes can be performed.

なお、ここでは図12(a)に示す画像のような目部分を含む矩形領域を抽出し、この矩形領域から、目マスクの領域を抽出する例で説明したが、これに限定されない。例えば、抽出部303は、画像データから抽出された顔領域の全体から目マスクの領域を抽出してもよい。 Here, an example has been described in which a rectangular region including an eye portion as shown in the image shown in FIG. 12A is extracted and an eye mask region is extracted from the rectangular region, but the present invention is not limited to this. For example, the extraction unit 303 may extract the eye mask area from the entire face area extracted from the image data.

画像処理部305は、画像データから抽出された各領域について、各領域に対して予め定められる方法で処理する。例えば、画像処理部305は、口領域として抽出された口マスクに対して、口の美観を向上させる処理を実行したり、目領域として抽出された目マスクに対して目の美観を向上させる処理を実行したりする。 The image processing unit 305 processes each region extracted from the image data by a predetermined method for each region. For example, the image processing unit 305 executes a process of improving the aesthetic appearance of the mouth on the mouth mask extracted as the mouth region, or a process of improving the aesthetic appearance of the eye on the eye mask extracted as the eye region. Or run.

例えば、図13(a)に示すような、顔の一部に手がかかり、口が開き、歯が見えているような顔画像の例で検討する。この場合、生成部304は、抽出部303によって抽出された第1の領域(図示せず)から、図13(b)に示すように、第2の領域として、正確に第4口領域B11、第5口領域B12、第6口領域B13及び領域B14を抽出することができる。これにより、画像処理部305が画像処理する場合、図13(c)に示すように、唇以外を含む口の領域全体に画像処理することを防止することができる。具体的には、画像処理部図13(d)に示すように、上唇及び下唇の、口紅を塗るために好ましい範囲のみに画像処理がされ、また、上唇と下唇もその境界が区別されることによって、例えば立体感のあるより利用者にとって好ましい画像処理を実現することが可能となる。具体的には、唇の立体形状に応じて、上唇と下唇について、顔の奥行方向で手前となる部分を明るくし、奥になるにつれて暗くすることが可能となり、立体化のあるより自然な画像処理を実現することができる。 For example, as shown in FIG. 13A, an example of a face image in which a part of the face is touched, the mouth is open, and the teeth are visible will be examined. In this case, the generation unit 304 accurately serves as the second region from the first region (not shown) extracted by the extraction unit 303, as shown in FIG. 13 (b). The fifth mouth region B12, the sixth mouth region B13 and the region B14 can be extracted. As a result, when the image processing unit 305 performs image processing, as shown in FIG. 13 (c), it is possible to prevent the entire area of the mouth including other than the lips from being image-processed. Specifically, as shown in FIG. 13 (d) of the image processing section, image processing is performed only on the upper lip and the lower lip, which are preferable areas for applying lipstick, and the boundaries between the upper lip and the lower lip are also distinguished. As a result, for example, it is possible to realize image processing that is more preferable for the user than having a three-dimensional effect. Specifically, depending on the three-dimensional shape of the lips, it is possible to brighten the front part of the upper and lower lips in the depth direction of the face and darken it toward the back, which is more natural with three-dimensionality. Image processing can be realized.

《第1の領域の抽出及び第2の領域の生成》
続いて、複数のパターンでの、第1領域の抽出及び第2領域の生成の具体例について説明する。まず、図14(a)に示すような、口が開き、口の中に歯及び舌が見えているような顔画像の例で検討する。この場合、抽出部303は、図14(b)に示すように、第1口領域A11、第2口領域A12、第3口領域A13及び領域A14を抽出することができる。すなわち、このような一般的な口の形状とは異なる口の形状で画像データが取得された場合であっても、抽出部303は、それらの輪郭から各第1の領域を抽出することが可能となる。また、生成部304は、図14(c)に示すように、第1口領域A11から第4口領域B11を生成し、第2口領域A12から第5口領域B12を生成する。また、生成部304は、第6口領域B13及び領域B14を生成する。これにより、画像処理部305が各第2の領域に対して画像処理を実行することによって利用者にとって好ましい画像処理を実現することが可能となる。例えば、唇のうち口紅を塗るのが好ましい範囲にのみ口紅を塗るような画像処理を施すことが可能となる。
<< Extraction of the first region and generation of the second region >>
Subsequently, specific examples of extraction of the first region and generation of the second region in a plurality of patterns will be described. First, an example of a facial image in which the mouth is open and the teeth and tongue are visible in the mouth, as shown in FIG. 14A, will be examined. In this case, as shown in FIG. 14B, the extraction unit 303 can extract the first mouth region A11, the second mouth region A12, the third mouth region A13, and the region A14. That is, even when the image data is acquired with a mouth shape different from such a general mouth shape, the extraction unit 303 can extract each first region from the contours thereof. It becomes. Further, as shown in FIG. 14C, the generation unit 304 generates the fourth port region B11 from the first port region A11 and generates the fifth port region B12 from the second port region A12. In addition, the generation unit 304 generates the sixth port region B13 and the region B14. As a result, the image processing unit 305 can perform image processing on each of the second regions to realize image processing preferable to the user. For example, it is possible to perform image processing such that lipstick is applied only to the area of the lips where it is preferable to apply lipstick.

続いて、図15(a)に示すような、顔の一部に手がかかり、口が開き、指で顎をつまんでいる顔画像の例で検討する。この場合、抽出部303は、図15(b)に示すように、第1口領域A11、第2口領域A12、第3口領域A13及び第4領域A14を抽出することができる。すなわち、このような一般的な口の形状とは異なる口の形状で画像データが取得された場合であっても、抽出部303は、それらの輪郭から各第1の領域を抽出することが可能となる。また、生成部304は、図15(c)に示すように、第4口領域B11、第5口領域B12、第6口領域B13及び領域B14を生成する。したがって、画像処理部305が、各第2の領域に対して画像処理を実行することによって利用者にとって好ましい画像処理を実現することが可能となる。 Next, an example of a face image in which a part of the face is touched, the mouth is opened, and the chin is pinched by the fingers as shown in FIG. 15A will be examined. In this case, as shown in FIG. 15B, the extraction unit 303 can extract the first mouth region A11, the second mouth region A12, the third mouth region A13, and the fourth mouth region A14. That is, even when the image data is acquired with a mouth shape different from such a general mouth shape, the extraction unit 303 can extract each first region from the contours thereof. It becomes. Further, as shown in FIG. 15C, the generation unit 304 generates the fourth port region B11, the fifth port area B12, the sixth port area B13, and the area B14. Therefore, the image processing unit 305 can realize the image processing preferable to the user by executing the image processing for each second area.

続いて、図16(a)に示すような、口の一部に指がかかり、口が開き、口の中に歯及び舌が見えているような顔画像の例で検討する。このような場合、抽出方法によっては、図16(b)に示すように、指があるにも関わらず、指がないとみなされた口全体が見えるような領域A15が抽出される場合もある。これに対し、抽出部303は、正確に第1口領域A11、第2口領域A12、第3口領域A13及び領域A14(図示を省略)を抽出することができる。すなわち、このような一般的な口の形状とは異なる口の形状で画像データが取得された場合であっても、各領域を抽出することが可能となる。また、生成部304は、図16(c)に示すように、第4口領域B11、第5口領域B12、第6口領域B13及び領域B14を生成する。したがって、画像処理部305が、各第2の領域に対して画像処理を実行することによって利用者にとって好ましい画像処理を実現することが可能となる。例えば、指、口の中や歯まで、口紅を塗るような不自然な画像処理をすることなく、口紅を塗ることが好ましい範囲にのみ口紅を塗るような画像処理を施すことができるため、自然な画像の提供が可能となる。 Subsequently, an example of a facial image in which a finger is placed on a part of the mouth, the mouth is opened, and the teeth and tongue are visible in the mouth, as shown in FIG. 16A, will be examined. In such a case, depending on the extraction method, as shown in FIG. 16B, the region A15 in which the entire mouth, which is considered to have no finger, can be seen even though the finger is present may be extracted. .. On the other hand, the extraction unit 303 can accurately extract the first mouth region A11, the second mouth region A12, the third mouth region A13, and the region A14 (not shown). That is, even when the image data is acquired with a mouth shape different from the general mouth shape, each region can be extracted. Further, as shown in FIG. 16C, the generation unit 304 generates the fourth port region B11, the fifth port area B12, the sixth port area B13, and the area B14. Therefore, the image processing unit 305 can realize the image processing preferable to the user by executing the image processing for each second area. For example, it is possible to perform image processing such as applying lipstick only to the area where it is preferable to apply lipstick, without performing unnatural image processing such as applying lipstick to the fingers, mouth and teeth. It is possible to provide various images.

例えば、図17(a)に示すような、黒目の領域が上瞼と下瞼まで大きく、前髪が上瞼に近接する状態の顔画像の例で検討する。この場合、抽出部303は、図17(b)に示すように、第1の領域として、第1目領域A21、第2目領域A22、領域A23及び領域A24を抽出することができる。また、生成部304は、図17(c)に示すように、第2の領域として、第3目領域B21、第4目領域B22、領域B23及び領域B24を生成する。これにより、画像処理部305が、第2の領域に対して画像処理を実行することで、目を大きくみせるために黒目の領域が上瞼及び下瞼の外にまではみ出すような画像処理がされるのを防止することができる。したがって、利用者にとって好ましい画像処理を実現することが可能となる。 For example, as shown in FIG. 17A, an example of a facial image in which the black eye region is large up to the upper eyelid and the lower eyelid and the bangs are close to the upper eyelid will be examined. In this case, as shown in FIG. 17B, the extraction unit 303 can extract the first region A21, the second region A22, the region A23, and the region A24 as the first region. Further, as shown in FIG. 17C, the generation unit 304 generates the third region B21, the fourth region B22, the region B23, and the region B24 as the second region. As a result, the image processing unit 305 executes image processing on the second area, so that the black eye area protrudes to the outside of the upper and lower eyelids in order to make the eyes look larger. Can be prevented. Therefore, it is possible to realize image processing preferable to the user.

次に、図18(a)に示すような、指で目尻付近が上方向に持ち上げられ、黒目がほぼ確認できない状態の顔画像の例で検討する。図18に示すような画像データは、利用者によって面白みのある画像データを目的として取得されたものである。このような場合、一般的な目の形状とはかけ離れているため、抽出方法によっては、目の領域が抽出されない場合もある。これに対し、抽出部303は、図18(b)に示すように、第1の領域として、第1目領域A21、第2目領域A22、領域A23及び領域A24を抽出することができる。また、生成部304は、図18(c)に示すように、第2の領域として、第3目領域B21、第4目領域B22、領域B23及び領域B24を生成する。なお、図18に示す例では、第1の領域と第2の領域とは同一である。したがって、画像処理部305が、第2の領域に対して画像処理を実行することで、目を大きくみせるために黒目の領域が下瞼の外にまではみ出すような不自然な画像処理がされるのを防止することができる。また、利用者の求める面白みと、画像処理の結果がかけ離れるのを防止し、利用者の求める自然な画像の提供が可能となる。 Next, an example of a face image in which the vicinity of the outer corner of the eye is lifted upward by a finger and the black eye can hardly be confirmed as shown in FIG. 18A will be examined. The image data as shown in FIG. 18 is acquired by the user for the purpose of interesting image data. In such a case, the eye region may not be extracted depending on the extraction method because it is far from the general eye shape. On the other hand, as shown in FIG. 18B, the extraction unit 303 can extract the first region A21, the second region A22, the region A23, and the region A24 as the first region. Further, as shown in FIG. 18C, the generation unit 304 generates the third region B21, the fourth region B22, the region B23, and the region B24 as the second region. In the example shown in FIG. 18, the first region and the second region are the same. Therefore, when the image processing unit 305 executes image processing on the second region, unnatural image processing is performed such that the black eye region protrudes to the outside of the lower eyelid in order to make the eyes look larger. Can be prevented. In addition, it is possible to prevent the result of image processing from being far from the fun that the user wants, and to provide a natural image that the user wants.

例えば、図19(a)に示すような、目の一部に手がかかる顔画像の例で検討する。この場合、抽出方法によっては、図19(b)に示すように、手があるにも関わらず、手がないとみなされた目全体が見えるような領域A25が抽出される場合もある。これに対し、抽出部303は、正確に第1目領域A21、第2目領域A22、領域A23及び領域A24(図示を省略)を抽出することができる。また、生成部304は、図19(c)に示すように、第2の領域として、第3目領域B21、第4目領域B22、領域B23及び領域B24を生成する。これにより、画像処理部305が、第2領域に対して画像処理をすることで、目を大きくみせるために黒目の領域が上瞼及び下瞼の外にまではみ出したり、黒目の領域が手の領域まではみ出すような不自然な画像処理がされるのを防止することができる。したがって、利用者にとって好ましい画像処理を実現することが可能となる。 For example, consider an example of a face image in which a part of the eyes is touched, as shown in FIG. 19 (a). In this case, depending on the extraction method, as shown in FIG. 19B, the region A25 in which the entire eye, which is considered to have no hands, can be seen even though the hands are present may be extracted. On the other hand, the extraction unit 303 can accurately extract the first region A21, the second region A22, the region A23, and the region A24 (not shown). Further, as shown in FIG. 19C, the generation unit 304 generates the third region B21, the fourth region B22, the region B23, and the region B24 as the second region. As a result, the image processing unit 305 performs image processing on the second region, so that the black eye region protrudes to the outside of the upper and lower eyelids in order to make the eyes look larger, or the black eye region is the hand. It is possible to prevent unnatural image processing that extends beyond the area. Therefore, it is possible to realize image processing preferable to the user.

例えば、図20(a)に示すような、目の一部に眼鏡のフレーム部分がかかる顔画像の例で検討する。この場合、抽出方法によっては、図20(b)に示すように、眼鏡のフレームがあるにも関わらず、眼鏡のフレームがないとみなされた目全体が見えるような領域A25が抽出される場合もある。これに対し、抽出部303は、第1目領域A21、第2目領域A22、領域A23及び領域A24(図示省略)を抽出することができる。また、生成部304は、図20(c)に示すように、第2の領域として、第3目領域B21、第4目領域B22、領域B23及び領域B24を生成する。これにより、画像処理部305が、第2の領域に対して画像処理を実行することで、目を大きくみせるために黒目の領域が上瞼及び下瞼の外にまではみ出したり、黒目の領域が眼鏡のフレームの領域まではみ出すような画像処理がされるのを防止することができる。したがって、利用者にとって好ましい画像処理を実現することが可能となる。 For example, as shown in FIG. 20A, an example of a face image in which a frame portion of eyeglasses is applied to a part of eyes will be examined. In this case, depending on the extraction method, as shown in FIG. 20B, there is a case where the region A25 is extracted so that the entire eye can be seen without the frame of the spectacles even though the frame of the spectacles is present. There is also. On the other hand, the extraction unit 303 can extract the first region A21, the second region A22, the region A23, and the region A24 (not shown). Further, as shown in FIG. 20C, the generation unit 304 generates the third region B21, the fourth region B22, the region B23, and the region B24 as the second region. As a result, the image processing unit 305 executes image processing on the second region, so that the black eye region protrudes to the outside of the upper and lower eyelids in order to make the eyes look larger, or the black eye region becomes It is possible to prevent image processing that extends beyond the frame area of the eyeglasses. Therefore, it is possible to realize image processing preferable to the user.

取得される画像は、図13乃至図20に示すような様々な形態の画像があるので、このような様々な画像を学習データとすることで、生成部304での第2の領域の生成の精度を向上させることが可能となる。 Since the acquired images include images of various forms as shown in FIGS. 13 to 20, by using such various images as learning data, the generation unit 304 can generate the second region. It is possible to improve the accuracy.

《口マスクの画像処理》
画像処理部305は、口マスクの領域について、例えば、口紅を塗ったような画像処理を実行することができる。このとき、画像処理部305は、口マスク全体の色を調整するのではなく、口マスクに含まれる領域毎にそれぞれ設定された処理を実行することで、利用者の口の美観を向上させることができる。
<< Image processing of mouth mask >>
The image processing unit 305 can perform image processing on the area of the mouth mask, for example, by applying lipstick. At this time, the image processing unit 305 does not adjust the color of the entire mouth mask, but executes the processing set for each area included in the mouth mask to improve the aesthetic appearance of the user's mouth. Can be done.

具体的には、画像処理部305は、第1口領域A11については、上側から下側にかけて、グラデーションをつけて処理することができる。例えば、画像処理部305は、第1口領域A11の上縁部の色を薄く、下縁部の色を濃くするように処理することで、唇の立体感を損なうことなく、利用者にとって好ましい画像処理が可能となる。同様に、画像処理部305は、第2口領域A12についても、例えば、上縁部の色を濃く、下縁部の色を薄くグラデーションを付けて処理することで、唇の立体感を損なうことなく、利用者にとって好ましい画像処理が可能となる。このように、上唇と下唇とが別々に処理されるため、自然な画像処理がされ、利用者の美観を向上させることができる。 Specifically, the image processing unit 305 can process the first port region A11 with a gradation from the upper side to the lower side. For example, the image processing unit 305 processes the upper edge portion of the first mouth region A11 so as to lighten the color and darken the color of the lower edge portion, which is preferable for the user without impairing the three-dimensional appearance of the lips. Image processing becomes possible. Similarly, the image processing unit 305 also impairs the three-dimensional appearance of the lips by processing the second mouth region A12 with, for example, darkening the color of the upper edge portion and lightly gradation the color of the lower edge portion. This enables image processing that is preferable to the user. In this way, since the upper lip and the lower lip are processed separately, natural image processing can be performed and the aesthetic appearance of the user can be improved.

上述したように、口紅を塗ることが考えられる領域が第1口領域A11及び第2口領域A12と設定される。これにより、第3口領域A13については、第1口領域A11及び第2口領域A12と正確に区別することができる。したがって、画像処理部305では、口紅を塗ることのないような部分まで口紅を塗ったような画像処理を実行することを防止し、利用者にとって好ましい画像処理を可能とする。具体的には、口を開けて画像が歯を含む場合に、唇とともに、歯まで色が変更されるのを防止することができる。また、面白みのある画像を得ることを目的として、口の形を変形して画像が撮影された場合のように、唇の内側が見えているとき、唇の内側まで色が変更されることを防止することができる。すなわち、口の形がどのようなバリエーションであったとしても、唇と唇以外とを区別することが可能であって、利用者にとって好ましい画像処理がされ、利用者の美観を向上させることができる。 As described above, the areas where lipstick can be applied are set as the first mouth area A11 and the second mouth area A12. Thereby, the third mouth region A13 can be accurately distinguished from the first mouth region A11 and the second mouth region A12. Therefore, the image processing unit 305 prevents the image processing in which the lipstick is applied to the portion where the lipstick is not applied, and enables the image processing preferable for the user. Specifically, when the mouth is opened and the image contains teeth, it is possible to prevent the color of the teeth as well as the lips from being changed. Also, for the purpose of obtaining an interesting image, when the inside of the lips is visible, the color is changed to the inside of the lips, as in the case where the image was taken by deforming the shape of the mouth. Can be prevented. That is, regardless of the variation in the shape of the mouth, it is possible to distinguish between the lips and those other than the lips, image processing preferable to the user can be performed, and the aesthetic appearance of the user can be improved. ..

画像処理部305は、第1口領域A11にハイライトを入れたような処理をするようにしてもよい。具体的には、画像処理部305は、第1口領域A11の上端の中央部、いわゆる、上唇において人中と重なる点に、ハイライト効果のある処理を実現することができる。これにより、利用者の美観を向上させることができる。 The image processing unit 305 may perform processing such as highlighting the first port region A11. Specifically, the image processing unit 305 can realize processing having a highlighting effect at the central portion of the upper end of the first mouth region A11, that is, the point where the upper lip overlaps with the philtrum. As a result, the aesthetic appearance of the user can be improved.

画像処理部305は、口が開いている場合と口が閉じている場合に応じて、異なる処理を実行するようにしてもよい。例えば、画像処理部305は、第1口領域A11及び第2口領域A12の面積と第3口領域A13の面積の比率によって画像処理の程度を変えることで、利用者にとって好ましい画像処理がされ、利用者の美化を向上させることができる。 The image processing unit 305 may execute different processing depending on whether the mouth is open or closed. For example, the image processing unit 305 performs image processing preferable to the user by changing the degree of image processing according to the ratio of the area of the first port area A11 and the second port area A12 to the area of the third port area A13. The beautification of the user can be improved.

また、仮に、第3口領域A13に含まれる歯の領域を区別することができる場合、画像処理部305は、ホワイトニングされた歯にするような画像処理を実現することもできる。これにより、利用者の美観をより向上させることができる。 Further, if the tooth region included in the third mouth region A13 can be distinguished, the image processing unit 305 can also realize image processing such as whitening teeth. As a result, the aesthetic appearance of the user can be further improved.

《目マスクの画像処理》
画像処理部305は、目マスクの領域について、例えば、目を大きく見せたり、目が生き生きとしたような画像処理を実行することができる。このとき、画像処理部305は、目マスク全体の形状や色を調整するのではなく、目マスクに含まれる領域毎にそれぞれ設定された処理を実行することで、利用者の美観をより向上させることができる。
《Image processing of eye mask》
The image processing unit 305 can perform image processing on the area of the eye mask, for example, to make the eyes look larger or to make the eyes lively. At this time, the image processing unit 305 does not adjust the shape and color of the entire eye mask, but executes the processing set for each area included in the eye mask to further improve the aesthetic appearance of the user. be able to.

具体的には、画像処理部305は、第1目領域A21については、黒目を大きくする処理をすることができる。例えば、画像処理部305は、第1目領域A21については、所定割合大きくなるように処理することで、目をぱっちりとさせたような処理をすることができる。このとき、第1目領域A21、第2目領域A22及び第3領域A23を正確に区別することができるため、黒目が第2目領域A22や第3領域A23にまで外れることなく、利用者にとって好ましい画像処理が可能となり、利用者の美観をより向上させることができる。 Specifically, the image processing unit 305 can perform a process of enlarging the black eyes in the first area A21. For example, the image processing unit 305 can process the first area A21 so as to increase the size by a predetermined ratio, so that the eyes can be made clear. At this time, since the first area A21, the second area A22, and the third area A23 can be accurately distinguished, the black eye does not deviate to the second area A22 or the third area A23 for the user. Preferred image processing becomes possible, and the aesthetic appearance of the user can be further improved.

画像処理部305は、第1目領域A21の色を変更する処理をすることができる。例えば、画像処理部305は、目の色をはっきりさせることで、利用者の目を大きくみせるような処理をすることができる。また例えば、目の色を、カラーコンタクトを付けたような色に処理することができる。このとき、第1目領域A21、第2目領域A22及び第3領域A23を正確に区別することができるため、第2目領域A22や第3領域A23まで色を変更することなく、利用者にとって好ましい画像処理が可能となり、利用者の目の美観を向上させることができる。 The image processing unit 305 can perform a process of changing the color of the first area A21. For example, the image processing unit 305 can perform processing that makes the user's eyes look larger by clarifying the color of the eyes. Further, for example, the color of the eyes can be processed into a color as if a color contact lens was attached. At this time, since the first area A21, the second area A22, and the third area A23 can be accurately distinguished, the user can use the second area A22 and the third area A23 without changing the color. Preferred image processing becomes possible, and the aesthetic appearance of the user's eyes can be improved.

画像処理部305は、第2目領域A22の色を変更する処理をすることができる。例えば、白目の色をより透明感のある白い色にすることで、利用者の印象をより生き生きとさせるように処理することができる。このとき、画像処理部305は、単に第2目領域A22の色を単一にするのではなく、第2目領域A22の外側と内側とで緩やかなグラデーションが生じるように処理してもよい。これにより、利用者の目が平坦に見える不自然な画像処理となることを防止するとともに、立体感のある自然な印象に処理し、利用者の目の美観を向上させることができる。 The image processing unit 305 can perform a process of changing the color of the second area A22. For example, by changing the color of the white of the eyes to a more transparent white color, it is possible to process the user's impression to be more lively. At this time, the image processing unit 305 may process the color of the second area A22 so as to generate a gentle gradation between the outside and the inside of the second area A22, instead of simply unifying the colors. As a result, it is possible to prevent unnatural image processing in which the user's eyes look flat, and to process the image into a three-dimensional and natural impression to improve the aesthetic appearance of the user's eyes.

仮に、蒙古襞や涙丘等の領域を区別することができる場合、画像処理部305は、蒙古襞や涙丘の領域の部分を強調したり目立たなく調整した画像処理を実現するようにしてもよい。また、上瞼、下瞼及び瞼縁等を区別することができる場合、画像処理部305は、瞼周辺の色を変更したり、瞼縁を強調した画像処理を実現するようにしてもよい。さらに、二重を特定することができる場合、画像処理部305は、二重を強調したり、二重幅を調整した画像処理を実現するようにしてもよい。また、睫毛を区別することができる場合、画像処理部305は、睫毛を太く強調したり、長く強調した画像処理を実現することもできる。これらの処理によっても、利用者の美観を向上させることができる。 If it is possible to distinguish areas such as Mongolian folds and caruncles, the image processing unit 305 may realize image processing that emphasizes or inconspicuously adjusts the areas of Mongolian folds and caruncles. Good. Further, when the upper eyelid, the lower eyelid, the eyelid edge, and the like can be distinguished, the image processing unit 305 may change the color around the eyelid or realize image processing in which the eyelid edge is emphasized. Further, when the double can be specified, the image processing unit 305 may realize the image processing in which the double is emphasized or the double width is adjusted. Further, when the eyelashes can be distinguished, the image processing unit 305 can realize image processing in which the eyelashes are emphasized thickly or emphasized for a long time. These processes can also improve the aesthetic appearance of the user.

《その他の処理》
また、上述した口マスクや目マスクに関する処理に加え、画像処理部305は、その他、顔に対して美肌効果、美白効果、小顔効果を目的とする処理を実行してもよい。なお、これらの処理については、既存の処理と同様であるため、ここでは具体的な説明は省略する。
<< Other processing >>
Further, in addition to the above-mentioned processing related to the mouth mask and the eye mask, the image processing unit 305 may also perform other processing for the purpose of skin-whitening effect, whitening effect, and small face effect on the face. Since these processes are the same as the existing processes, specific description thereof will be omitted here.

合成部306は、処理した画像を合成用画像とし、カメラ91に取り込まれた動画像に合成用画像を合成し、合成した画像をタッチパネルモニタ92にライブビュー表示画像としてさせる。したがって、利用者は、仕上がりイメージをリアルタイムで確認しながら撮影を行うことができる。 The compositing unit 306 uses the processed image as a compositing image, synthesizes the compositing image with the moving image captured by the camera 91, and causes the touch panel monitor 92 to display the compositing image as a live view display image. Therefore, the user can take a picture while checking the finished image in real time.

編集部230は、上述した編集操作部27A,27Bと、編集処理部307とを備える。編集処理部307は、編集操作部27A,27Bにおけるタブレット内蔵モニタ131、およびスピーカ133を制御することで、編集処理を行う。編集処理部307は、タブレット内蔵モニタ131に対する、タッチペン132A,132Bを用いた利用者の操作入力を受け付ける。 The editing unit 230 includes the above-mentioned editing operation units 27A and 27B and an editing processing unit 307. The editing processing unit 307 performs editing processing by controlling the tablet built-in monitor 131 and the speaker 133 in the editing operation units 27A and 27B. The editing processing unit 307 receives the user's operation input using the touch pens 132A and 132B to the tablet built-in monitor 131.

また、編集処理部307は、タブレット内蔵モニタ131に表示させた選択画面に対する選択操作に応じて、編集対象画像としての撮影画像に所定の画像処理を施し、タブレット内蔵モニタ131に表示させる。あるいは、編集処理部307は、タブレット内蔵モニタ131に表示させた編集画面に対する入力操作に応じて、合成用画像に所定の画像処理を施し、あるいは、入力操作に応じて新たな合成用画像を生成して、撮影画像に合成し、タブレット内蔵モニタ131に表示させる。 Further, the editing processing unit 307 performs predetermined image processing on the captured image as the image to be edited according to the selection operation for the selection screen displayed on the tablet built-in monitor 131, and displays the captured image on the tablet built-in monitor 131. Alternatively, the editing processing unit 307 performs predetermined image processing on the compositing image in response to an input operation on the editing screen displayed on the tablet built-in monitor 131, or generates a new compositing image in response to the input operation. Then, it is combined with the captured image and displayed on the tablet built-in monitor 131.

また、編集処理部307は、編集の進め方などを説明するガイダンスの出力を制御する。例えば、編集処理部307は、編集の進め方などを説明するガイダンスの画面をタブレット内蔵モニタ131に表示させたり、編集の進め方などを説明するガイダンスの音声をスピーカ133から出力させたりする。また、編集処理部307は通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。また、編集処理部307は、印刷操作部28のプリンタ140を制御することで、印刷処理を行ってもよい。 In addition, the editing processing unit 307 controls the output of guidance explaining how to proceed with editing. For example, the editing processing unit 307 may display a guidance screen explaining how to proceed with editing on the tablet built-in monitor 131, or output a voice of guidance explaining how to proceed with editing from the speaker 133. In addition, the editing processing unit 307 controls the communication unit 203 to perform processing related to communication via a network such as the Internet. Further, the editing processing unit 307 may perform the printing processing by controlling the printer 140 of the printing operation unit 28.

印刷部240は、上述した印刷操作部28と、印刷処理部308とを備える。印刷処理部308は、編集処理部307から印刷データを受け取り、印刷操作部28のプリンタ140を制御することで、印刷処理を行う。なお、ここでは、画像データを出力する出力部の一例として印刷データである写真シールを出力する印刷部240を用いて説明したが、画像データの出力方法は、これに限定されない。例えば、ネットワーク等を用いて画像データ自体を外部の通信端末に送信する送信手段を出力部としてもよい。 The printing unit 240 includes the above-mentioned printing operation unit 28 and a printing processing unit 308. The print processing unit 308 receives print data from the editing processing unit 307 and performs printing processing by controlling the printer 140 of the printing operation unit 28. Here, as an example of the output unit that outputs the image data, the printing unit 240 that outputs the photo sticker that is the print data has been described, but the output method of the image data is not limited to this. For example, a transmission means for transmitting the image data itself to an external communication terminal using a network or the like may be used as an output unit.

このように、写真シール作成装置1は課金と引き換えに、利用者の気持ちが盛り上がるような仕掛け(撮影ポーズの選択、BGM、ナレーションなど)が種々施された写真シール作成ゲームを提供する。そのため、写真シール作成装置1での作成画像は、利用者の楽しい表情が引き出された画像や、趣向を凝らした、華やかな画像となる。 In this way, the photo sticker creation device 1 provides a photo sticker creation game in which various mechanisms (selection of shooting pose, BGM, narration, etc.) are applied in exchange for billing. Therefore, the image created by the photo sticker creating device 1 is an image that brings out the pleasant facial expression of the user or an elaborate and gorgeous image.

また、写真シール作成装置1ではライティングなどの設備が充実しており、そして画像の変形処理(例えば被写体の目の大きさや脚の長さなど)および色の補正(被写体の肌の美白処理など)などを高度な技術で行えるため、写真シール作成装置1で作成した画像は、利用者の写りが良い画像となる。 In addition, the photo sticker creation device 1 is fully equipped with lighting and other equipment, and image deformation processing (for example, subject eye size, leg length, etc.) and color correction (subject skin whitening processing, etc.) Since the above can be performed with advanced technology, the image created by the photo sticker creating device 1 is an image that gives a good image to the user.

また、写真シール作成装置1以外での画像処理(例えば写真加工のためのアプリケーションなどでの処理)に比べて容易に編集(画像への落書き)ができ、当該編集のバリエーションも豊かである。この点からも、写真シール作成装置1での作成画像は写真シール作成装置1以外で撮影および画像処理された画像に比べ、比較的華やかに仕上がるといえる。 Further, the editing (doodles on the image) can be performed more easily than the image processing (for example, the processing in an application for photo processing) other than the photo sticker creating device 1, and the variation of the editing is rich. From this point as well, it can be said that the image created by the photo sticker creating device 1 is relatively gorgeous as compared with the image taken and image-processed by other than the photo sticker creating device 1.

(写真シール作成ゲームの流れ)
次に、利用者が写真シール作成装置1において写真シール作成ゲームを行う処理の流れについて、図21を用いて説明する。図21は、写真シール作成装置1におけるゲームの開始から当該ゲームで写真シールを作成するまでの処理の流れを示すフローチャートである。
(Flow of photo sticker creation game)
Next, the flow of the process in which the user plays the photo sticker making game on the photo sticker making device 1 will be described with reference to FIG. FIG. 21 is a flowchart showing a flow of processing from the start of the game in the photo sticker creating device 1 to the creation of the photo sticker in the game.

ゲーム開始前の状態においては、写真シール作成装置1の事前選択処理部301として機能する制御部201は、事前選択操作部20のタッチパネルモニタ71に、硬貨の投入を促すメッセージを表示させる。また、制御部201は、図21に示すように、硬貨処理部74からの起動信号の有無に基づいて、硬貨投入返却口73に硬貨が投入されたか否かを判定する(S1)。制御部201は、硬貨投入返却口73に硬貨が投入されていないと判定した場合には(S1:NO)、硬貨が投入されたか否かの判定処理を継続する。 In the state before the start of the game, the control unit 201, which functions as the preselection processing unit 301 of the photo sticker creation device 1, causes the touch panel monitor 71 of the preselection operation unit 20 to display a message prompting the insertion of coins. Further, as shown in FIG. 21, the control unit 201 determines whether or not a coin has been inserted into the coin insertion / return port 73 based on the presence / absence of an activation signal from the coin processing unit 74 (S1). When the control unit 201 determines that no coin has been inserted into the coin insertion / return port 73 (S1: NO), the control unit 201 continues the determination process of whether or not the coin has been inserted.

ゲームを開始しようとする利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入返却口73に硬貨を投入する。硬貨投入返却口73へ硬貨が投入されると、硬貨処理部74からゲームの開始を指示する起動信号が出力される。制御部201は、硬貨処理部74から起動信号を入力すると、硬貨投入返却口73に硬貨が投入されたと判定し(S1:YES)、利用者に対して事前接客処理を実行する(S2)。 A user who intends to start a game inserts coins into the coin insertion / return port 73 in the preselection space A0, which is the space in front of the preselection operation unit 20. When coins are inserted into the coin insertion / return port 73, a start signal instructing the start of the game is output from the coin processing unit 74. When the start signal is input from the coin processing unit 74, the control unit 201 determines that the coin has been inserted into the coin input / return port 73 (S1: YES), and executes the pre-customer service process for the user (S2).

事前接客処理においては、制御部201は、タッチパネルモニタ71に、コースの選択、名前の入力、およびデザインの選択等を促すメッセージ等を表示させる。利用者が、タッチパネルモニタ71に表示されるメッセージ等に従って各種の選択または入力を行うと、制御部201は、撮影コース、名前、デザイン、および印刷レイアウト等の設定を行う。制御部201は、複数種類の合成用背景画像を選択可能にタッチパネルモニタ92に表示させ、合成用背景画像を利用者に選択させる。 In the pre-customer service process, the control unit 201 causes the touch panel monitor 71 to display a message urging the selection of the course, the input of the name, the selection of the design, and the like. When the user makes various selections or inputs according to a message or the like displayed on the touch panel monitor 71, the control unit 201 sets the shooting course, name, design, print layout, and the like. The control unit 201 displays a plurality of types of composite background images on the touch panel monitor 92 so that the user can select the composite background image.

事前接客処理が終了すると、制御部201は、利用者に対して撮影空間A1に移動して撮影を行うことを促すメッセージ等をタッチパネルモニタ71に表示させる。撮影処理部302として機能する制御部201は、撮影操作部21のタッチパネルモニタ92に、画面にタッチするように促すメッセージを表示させる。なお、このメッセージと共に、あるいはこのメッセージに代えて、スタートボタンを表示させてもよい。また、制御部201は、BGMと共に、画面にタッチするように促すナレーションを、スピーカ93から出力させる。撮影空間A1に移動した利用者が、タッチパネルモニタ92にタッチすると、制御部201は、タッチパネルモニタ92がタッチされたことを読み取り、撮影処理を開始する(S3)。 When the pre-customer service process is completed, the control unit 201 causes the touch panel monitor 71 to display a message or the like urging the user to move to the shooting space A1 and perform shooting. The control unit 201, which functions as the shooting processing unit 302, causes the touch panel monitor 92 of the shooting operation unit 21 to display a message prompting the user to touch the screen. The start button may be displayed together with or in place of this message. Further, the control unit 201, together with the BGM, outputs a narration prompting the user to touch the screen from the speaker 93. When the user who has moved to the shooting space A1 touches the touch panel monitor 92, the control unit 201 reads that the touch panel monitor 92 has been touched and starts the shooting process (S3).

撮影処理においては、制御部201は、タッチパネルモニタ92に、例えばライティングに関するガイダンスを表示させ、利用者にライティングのレベルの選択を促す。利用者がライティングのレベルを選択すると、制御部201は、ライティングのレベルを、選択されたレベルに設定する。 In the shooting process, the control unit 201 causes the touch panel monitor 92 to display guidance regarding lighting, for example, and prompts the user to select a lighting level. When the user selects a lighting level, the control unit 201 sets the lighting level to the selected level.

また、制御部201は、撮影枚数を説明するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。本実施形態では、一例として、撮影枚数は7枚に設定されている。 Further, the control unit 201 displays an instruction screen for explaining the number of shots on the touch panel monitor 92, and outputs the corresponding narration from the speaker 93. In this embodiment, as an example, the number of shots is set to 7.

次に、制御部201は、利用者を立ち位置に誘導するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。 Next, the control unit 201 displays an instruction screen for guiding the user to the standing position on the touch panel monitor 92, and outputs the corresponding narration from the speaker 93.

以上のようなインストラクション画面を表示させた後、制御部201は、利用者に選択させた撮影コースに応じて、合成用背景画像と、カメラ91で取得している動画像とを合成したライブビュー表示画像を、ライブビュー表示としてタッチパネルモニタ92に表示させる(S4)。これにより、利用者は、仕上がりイメージを確認しながらポーズを取ることができる。 After displaying the instruction screen as described above, the control unit 201 performs a live view in which the background image for composition and the moving image acquired by the camera 91 are combined according to the shooting course selected by the user. The display image is displayed on the touch panel monitor 92 as a live view display (S4). As a result, the user can pose while checking the finished image.

制御部201は、ライブビュー表示を、撮影のためのカウントダウンの終了直前まで行い、その間、制御部201は、ライブビュー表示と共に、あるいはライブビュー表示に代えて、サンプルポーズをタッチパネルモニタ92に表示させる。制御部201は、サンプルポーズに合わせたナレーションをスピーカ93から出力させる。 The control unit 201 displays the live view until just before the end of the countdown for shooting, and during that time, the control unit 201 displays the sample pose on the touch panel monitor 92 together with the live view display or instead of the live view display. .. The control unit 201 outputs a narration according to the sample pose from the speaker 93.

制御部201は、ライブビュー表示の開始から終了までの時間を管理しており、予め設定した所定の時間が経過すると、タッチパネルモニタ92の表示とスピーカ93の音声とでカウントダウンを行う。 The control unit 201 manages the time from the start to the end of the live view display, and when a preset predetermined time elapses, the control unit 201 counts down the display of the touch panel monitor 92 and the sound of the speaker 93.

制御部201は、カウントダウンの終了タイミングで、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85に照明制御信号を送信すると共にカメラ91にシャッタ信号を送信する。 At the end timing of the countdown, the control unit 201 transmits a lighting control signal to the upper strobe 82, the left strobe 83, the right strobe 84, and the foot strobe 85, and also transmits a shutter signal to the camera 91.

これにより、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85から閃光を照射し、照明された利用者が背景とともに写っている撮影画像をカメラ91により取得する。本実施形態では、一例として、ステップS3からステップS4までの処理を複数回繰り返して7枚の撮影画像を取得する。また、制御部201は、撮影画像に合成用背景画像を合成させた編集対象画像を記憶部202に記憶させる。 As a result, a flash is emitted from the upper strobe 82, the left strobe 83, the right strobe 84, and the foot strobe 85, and the photographed image in which the illuminated user is captured together with the background is acquired by the camera 91. In the present embodiment, as an example, the processes from step S3 to step S4 are repeated a plurality of times to acquire seven captured images. Further, the control unit 201 stores the edit target image in which the captured image is combined with the background image for composition in the storage unit 202.

なお、ここでは、予め設定した時間毎に撮影画像が取得される例で説明したが、撮影画像の取得タイミングはこれに限定されない。例えば、撮影のための操作ボタンを撮影操作部21が有する場合、この操作ボタンを操作したタイミングで撮影画像を取得するようにしてもよい。 Here, the example in which the captured image is acquired at preset time intervals has been described, but the acquisition timing of the captured image is not limited to this. For example, when the shooting operation unit 21 has an operation button for shooting, the shot image may be acquired at the timing when the operation button is operated.

撮影終了後、制御部201は、利用者に対して、編集空間A2−1、または編集空間A2−2のいずれか一方への移動を促す案内画面をタッチパネルモニタ92に表示するとともに、音声による移動案内をスピーカ93に出力する。 After the shooting is completed, the control unit 201 displays a guidance screen on the touch panel monitor 92 prompting the user to move to either the editing space A2-1 or the editing space A2-2, and moves by voice. The guidance is output to the speaker 93.

そして、制御部201は、利用者による編集対象画像の編集を許容する編集処理を実行する(S5)。詳述すると、制御部201は、編集対象画像を、タブレット内蔵モニタ131に表示し、この編集対象画像に対して利用者がタッチペン132A,132Bでスタンプ画像やペン画像などを描くことを許容し、編集画像を作成する。 Then, the control unit 201 executes an editing process that allows the user to edit the image to be edited (S5). More specifically, the control unit 201 displays the image to be edited on the monitor 131 built into the tablet, and allows the user to draw a stamp image, a pen image, or the like with the touch pens 132A and 132B on the image to be edited. Create an edited image.

その後、制御部201は、利用者に対してシール紙排出口161が設けられた印刷待ち空間A3への移動を促す案内画面をタブレット内蔵モニタ131に表示するとともに、音声による移動案内をスピーカ133に出力する。 After that, the control unit 201 displays a guidance screen for urging the user to move to the print waiting space A3 provided with the sticker paper discharge port 161 on the tablet built-in monitor 131, and provides voice movement guidance to the speaker 133. Output.

さらに、制御部201は、事前選択操作部20において選択された印刷レイアウトに編集画像を配置して印刷用画像を作成し、この印刷用画像をシール紙142に印刷する印刷処理を実行する(S6)。 Further, the control unit 201 arranges the edited image in the print layout selected by the preselection operation unit 20 to create a print image, and executes a print process of printing the print image on the sticker paper 142 (S6). ).

印刷処理が終了すると、制御部201は、シール紙142の排出処理を実行し(S7)、印刷完了したシール紙142をシール紙排出口161から排出し、利用者に写真シールとして提供してゲームを終了する。このようにして、写真シール作成装置1により作成した利用者の撮影画像を、写真シールとして出力することができる。なお、詳細な説明は省略するが、本実施形態の写真シール作成装置1は、通信により、撮影画像を携帯端末等に出力することも可能である。 When the printing process is completed, the control unit 201 executes the ejection process of the sticker paper 142 (S7), ejects the printed sticker paper 142 from the sticker paper ejection port 161 and provides the user as a photo sticker for the game. To finish. In this way, the photographed image of the user created by the photo sticker creation device 1 can be output as a photo sticker. Although detailed description is omitted, the photo sticker creating device 1 of the present embodiment can output a photographed image to a mobile terminal or the like by communication.

(合成処理の詳細)
次に、図22に示すフローチャートを参照して、図21のフローチャートのステップS4の合成処理について説明する。図22に示すように、ステップS4の合成処理では、制御部201は、まず、撮影画像に含まれる利用者の顔領域を抽出する(S41)。撮影画像に複数の利用者を含む場合、制御部201は、全ての利用者の顔領域を抽出する。
(Details of synthesis process)
Next, the synthesis process of step S4 of the flowchart of FIG. 21 will be described with reference to the flowchart shown in FIG. As shown in FIG. 22, in the synthesis process of step S4, the control unit 201 first extracts the user's face region included in the captured image (S41). When the captured image includes a plurality of users, the control unit 201 extracts the face areas of all the users.

制御部201は、ステップS41で抽出した顔領域が抽出された利用者について、さらに、口領域及び目領域を抽出する(S42)。具体的には、制御部201は、口領域に関し、領域A11〜A14を抽出する。また、制御部201は、目領域に関し、領域A21〜A24を抽出する。撮影画像に複数の利用者を含む場合、制御部201は、全ての利用者に対して、口領域及び目領域を抽出する。 The control unit 201 further extracts the mouth area and the eye area for the user from which the face area extracted in step S41 has been extracted (S42). Specifically, the control unit 201 extracts regions A11 to A14 with respect to the mouth region. Further, the control unit 201 extracts regions A21 to A24 with respect to the eye region. When the captured image includes a plurality of users, the control unit 201 extracts the mouth area and the eye area for all the users.

制御部201は、ステップS42で抽出した各領域A11〜A14の画像データについて、口領域に対して予め定められる処理を実行する(S43)。例えば、制御部201は、口領域について、美観を向上させるような処理として、口の色を調整する処理を実行する。 The control unit 201 executes a predetermined process for the mouth region with respect to the image data of the regions A11 to A14 extracted in step S42 (S43). For example, the control unit 201 executes a process of adjusting the color of the mouth as a process of improving the aesthetic appearance of the mouth region.

また、制御部201は、ステップS42で抽出した各領域A21〜A24の画像データについて、目領域に対して予め定められる処理を実行する(S44)。例えば、制御部201は、目領域について、美観を向上させるような処理として、目の色を調整する処理を実行する。 Further, the control unit 201 executes a predetermined process for the eye region for the image data of the regions A21 to A24 extracted in step S42 (S44). For example, the control unit 201 executes a process of adjusting the color of the eyes as a process of improving the aesthetic appearance of the eye region.

さらに、制御部201は、利用者の顔領域の画像データについて、他の画像処理を実行してもよい(S45)。例えば、制御部201は、予め定められる方法に従い、小顔に処理したり、色白に処理する。このとき、制御部201は、自動で処理してもよいし、利用者の操作に従って処理してもよい。 Further, the control unit 201 may execute other image processing on the image data of the user's face region (S45). For example, the control unit 201 processes a small face or a fair face according to a predetermined method. At this time, the control unit 201 may automatically process or may process according to the operation of the user.

制御部201は、ステップS43〜S45で処理された画像を用いて画像を合成する(S46)。ここで合成された画像は、ライブビュー表示により利用者に確認されながら画像の取得がされる。 The control unit 201 synthesizes an image using the images processed in steps S43 to S45 (S46). The combined image is acquired while being confirmed by the user by the live view display.

(表示例)
図23は、タブレット内蔵モニタ131に表示される編集画面400の一例である。図23に示すように、編集画面400は、第1編集部401と第2編集部402とを備える。
(Display example)
FIG. 23 is an example of the editing screen 400 displayed on the tablet built-in monitor 131. As shown in FIG. 23, the editing screen 400 includes a first editing unit 401 and a second editing unit 402.

第1編集部401は、第1サムネイル部403、第1編集対象画像表示部405、第1操作ボタン表示部407及び第1パレット409を備える。同様に、第2編集部402は、第2サムネイル部404、第2編集対象画像表示部406、第2操作ボタン表示部408及び第2パレット410を備える。 The first editing unit 401 includes a first thumbnail unit 403, a first editing target image display unit 405, a first operation button display unit 407, and a first palette 409. Similarly, the second editing unit 402 includes a second thumbnail unit 404, a second editing target image display unit 406, a second operation button display unit 408, and a second palette 410.

第1サムネイル部403及び第2サムネイル部404には、撮影された複数の編集対象画像Im1〜Im5のサムネイルが表示される。第1サムネイル部403及び第2サムネイル部404に表示されるサムネイルは、タッチペン132A又は132Bで選択することができる。図21に示す例では、それぞれ、編集対象画像Im1、Im3が選択される。なお、図示は省略するが、選択された編集対象画像のサムネイルには、「選択中」の文字が表示されてもよい。また、図19のフローチャートのステップS3で7枚の画像を撮影した場合、サムネイル部403,404にもそれぞれ7枚の編集対象画像が表示されるが、図23は、便宜的に5枚の編集対象画像が表示される例で説明する。 The first thumbnail unit 403 and the second thumbnail unit 404 display thumbnails of a plurality of captured images Im1 to Im5 to be edited. The thumbnails displayed in the first thumbnail unit 403 and the second thumbnail unit 404 can be selected with the touch pen 132A or 132B. In the example shown in FIG. 21, the images to be edited Im1 and Im3 are selected, respectively. Although not shown, the characters "selected" may be displayed on the thumbnail of the selected image to be edited. Further, when seven images are taken in step S3 of the flowchart of FIG. 19, seven images to be edited are displayed in the thumbnail units 403 and 404, respectively, but FIG. 23 shows five edits for convenience. An example in which the target image is displayed will be described.

第1編集対象画像表示部405には、第1サムネイル部403で選択された編集対象画像が表示される。また、第2編集対象画像表示部406には、第2サムネイル部404で選択された編集対象画像が表示される。サムネイル部403又は404に表示される編集対象画像において選択される編集対象画像が変更されると、編集対象画像表示部405又は406に表示される編集対象画像も変更される。 The edit target image selected by the first thumbnail unit 403 is displayed on the first edit target image display unit 405. Further, the edit target image selected by the second thumbnail unit 404 is displayed on the second edit target image display unit 406. When the edit target image selected in the edit target image displayed on the thumbnail unit 403 or 404 is changed, the edit target image displayed on the edit target image display unit 405 or 406 is also changed.

第1パレット409は、第1編集対象画像表示部405に表示される編集対象画像にコンテンツである文字、模様、色等で装飾する場合にコンテンツの種類等を選択するために利用される。また、第2パレット410は、第2編集対象画像表示部406に表示される編集対象画像にコンテンツで装飾する場合にコンテンツの種類等を選択するために利用される。後に詳述するが、図21に示す例では、各パレット409及び410は、「なりきり」、「顔落書き」、「アイテム」及び「メイク」のタブを含む。 The first palette 409 is used to select the type of content or the like when decorating the image to be edited displayed on the first edit target image display unit 405 with characters, patterns, colors, or the like which are contents. Further, the second palette 410 is used to select the type of content and the like when decorating the edit target image displayed on the second edit target image display unit 406 with the content. As will be described in detail later, in the example shown in FIG. 21, each palette 409 and 410 includes tabs for "impersonator", "face graffiti", "item" and "makeup".

上述したように、本実施形態では、各領域を抽出することにより、各領域に想定された処理を実行することが可能となり、利用者にとって好ましい画像処理を実現することができる。 As described above, in the present embodiment, by extracting each region, it is possible to execute the processing assumed for each region, and it is possible to realize image processing preferable to the user.

<変形例>
以上の実施形態は例示であり、この発明の範囲から離れることなく様々な変形が可能である。例えば、上述した各実施形態を適宜組み合わせてもよい。例えば、実施形態7においては、利用者の性別に応じて、9秒カウントするか7秒カウントするかを選択する態様について説明したが、実施形態7と実施形態1または実施形態2とを組み合わせてもよい。この場合には、利用者の性別が男性の場合には、撮影間隔を17秒で一定とし、女性の場合には、撮影枚数に応じて9秒カウントと7秒カウントとを選択するようにしてもよい。
<Modification example>
The above embodiment is an example, and various modifications can be made without departing from the scope of the present invention. For example, the above-described embodiments may be combined as appropriate. For example, in the seventh embodiment, the mode of selecting whether to count for 9 seconds or 7 seconds according to the gender of the user has been described, but the seventh embodiment is combined with the first embodiment or the second embodiment. May be good. In this case, if the user's gender is male, the shooting interval is fixed at 17 seconds, and if the user is female, 9-second count or 7-second count is selected according to the number of shots. May be good.

また、手動で撮影間隔を切り替えるようにしてもよい。例えば、セルフシャッタボタンと、スライドバー等とを設け、セルフシャッタボタンについては、撮影間隔を切り替えるのではなく、撮影のタイミングを決定するように構成する。そして、スライドバー等を操作することにより、セルフシャッタボタンを操作した以降の撮影間隔を変更できるようにしてもよい。 Alternatively, the shooting interval may be switched manually. For example, a self-shutter button, a slide bar, and the like are provided, and the self-shutter button is configured to determine the shooting timing instead of switching the shooting interval. Then, by operating the slide bar or the like, the shooting interval after the operation of the self-shutter button may be changed.

(ソフトウェアによる実現例)
写真シール作成装置1の機能ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
(Example of realization by software)
The functional block of the photoseal creation device 1 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software using a CPU (Central Processing Unit). Good.

後者の場合、写真シール作成装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、前記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、前記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the photo sticker creating device 1 is a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read Only Memory) in which the program and various data are readablely recorded by a computer (or CPU). ) Or a storage device (these are referred to as "recording media"), a RAM (Random Access Memory) for developing the program, and the like. Then, the computer (or CPU) reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the recording medium, a "non-temporary tangible medium", for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, the program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

1 写真シール作成装置(画像処理装置)
301 事前選択処理部
302 撮影処理部
303 抽出部
304 生成部
305 画像処理部
306 合成部
307 編集処理部
308 印刷処理部(出力部)
1 Photo sticker making device (image processing device)
301 Preselection processing unit 302 Shooting processing unit 303 Extraction unit 304 Generation unit 305 Image processing unit 306 Synthesis unit 307 Editing processing unit 308 Printing processing unit (output unit)

Claims (13)

利用者を撮影し、画像データを生成する撮影部と、
前記画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出する抽出部と、
前記第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成する生成部と、
前記画像データの前記第2の領域に対して定められる方法で処理する画像処理部と、
を備える画像処理装置。
A shooting unit that shoots the user and generates image data,
An extraction unit that extracts a first region, which is a contour region of a predetermined portion of the user's face, from the image data using a predetermined image extraction method.
A generation unit that uses the first region to generate a second region that includes at least a part of the first region and is specified as an image processing target.
An image processing unit that processes the second region of the image data by a predetermined method, and an image processing unit.
An image processing device comprising.
利用者を撮影し、画像データを生成する撮影部と、
前記画像データから、セマンティックセグメンテーションを用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出する抽出部と、
前記第1の領域を用いて、当該第1の領域を少なくとも一部を含む第2の領域を生成する生成部と、
前記画像データの前記第2の領域に対して定められる方法で処理する画像処理部と、
を備える画像処理装置。
A shooting unit that shoots the user and generates image data,
An extraction unit that extracts a first region, which is a contour region of a predetermined portion of the user's face, from the image data by using semantic segmentation.
A generation unit that uses the first region to generate a second region that includes at least a part of the first region.
An image processing unit that processes the second region of the image data by a predetermined method, and an image processing unit.
An image processing device comprising.
前記抽出部は、前記利用者の口について、上唇と、下唇と、唇以外との前記第1の領域を抽出し、
前記生成部は、前記各第1の領域に対応する前記第2の領域を生成し、
前記画像処理部は、上唇の第2の領域に対し上唇用の処理、下唇の第2の領域に対し下唇用の処理を実行する
請求項1又は2に記載の画像処理装置。
The extraction unit extracts the first region of the user's mouth, including the upper lip, the lower lip, and other than the lips.
The generation unit generates the second region corresponding to each of the first regions.
The image processing apparatus according to claim 1 or 2, wherein the image processing unit executes a process for the upper lip on a second region of the upper lip and a process for the lower lip on a second region of the lower lip.
前記抽出部は、唇以外の前記第1の領域として、舌、歯、歯肉又は粘膜の少なくともいずれかを抽出し、
前記生成部は、前記各第1の領域に対応する前記第2の領域を生成し、
前記画像処理部は、前記生成部が生成した領域毎の処理を実行する
請求項3に記載の画像処理装置。
The extraction unit extracts at least one of the tongue, teeth, gingiva or mucous membrane as the first region other than the lips.
The generation unit generates the second region corresponding to each of the first regions.
The image processing apparatus according to claim 3, wherein the image processing unit executes processing for each region generated by the generation unit.
前記第2の領域のうち上唇と下唇の領域は、口紅を塗るのに好ましい範囲である
請求項3又は4に記載の画像処理装置。
The image processing apparatus according to claim 3 or 4, wherein the upper lip and lower lip regions of the second region are preferable ranges for applying lipstick.
前記抽出部は、前記利用者の目について、黒目の前記第1の領域を抽出し、
前記生成部は、黒目の前記第1の領域に対応する前記第2の領域を生成し、
前記画像処理部は、前記黒目の領域に対し黒目用の処理を実行する
請求項1又は2に記載の画像処理装置。
The extraction unit extracts the first region of the black eye with respect to the user's eye.
The generation unit generates the second region corresponding to the first region of the black eye.
The image processing apparatus according to claim 1 or 2, wherein the image processing unit executes processing for black eyes on the black eye region.
前記抽出部は、前記利用者の目について、白目の前記第1の領域を抽出し、
前記生成部は、白目の前記第1の領域に対応する前記第2の領域を生成し、
前記画像処理部は、前記白目の領域に対し白目用の処理を実行する
請求項6に記載の画像処理装置。
The extraction unit extracts the first region of the white eye for the user's eye.
The generation unit generates the second region corresponding to the first region of the white of the eye.
The image processing apparatus according to claim 6, wherein the image processing unit executes processing for white eyes on the white eye region.
前記第2の領域は、サイズ又は色の少なくともいずれかを変更するのに好ましい範囲である
請求項6又は7に記載の画像処理装置。
The image processing apparatus according to claim 6 or 7, wherein the second region is a preferable range for changing at least one of size and color.
前記抽出部は、さらに、睫毛の前記第1の領域を抽出し、
前記生成部は、睫毛の前記第1の領域に対応する第2の領域を生成し、
前記画像処理部は、睫毛の前記第2の領域に対し睫毛用の処理を実行する
請求項6乃至8のいずれか1に記載の画像処理装置。
The extraction unit further extracts the first region of the eyelashes.
The generator generates a second region corresponding to the first region of the eyelashes.
The image processing apparatus according to any one of claims 6 to 8, wherein the image processing unit executes eyelash processing on the second region of the eyelashes.
前記生成部は、予め生成された学習データを用いて学習された機械学習モデルを使用して第2の領域を生成する
請求項1乃至9のいずれか1に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 9, wherein the generation unit generates a second region using a machine learning model trained using learning data generated in advance.
処理された画像データをシール紙にプリントする印刷処理部をさらに備える
請求項1乃至10のいずれか1に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 10, further comprising a printing processing unit for printing the processed image data on a sticker paper.
利用者を撮影し、画像データを生成するステップと、
前記画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出するステップと、
前記第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成するステップと、
前記画像データの前記第2の領域に対して定められる方法で処理するステップと、
を有する画像処理方法。
Steps to take a picture of the user and generate image data,
A step of extracting a first region, which is a contour region of a predetermined portion of the user's face, from the image data by using a predetermined image extraction method.
A step of using the first region to generate a second region that includes at least a part of the first region and is specified as an image processing target.
A step of processing the second region of the image data in a predetermined manner, and
Image processing method having.
コンピュータを、
利用者を撮影し、画像データを生成する撮影部と、
前記画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出する抽出部と、
前記第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成する生成部と、
前記画像データの前記第2の領域に対して定められる方法で処理する画像処理部と、
して機能させる画像処理プログラム。
Computer,
A shooting unit that shoots the user and generates image data,
An extraction unit that extracts a first region, which is a contour region of a predetermined portion of the user's face, from the image data using a predetermined image extraction method.
A generation unit that uses the first region to generate a second region that includes at least a part of the first region and is specified as an image processing target.
An image processing unit that processes the second region of the image data by a predetermined method, and an image processing unit.
An image processing program that works.
JP2019166395A 2019-09-12 2019-09-12 Image processing device, image processing method, and image processing program Pending JP2021043797A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019166395A JP2021043797A (en) 2019-09-12 2019-09-12 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019166395A JP2021043797A (en) 2019-09-12 2019-09-12 Image processing device, image processing method, and image processing program

Publications (1)

Publication Number Publication Date
JP2021043797A true JP2021043797A (en) 2021-03-18

Family

ID=74863085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019166395A Pending JP2021043797A (en) 2019-09-12 2019-09-12 Image processing device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP2021043797A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031990A (en) * 2003-07-14 2005-02-03 Omron Corp Image correction device
JP2005228076A (en) * 2004-02-13 2005-08-25 Omron Corp Image correcting device
JP2014131160A (en) * 2012-12-28 2014-07-10 Furyu Kk Device and method for generating photograph seal
JP2016110416A (en) * 2014-12-08 2016-06-20 株式会社メイクソフトウェア Image processing device, image processing method and computer program
WO2019014646A1 (en) * 2017-07-13 2019-01-17 Shiseido Americas Corporation Virtual facial makeup removal, fast facial detection and landmark tracking
JP2019013013A (en) * 2013-11-21 2019-01-24 フリュー株式会社 Photo sticker generation apparatus, photo sticker generation method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005031990A (en) * 2003-07-14 2005-02-03 Omron Corp Image correction device
JP2005228076A (en) * 2004-02-13 2005-08-25 Omron Corp Image correcting device
JP2014131160A (en) * 2012-12-28 2014-07-10 Furyu Kk Device and method for generating photograph seal
JP2019013013A (en) * 2013-11-21 2019-01-24 フリュー株式会社 Photo sticker generation apparatus, photo sticker generation method, and program
JP2016110416A (en) * 2014-12-08 2016-06-20 株式会社メイクソフトウェア Image processing device, image processing method and computer program
WO2019014646A1 (en) * 2017-07-13 2019-01-17 Shiseido Americas Corporation Virtual facial makeup removal, fast facial detection and landmark tracking

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JINPENG LIN ET AL.: "Face Parsing with RoI Tanh-Warping", 2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6023025046, 15 June 2019 (2019-06-15), US, pages 5647 - 5656, XP033687470, ISSN: 0005086474, DOI: 10.1109/CVPR.2019.00580 *

Similar Documents

Publication Publication Date Title
US9519950B2 (en) Image generating apparatus and image generating method
JP5748651B2 (en) Image processing apparatus, image processing method, and program
JP6829380B2 (en) Photo sticker making device and image processing method
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP7152687B2 (en) Display control device, display control method, program
JP6712047B2 (en) Photo creation game machine and image generation method
JP6558209B2 (en) Imaging device
JP6853475B2 (en) Photo creation game console and display method
JP6262643B2 (en) Image processing apparatus and image processing method
JP7295388B2 (en) Image processing device, image processing method and image processing program
JP6232662B2 (en) Photography game machine and its control program
JP7132492B2 (en) Image processing device, display control method, and program
JP7140962B2 (en) Image processing device, control method, and program
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP2018107515A (en) Photograph formation game machine and image processing method
JP7074994B2 (en) Photographing game console and image processing method
JP7401727B2 (en) Image processing device, image processing method, and image processing program
JP2021044734A (en) Image processing device, image processing method, and program
JP7339515B2 (en) Image processing device, image processing method, and program
JP6982230B2 (en) Photographing game console and image processing method
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP2022012958A (en) Image processing apparatus, image processing method, image processing program, region specification model and model generation method
JP2022176755A (en) Image processing device, image processing method and image processing program
JP6455550B2 (en) Photo sticker creation apparatus and display control method
JP6867587B2 (en) Photographing game consoles, information processing methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231019

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20240105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20240105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240327