JP2021043797A - Image processing device, image processing method, and image processing program - Google Patents
Image processing device, image processing method, and image processing program Download PDFInfo
- Publication number
- JP2021043797A JP2021043797A JP2019166395A JP2019166395A JP2021043797A JP 2021043797 A JP2021043797 A JP 2021043797A JP 2019166395 A JP2019166395 A JP 2019166395A JP 2019166395 A JP2019166395 A JP 2019166395A JP 2021043797 A JP2021043797 A JP 2021043797A
- Authority
- JP
- Japan
- Prior art keywords
- region
- image processing
- unit
- image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 267
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000000034 method Methods 0.000 claims abstract description 80
- 238000000605 extraction Methods 0.000 claims abstract description 71
- 230000008569 process Effects 0.000 claims abstract description 66
- 239000000284 extract Substances 0.000 claims abstract description 47
- 210000001508 eye Anatomy 0.000 claims description 97
- 235000002673 Dioscorea communis Nutrition 0.000 claims description 22
- 241000544230 Dioscorea communis Species 0.000 claims description 22
- 208000035753 Periorbital contusion Diseases 0.000 claims description 22
- 238000007639 printing Methods 0.000 claims description 22
- 210000000720 eyelash Anatomy 0.000 claims description 19
- 241001469893 Oxyzygonectes dovii Species 0.000 claims description 8
- 241001504424 Zosteropidae Species 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 210000004195 gingiva Anatomy 0.000 claims description 2
- 210000004400 mucous membrane Anatomy 0.000 claims description 2
- 210000002105 tongue Anatomy 0.000 claims description 2
- 210000000515 tooth Anatomy 0.000 claims description 2
- 210000000088 lip Anatomy 0.000 description 69
- 210000000744 eyelid Anatomy 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 238000003780 insertion Methods 0.000 description 8
- 230000037431 insertion Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 239000002131 composite material Substances 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000002087 whitening effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 208000029152 Small face Diseases 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 208000002874 Acne Vulgaris Diseases 0.000 description 1
- 206010000496 acne Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Abstract
Description
本発明は、撮影した画像に写る顔の特定の部位を処理する画像処理装置、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing method, and an image processing program that process a specific part of a face appearing in a captured image.
従来、撮影した画像に所定の画像処理を行い、ユーザに提供する写真シール作成装置が知られている。具体的には、唇の部分を認識し、唇画像に対して、画像処理を施すものがある。(例えば、特許文献1参照)。 Conventionally, there is known a photo sticker creating device that performs predetermined image processing on a captured image and provides it to a user. Specifically, there is a device that recognizes the lip portion and performs image processing on the lip image. (See, for example, Patent Document 1).
特許文献1には、例えば、顔画像の中の下側の領域内に存在する所定の色の領域を唇として認識し、認識された唇の部分に対応するマスク画像を生成し、唇画像を生成することが記載される。
In
特許文献1においては、位置や色によって唇部分を特定するため、顔の向き、唇の色、赤いニキビの存在、障害物の存在等によっては、唇を正確に特定できないおそれがあった。また、例えば、眼鏡を着用する等により、目を正確に特定できない等、他の部分についても正確に特定できないおそれがあった。
In
本発明は、以上のような課題を解決し、処理対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施す画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。 The present invention provides an image processing apparatus, an image processing method, and an image processing program that solves the above problems, identifies a specific area of a user to be processed, and performs image processing preferable to the user. With the goal.
本発明に係る画像処理装置の第1の態様は、利用者を撮影し、画像データを生成する撮影部と、画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出する抽出部と、第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成する生成部と、画像データの前記第2の領域に対して定められる方法で処理する画像処理部とを備える。 A first aspect of the image processing apparatus according to the present invention is an imaging unit that photographs a user and generates image data, and a contour of a predetermined portion of the user's face using a predetermined image extraction method from the image data. An extraction unit that extracts a first region, which is a region, and a generation unit that uses the first region to generate a second region that includes at least a part of the first region and is specified as an image processing target. And an image processing unit that processes the second region of the image data by a predetermined method.
これにより、処理対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify a specific area of the user to be processed and perform image processing preferable to the user.
本発明に係る画像処理装置の第2の態様は、利用者を撮影し、画像データを生成する撮影部と、画像データから、セマンティックセグメンテーションを用いて利用者の顔の所定部位の輪郭領域である領域を抽出する抽出部と、第1の領域を用いて、当該第1の領域を少なくとも一部を含む第2の領域を生成する生成部と、画像データの前記第2の領域に対して定められる方法で処理する画像処理部とを備える。 A second aspect of the image processing apparatus according to the present invention is a photographing unit that photographs a user and generates image data, and a contour region of a predetermined portion of the user's face using semantic segmentation from the image data. An extraction unit for extracting a region, a generation unit for generating a second region including at least a part of the first region using the first region, and a second region of image data are defined. It is provided with an image processing unit that processes by the above-mentioned method.
これにより、処理対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify a specific area of the user to be processed and perform image processing preferable to the user.
抽出部は、利用者の口について、上唇と、下唇と、唇以外との第1の領域を抽出し、生成部は、各第1の領域に対応する第2の領域を生成し、画像処理部は、上唇の領域に対し上唇用の処理、下唇の領域に対し下唇用の処理を実行してもよい。 The extraction unit extracts a first region of the user's mouth from the upper lip, the lower lip, and other than the lips, and the generation unit generates a second region corresponding to each first region and images. The processing unit may perform a treatment for the upper lip on the region of the upper lip and a treatment for the lower lip on the region of the lower lip.
これにより、利用者の口について領域を特定し、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify an area of the user's mouth and perform image processing preferable to the user.
抽出部は、唇以外の第1の領域として、舌、歯、歯肉又は粘膜の少なくともいずれかを抽出し、生成部は、各第1の領域に対応する第2の領域を生成し、画像処理部は、生成部が生成した領域毎の処理を実行してもよい。 The extraction unit extracts at least one of the tongue, teeth, gingiva or mucous membrane as the first region other than the lips, and the generation unit generates a second region corresponding to each first region and performs image processing. The unit may execute processing for each area generated by the generation unit.
これにより、利用者の口の内部について領域を特定し、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify an area inside the user's mouth and perform image processing preferable to the user.
第2の領域のうち上唇と下唇の領域は、口紅を塗るのに好ましい範囲とすることができる。 The upper lip and lower lip areas of the second area can be the preferred areas for applying lipstick.
これにより、利用者の口の美観について、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to perform image processing preferable to the user with respect to the aesthetic appearance of the user's mouth.
抽出部は、利用者の目について、黒目の第1の領域を抽出し、生成部は、黒目の第1の領域に対応する第2の領域を生成し、画像処理部は、黒目の第2の領域に対し黒目用の処理を実行してもよい。 The extraction unit extracts the first region of the black eye for the user's eye, the generation unit generates the second region corresponding to the first region of the black eye, and the image processing unit generates the second region of the black eye. The processing for black eyes may be executed for the area of.
これにより、利用者の黒目について領域を特定し、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify an area for the user's black eye and perform image processing preferable to the user.
抽出部は、利用者の目について、白目の第1の領域を抽出し、生成部は、白目の第1の領域に対応する第2の領域を生成し、画像処理部は、白目の領域に対し白目用の処理を実行してもよい。 The extraction unit extracts the first region of the white eye for the user's eye, the generation unit generates the second region corresponding to the first region of the white eye, and the image processing unit generates the second region of the white eye. On the other hand, the process for white eyes may be executed.
これにより、利用者の白目について領域を特定し、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify an area for the white of the user and perform image processing preferable to the user.
第2の領域は、サイズ又は色の少なくともいずれかを変更するのに好ましい範囲とすることができる。 The second region can be a preferred range for changing at least either size or color.
これにより、利用者の目の美観について、利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to perform image processing preferable to the user with respect to the aesthetic appearance of the user's eyes.
抽出部は、さらに、睫毛の第1の領域を抽出し、生成部は、睫毛の第1の領域に対応する第2の領域を生成し、画像処理部は、睫毛の第2の領域に対し睫毛用の処理を実行してもよい。 The extraction unit further extracts the first region of the eyelashes, the generation unit generates a second region corresponding to the first region of the eyelashes, and the image processing unit generates the second region of the eyelashes with respect to the second region of the eyelashes. Processing for eyelashes may be performed.
これにより、利用者の睫毛について領域を特定し、利用者にとって好ましい画像処理を施すことができる。 Thereby, the area of the eyelashes of the user can be specified, and image processing preferable to the user can be performed.
生成部は、予め生成された学習データを用いて学習された機械学習モデルを使用して第2の領域を生成してもよい。 The generation unit may generate a second region using a machine learning model learned using the learning data generated in advance.
これにより、生成された領域に対して画像処理することで、利用者にとって好ましい画像処理をすることができる。 As a result, it is possible to perform image processing preferable to the user by performing image processing on the generated area.
画像処理装置は、処理された画像データをシール紙にプリントする印刷処理部をさらに備えてもよい。 The image processing apparatus may further include a printing processing unit that prints the processed image data on the sticker paper.
これにより、画像処理された画像データをシール紙として提供することができる。 Thereby, the image-processed image data can be provided as a sticker paper.
本発明に係る画像処理方法の第1の態様は、利用者を撮影し、画像データを生成するステップと、画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出するステップと、第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成するステップと、画像データの第2の領域に対して定められる方法で処理するステップとを有する。 The first aspect of the image processing method according to the present invention is a step of photographing a user and generating image data, and a contour region of a predetermined portion of the user's face using a predetermined image extraction method from the image data. A step of extracting the first region, and a step of using the first region to generate a second region including at least a part of the first region and specified as an image processing target, and an image. It has a step of processing a second area of data in a defined manner.
これにより、処理対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify a specific area of the user to be processed and perform image processing preferable to the user.
本発明に係る画像処理プログラムの第1の態様は、コンピュータを、利用者を撮影し、画像データを生成する撮影部と、画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出する抽出部と、第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成する生成部と、画像データの第2の領域に対して定められる方法で処理する画像処理部として機能させる。 The first aspect of the image processing program according to the present invention is to use a computer, a photographing unit that photographs a user and generates image data, and a predetermined image extraction method from the image data to determine the user's face. Using the extraction unit that extracts the first region, which is the contour region of the portion, and the first region, a second region that includes at least a part of the first region and is specified as an image processing target is generated. It functions as a generation unit to be generated and an image processing unit that processes a second area of image data by a predetermined method.
これにより、処理対象とする利用者の特定の領域を特定して利用者にとって好ましい画像処理を施すことができる。 As a result, it is possible to specify a specific area of the user to be processed and perform image processing preferable to the user.
本発明によれば、処理対象とする利用者の特定の領域を特定して画像処理を施すことができる。 According to the present invention, image processing can be performed by specifying a specific area of a user to be processed.
以下、本発明の具体的な実施の形態について添付の図面を参照しながら説明する。なお、同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。さらに、各図面に記載した構成の形状、また、長さ、奥行および幅などの寸法は、実際の形状および寸法を反映させたものではなく、図面の明瞭化と簡略化のために適宜変更している。 Hereinafter, specific embodiments of the present invention will be described with reference to the accompanying drawings. Members having the same function are designated by the same reference numerals, and the description thereof will be omitted as appropriate. Furthermore, the shape of the configuration described in each drawing and the dimensions such as length, depth and width do not reflect the actual shape and dimensions, and are appropriately changed for the sake of clarity and simplification of the drawings. ing.
本発明に係る画像処理装置を、一例である写真シール作成装置として説明する。本発明を適用する写真シール作成装置は、撮影や編集等を利用者にゲームとして行わせ、その撮影・編集した画像を、写真シールやデータとして利用者に提供するゲーム装置である。写真シール作成装置1は、例えば、ゲームセンタ、ショッピングモールおよび観光地の店舗等に設置される。
The image processing apparatus according to the present invention will be described as an example photo sticker creating apparatus. The photo sticker creating device to which the present invention is applied is a game device in which a user is made to perform shooting and editing as a game, and the photographed and edited image is provided to the user as a photo sticker and data. The photo
写真シール作成装置が提供するゲームにおいて、利用者は、写真シール作成装置に設けられたカメラを用いて自分自身等を撮影する。利用者は、その撮影画像に対して、前景画像および/または背景画像を合成したり、また、編集用合成用画像としてのペン画像入力やスタンプ画像入力等の編集機能(落書き編集機能)を用いたりして編集を行い、撮影画像を彩り豊かなものにデザインする。そしてゲーム終了後、利用者は、編集した画像が印刷された写真シール等を成果物として受け取る。または、写真シール作成装置は編集した画像を利用者の携帯端末に提供し、利用者は携帯端末により成果物を受け取ることもできる。 In the game provided by the photo sticker making device, the user takes a picture of himself / herself or the like by using the camera provided in the photo sticker making device. The user synthesizes a foreground image and / or a background image with the captured image, and uses an editing function (doodle editing function) such as pen image input or stamp image input as a composite image for editing. Edit and design the captured image to make it colorful. After the game is over, the user receives a photo sticker or the like on which the edited image is printed as a deliverable. Alternatively, the photo sticker creating device provides the edited image to the user's mobile terminal, and the user can also receive the deliverable by the mobile terminal.
(写真シール作成装置の構成)
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1の利用者は、主に女子中学生および女子高校生などの若い女性が中心とされる。写真シール作成装置1において、1組当たり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。
(Configuration of photo sticker making device)
1 and 2 are perspective views showing a configuration example of the appearance of the photo
写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が華やかな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。
In the photo
図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。
As shown in FIG. 1, the photo
撮影ユニット11は、事前選択操作部20、撮影操作部21、および背景部22から構成される。事前選択操作部20は、撮影操作部21の側面に設置される。事前選択操作部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影操作部21と背景部22は所定の距離だけ離れて設置される。撮影操作部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。
The photographing unit 11 is composed of a
事前選択操作部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を利用者に選択させるための処理を行ったりする。事前選択操作部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択操作部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。
As the preselection process, the
撮影操作部21は、利用者を被写体として撮影するための装置である。撮影操作部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影操作部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影操作部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影操作部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択操作部20が設置されるものとする。なお、事前選択操作部20は、側面パネル41Bに設置されるようにしてもよいし、側面パネル41A,41Bの両方に設置されるようにしてもよい。
The
背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。
The
側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。
The
なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、利用者が所望する背景画像がシートの部分に合成される。
A green chroma key sheet is attached to the surface of the
側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。
The opening formed by being surrounded by the
撮影空間の上方には、撮影操作部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。
Above the shooting space, a ceiling surrounded by the front surface of the
編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影操作部21の正面パネル42に接するようにして、撮影ユニット11に連結している。
The
図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。
Assuming that the configuration of the
編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影操作部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。
The front side of the
編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A,26B,26Cが、組み合わせられて構成される。3本のレール26A,26B,26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。
A
カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。
A curtain is attached to the
また、後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。
Further, as will be described later, a discharge port for discharging the printed sticker paper is provided on the left side surface of the
(利用者の移動)
ここで、画像作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成ゲーム中の利用者の空間移動を説明するための図である。
(Movement of users)
Here, the flow of the image creation game and the movement of the user accompanying it will be described. FIG. 3 is a diagram for explaining the spatial movement of the user during the photo sticker creation game.
まず、利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。
First, the user inserts the price into the coin slot in the preselection space A0, which is the space in front of the
事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影操作部21と背景部22の間に形成された撮影空間A1に入る。そして利用者は、撮影操作部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。
The user who has completed the pre-selection work has a shooting space formed between the shooting
撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。
The user who has completed the shooting work either exits the shooting space A1 from the entrance / exit G1 and moves to the editing space A2-1 as indicated by the
編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影操作部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。
The editing space A2-1 is an editing space on the front side of the
編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。
After the editing work is completed, printing of the edited image is started. When printing is started, the user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the
印刷待ち空間A3に移動した利用者は、画像の印刷の終了を待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の画像作成ゲームを終える。
The user who has moved to the print waiting space A3 waits for the end of printing the image. When the printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side surface of the
(事前選択部の構成)
次に、各装置の構成について説明する。図4は、事前選択操作部20の正面図である。
(Structure of preselection section)
Next, the configuration of each device will be described. FIG. 4 is a front view of the
事前選択操作部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、撮影に関するコースの選択、編集の対象となる編集対象画像における背景となる画像の選択、作成画像のレイアウト、画像作成ゲーム中に流れるBGM(Back Ground Music)、音および音声の少なくともいずれかの選択、並びに利用者の名前の入力などを行わせる事前選択処理に用いられる画面が表示される。
A touch panel monitor 71 is provided on the upper side of the
撮影に関するコースは、利用者が2人で撮影を行う2人用コースと、3人以上で撮影を行う大人数コースとが用意されている。また、男女のカップルで撮影を行うカップルコースが用意されていてもよい。 There are two courses for shooting, a course for two people who shoot with two users, and a course for a large number of people who shoot with three or more people. In addition, a couple course may be prepared in which a couple of men and women take pictures.
タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM、効果音などを出力する。また、スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。
A
(撮影部の構成)
図5は、撮影部としての撮影操作部21の正面図である。撮影操作部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
(Structure of shooting section)
FIG. 5 is a front view of the photographing
正面パネル42の中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91および表示部としてのタッチパネルモニタ92から構成される。
A
カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー表示画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。
The
タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。当該選択操作の具体例としては、撮影コースの選択、撮影開始および終了の指示(撮影の制御指示)、目の変形具合および色、ならびに肌の色の補正具合の選択、作成画像における背景画像となる画像の選択、ならびに画像作成ゲーム中のBGM(音・音声)の選択などが挙げられる。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。
The touch panel monitor 92 is provided below the
カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、正面上方から利用者の顔および上半身に光を照射する。
Above the
また、カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボ85が設けられる。なお、上ストロボ82と足元ストロボ85には、ストロボと蛍光灯が含まれている。
Further, below the
なお、図1および図5においては図示を省略するが、正面パネル42の例えば天井付近には、スピーカ93が設けられる。スピーカ93は、制御部201から出力される音声信号により、撮影処理の案内音声、BGM、効果音などを出力する。
Although not shown in FIGS. 1 and 5, a speaker 93 is provided near the ceiling of the
(背景部の構成)
図6は、背景部22の撮影空間A1側の正面図である。
(Structure of background part)
FIG. 6 is a front view of the
背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。
A
図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。
In the figure, the rear
また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられていてもよい。クロマキーシート121の色は、例えば緑色とされる。
Further, the chroma
なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面にも、クロマキーシート121と同様に、クロマキーシートが貼り付けられていてもよい。
Although not shown, a chroma key sheet may be attached to the surface of the
(編集ユニットの構成)
図7は、編集ユニット12の編集空間A2−1側の正面図である。
(Organization of editing unit)
FIG. 7 is a front view of the
斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。例えば、2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。
A tablet built-in
図8は、編集ユニット12の左側面図である。
FIG. 8 is a left side view of the
編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部には出力部としてのプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。
A sticker
(写真シール作成装置の内部構成)
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
(Internal configuration of photo sticker making device)
FIG. 9 is a block diagram showing an example of the internal configuration of the photo
制御部201はCPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前選択操作部20、撮影操作部21、背景部22、編集操作部27A,27B、および印刷操作部28の各構成も接続される。
The
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
The storage unit 202 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 202 stores various setting information and the like supplied from the
通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。
The
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
A removable media 205 made of an optical disk, a semiconductor memory, or the like is appropriately mounted on the
ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
The ROM 206 stores programs and data executed by the
事前選択操作部20は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択操作部20は、タッチパネルモニタ71、スピーカ72、および硬貨処理部74から構成される。
The
タッチパネルモニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。
The touch panel monitor 71 displays various selection screens according to the control by the
硬貨処理部74は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部74は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。
The coin processing unit 74 detects the insertion of coins into the coin insertion /
撮影操作部21は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部220は、上ストロボ82、左ストロボ83、右ストロボ84、足元ストロボ85、カメラ91、タッチパネルモニタ92、およびスピーカ93から構成される。
The
上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85は、撮影空間A1内に配置され、制御部201から供給される照明制御信号に従って発光する。
The
カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。
The
編集操作部27Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集操作部27Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ133から構成される。編集操作部27Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集操作部27Aと同一の構成を有する。なお、以下、編集操作部27A,27Bを特に区別しない場合には、単に、編集操作部27という。
The
タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。
The tablet built-in
印刷操作部28は、印刷待ち空間A3にいる利用者に、作成画像を印刷済みのシール紙を提供する印刷処理を実現する。印刷操作部28は、プリンタ140を含むように構成される。プリンタ140にはシール紙ユニット141が装着される。
The
プリンタ140は、制御部201から供給された印刷データに基づいて、編集画像をシール紙ユニット141に収納されているシール紙142に印刷し、シール紙排出口161に排出する。
The printer 140 prints the edited image on the sticker paper 142 housed in the sticker paper unit 141 based on the print data supplied from the
(写真シール作成装置の機能ブロック)
図10は写真シール作成装置1の機能ブロックを示すブロック図である。写真シール作成装置1は、事前選択部210、撮影部220、編集部230、および印刷部240として機能する。また、制御部201は、本発明の写真シール作成プログラムを実行することにより、事前選択処理部301、撮影処理部302、抽出部303、生成部304、画像処理部305、合成部306、編集処理部307、および印刷処理部308として機能する。
(Functional block of photo sticker making device)
FIG. 10 is a block diagram showing a functional block of the photo
事前選択部210は、上述した事前選択操作部20と、事前選択処理部301とを備える。事前選択処理部301は、事前選択操作部20におけるタッチパネルモニタ71、スピーカ72、および硬貨処理部74を制御することで、事前選択処理を行う。事前選択処理部301は、撮影空間A1において行われる撮影に関するコースの選択のための選択画面等をタッチパネルモニタ71に表示させる。また事前選択処理部301は、タッチパネルモニタ71に対する、利用者の操作入力を受け付ける。具体的には、事前選択処理部301は、タッチパネルモニタ71に表示された選択画面に対する選択の操作入力、および利用者の名前の入力等を受け付ける。また事前選択処理部301は、各種の選択操作を説明するガイダンスの出力を制御する。事前選択処理部301は、各種の選択操作を説明する画面をタッチパネルモニタ71に表示させたり、各種の選択操作を説明する音声をスピーカ72から出力させたりする。
The
撮影部220は、上述した撮影操作部21と、撮影処理部302とを備える。撮影処理部302は、撮影操作部21におけるカメラ91、タッチパネルモニタ92、およびスピーカ93を制御することで、撮影処理を行う。
The photographing
撮影処理部302は、タッチパネルモニタ92に対する、利用者の操作入力を受け付ける。例えば、撮影空間A1における撮影処理は、撮影処理部302が、利用者によるタッチパネルモニタ92への接触操作を入力として受け付けることにより開始される。
The
撮影処理部302は、カメラ91を制御し、利用者を被写体として撮影する。撮影には、動画像と静止画像とがある。撮影処理部302は、タッチパネルモニタ92の表示を制御することにより、カメラ91に取り込まれた動画像をタッチパネルモニタ92にライブビュー表示させたり、撮影結果である静止画像を撮影画像として表示させたりする。
The
また、撮影処理部302は、撮影枚数、利用者の立ち位置、サンプルポーズ、目線についてのメッセージ、および撮影タイミング等を説明するインストラクション画面をタッチパネルモニタ92に表示させる。さらに、それぞれのインストラクション画面に対応するナレーションの音声、およびBGMをスピーカ93から出力させる。
In addition, the
抽出部303は、予め定められる顔認識技術を利用して、撮影部220で撮影された画像データに含まれる利用者の顔領域を抽出する。画像データに複数の利用者が含まれる場合、抽出部303は、各利用者の顔領域を抽出する。
The
また、抽出部303は、画像データから抽出された各顔領域から、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域を第1の領域として抽出する。例えば、抽出部303は、第1の領域として、例えば周囲との色の違い等を用いて利用者の目の領域や口の領域を抽出する。このとき、抽出部303は、目の領域や口の領域について、全体としての輪郭を抽出するだけではなく、後述するように、目や口の具体的な構成に合わせて細分化して第1の領域を抽出する。
In addition, the
ここで、抽出部303は、各領域の抽出方法として、セマンティックセグメンテーション技術を用いることができる。セグメンテーション技術によって各領域を抽出することで、各領域について画素単位での細かい抽出が可能となる。これにより、後段の生成部304において、各領域に対して画像処理の範囲を生成することが可能となり、また、画像処理部305において、各領域に応じて細かく設定された画像処理を実現することができる。
Here, the
生成部304は、抽出部303が抽出した第1の領域を用いて、第1の領域の少なくとも一部を含み、画像処理の対象として設定される第2の領域を生成する。例えば、第2の領域は、画像処理対象に好ましいとされる範囲又は画像処理に好ましいとされる範囲に応じて設定される範囲である。なお、第1の領域と第2の領域とは同一の場合もある。また、第2の領域であっても、必ずしも画像処理がされるとは限らない。特に、このように画像処理がされない範囲については、第1の領域と第2の領域とが同一の場合がある。例えば、画像処理に好ましい範囲とは、唇の場合には、一般的に口紅を塗る場合に好適とされる範囲である。
The
生成部304は、予め学習データによって学習された機械学習モデルを利用して、第1の領域から後述する各第2の領域を生成する。具体的には、機械学習モデルは、複数組の『顔領域の画像データ』及び『顔の所定部位の領域情報』を含む学習データを用いて学習されたものである。このとき、学習データが含む各画像データは、複数のバリエーションの画像データを含むことで、生成部304における処理の精度が向上する。特に、写真シール作成装置1は、アミューズメント機器とされることが多く、このような場合、利用者は、面白みのある画像を撮影することも多い。したがって、様々な向きや表情の顔画像が撮影されるため、どのような向きや表情の顔画像であったとしても、画像処理の各領域を特定できることが好ましい。したがって、例えば、図11乃至図20を用いて後述するような複数のバリエーションの画像データを用いることで、様々な顔画像に対応することが可能となる。
The
《口マスク》
口の領域の抽出について、図11を用いて説明する。例えば、抽出部303は、口について「上唇」、「唇以外(例えば、口の中)」、「下唇」及び「その他」の領域に分けて抽出する。図11(a)に、画像データから抽出された利用者の顔領域のうち口を含む矩形領域の一例を示す。このような口の矩形領域の画像データがあるとき、抽出部303は、口の領域について、図11(b)に示すような細分化された領域として抽出する。具体的には、抽出部303は、口の矩形領域について、第1口領域A11として上唇の領域を抽出し、第2口領域A12として下唇の領域を抽出し、第3口領域A13として口のうち唇以外の領域を抽出する。また、図11(b)に示す領域A14は、口以外の領域であり、例えば、顔の肌の領域である。
《Mouth mask》
Extraction of the mouth region will be described with reference to FIG. For example, the
生成部304は、抽出部303が抽出した図11(b)に示すような各第1の領域を用いて、図11(c)に示すような第2の領域を生成する。具体的には、生成部304は、予め定められる方法により、第1口領域A11から上唇についての画像処理の対象範囲である第4口領域B11を生成する。すなわち、生成部304は、口の美観を向上させる目的のため、上唇のうち口紅を塗る等により唇の色を変えたような画像処理をすることが好ましい範囲を第4口領域B11として生成する。例えば、上唇のうち、口紅を塗るのに好ましい範囲は、一般的には特に口の外側であり、口の内側まで口紅を塗ることは稀である。したがって、このように口紅を塗るのに好ましい範囲が、口紅を塗ったような画像処理をするために好ましい範囲とされ、生成部304は、第1口領域A11から、このように定められる上唇の外側の範囲を第4口領域B11として生成する。そのため、上唇であっても、口紅を塗らないような部分、例えば、上唇の内側が見えていたとしても、口紅を塗らないような上唇の内側については、第4口領域B11には該当しない。なお、図11(c)に示す第4口領域B11は、図11(b)に示す第1口領域A11と略同一である。
The
同様に、生成部304は、第2口領域A12から下唇についての画像処理の対象範囲である第5口領域B12を生成する。すなわち、生成部304は、口の美観を向上させる目的で、下唇のうち口紅を塗る等により唇の色を変えたような画像処理をすることが好ましい範囲を第5口領域B12として生成する。例えば、下唇についても、口紅を塗るのに好ましい範囲は、一般的には口の内側ではなく、口の外側である。したがって、生成部304は、第2口領域A12から、このように定められる下唇の外側の範囲を、図11(c)に示すように、第5口領域B12として生成する。そのため、下唇であっても、口紅を塗らないような部分、例えば、下唇の内側が見えていたとしても、口紅を塗らないような下唇の内側については、第5口領域B12には該当しない。また仮に、下唇が噛まれ、唇の色が薄くなった画像の場合、実際に口紅を塗るのが好ましい領域より狭い部分が下唇の第2領域A12として抽出部303に抽出されることがある。このような場合、生成部304は、第2口領域A12よりも広い、実際に口紅を塗るのが好ましい範囲にまで大きくした範囲を第5口領域B12として生成する。
Similarly, the
さらに、生成部304は、図11(c)に示すように、第3口領域A13から口のうち唇以外の領域についての画像処理の対象である第6口領域B13を生成する。ここで、生成部304は、例えば、口の領域のうち、第4口領域B11及び第5口領域B12を除いた唇以外の領域であって、歯、舌、唇の内側等を含む部分を第6口領域B13として生成することができる。したがって、図11(b)及び図11(c)を比較するとわかるように、第6口領域B13は、実際の下唇のうち内側の部分を含むことがある。
Further, as shown in FIG. 11C, the
なお、図11(c)では、唇以外の領域を第6口領域B13として特定する例で説明するが、この領域内をさらに細かく区分(図示せず)してもよい。具体的には、歯、舌、唇の内側をそれぞれ異なる領域としてもよい。また、さらに細かくし、歯の1本ずつをそれぞれ異なる領域としてもよい。これにより、例えば、歯のホワイトニング効果のある画像処理を実行することが可能となる。 In FIG. 11C, an example in which a region other than the lips is specified as the sixth mouth region B13 will be described, but the region may be further subdivided (not shown). Specifically, the inside of the teeth, tongue, and lips may be different regions. Further, it may be made finer and each tooth may be a different region. This makes it possible to perform image processing having a tooth whitening effect, for example.
領域B14は、領域B11〜B13に含まれない口の外側の領域である。ここで、唇の外縁部のうち、口紅を塗らない縁部分については、この領域B14に含まれる。したがって、この領域B14は、肌の領域である。また、仮に、画像データにおいて口の上に何等かの物が写っている場合、この物の領域についても、領域B14として抽出される。また、生成部304は、図11(c)に示すように、口以外の領域である領域B14を生成してもよいが、この領域B14については、口に関する画像処理はされない。領域A14を利用することができる場合、口以外の領域B14を生成せずに代わりに、領域A14を用いてもよい。
Region B14 is a region outside the mouth that is not included in regions B11 to B13. Here, of the outer edge portion of the lips, the edge portion to which the lipstick is not applied is included in this region B14. Therefore, this region B14 is a skin region. Further, if some object is shown on the mouth in the image data, the area of this object is also extracted as the area B14. Further, as shown in FIG. 11C, the
ここでは、領域B11〜B13の各領域を含む情報を、口マスクとする。また、この口マスクで特定される各領域が、画像処理の対象となる。抽出部303が、顔領域から、このように口について細かく区分した第1の領域を抽出し、生成部304が各第2の領域に対応する画像処理の対象となる第2の領域を生成することで、各第2の領域について後段の画像処理部305において、それぞれの領域について対応する処理を実行することができる。
Here, the information including each region of the regions B11 to B13 is used as a mouth mask. In addition, each area specified by the mouth mask is subject to image processing. The
なお、ここでは、図11(a)に示す画像のような口部分を含む矩形領域を抽出し、この矩形領域から、口マスクの領域を抽出する例で説明したが、これに限定されない。例えば、抽出部303は、画像データから抽出された顔領域の全体から口マスクの領域を抽出してもよい。
Here, an example has been described in which a rectangular region including a mouth portion as shown in the image shown in FIG. 11A is extracted and a mouth mask region is extracted from this rectangular region, but the present invention is not limited to this. For example, the
《目マスク》
目の領域の抽出について、図12を用いて説明する。例えば、抽出部303は、目について「黒目」、「白目」、の領域に分けて抽出する。図12(a)に、画像データから抽出された利用者の顔領域のうち目を含む矩形領域の一例を示す。このような目の矩形領域の画像データがあるとき、抽出部303は、目の領域について、図12(b)に示すような細分化された領域として抽出する。具体的には、抽出部303は、目の領域について、第1目領域A21としていわゆる黒目の領域を抽出し、第2目領域A22としていわゆる白目の領域を抽出する。
《Eye mask》
Extraction of the eye region will be described with reference to FIG. For example, the
ここで、抽出部303は、厳密な文言上の意味でその部位を特定して抽出するのではなく、画像処理を考慮して、また、抽出のしやすさを考慮して設定された領域を抽出する。具体的には、第3目領域B21は、黒目の領域であるが、黒色の領域という色で限定する領域ではなく、瞳孔及び虹彩を含む領域である。例えば、目の色が黒色である必要はなく、カラーコンタクトの着用や生まれつきの色等により、他の色であっても、この領域が第1目領域A21とされる。同様に、第2目領域A22は、白目の領域であるが、これは、目において白色の領域であるが、眼球のうち瞳孔及び虹彩を除いた白い部分という意味に限定する必要はなく、例えば、涙丘等の目の縁の部分を含んでもよい。
Here, the
また、図12(b)に示す領域A23は、肌の領域であり、例えば、顔の肌の領域である。さらに、図12(b)に示す領域A24は、その他の領域として、目及び肌以外の領域であり、例えば、眉毛や髪の毛が該当する。また、仮に、睫毛が領域として特定できる場合、睫毛もこの領域に含まれる。 Further, the region A23 shown in FIG. 12B is a skin region, for example, a facial skin region. Further, the region A24 shown in FIG. 12B is a region other than the eyes and the skin as other regions, and corresponds to, for example, eyebrows and hair. If the eyelashes can be identified as an area, the eyelashes are also included in this area.
生成部304は、抽出部303が抽出した図12(b)に一例を示すような第1の領域を用いて、図12(c)に示すような第2の領域を生成する。具体的には、生成部304は、予め定められる方法により、第1目領域A21から黒目についての画像処理の対象範囲である第3目領域B21を生成する。すなわち、生成部304は、黒目のうち、例えば、サイズを大きくしたり、色を変更するのに好ましい範囲を第3目領域として生成する。仮に、黒目にライトを当てたことによって「キャッチライト」が存在し、また、このキャッチライトの部分が黒目の周縁部に存在することにより、キャッチライトの部分が誤って第2目領域A22に含まれる場合、生成部304は、この部分を黒目の部分と処理して第3目領域B21として生成する。ここでも、領域B21は、画像処理部305において目を大きく見せたり、色を調整する等の美観の向上のための画像処理を目的として設定されるものである。したがって、第3目領域B21は、厳密な文言上の意味でその部位を特定するものではない。
The
同様に、生成部304は、第2目領域A22から白目についての画像処理の対象範囲である第4目領域B22を生成する。すなわち、白目の部分には、実際に目の白い部分以外を含むこともあるため、例えば、目の白い部分のみを、濁りのない白色に画像処理する対象である第4目領域B22として生成する。ここでも、第4目領域B22は、画像処理部305において目を大きく見せたり、色を調整する等の美観の向上のための画像処理を目的として設定されるものである。したがって、第4目領域B22は、厳密な文言上の意味でその部位を特定するものではない。したがって、第2目領域A22は、眼球のうち瞳孔及び虹彩を除いた白い部分という意味に限定されない。
Similarly, the
領域B23は、領域A23から生成される領域であって、目の領域を除いた肌の領域である。なお、図12(c)では、肌を1つの領域B23として特定する例で説明するが、この領域内をさらに細かく区分(図示せず)してもよい。例えば、生成部304は、肌のうち、目の周囲においてアイシャドウ等のメイクをする際に特定される領域である上瞼、下瞼及び瞼縁等を異なる領域として生成してもよい。また、生成部304は、二重瞼を特定する領域を生成してもよい。
The region B23 is a region generated from the region A23 and is a skin region excluding the eye region. In FIG. 12C, an example in which the skin is specified as one region B23 will be described, but the region may be further subdivided (not shown). For example, the
領域B24は、領域A24から生成される領域であって、領域B21〜B23に含まれない領域である。例えば、眉毛、目の周囲に存在する髪の毛等である。また、仮に画像データにおいて目の周囲に何等かの物が写っている場合、この物の領域についても、領域A24として抽出される。具体的には、利用者が眼鏡を着用する場合、眼鏡のフレームは、領域A24として抽出される。 The region B24 is a region generated from the region A24 and is not included in the regions B21 to B23. For example, eyebrows, hair existing around the eyes, and the like. Further, if some object is shown around the eyes in the image data, the area of this object is also extracted as the area A24. Specifically, when the user wears spectacles, the frame of the spectacles is extracted as region A24.
なお、生成部304は、図11(c)に示すように、目以外の領域である領域B23,B24を生成してもよいが、この領域B23,B24については、目に関する画像処理はされない。領域A23,B24を利用することができる場合、目以外の範囲として、領域A23,A24を用いてもよい。
As shown in FIG. 11C, the
ここでは、領域B21,B22の各領域を含む情報を、目マスクとする。また、この目マスクで特定される各領域が、画像処理の対象となる。抽出部303が、顔領域から、このように目について細かく区分した第1の領域を抽出し、生成部304が各第1の領域に対応する画像処理の対象となる第2の領域を生成することで、各第2の領域について後段の画像処理部305により、それぞれの領域について対応する処理を実行することができる。このとき、睫毛を抽出することができた場合、睫毛を例えば、目マスクに含むことで、睫毛を肌の一部として画像処理されることを防止し、例えば、睫毛にマスカラを塗ったような睫毛の美観を向上させた画像処理をすることができる。
Here, the information including each region of the regions B21 and B22 is used as an eye mask. In addition, each area specified by the eye mask is subject to image processing. The
なお、ここでは図12(a)に示す画像のような目部分を含む矩形領域を抽出し、この矩形領域から、目マスクの領域を抽出する例で説明したが、これに限定されない。例えば、抽出部303は、画像データから抽出された顔領域の全体から目マスクの領域を抽出してもよい。
Here, an example has been described in which a rectangular region including an eye portion as shown in the image shown in FIG. 12A is extracted and an eye mask region is extracted from the rectangular region, but the present invention is not limited to this. For example, the
画像処理部305は、画像データから抽出された各領域について、各領域に対して予め定められる方法で処理する。例えば、画像処理部305は、口領域として抽出された口マスクに対して、口の美観を向上させる処理を実行したり、目領域として抽出された目マスクに対して目の美観を向上させる処理を実行したりする。
The
例えば、図13(a)に示すような、顔の一部に手がかかり、口が開き、歯が見えているような顔画像の例で検討する。この場合、生成部304は、抽出部303によって抽出された第1の領域(図示せず)から、図13(b)に示すように、第2の領域として、正確に第4口領域B11、第5口領域B12、第6口領域B13及び領域B14を抽出することができる。これにより、画像処理部305が画像処理する場合、図13(c)に示すように、唇以外を含む口の領域全体に画像処理することを防止することができる。具体的には、画像処理部図13(d)に示すように、上唇及び下唇の、口紅を塗るために好ましい範囲のみに画像処理がされ、また、上唇と下唇もその境界が区別されることによって、例えば立体感のあるより利用者にとって好ましい画像処理を実現することが可能となる。具体的には、唇の立体形状に応じて、上唇と下唇について、顔の奥行方向で手前となる部分を明るくし、奥になるにつれて暗くすることが可能となり、立体化のあるより自然な画像処理を実現することができる。
For example, as shown in FIG. 13A, an example of a face image in which a part of the face is touched, the mouth is open, and the teeth are visible will be examined. In this case, the
《第1の領域の抽出及び第2の領域の生成》
続いて、複数のパターンでの、第1領域の抽出及び第2領域の生成の具体例について説明する。まず、図14(a)に示すような、口が開き、口の中に歯及び舌が見えているような顔画像の例で検討する。この場合、抽出部303は、図14(b)に示すように、第1口領域A11、第2口領域A12、第3口領域A13及び領域A14を抽出することができる。すなわち、このような一般的な口の形状とは異なる口の形状で画像データが取得された場合であっても、抽出部303は、それらの輪郭から各第1の領域を抽出することが可能となる。また、生成部304は、図14(c)に示すように、第1口領域A11から第4口領域B11を生成し、第2口領域A12から第5口領域B12を生成する。また、生成部304は、第6口領域B13及び領域B14を生成する。これにより、画像処理部305が各第2の領域に対して画像処理を実行することによって利用者にとって好ましい画像処理を実現することが可能となる。例えば、唇のうち口紅を塗るのが好ましい範囲にのみ口紅を塗るような画像処理を施すことが可能となる。
<< Extraction of the first region and generation of the second region >>
Subsequently, specific examples of extraction of the first region and generation of the second region in a plurality of patterns will be described. First, an example of a facial image in which the mouth is open and the teeth and tongue are visible in the mouth, as shown in FIG. 14A, will be examined. In this case, as shown in FIG. 14B, the
続いて、図15(a)に示すような、顔の一部に手がかかり、口が開き、指で顎をつまんでいる顔画像の例で検討する。この場合、抽出部303は、図15(b)に示すように、第1口領域A11、第2口領域A12、第3口領域A13及び第4領域A14を抽出することができる。すなわち、このような一般的な口の形状とは異なる口の形状で画像データが取得された場合であっても、抽出部303は、それらの輪郭から各第1の領域を抽出することが可能となる。また、生成部304は、図15(c)に示すように、第4口領域B11、第5口領域B12、第6口領域B13及び領域B14を生成する。したがって、画像処理部305が、各第2の領域に対して画像処理を実行することによって利用者にとって好ましい画像処理を実現することが可能となる。
Next, an example of a face image in which a part of the face is touched, the mouth is opened, and the chin is pinched by the fingers as shown in FIG. 15A will be examined. In this case, as shown in FIG. 15B, the
続いて、図16(a)に示すような、口の一部に指がかかり、口が開き、口の中に歯及び舌が見えているような顔画像の例で検討する。このような場合、抽出方法によっては、図16(b)に示すように、指があるにも関わらず、指がないとみなされた口全体が見えるような領域A15が抽出される場合もある。これに対し、抽出部303は、正確に第1口領域A11、第2口領域A12、第3口領域A13及び領域A14(図示を省略)を抽出することができる。すなわち、このような一般的な口の形状とは異なる口の形状で画像データが取得された場合であっても、各領域を抽出することが可能となる。また、生成部304は、図16(c)に示すように、第4口領域B11、第5口領域B12、第6口領域B13及び領域B14を生成する。したがって、画像処理部305が、各第2の領域に対して画像処理を実行することによって利用者にとって好ましい画像処理を実現することが可能となる。例えば、指、口の中や歯まで、口紅を塗るような不自然な画像処理をすることなく、口紅を塗ることが好ましい範囲にのみ口紅を塗るような画像処理を施すことができるため、自然な画像の提供が可能となる。
Subsequently, an example of a facial image in which a finger is placed on a part of the mouth, the mouth is opened, and the teeth and tongue are visible in the mouth, as shown in FIG. 16A, will be examined. In such a case, depending on the extraction method, as shown in FIG. 16B, the region A15 in which the entire mouth, which is considered to have no finger, can be seen even though the finger is present may be extracted. .. On the other hand, the
例えば、図17(a)に示すような、黒目の領域が上瞼と下瞼まで大きく、前髪が上瞼に近接する状態の顔画像の例で検討する。この場合、抽出部303は、図17(b)に示すように、第1の領域として、第1目領域A21、第2目領域A22、領域A23及び領域A24を抽出することができる。また、生成部304は、図17(c)に示すように、第2の領域として、第3目領域B21、第4目領域B22、領域B23及び領域B24を生成する。これにより、画像処理部305が、第2の領域に対して画像処理を実行することで、目を大きくみせるために黒目の領域が上瞼及び下瞼の外にまではみ出すような画像処理がされるのを防止することができる。したがって、利用者にとって好ましい画像処理を実現することが可能となる。
For example, as shown in FIG. 17A, an example of a facial image in which the black eye region is large up to the upper eyelid and the lower eyelid and the bangs are close to the upper eyelid will be examined. In this case, as shown in FIG. 17B, the
次に、図18(a)に示すような、指で目尻付近が上方向に持ち上げられ、黒目がほぼ確認できない状態の顔画像の例で検討する。図18に示すような画像データは、利用者によって面白みのある画像データを目的として取得されたものである。このような場合、一般的な目の形状とはかけ離れているため、抽出方法によっては、目の領域が抽出されない場合もある。これに対し、抽出部303は、図18(b)に示すように、第1の領域として、第1目領域A21、第2目領域A22、領域A23及び領域A24を抽出することができる。また、生成部304は、図18(c)に示すように、第2の領域として、第3目領域B21、第4目領域B22、領域B23及び領域B24を生成する。なお、図18に示す例では、第1の領域と第2の領域とは同一である。したがって、画像処理部305が、第2の領域に対して画像処理を実行することで、目を大きくみせるために黒目の領域が下瞼の外にまではみ出すような不自然な画像処理がされるのを防止することができる。また、利用者の求める面白みと、画像処理の結果がかけ離れるのを防止し、利用者の求める自然な画像の提供が可能となる。
Next, an example of a face image in which the vicinity of the outer corner of the eye is lifted upward by a finger and the black eye can hardly be confirmed as shown in FIG. 18A will be examined. The image data as shown in FIG. 18 is acquired by the user for the purpose of interesting image data. In such a case, the eye region may not be extracted depending on the extraction method because it is far from the general eye shape. On the other hand, as shown in FIG. 18B, the
例えば、図19(a)に示すような、目の一部に手がかかる顔画像の例で検討する。この場合、抽出方法によっては、図19(b)に示すように、手があるにも関わらず、手がないとみなされた目全体が見えるような領域A25が抽出される場合もある。これに対し、抽出部303は、正確に第1目領域A21、第2目領域A22、領域A23及び領域A24(図示を省略)を抽出することができる。また、生成部304は、図19(c)に示すように、第2の領域として、第3目領域B21、第4目領域B22、領域B23及び領域B24を生成する。これにより、画像処理部305が、第2領域に対して画像処理をすることで、目を大きくみせるために黒目の領域が上瞼及び下瞼の外にまではみ出したり、黒目の領域が手の領域まではみ出すような不自然な画像処理がされるのを防止することができる。したがって、利用者にとって好ましい画像処理を実現することが可能となる。
For example, consider an example of a face image in which a part of the eyes is touched, as shown in FIG. 19 (a). In this case, depending on the extraction method, as shown in FIG. 19B, the region A25 in which the entire eye, which is considered to have no hands, can be seen even though the hands are present may be extracted. On the other hand, the
例えば、図20(a)に示すような、目の一部に眼鏡のフレーム部分がかかる顔画像の例で検討する。この場合、抽出方法によっては、図20(b)に示すように、眼鏡のフレームがあるにも関わらず、眼鏡のフレームがないとみなされた目全体が見えるような領域A25が抽出される場合もある。これに対し、抽出部303は、第1目領域A21、第2目領域A22、領域A23及び領域A24(図示省略)を抽出することができる。また、生成部304は、図20(c)に示すように、第2の領域として、第3目領域B21、第4目領域B22、領域B23及び領域B24を生成する。これにより、画像処理部305が、第2の領域に対して画像処理を実行することで、目を大きくみせるために黒目の領域が上瞼及び下瞼の外にまではみ出したり、黒目の領域が眼鏡のフレームの領域まではみ出すような画像処理がされるのを防止することができる。したがって、利用者にとって好ましい画像処理を実現することが可能となる。
For example, as shown in FIG. 20A, an example of a face image in which a frame portion of eyeglasses is applied to a part of eyes will be examined. In this case, depending on the extraction method, as shown in FIG. 20B, there is a case where the region A25 is extracted so that the entire eye can be seen without the frame of the spectacles even though the frame of the spectacles is present. There is also. On the other hand, the
取得される画像は、図13乃至図20に示すような様々な形態の画像があるので、このような様々な画像を学習データとすることで、生成部304での第2の領域の生成の精度を向上させることが可能となる。
Since the acquired images include images of various forms as shown in FIGS. 13 to 20, by using such various images as learning data, the
《口マスクの画像処理》
画像処理部305は、口マスクの領域について、例えば、口紅を塗ったような画像処理を実行することができる。このとき、画像処理部305は、口マスク全体の色を調整するのではなく、口マスクに含まれる領域毎にそれぞれ設定された処理を実行することで、利用者の口の美観を向上させることができる。
<< Image processing of mouth mask >>
The
具体的には、画像処理部305は、第1口領域A11については、上側から下側にかけて、グラデーションをつけて処理することができる。例えば、画像処理部305は、第1口領域A11の上縁部の色を薄く、下縁部の色を濃くするように処理することで、唇の立体感を損なうことなく、利用者にとって好ましい画像処理が可能となる。同様に、画像処理部305は、第2口領域A12についても、例えば、上縁部の色を濃く、下縁部の色を薄くグラデーションを付けて処理することで、唇の立体感を損なうことなく、利用者にとって好ましい画像処理が可能となる。このように、上唇と下唇とが別々に処理されるため、自然な画像処理がされ、利用者の美観を向上させることができる。
Specifically, the
上述したように、口紅を塗ることが考えられる領域が第1口領域A11及び第2口領域A12と設定される。これにより、第3口領域A13については、第1口領域A11及び第2口領域A12と正確に区別することができる。したがって、画像処理部305では、口紅を塗ることのないような部分まで口紅を塗ったような画像処理を実行することを防止し、利用者にとって好ましい画像処理を可能とする。具体的には、口を開けて画像が歯を含む場合に、唇とともに、歯まで色が変更されるのを防止することができる。また、面白みのある画像を得ることを目的として、口の形を変形して画像が撮影された場合のように、唇の内側が見えているとき、唇の内側まで色が変更されることを防止することができる。すなわち、口の形がどのようなバリエーションであったとしても、唇と唇以外とを区別することが可能であって、利用者にとって好ましい画像処理がされ、利用者の美観を向上させることができる。
As described above, the areas where lipstick can be applied are set as the first mouth area A11 and the second mouth area A12. Thereby, the third mouth region A13 can be accurately distinguished from the first mouth region A11 and the second mouth region A12. Therefore, the
画像処理部305は、第1口領域A11にハイライトを入れたような処理をするようにしてもよい。具体的には、画像処理部305は、第1口領域A11の上端の中央部、いわゆる、上唇において人中と重なる点に、ハイライト効果のある処理を実現することができる。これにより、利用者の美観を向上させることができる。
The
画像処理部305は、口が開いている場合と口が閉じている場合に応じて、異なる処理を実行するようにしてもよい。例えば、画像処理部305は、第1口領域A11及び第2口領域A12の面積と第3口領域A13の面積の比率によって画像処理の程度を変えることで、利用者にとって好ましい画像処理がされ、利用者の美化を向上させることができる。
The
また、仮に、第3口領域A13に含まれる歯の領域を区別することができる場合、画像処理部305は、ホワイトニングされた歯にするような画像処理を実現することもできる。これにより、利用者の美観をより向上させることができる。
Further, if the tooth region included in the third mouth region A13 can be distinguished, the
《目マスクの画像処理》
画像処理部305は、目マスクの領域について、例えば、目を大きく見せたり、目が生き生きとしたような画像処理を実行することができる。このとき、画像処理部305は、目マスク全体の形状や色を調整するのではなく、目マスクに含まれる領域毎にそれぞれ設定された処理を実行することで、利用者の美観をより向上させることができる。
《Image processing of eye mask》
The
具体的には、画像処理部305は、第1目領域A21については、黒目を大きくする処理をすることができる。例えば、画像処理部305は、第1目領域A21については、所定割合大きくなるように処理することで、目をぱっちりとさせたような処理をすることができる。このとき、第1目領域A21、第2目領域A22及び第3領域A23を正確に区別することができるため、黒目が第2目領域A22や第3領域A23にまで外れることなく、利用者にとって好ましい画像処理が可能となり、利用者の美観をより向上させることができる。
Specifically, the
画像処理部305は、第1目領域A21の色を変更する処理をすることができる。例えば、画像処理部305は、目の色をはっきりさせることで、利用者の目を大きくみせるような処理をすることができる。また例えば、目の色を、カラーコンタクトを付けたような色に処理することができる。このとき、第1目領域A21、第2目領域A22及び第3領域A23を正確に区別することができるため、第2目領域A22や第3領域A23まで色を変更することなく、利用者にとって好ましい画像処理が可能となり、利用者の目の美観を向上させることができる。
The
画像処理部305は、第2目領域A22の色を変更する処理をすることができる。例えば、白目の色をより透明感のある白い色にすることで、利用者の印象をより生き生きとさせるように処理することができる。このとき、画像処理部305は、単に第2目領域A22の色を単一にするのではなく、第2目領域A22の外側と内側とで緩やかなグラデーションが生じるように処理してもよい。これにより、利用者の目が平坦に見える不自然な画像処理となることを防止するとともに、立体感のある自然な印象に処理し、利用者の目の美観を向上させることができる。
The
仮に、蒙古襞や涙丘等の領域を区別することができる場合、画像処理部305は、蒙古襞や涙丘の領域の部分を強調したり目立たなく調整した画像処理を実現するようにしてもよい。また、上瞼、下瞼及び瞼縁等を区別することができる場合、画像処理部305は、瞼周辺の色を変更したり、瞼縁を強調した画像処理を実現するようにしてもよい。さらに、二重を特定することができる場合、画像処理部305は、二重を強調したり、二重幅を調整した画像処理を実現するようにしてもよい。また、睫毛を区別することができる場合、画像処理部305は、睫毛を太く強調したり、長く強調した画像処理を実現することもできる。これらの処理によっても、利用者の美観を向上させることができる。
If it is possible to distinguish areas such as Mongolian folds and caruncles, the
《その他の処理》
また、上述した口マスクや目マスクに関する処理に加え、画像処理部305は、その他、顔に対して美肌効果、美白効果、小顔効果を目的とする処理を実行してもよい。なお、これらの処理については、既存の処理と同様であるため、ここでは具体的な説明は省略する。
<< Other processing >>
Further, in addition to the above-mentioned processing related to the mouth mask and the eye mask, the
合成部306は、処理した画像を合成用画像とし、カメラ91に取り込まれた動画像に合成用画像を合成し、合成した画像をタッチパネルモニタ92にライブビュー表示画像としてさせる。したがって、利用者は、仕上がりイメージをリアルタイムで確認しながら撮影を行うことができる。
The
編集部230は、上述した編集操作部27A,27Bと、編集処理部307とを備える。編集処理部307は、編集操作部27A,27Bにおけるタブレット内蔵モニタ131、およびスピーカ133を制御することで、編集処理を行う。編集処理部307は、タブレット内蔵モニタ131に対する、タッチペン132A,132Bを用いた利用者の操作入力を受け付ける。
The
また、編集処理部307は、タブレット内蔵モニタ131に表示させた選択画面に対する選択操作に応じて、編集対象画像としての撮影画像に所定の画像処理を施し、タブレット内蔵モニタ131に表示させる。あるいは、編集処理部307は、タブレット内蔵モニタ131に表示させた編集画面に対する入力操作に応じて、合成用画像に所定の画像処理を施し、あるいは、入力操作に応じて新たな合成用画像を生成して、撮影画像に合成し、タブレット内蔵モニタ131に表示させる。
Further, the editing processing unit 307 performs predetermined image processing on the captured image as the image to be edited according to the selection operation for the selection screen displayed on the tablet built-in
また、編集処理部307は、編集の進め方などを説明するガイダンスの出力を制御する。例えば、編集処理部307は、編集の進め方などを説明するガイダンスの画面をタブレット内蔵モニタ131に表示させたり、編集の進め方などを説明するガイダンスの音声をスピーカ133から出力させたりする。また、編集処理部307は通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。また、編集処理部307は、印刷操作部28のプリンタ140を制御することで、印刷処理を行ってもよい。
In addition, the editing processing unit 307 controls the output of guidance explaining how to proceed with editing. For example, the editing processing unit 307 may display a guidance screen explaining how to proceed with editing on the tablet built-in
印刷部240は、上述した印刷操作部28と、印刷処理部308とを備える。印刷処理部308は、編集処理部307から印刷データを受け取り、印刷操作部28のプリンタ140を制御することで、印刷処理を行う。なお、ここでは、画像データを出力する出力部の一例として印刷データである写真シールを出力する印刷部240を用いて説明したが、画像データの出力方法は、これに限定されない。例えば、ネットワーク等を用いて画像データ自体を外部の通信端末に送信する送信手段を出力部としてもよい。
The
このように、写真シール作成装置1は課金と引き換えに、利用者の気持ちが盛り上がるような仕掛け(撮影ポーズの選択、BGM、ナレーションなど)が種々施された写真シール作成ゲームを提供する。そのため、写真シール作成装置1での作成画像は、利用者の楽しい表情が引き出された画像や、趣向を凝らした、華やかな画像となる。
In this way, the photo
また、写真シール作成装置1ではライティングなどの設備が充実しており、そして画像の変形処理(例えば被写体の目の大きさや脚の長さなど)および色の補正(被写体の肌の美白処理など)などを高度な技術で行えるため、写真シール作成装置1で作成した画像は、利用者の写りが良い画像となる。
In addition, the photo
また、写真シール作成装置1以外での画像処理(例えば写真加工のためのアプリケーションなどでの処理)に比べて容易に編集(画像への落書き)ができ、当該編集のバリエーションも豊かである。この点からも、写真シール作成装置1での作成画像は写真シール作成装置1以外で撮影および画像処理された画像に比べ、比較的華やかに仕上がるといえる。
Further, the editing (doodles on the image) can be performed more easily than the image processing (for example, the processing in an application for photo processing) other than the photo
(写真シール作成ゲームの流れ)
次に、利用者が写真シール作成装置1において写真シール作成ゲームを行う処理の流れについて、図21を用いて説明する。図21は、写真シール作成装置1におけるゲームの開始から当該ゲームで写真シールを作成するまでの処理の流れを示すフローチャートである。
(Flow of photo sticker creation game)
Next, the flow of the process in which the user plays the photo sticker making game on the photo
ゲーム開始前の状態においては、写真シール作成装置1の事前選択処理部301として機能する制御部201は、事前選択操作部20のタッチパネルモニタ71に、硬貨の投入を促すメッセージを表示させる。また、制御部201は、図21に示すように、硬貨処理部74からの起動信号の有無に基づいて、硬貨投入返却口73に硬貨が投入されたか否かを判定する(S1)。制御部201は、硬貨投入返却口73に硬貨が投入されていないと判定した場合には(S1:NO)、硬貨が投入されたか否かの判定処理を継続する。
In the state before the start of the game, the
ゲームを開始しようとする利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入返却口73に硬貨を投入する。硬貨投入返却口73へ硬貨が投入されると、硬貨処理部74からゲームの開始を指示する起動信号が出力される。制御部201は、硬貨処理部74から起動信号を入力すると、硬貨投入返却口73に硬貨が投入されたと判定し(S1:YES)、利用者に対して事前接客処理を実行する(S2)。
A user who intends to start a game inserts coins into the coin insertion /
事前接客処理においては、制御部201は、タッチパネルモニタ71に、コースの選択、名前の入力、およびデザインの選択等を促すメッセージ等を表示させる。利用者が、タッチパネルモニタ71に表示されるメッセージ等に従って各種の選択または入力を行うと、制御部201は、撮影コース、名前、デザイン、および印刷レイアウト等の設定を行う。制御部201は、複数種類の合成用背景画像を選択可能にタッチパネルモニタ92に表示させ、合成用背景画像を利用者に選択させる。
In the pre-customer service process, the
事前接客処理が終了すると、制御部201は、利用者に対して撮影空間A1に移動して撮影を行うことを促すメッセージ等をタッチパネルモニタ71に表示させる。撮影処理部302として機能する制御部201は、撮影操作部21のタッチパネルモニタ92に、画面にタッチするように促すメッセージを表示させる。なお、このメッセージと共に、あるいはこのメッセージに代えて、スタートボタンを表示させてもよい。また、制御部201は、BGMと共に、画面にタッチするように促すナレーションを、スピーカ93から出力させる。撮影空間A1に移動した利用者が、タッチパネルモニタ92にタッチすると、制御部201は、タッチパネルモニタ92がタッチされたことを読み取り、撮影処理を開始する(S3)。
When the pre-customer service process is completed, the
撮影処理においては、制御部201は、タッチパネルモニタ92に、例えばライティングに関するガイダンスを表示させ、利用者にライティングのレベルの選択を促す。利用者がライティングのレベルを選択すると、制御部201は、ライティングのレベルを、選択されたレベルに設定する。
In the shooting process, the
また、制御部201は、撮影枚数を説明するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。本実施形態では、一例として、撮影枚数は7枚に設定されている。
Further, the
次に、制御部201は、利用者を立ち位置に誘導するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。
Next, the
以上のようなインストラクション画面を表示させた後、制御部201は、利用者に選択させた撮影コースに応じて、合成用背景画像と、カメラ91で取得している動画像とを合成したライブビュー表示画像を、ライブビュー表示としてタッチパネルモニタ92に表示させる(S4)。これにより、利用者は、仕上がりイメージを確認しながらポーズを取ることができる。
After displaying the instruction screen as described above, the
制御部201は、ライブビュー表示を、撮影のためのカウントダウンの終了直前まで行い、その間、制御部201は、ライブビュー表示と共に、あるいはライブビュー表示に代えて、サンプルポーズをタッチパネルモニタ92に表示させる。制御部201は、サンプルポーズに合わせたナレーションをスピーカ93から出力させる。
The
制御部201は、ライブビュー表示の開始から終了までの時間を管理しており、予め設定した所定の時間が経過すると、タッチパネルモニタ92の表示とスピーカ93の音声とでカウントダウンを行う。
The
制御部201は、カウントダウンの終了タイミングで、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85に照明制御信号を送信すると共にカメラ91にシャッタ信号を送信する。
At the end timing of the countdown, the
これにより、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85から閃光を照射し、照明された利用者が背景とともに写っている撮影画像をカメラ91により取得する。本実施形態では、一例として、ステップS3からステップS4までの処理を複数回繰り返して7枚の撮影画像を取得する。また、制御部201は、撮影画像に合成用背景画像を合成させた編集対象画像を記憶部202に記憶させる。
As a result, a flash is emitted from the
なお、ここでは、予め設定した時間毎に撮影画像が取得される例で説明したが、撮影画像の取得タイミングはこれに限定されない。例えば、撮影のための操作ボタンを撮影操作部21が有する場合、この操作ボタンを操作したタイミングで撮影画像を取得するようにしてもよい。
Here, the example in which the captured image is acquired at preset time intervals has been described, but the acquisition timing of the captured image is not limited to this. For example, when the
撮影終了後、制御部201は、利用者に対して、編集空間A2−1、または編集空間A2−2のいずれか一方への移動を促す案内画面をタッチパネルモニタ92に表示するとともに、音声による移動案内をスピーカ93に出力する。
After the shooting is completed, the
そして、制御部201は、利用者による編集対象画像の編集を許容する編集処理を実行する(S5)。詳述すると、制御部201は、編集対象画像を、タブレット内蔵モニタ131に表示し、この編集対象画像に対して利用者がタッチペン132A,132Bでスタンプ画像やペン画像などを描くことを許容し、編集画像を作成する。
Then, the
その後、制御部201は、利用者に対してシール紙排出口161が設けられた印刷待ち空間A3への移動を促す案内画面をタブレット内蔵モニタ131に表示するとともに、音声による移動案内をスピーカ133に出力する。
After that, the
さらに、制御部201は、事前選択操作部20において選択された印刷レイアウトに編集画像を配置して印刷用画像を作成し、この印刷用画像をシール紙142に印刷する印刷処理を実行する(S6)。
Further, the
印刷処理が終了すると、制御部201は、シール紙142の排出処理を実行し(S7)、印刷完了したシール紙142をシール紙排出口161から排出し、利用者に写真シールとして提供してゲームを終了する。このようにして、写真シール作成装置1により作成した利用者の撮影画像を、写真シールとして出力することができる。なお、詳細な説明は省略するが、本実施形態の写真シール作成装置1は、通信により、撮影画像を携帯端末等に出力することも可能である。
When the printing process is completed, the
(合成処理の詳細)
次に、図22に示すフローチャートを参照して、図21のフローチャートのステップS4の合成処理について説明する。図22に示すように、ステップS4の合成処理では、制御部201は、まず、撮影画像に含まれる利用者の顔領域を抽出する(S41)。撮影画像に複数の利用者を含む場合、制御部201は、全ての利用者の顔領域を抽出する。
(Details of synthesis process)
Next, the synthesis process of step S4 of the flowchart of FIG. 21 will be described with reference to the flowchart shown in FIG. As shown in FIG. 22, in the synthesis process of step S4, the
制御部201は、ステップS41で抽出した顔領域が抽出された利用者について、さらに、口領域及び目領域を抽出する(S42)。具体的には、制御部201は、口領域に関し、領域A11〜A14を抽出する。また、制御部201は、目領域に関し、領域A21〜A24を抽出する。撮影画像に複数の利用者を含む場合、制御部201は、全ての利用者に対して、口領域及び目領域を抽出する。
The
制御部201は、ステップS42で抽出した各領域A11〜A14の画像データについて、口領域に対して予め定められる処理を実行する(S43)。例えば、制御部201は、口領域について、美観を向上させるような処理として、口の色を調整する処理を実行する。
The
また、制御部201は、ステップS42で抽出した各領域A21〜A24の画像データについて、目領域に対して予め定められる処理を実行する(S44)。例えば、制御部201は、目領域について、美観を向上させるような処理として、目の色を調整する処理を実行する。
Further, the
さらに、制御部201は、利用者の顔領域の画像データについて、他の画像処理を実行してもよい(S45)。例えば、制御部201は、予め定められる方法に従い、小顔に処理したり、色白に処理する。このとき、制御部201は、自動で処理してもよいし、利用者の操作に従って処理してもよい。
Further, the
制御部201は、ステップS43〜S45で処理された画像を用いて画像を合成する(S46)。ここで合成された画像は、ライブビュー表示により利用者に確認されながら画像の取得がされる。
The
(表示例)
図23は、タブレット内蔵モニタ131に表示される編集画面400の一例である。図23に示すように、編集画面400は、第1編集部401と第2編集部402とを備える。
(Display example)
FIG. 23 is an example of the
第1編集部401は、第1サムネイル部403、第1編集対象画像表示部405、第1操作ボタン表示部407及び第1パレット409を備える。同様に、第2編集部402は、第2サムネイル部404、第2編集対象画像表示部406、第2操作ボタン表示部408及び第2パレット410を備える。
The
第1サムネイル部403及び第2サムネイル部404には、撮影された複数の編集対象画像Im1〜Im5のサムネイルが表示される。第1サムネイル部403及び第2サムネイル部404に表示されるサムネイルは、タッチペン132A又は132Bで選択することができる。図21に示す例では、それぞれ、編集対象画像Im1、Im3が選択される。なお、図示は省略するが、選択された編集対象画像のサムネイルには、「選択中」の文字が表示されてもよい。また、図19のフローチャートのステップS3で7枚の画像を撮影した場合、サムネイル部403,404にもそれぞれ7枚の編集対象画像が表示されるが、図23は、便宜的に5枚の編集対象画像が表示される例で説明する。
The
第1編集対象画像表示部405には、第1サムネイル部403で選択された編集対象画像が表示される。また、第2編集対象画像表示部406には、第2サムネイル部404で選択された編集対象画像が表示される。サムネイル部403又は404に表示される編集対象画像において選択される編集対象画像が変更されると、編集対象画像表示部405又は406に表示される編集対象画像も変更される。
The edit target image selected by the
第1パレット409は、第1編集対象画像表示部405に表示される編集対象画像にコンテンツである文字、模様、色等で装飾する場合にコンテンツの種類等を選択するために利用される。また、第2パレット410は、第2編集対象画像表示部406に表示される編集対象画像にコンテンツで装飾する場合にコンテンツの種類等を選択するために利用される。後に詳述するが、図21に示す例では、各パレット409及び410は、「なりきり」、「顔落書き」、「アイテム」及び「メイク」のタブを含む。
The first palette 409 is used to select the type of content or the like when decorating the image to be edited displayed on the first edit target
上述したように、本実施形態では、各領域を抽出することにより、各領域に想定された処理を実行することが可能となり、利用者にとって好ましい画像処理を実現することができる。 As described above, in the present embodiment, by extracting each region, it is possible to execute the processing assumed for each region, and it is possible to realize image processing preferable to the user.
<変形例>
以上の実施形態は例示であり、この発明の範囲から離れることなく様々な変形が可能である。例えば、上述した各実施形態を適宜組み合わせてもよい。例えば、実施形態7においては、利用者の性別に応じて、9秒カウントするか7秒カウントするかを選択する態様について説明したが、実施形態7と実施形態1または実施形態2とを組み合わせてもよい。この場合には、利用者の性別が男性の場合には、撮影間隔を17秒で一定とし、女性の場合には、撮影枚数に応じて9秒カウントと7秒カウントとを選択するようにしてもよい。
<Modification example>
The above embodiment is an example, and various modifications can be made without departing from the scope of the present invention. For example, the above-described embodiments may be combined as appropriate. For example, in the seventh embodiment, the mode of selecting whether to count for 9 seconds or 7 seconds according to the gender of the user has been described, but the seventh embodiment is combined with the first embodiment or the second embodiment. May be good. In this case, if the user's gender is male, the shooting interval is fixed at 17 seconds, and if the user is female, 9-second count or 7-second count is selected according to the number of shots. May be good.
また、手動で撮影間隔を切り替えるようにしてもよい。例えば、セルフシャッタボタンと、スライドバー等とを設け、セルフシャッタボタンについては、撮影間隔を切り替えるのではなく、撮影のタイミングを決定するように構成する。そして、スライドバー等を操作することにより、セルフシャッタボタンを操作した以降の撮影間隔を変更できるようにしてもよい。 Alternatively, the shooting interval may be switched manually. For example, a self-shutter button, a slide bar, and the like are provided, and the self-shutter button is configured to determine the shooting timing instead of switching the shooting interval. Then, by operating the slide bar or the like, the shooting interval after the operation of the self-shutter button may be changed.
(ソフトウェアによる実現例)
写真シール作成装置1の機能ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
(Example of realization by software)
The functional block of the
後者の場合、写真シール作成装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、前記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、前記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the photo
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and the embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.
1 写真シール作成装置(画像処理装置)
301 事前選択処理部
302 撮影処理部
303 抽出部
304 生成部
305 画像処理部
306 合成部
307 編集処理部
308 印刷処理部(出力部)
1 Photo sticker making device (image processing device)
301
Claims (13)
前記画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出する抽出部と、
前記第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成する生成部と、
前記画像データの前記第2の領域に対して定められる方法で処理する画像処理部と、
を備える画像処理装置。 A shooting unit that shoots the user and generates image data,
An extraction unit that extracts a first region, which is a contour region of a predetermined portion of the user's face, from the image data using a predetermined image extraction method.
A generation unit that uses the first region to generate a second region that includes at least a part of the first region and is specified as an image processing target.
An image processing unit that processes the second region of the image data by a predetermined method, and an image processing unit.
An image processing device comprising.
前記画像データから、セマンティックセグメンテーションを用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出する抽出部と、
前記第1の領域を用いて、当該第1の領域を少なくとも一部を含む第2の領域を生成する生成部と、
前記画像データの前記第2の領域に対して定められる方法で処理する画像処理部と、
を備える画像処理装置。 A shooting unit that shoots the user and generates image data,
An extraction unit that extracts a first region, which is a contour region of a predetermined portion of the user's face, from the image data by using semantic segmentation.
A generation unit that uses the first region to generate a second region that includes at least a part of the first region.
An image processing unit that processes the second region of the image data by a predetermined method, and an image processing unit.
An image processing device comprising.
前記生成部は、前記各第1の領域に対応する前記第2の領域を生成し、
前記画像処理部は、上唇の第2の領域に対し上唇用の処理、下唇の第2の領域に対し下唇用の処理を実行する
請求項1又は2に記載の画像処理装置。 The extraction unit extracts the first region of the user's mouth, including the upper lip, the lower lip, and other than the lips.
The generation unit generates the second region corresponding to each of the first regions.
The image processing apparatus according to claim 1 or 2, wherein the image processing unit executes a process for the upper lip on a second region of the upper lip and a process for the lower lip on a second region of the lower lip.
前記生成部は、前記各第1の領域に対応する前記第2の領域を生成し、
前記画像処理部は、前記生成部が生成した領域毎の処理を実行する
請求項3に記載の画像処理装置。 The extraction unit extracts at least one of the tongue, teeth, gingiva or mucous membrane as the first region other than the lips.
The generation unit generates the second region corresponding to each of the first regions.
The image processing apparatus according to claim 3, wherein the image processing unit executes processing for each region generated by the generation unit.
請求項3又は4に記載の画像処理装置。 The image processing apparatus according to claim 3 or 4, wherein the upper lip and lower lip regions of the second region are preferable ranges for applying lipstick.
前記生成部は、黒目の前記第1の領域に対応する前記第2の領域を生成し、
前記画像処理部は、前記黒目の領域に対し黒目用の処理を実行する
請求項1又は2に記載の画像処理装置。 The extraction unit extracts the first region of the black eye with respect to the user's eye.
The generation unit generates the second region corresponding to the first region of the black eye.
The image processing apparatus according to claim 1 or 2, wherein the image processing unit executes processing for black eyes on the black eye region.
前記生成部は、白目の前記第1の領域に対応する前記第2の領域を生成し、
前記画像処理部は、前記白目の領域に対し白目用の処理を実行する
請求項6に記載の画像処理装置。 The extraction unit extracts the first region of the white eye for the user's eye.
The generation unit generates the second region corresponding to the first region of the white of the eye.
The image processing apparatus according to claim 6, wherein the image processing unit executes processing for white eyes on the white eye region.
請求項6又は7に記載の画像処理装置。 The image processing apparatus according to claim 6 or 7, wherein the second region is a preferable range for changing at least one of size and color.
前記生成部は、睫毛の前記第1の領域に対応する第2の領域を生成し、
前記画像処理部は、睫毛の前記第2の領域に対し睫毛用の処理を実行する
請求項6乃至8のいずれか1に記載の画像処理装置。 The extraction unit further extracts the first region of the eyelashes.
The generator generates a second region corresponding to the first region of the eyelashes.
The image processing apparatus according to any one of claims 6 to 8, wherein the image processing unit executes eyelash processing on the second region of the eyelashes.
請求項1乃至9のいずれか1に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the generation unit generates a second region using a machine learning model trained using learning data generated in advance.
請求項1乃至10のいずれか1に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, further comprising a printing processing unit for printing the processed image data on a sticker paper.
前記画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出するステップと、
前記第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成するステップと、
前記画像データの前記第2の領域に対して定められる方法で処理するステップと、
を有する画像処理方法。 Steps to take a picture of the user and generate image data,
A step of extracting a first region, which is a contour region of a predetermined portion of the user's face, from the image data by using a predetermined image extraction method.
A step of using the first region to generate a second region that includes at least a part of the first region and is specified as an image processing target.
A step of processing the second region of the image data in a predetermined manner, and
Image processing method having.
利用者を撮影し、画像データを生成する撮影部と、
前記画像データから、所定の画像抽出法を用いて利用者の顔の所定部位の輪郭領域である第1の領域を抽出する抽出部と、
前記第1の領域を用いて、当該第1の領域の少なくとも一部を含み、画像処理対象として特定される第2の領域を生成する生成部と、
前記画像データの前記第2の領域に対して定められる方法で処理する画像処理部と、
して機能させる画像処理プログラム。 Computer,
A shooting unit that shoots the user and generates image data,
An extraction unit that extracts a first region, which is a contour region of a predetermined portion of the user's face, from the image data using a predetermined image extraction method.
A generation unit that uses the first region to generate a second region that includes at least a part of the first region and is specified as an image processing target.
An image processing unit that processes the second region of the image data by a predetermined method, and an image processing unit.
An image processing program that works.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019166395A JP2021043797A (en) | 2019-09-12 | 2019-09-12 | Image processing device, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019166395A JP2021043797A (en) | 2019-09-12 | 2019-09-12 | Image processing device, image processing method, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021043797A true JP2021043797A (en) | 2021-03-18 |
Family
ID=74863085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019166395A Pending JP2021043797A (en) | 2019-09-12 | 2019-09-12 | Image processing device, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021043797A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005031990A (en) * | 2003-07-14 | 2005-02-03 | Omron Corp | Image correction device |
JP2005228076A (en) * | 2004-02-13 | 2005-08-25 | Omron Corp | Image correcting device |
JP2014131160A (en) * | 2012-12-28 | 2014-07-10 | Furyu Kk | Device and method for generating photograph seal |
JP2016110416A (en) * | 2014-12-08 | 2016-06-20 | 株式会社メイクソフトウェア | Image processing device, image processing method and computer program |
WO2019014646A1 (en) * | 2017-07-13 | 2019-01-17 | Shiseido Americas Corporation | Virtual facial makeup removal, fast facial detection and landmark tracking |
JP2019013013A (en) * | 2013-11-21 | 2019-01-24 | フリュー株式会社 | Photo sticker generation apparatus, photo sticker generation method, and program |
-
2019
- 2019-09-12 JP JP2019166395A patent/JP2021043797A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005031990A (en) * | 2003-07-14 | 2005-02-03 | Omron Corp | Image correction device |
JP2005228076A (en) * | 2004-02-13 | 2005-08-25 | Omron Corp | Image correcting device |
JP2014131160A (en) * | 2012-12-28 | 2014-07-10 | Furyu Kk | Device and method for generating photograph seal |
JP2019013013A (en) * | 2013-11-21 | 2019-01-24 | フリュー株式会社 | Photo sticker generation apparatus, photo sticker generation method, and program |
JP2016110416A (en) * | 2014-12-08 | 2016-06-20 | 株式会社メイクソフトウェア | Image processing device, image processing method and computer program |
WO2019014646A1 (en) * | 2017-07-13 | 2019-01-17 | Shiseido Americas Corporation | Virtual facial makeup removal, fast facial detection and landmark tracking |
Non-Patent Citations (1)
Title |
---|
JINPENG LIN ET AL.: "Face Parsing with RoI Tanh-Warping", 2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN6023025046, 15 June 2019 (2019-06-15), US, pages 5647 - 5656, XP033687470, ISSN: 0005086474, DOI: 10.1109/CVPR.2019.00580 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9519950B2 (en) | Image generating apparatus and image generating method | |
JP5748651B2 (en) | Image processing apparatus, image processing method, and program | |
JP6829380B2 (en) | Photo sticker making device and image processing method | |
JP6477780B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program | |
JP7152687B2 (en) | Display control device, display control method, program | |
JP6712047B2 (en) | Photo creation game machine and image generation method | |
JP6558209B2 (en) | Imaging device | |
JP6853475B2 (en) | Photo creation game console and display method | |
JP6262643B2 (en) | Image processing apparatus and image processing method | |
JP7295388B2 (en) | Image processing device, image processing method and image processing program | |
JP6232662B2 (en) | Photography game machine and its control program | |
JP7132492B2 (en) | Image processing device, display control method, and program | |
JP7140962B2 (en) | Image processing device, control method, and program | |
JP2021043797A (en) | Image processing device, image processing method, and image processing program | |
JP2018107515A (en) | Photograph formation game machine and image processing method | |
JP7074994B2 (en) | Photographing game console and image processing method | |
JP7401727B2 (en) | Image processing device, image processing method, and image processing program | |
JP2021044734A (en) | Image processing device, image processing method, and program | |
JP7339515B2 (en) | Image processing device, image processing method, and program | |
JP6982230B2 (en) | Photographing game console and image processing method | |
JP7121256B2 (en) | PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP2022012958A (en) | Image processing apparatus, image processing method, image processing program, region specification model and model generation method | |
JP2022176755A (en) | Image processing device, image processing method and image processing program | |
JP6455550B2 (en) | Photo sticker creation apparatus and display control method | |
JP6867587B2 (en) | Photographing game consoles, information processing methods, and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230620 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231019 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20240105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20240105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240130 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240327 |