JP2008065379A - Coloring simulation program, coloring simulation method, and coloring simulation device - Google Patents
Coloring simulation program, coloring simulation method, and coloring simulation device Download PDFInfo
- Publication number
- JP2008065379A JP2008065379A JP2006239283A JP2006239283A JP2008065379A JP 2008065379 A JP2008065379 A JP 2008065379A JP 2006239283 A JP2006239283 A JP 2006239283A JP 2006239283 A JP2006239283 A JP 2006239283A JP 2008065379 A JP2008065379 A JP 2008065379A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- registered image
- unit
- simulation
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、対象物に対して仮想的に着色する着色シミュレーションプログラム、着色シミュレーション方法及び着色シミュレーション装置に関するものである。 The present invention relates to a coloring simulation program, a coloring simulation method, and a coloring simulation apparatus for virtually coloring an object.
従来、ユーザの顔画像を撮影し、この顔画像に化粧を施した画像を合成し、これをユーザに提示するシミュレーション装置が提案されている(例えば、特許文献1参照)。このような、従来のシミュレーション装置の場合、化粧を施した状態のユーザの顔画像を撮影し、化粧が施された顔画像に対してさらに仮想的に化粧を施すシミュレーションが行われる。
しかしながら、従来のシミュレーション装置の場合、化粧が施された顔画像に対してさらに仮想的に化粧を施すシミュレーションが行われるため、シミュレーション結果は、既に化粧が施された顔画像に別の色が混色したものとなる。通常、ユーザは、化粧を施していない状態から化粧を施す。そのため、化粧を施した顔画像にさらに化粧を施すシミュレーションを行った場合、化粧を施していない状態から化粧を施したときの実際の色を正確に再現することが困難であった。 However, in the case of the conventional simulation apparatus, since a simulation is further performed on the face image on which the makeup has been applied, a different color is mixed with the face image on which the makeup has already been applied. Will be. Usually, a user applies makeup from a state where makeup is not applied. Therefore, when a simulation for applying makeup to a face image with makeup applied is performed, it is difficult to accurately reproduce the actual color when the makeup is applied from a state where makeup is not applied.
本発明は、上記の問題を解決するためになされたもので、対象物を仮想的に着色するシミュレーションにおいて、着色した状態であっても、着色していない状態と同等の色再現性を確保することができる着色シミュレーションプログラム、着色シミュレーション方法及び着色シミュレーション装置を提供することを目的とするものである。 The present invention has been made to solve the above problem, and in a simulation for virtually coloring an object, even if it is in a colored state, it ensures a color reproducibility equivalent to that in the uncolored state. An object of the present invention is to provide a coloring simulation program, a coloring simulation method, and a coloring simulation apparatus.
本発明に係る着色シミュレーションプログラムは、着色される前の対象物を撮像した撮像画像を登録画像として予め記憶する登録画像記憶手段と、着色された後の前記対象物を撮像した撮像画像を取得する撮像画像取得手段と、前記登録画像記憶手段に記憶されている前記登録画像を取得する登録画像取得手段と、前記登録画像取得手段によって取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得手段と、前記撮像画像取得手段によって取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出手段と、前記第1の特徴点取得手段によって取得された前記第1の特徴点と、前記第2の特徴点抽出手段によって抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正手段と、前記補正手段によって補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行手段としてコンピュータを機能させる。 The coloring simulation program according to the present invention acquires a registered image storage unit that preliminarily stores a captured image obtained by imaging an object before being colored as a registered image, and a captured image obtained by imaging the object after being colored. Included in a region representing the target object in the registered image acquired by the registered image acquiring means, a registered image acquiring means for acquiring the registered image stored in the registered image storage means, and a captured image acquiring means A first feature point acquiring means for acquiring the first feature point and a region representing the object in the captured image acquired by the captured image acquisition means, and the same as the first feature point A second feature point extracting unit for extracting a second feature point at a position; the first feature point acquired by the first feature point acquiring unit; and the second feature point extracting unit. Based on the positional relationship with the extracted second feature point, correction means for correcting the coordinates of each pixel of the registered image, and the object based on the registered image corrected by the correction means A computer is caused to function as a simulation execution unit that executes a simulation of virtually coloring a region to be represented.
本発明に係る着色シミュレーション方法は、撮像画像取得手段が、着色された後の対象物を撮像した撮像画像を取得する撮像画像取得ステップと、登録画像取得手段が、着色される前の対象物を撮像した撮像画像を登録画像として予め記憶している登録画像記憶手段から前記登録画像を取得する登録画像取得ステップと、第1の特徴点取得手段が、前記登録画像取得ステップにおいて取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得ステップと、第2の特徴点抽出手段が、前記撮像画像取得ステップにおいて取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出ステップと、補正手段が、前記第1の特徴点取得ステップにおいて取得された前記第1の特徴点と、前記第2の特徴点抽出ステップにおいて抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正ステップと、シミュレーション実行手段が、前記補正ステップにおいて補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行ステップとを含む。 The coloring simulation method according to the present invention includes a captured image acquisition step in which a captured image acquisition unit acquires a captured image obtained by imaging a colored object, and a registered image acquisition unit calculates an object before being colored. The registered image acquisition step of acquiring the registered image from a registered image storage unit that stores the captured image as a registered image in advance, and the first feature point acquisition unit is the registration acquired in the registered image acquisition step. The first feature point acquisition step for acquiring a first feature point included in a region representing the object in the image, and the second feature point extraction means, the captured image acquired in the captured image acquisition step. A second feature point extracting step for extracting a second feature point that is included in a region representing the target object and located at the same position as the first feature point; Based on the positional relationship between the first feature point acquired in the feature point acquisition step and the second feature point extracted in the second feature point extraction step, the coordinates of each pixel of the registered image And a simulation execution step in which a simulation execution unit executes a simulation of virtually coloring a region representing the object based on the registered image corrected in the correction step.
本発明に係る着色シミュレーション装置は、着色される前の対象物を撮像した撮像画像を登録画像として予め記憶する登録画像記憶手段と、着色された後の前記対象物を撮像した撮像画像を取得する撮像画像取得手段と、前記登録画像記憶手段に記憶されている前記登録画像を取得する登録画像取得手段と、前記登録画像取得手段によって取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得手段と、前記撮像画像取得手段によって取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出手段と、前記第1の特徴点取得手段によって取得された前記第1の特徴点と、前記第2の特徴点抽出手段によって抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正手段と、前記補正手段によって補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行手段とを備える。 The coloring simulation apparatus according to the present invention acquires a registered image storage unit that stores in advance a captured image obtained by imaging an object before being colored as a registered image, and a captured image obtained by imaging the object after being colored. Included in a region representing the target object in the registered image acquired by the registered image acquiring means, a registered image acquiring means for acquiring the registered image stored in the registered image storage means, and a captured image acquiring means A first feature point acquiring means for acquiring the first feature point and a region representing the object in the captured image acquired by the captured image acquisition means, and the same as the first feature point Second feature point extraction means for extracting a second feature point at a position, the first feature point acquired by the first feature point acquisition means, and extraction by the second feature point extraction means The correction means for correcting the coordinates of each pixel of the registered image based on the positional relationship with the second feature point, and the object based on the registered image corrected by the correction means Simulation executing means for executing a simulation for virtually coloring the region.
これらの構成によれば、登録画像記憶手段には、着色される前の対象物を撮像した撮像画像が登録画像として予め記憶されている。そして、着色された後の対象物を撮像した撮像画像が取得され、登録画像記憶手段に記憶されている登録画像が取得され、登録画像内の対象物を表す領域に含まれる第1の特徴点が取得される。続いて、撮像画像内の対象物を表す領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点が抽出され、第1の特徴点と第2の特徴点との位置関係に基づいて、登録画像の各画素の座標が補正される。その後、補正された登録画像に基づいて、対象物を表す領域を仮想的に着色するシミュレーションが実行される。 According to these configurations, a captured image obtained by capturing an object before being colored is stored in advance as a registered image in the registered image storage unit. And the captured image which imaged the object after coloring is acquired, the registration image memorize | stored in the registration image memory | storage means is acquired, and the 1st feature point contained in the area | region showing the object in a registration image Is acquired. Subsequently, a second feature point included in a region representing the object in the captured image and located at the same position as the first feature point is extracted, and the positional relationship between the first feature point and the second feature point is extracted. Based on the above, the coordinates of each pixel of the registered image are corrected. After that, based on the corrected registered image, a simulation for virtually coloring a region representing the object is executed.
したがって、対象物を仮想的に着色するシミュレーションにおいて、既に着色されている対象物に基づいて仮想的に着色するのではなく、着色されていない対象物に基づいて仮想的に着色するので、着色した状態であっても、着色していない状態と同等の色再現性を確保することができる。 Therefore, in the simulation for virtually coloring the object, the object is not colored based on the already colored object, but is virtually colored based on the uncolored object. Even in the state, color reproducibility equivalent to that in the uncolored state can be ensured.
また、上記の着色シミュレーションプログラムにおいて、前記登録画像記憶手段は、前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点の位置を前記登録画像に対応付けて予め記憶し、前記第1の特徴点取得手段は、前記登録画像取得手段によって取得された前記登録画像に対応付けられている前記第1の特徴点の位置を前記登録画像記憶手段から取得することが好ましい。 In the coloring simulation program, the registered image storage unit stores in advance the position of the first feature point included in the region representing the object in the registered image in association with the registered image, and Preferably, the first feature point acquisition unit acquires the position of the first feature point associated with the registered image acquired by the registered image acquisition unit from the registered image storage unit.
この構成によれば、登録画像記憶手段には、着色される前の対象物を撮像した撮像画像が登録画像として予め記憶されているとともに、登録画像内の対象物を表す領域に含まれる第1の特徴点の位置が登録画像に対応付けて予め記憶されている。そして、登録画像に対応付けられている第1の特徴点の位置が登録画像記憶手段から取得される。 According to this configuration, the registered image storage unit stores in advance a captured image obtained by capturing the object before coloring as a registered image, and includes the first image included in the region representing the object in the registered image. The positions of the feature points are stored in advance in association with the registered image. Then, the position of the first feature point associated with the registered image is acquired from the registered image storage unit.
したがって、登録画像内の対象物を表す領域に含まれる第1の特徴点の位置を登録画像に対応付けて予め記憶しておくことにより、シミュレーション時に登録画像から第1の特徴点を抽出する処理を省くことができ、シミュレーション時における処理時間を短縮することができる。 Therefore, the process of extracting the first feature point from the registered image during simulation by storing in advance the position of the first feature point included in the region representing the object in the registered image in association with the registered image. The processing time during simulation can be shortened.
また、上記の着色シミュレーションプログラムにおいて、前記第1の特徴点取得手段は、前記登録画像取得手段によって取得された前記登録画像から前記第1の特徴点を抽出することが好ましい。 In the coloring simulation program, it is preferable that the first feature point acquisition unit extracts the first feature point from the registered image acquired by the registered image acquisition unit.
この構成によれば、登録画像記憶手段に記憶されている登録画像が取得され、登録画像内の対象物を表す領域に含まれる第1の特徴点が抽出される。したがって、登録画像のみを予め記憶しておくことにより、メモリのデータ量を削減することができる。 According to this configuration, the registered image stored in the registered image storage unit is acquired, and the first feature point included in the region representing the object in the registered image is extracted. Therefore, the memory data amount can be reduced by storing only the registered images in advance.
また、上記の着色シミュレーションプログラムにおいて、前記対象物は、人間の顔であることが好ましい。この構成によれば、化粧が施される前の顔を撮像した登録画像の特徴点と、化粧が施された後の顔を撮像した撮像画像の特徴点との位置関係に基づいて、登録画像の各画素の座標が補正され、補正された登録画像に基づいて、顔を表す領域に仮想的に化粧を施すシミュレーションが実行される。したがって、顔に仮想的に化粧を施すシミュレーションにおいて、既に化粧が施されている顔に基づいて仮想的に化粧を施すのではなく、化粧が施されていない顔に基づいて仮想的に化粧が施されるので、化粧を施した状態であっても、化粧を施していない状態と同等の色再現性を確保することができる。 In the coloring simulation program, the object is preferably a human face. According to this configuration, the registered image is based on the positional relationship between the feature point of the registered image obtained by capturing the face before the makeup is applied and the feature point of the captured image obtained by capturing the face after the makeup is applied. The coordinates of each pixel are corrected, and based on the corrected registered image, a simulation for virtually applying makeup to the area representing the face is executed. Therefore, in a simulation in which makeup is virtually applied to the face, makeup is not applied virtually based on a face that has already been applied, but is applied virtually based on a face that has not been applied. Therefore, even in a state where makeup is applied, color reproducibility equivalent to a state where makeup is not applied can be ensured.
また、上記の着色シミュレーションプログラムにおいて、ユーザを識別するための識別情報のユーザによる入力を受け付ける受付手段としてコンピュータをさらに機能させ、前記登録画像記憶手段は、前記識別情報を前記登録画像に対応付けて予め記憶し、前記登録画像取得手段は、前記受付手段によって受け付けられた前記識別情報に対応付けられている前記登録画像を前記登録画像記憶手段から取得することが好ましい。 In the coloring simulation program, the computer further functions as a receiving unit that receives an input of identification information for identifying the user by the user, and the registered image storage unit associates the identification information with the registered image. It is preferable that the registered image acquisition unit acquires the registered image associated with the identification information received by the receiving unit from the registered image storage unit.
この構成によれば、ユーザを識別するための識別情報のユーザによる入力が受け付けられ、登録画像記憶手段には、識別情報が登録画像に対応付けて予め記憶され、受け付けられた識別情報に対応付けられている登録画像が登録画像記憶手段から取得される。 According to this configuration, input by the user of identification information for identifying the user is accepted, and the registered image storage unit stores the identification information in advance in association with the registered image, and associates it with the received identification information. The registered image being acquired is acquired from the registered image storage means.
したがって、着色された後の対象物を撮像した撮像画像が取得され、この対象物と同一物であり、着色された後の対象物を撮像した登録画像が取得されるので、登録画像の各画素の座標を正確に補正することができ、シミュレーション結果をより現実に近いものにすることができる。 Accordingly, a captured image obtained by imaging the object after being colored is acquired, and a registered image obtained by capturing the object after being colored is the same as this object, so each pixel of the registered image is acquired. Can be accurately corrected, and the simulation result can be made closer to reality.
また、上記の着色シミュレーションプログラムにおいて、前記第1の特徴点及び前記第2の特徴点は、少なくとも2つの特徴点を含むことが好ましい。この構成によれば、第1の特徴点及び第2の特徴点は、少なくとも2つの特徴点を含んでいるので、第1の特徴点と第2の特徴点との1次元的な位置関係ではなく、2次元的な位置関係を特定することができる。 In the coloring simulation program, it is preferable that the first feature point and the second feature point include at least two feature points. According to this configuration, since the first feature point and the second feature point include at least two feature points, in the one-dimensional positional relationship between the first feature point and the second feature point, And a two-dimensional positional relationship can be specified.
また、上記の着色シミュレーションプログラムにおいて、前記補正手段は、前記撮像画像取得手段によって取得された前記撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とを識別し、前記第1の特徴点と前記第2の特徴点との位置関係に基づいて、識別された前記撮像画像の前記肌領域の各画素の座標に対応する前記登録画像の肌領域の各画素の座標を補正し、前記シミュレーション実行手段は、前記補正手段によって補正された前記登録画像に基づいて、前記撮像画像の肌領域のみを仮想的に着色するシミュレーションを実行することが好ましい。 In the coloring simulation program, the correction unit identifies a hair region representing human hair and a skin region representing human skin in the captured image acquired by the captured image acquisition unit, and Based on the positional relationship between the first feature point and the second feature point, the coordinates of each pixel of the skin area of the registered image corresponding to the coordinates of each pixel of the skin area of the identified captured image are determined. Preferably, the simulation execution unit executes a simulation for virtually coloring only the skin region of the captured image based on the registered image corrected by the correction unit.
この構成によれば、撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とが識別され、第1の特徴点と第2の特徴点との位置関係に基づいて、識別された撮像画像の肌領域の各画素の座標に対応する登録画像の肌領域の各画素の座標が補正され、補正された登録画像に基づいて、撮像画像の肌領域のみを仮想的に着色するシミュレーションが実行される。 According to this configuration, a hair region representing human hair and a skin region representing human skin in the captured image are identified, and based on the positional relationship between the first feature point and the second feature point, The coordinates of each pixel of the skin area of the registered image corresponding to the coordinates of each pixel of the skin area of the identified captured image are corrected, and only the skin area of the captured image is virtually colored based on the corrected registered image A simulation is executed.
したがって、登録画像を撮像したときの髪型と、撮像画像を撮像したときの髪型とが異なっていたとしても、撮像画像の肌領域のみが登録画像に基づいて仮想的に着色されるので、違和感のないシミュレーション結果を得ることができる。 Therefore, even if the hairstyle when the registered image is captured is different from the hairstyle when the captured image is captured, only the skin area of the captured image is virtually colored based on the registered image. No simulation results can be obtained.
本発明によれば、対象物を仮想的に着色するシミュレーションにおいて、既に着色されている対象物に基づいて仮想的に着色するのではなく、着色されていない対象物に基づいて仮想的に着色するので、着色した状態であっても、着色していない状態と同等の色再現性を確保することができる。 According to the present invention, in a simulation for virtually coloring an object, the object is virtually colored based on an object that is not colored, rather than virtually colored based on an object that is already colored. Therefore, even in a colored state, color reproducibility equivalent to that in a non-colored state can be ensured.
以下、本発明に係る実施形態を図面に基づいて説明する。 Embodiments according to the present invention will be described below with reference to the drawings.
(第1の実施の形態)
図1は、第1の実施の形態における着色シミュレーション装置のハードウエア構成を示す図である。図1に示す着色シミュレーション装置は、通常のコンピュータから構成され、入力装置1、ROM(リードオンリメモリ)2、CPU(中央演算処理装置)3、RAM(ランダムアクセスメモリ)4、外部記憶装置5、表示装置6、記録媒体駆動装置7及びI/F(入出力インターフェイス)9を備えて構成される。各ブロックは内部のバスに接続され、このバスを介して種々のデータ等が入出力され、CPU3の制御の下、種々の処理が実行される。
(First embodiment)
FIG. 1 is a diagram illustrating a hardware configuration of the coloring simulation apparatus according to the first embodiment. The coloring simulation apparatus shown in FIG. 1 is composed of a normal computer, and includes an
入力装置1は、キーボード及びマウス等から構成され、操作者が種々のデータ及び操作指令等を入力するために使用される。ROM2には、BIOS(Basic Input/Output System)等のシステムプログラム等が記憶されている。外部記憶装置5は、ハードディスクドライブ等から構成され、所定のOS(Operating System)及び後述する着色シミュレーションプログラム等が記憶されている。RAM4は、CPU3の作業領域等として用いられる。
The
記録媒体駆動装置7は、DVD−ROMドライブ、CD−ROMドライブ又はフレキシブルディスクドライブ等から構成される。なお、着色シミュレーションプログラムを、DVD−ROM、CD−ROM又はフレキシブルディスク等のコンピュータ読み取り可能な記録媒体8に記録し、記録媒体駆動装置7により記録媒体8から着色シミュレーションプログラムを読み出して外部記憶装置5にインストールして実行するようにしてもよい。また、着色シミュレーション装置が通信装置等を備え、着色シミュレーションプログラムが通信ネットワークを介して接続された他のコンピュータに記憶されている場合、当該コンピュータからネットワークを介して着色シミュレーションプログラムをダウンロードして実行するようにしてもよい。
The recording
カメラ10は、I/F9を介してバスラインに接続され、CCDエリアセンサにより、人間の顔を含む画像(顔画像)を所定のフレームレート(例えば1/30sec)で取得する。表示装置6は、液晶表示装置又はCRT(陰極線管)等から構成され、CPU3の制御の基、カメラ10が撮影した人間の顔画像を表示する。
The
図2は、第1の実施の形態における着色シミュレーション装置の機能を説明するためのブロック図である。図2に示す着色シミュレーション装置は、プログラム実行部100及び記憶部200を備えて構成される。プログラム実行部100は、CPU3が着色シミュレーションプログラムを実行することにより実現され、ユーザID取得部101、撮像画像取得部102、特徴点抽出部103、登録部104、登録画像取得部105、特徴点取得部106、補正部107、シミュレーション実行部108及び表示制御部109を備えて構成される。記憶部200は、RAM4等から構成され、CPU3が着色シミュレーションプログラムを実行することにより実現され、登録画像記憶部201を備えて構成される。
FIG. 2 is a block diagram for explaining the function of the coloring simulation apparatus according to the first embodiment. The coloring simulation apparatus shown in FIG. 2 includes a
入力装置1は、ユーザを識別するためのユーザIDの入力を受け付ける。ユーザID取得部101は、入力装置1によって入力されたユーザIDを取得する。撮像画像取得部102は、対象物である人間(ユーザ)の顔を撮像した2次元の撮像画像をカメラ10から取得する。なお、撮像画像取得部102は、入力装置1を用いてユーザにより指定された1フレーム分の静止画像をカメラ10から取得する。
The
登録画像記憶部201は、化粧を施す前の顔を撮像した撮像画像を登録画像として予め記憶するとともに、登録画像内の前記顔を表す領域に含まれる第1の特徴点の位置座標及び種類を登録画像に対応付けて予め記憶する。また、登録画像記憶部201は、ユーザIDに対応付けて登録画像を記憶する。
The registered
特徴点抽出部103は、撮像画像取得部102によって取得された撮像画像内の顔領域に含まれる第1の特徴点を抽出する。また、特徴点抽出部103は、撮像画像取得部102によって取得された撮像画像内の顔領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点を抽出する。なお、第2の特徴点は、第1の特徴点と同じ種類の特徴点である。
The feature
登録部104は、撮像画像取得部102によって取得された撮像画像を登録画像として登録画像記憶部201に記憶する。また、登録部104は、ユーザID取得部101によって取得されたユーザIDを登録画像に対応付けて登録画像記憶部201に記憶する。さらに、登録部104は、特徴点抽出部103によって抽出された第1の特徴点の撮像画像内における位置座標及び種類を撮像画像に対応付けて登録画像記憶部201に記憶する。
The
登録画像取得部105は、ユーザID取得部101によって取得されたユーザIDに対応付けられている登録画像を登録画像記憶部201から取得する。特徴点取得部106は、登録画像取得部105によって取得された登録画像に対応付けられている第1の特徴点の位置座標及び種類を登録画像記憶部201から取得する。
The registered
補正部107は、特徴点取得部106によって取得された第1の特徴点と、特徴点抽出部103によって抽出された第2の特徴点との位置関係に基づいて、登録画像の各画素の座標を補正する。シミュレーション実行部108は、補正部107によって補正された登録画像の各画素値に基づいて、顔を表す領域に仮想的に化粧を施すシミュレーションを実行する。ここで、撮像画像は、所定行×所定列でマトリックス状に配列された画素から構成され、各画素の画素値は、R,G,Bの3つの色成分を有し、R,G,Bの色成分は、各々、例えば0〜255の数値で表される。
Based on the positional relationship between the first feature point acquired by the feature
なお、本実施の形態において、各画素の画素値は、RGB表色系で表される色成分を有しているが、本発明は特にこれに限定されず、HSV(H:色相、S:彩度、V:明度)表色系を用いてもよく、HSV表色系以外の表色系、例えばマンセル表色系、L*a*b*表色系、XYZ表色系又はCIE表色系等を用いてもよい。 In this embodiment, the pixel value of each pixel has a color component represented by the RGB color system, but the present invention is not particularly limited to this, and HSV (H: Hue, S: (Saturation, V: lightness) color system may be used, and color systems other than the HSV color system, such as Munsell color system, L * a * b * color system, XYZ color system or CIE color system A system or the like may be used.
表示制御部109は、人間の顔の撮像時において、顔を撮像した撮像画像を表示装置6に表示するように制御する。また、表示制御部109は、シミュレーション実行部108によって実行されたシミュレーション結果の画像を表示装置6の画面上に表示するように制御する。
The
なお、本実施の形態において、登録画像記憶部201が登録画像記憶手段の一例に相当し、撮像画像取得部102が撮像画像取得手段の一例に相当し、特徴点抽出部103が第2の特徴点抽出手段の一例に相当し、登録画像取得部105が登録画像取得手段の一例に相当し、特徴点取得部106が第1の特徴点取得手段の一例に相当し、補正部107が補正手段の一例に相当し、シミュレーション実行部108がシミュレーション実行手段の一例に相当し、入力装置1が受付手段の一例に相当する。
In the present embodiment, the registered
ここで、登録画像記憶部201に画像を登録する登録処理について説明する。顔に仮想的に化粧を施す着色シミュレーション処理の前段階として以下の登録処理が行われる。図3は、図2に示す着色シミュレーション装置による登録処理の一例を示すフローチャートである。
Here, a registration process for registering an image in the registered
まず、ステップS1において、ユーザID取得部101は、入力装置1によって入力されたユーザIDを取得する。このとき、表示制御部109は、ユーザによるユーザIDの入力を受け付けるためのユーザID入力画面を表示するように表示装置6を制御する。ユーザは、入力装置1を用いてユーザIDを入力する。
First, in step S <b> 1, the user
次に、ステップS2において、撮像画像取得部102は、化粧を施す前のユーザの顔を撮像した撮像画像をカメラ10から取得する。次に、ステップS3において、特徴点抽出部103は、撮像画像取得部102によって取得された撮像画像内のユーザの顔を表す顔領域に含まれる第1の特徴点を抽出する。この特徴点とは、顔領域における眉、目、鼻、唇、頬及び顎などの特徴的な部位を表す点である。なお、特徴点の抽出については、従来から種々の技術が提案されており、本実施の形態ではこれらの従来技術を用いることが可能である。
Next, in step S <b> 2, the captured
ここで、特徴点の抽出について説明する。図4は、撮像画像内の顔領域から抽出される特徴点の一例を示す図である。図4に示すように、撮像画像20の顔領域21には、複数の特徴点P1〜P19が含まれている。なお、特徴点抽出部103は、これら全ての特徴点P1〜P19を抽出するのではなく、少なくとも2つの特徴点を抽出する。
Here, feature point extraction will be described. FIG. 4 is a diagram illustrating an example of feature points extracted from a face area in a captured image. As shown in FIG. 4, the
例えば、目の位置に相当する特徴点P1〜P10を抽出する場合、撮像画像に対してエッジ検出が行われ、ハフ変換が行われることにより、左右の目の領域が検出される。そして、特徴点抽出部103は、右目領域の瞳部分の中心画素を右目の瞳部分の特徴点P1として抽出し、右目領域の右端の画素を右目の目頭部分の特徴点P2として抽出し、右目領域の左端の画素を右目の目尻部分の特徴点P3として抽出し、右目領域の上端の画素を右目の上端部分の特徴点P4として抽出し、右目領域の下端の画素を右目の下端部分の特徴点P5として抽出する。同様に、特徴点抽出部103は、左目領域の瞳部分の中心画素を左目の瞳部分の特徴点P6として抽出し、左目領域の左端の画素を左目の目頭部分の特徴点P7として抽出し、左目領域の右端の画素を左目の目尻部分の特徴点P8として抽出し、左目領域の上端の画素を左目の上端部分の特徴点P9として抽出し、左目領域の下端の画素を左目の下端部分の特徴点P10として抽出する。
For example, when the feature points P1 to P10 corresponding to the eye positions are extracted, edge detection is performed on the captured image, and the left and right eye regions are detected by performing Hough transform. Then, the feature
また、例えば、眉の位置に相当する特徴点P11〜P14を抽出する場合、撮像画像の各画素が走査され、各画素の色成分値が黒色を示す領域が抽出され、抽出した黒色の領域の横幅が縦幅よりも2倍以上となる領域が抽出され、左右の眉の領域の位置が検出される。そして、特徴点抽出部103は、右眉領域の右端の画素を右眉の右端部分の特徴点P11として抽出し、右眉領域の左端の画素を右眉の左端部分の特徴点P12として抽出し、左眉領域の左端の画素を左眉の左端部分の特徴点P13として抽出し、左眉領域の右端の画素を左眉の右端部分の特徴点P14として抽出する。
Further, for example, when extracting the feature points P11 to P14 corresponding to the position of the eyebrow, each pixel of the captured image is scanned, an area where the color component value of each pixel is black is extracted, and the extracted black area A region where the horizontal width is twice or more than the vertical width is extracted, and the positions of the left and right eyebrow regions are detected. Then, the feature
また、例えば、唇の位置に相当する特徴点P15,P16を抽出する場合、撮像画像の各画素が走査され、各画素の色成分値が赤色を示す領域が抽出され、唇領域の位置が検出される。特徴点抽出部103は、唇領域の左端の画素を唇の右口角部分の特徴点P15として抽出し、唇領域の右端の画素を唇の左口角部分の特徴点P16として抽出する。
Also, for example, when extracting the feature points P15 and P16 corresponding to the position of the lips, each pixel of the captured image is scanned, an area in which the color component value of each pixel is red is extracted, and the position of the lip area is detected. Is done. The feature
さらに、例えば、鼻頭の位置に相当する特徴点P17を抽出する場合、撮像画像の各画素が走査され、各画素の色成分値が黒色を示す2つの鼻孔領域が抽出される。そして、特徴点抽出部103は、各鼻孔領域の中心点を結ぶ直線を底辺とする所定の2等辺三角形の頂点の画素を鼻頭部分の特徴点P17として抽出する。
Furthermore, for example, when extracting the feature point P17 corresponding to the position of the nasal head, each pixel of the captured image is scanned, and two nostril regions whose color component value is black are extracted. Then, the feature
さらにまた、例えば、左右の頬の位置に相当する特徴点P18,P19を抽出する場合、特徴点抽出部103は、鼻頭の特徴点P17から所定の距離だけ左方向に離れた位置の画素を右頬の中心部分の特徴点P18として抽出し、鼻頭の特徴点P17から所定の距離だけ右方向に離れた位置の画素を左頬の中心部分の特徴点P19として抽出する。
Furthermore, for example, when extracting the feature points P18 and P19 corresponding to the positions of the left and right cheeks, the feature
なお、特徴点P1〜P19は一例であって、特徴点P1〜P19のうちのいずれかの特徴点を省略してもよいし、新たに特徴点を追加してもよく、図4に示す点に限定されない。また、上記の特徴点P1〜P19の抽出方法は一例であって、他の方法で特徴点P1〜P19を抽出してもよい。本実施の形態における特徴点は、画像上における1つの画素であるが、本発明は特にこれに限定されず、複数の画素の集合であってもよい。特徴点抽出部103によって抽出される第1の特徴点の種類は、予め定められており、例えば、鼻頭及び右口角に対応する特徴点P17,P15が抽出される。
Note that the feature points P1 to P19 are merely examples, and any one of the feature points P1 to P19 may be omitted, or a new feature point may be added, as shown in FIG. It is not limited to. The above-described method for extracting the feature points P1 to P19 is an example, and the feature points P1 to P19 may be extracted by other methods. The feature point in the present embodiment is one pixel on the image, but the present invention is not particularly limited to this, and may be a set of a plurality of pixels. The type of the first feature point extracted by the feature
図3に戻って、次に、ステップS4において、特徴点抽出部103は、予め設定されている全ての特徴点を抽出したか否かを判断する。ここで、全ての特徴点を抽出していないと判断された場合、ステップS2の処理に戻り、ユーザの顔を撮像した撮像画像をカメラ10から再度取得する。そして、全ての特徴点が抽出されるまで、ステップS2〜S4の処理が繰り返し実行される。
Returning to FIG. 3, next, in step S <b> 4, the feature
一方、全ての特徴点を抽出したと判断された場合、ステップS5において、登録部104は、化粧を施す前のユーザの顔を撮像した撮像画像を登録画像として登録画像記憶部201に記憶する。このとき、登録部104は、ユーザID取得部101によって取得されたユーザIDを登録画像に対応付けて登録画像記憶部201に記憶する。さらに、登録部104は、特徴点抽出部103によって抽出された第1の特徴点の位置座標及び種類を登録画像に対応付けて登録画像記憶部201に記憶する。なお、第1の特徴点の位置座標とは、登録画像における第1の特徴点の2次元位置を特定するためのものであり、例えば登録画像の左上端の画素が原点となる。また、種類とは、眉、目、鼻、唇、頬及び顎など、第1の特徴点が顔領域におけるどの部位を示す点であるかを表すものである。
On the other hand, if it is determined that all feature points have been extracted, in step S5, the
図5は、登録画像記憶部201に記憶される登録画像の一例を示す図である。図5に示す登録画像22は、化粧を施す前のユーザの顔を撮像したものである。登録画像22には、鼻頭の特徴点P17及び右口角の特徴点P15の位置座標及び種類が対応付けられている。
FIG. 5 is a diagram illustrating an example of a registered image stored in the registered
このようにして、化粧を施す前のユーザの顔を撮像した撮像画像を登録画像として登録画像記憶部201に予め記憶することができる。そして、着色シミュレーション時において、この登録画像を用いて着色シミュレーションが行われる。
In this way, a captured image obtained by capturing the face of the user before applying makeup can be stored in advance in the registered
続いて、対象物を仮想的に着色する着色シミュレーション処理について説明する。図6は、図2に示す着色シミュレーション装置による着色シミュレーション処理の一例を示すフローチャートである。なお、図6において、ステップS11,S12の処理は、図3におけるステップS1,S2の処理と同じであるので説明を省略する。 Subsequently, a coloring simulation process for virtually coloring an object will be described. FIG. 6 is a flowchart showing an example of a coloring simulation process by the coloring simulation apparatus shown in FIG. In FIG. 6, the processes in steps S11 and S12 are the same as the processes in steps S1 and S2 in FIG.
ステップS13において、登録画像取得部105は、ユーザID取得部101によって取得されたユーザIDに対応付けられている登録画像を登録画像記憶部201から取得する。
In step S <b> 13, the registered
次に、ステップS14において、特徴点抽出部103は、撮像画像取得部102によって取得された撮像画像内のユーザの顔を表す顔領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点を抽出する。
Next, in step S <b> 14, the feature
次に、ステップS15において、特徴点取得部106は、登録画像取得部105によって取得された登録画像に対応付けられている第1の特徴点の位置座標及び種類を登録画像記憶部201から取得する。
Next, in step S <b> 15, the feature
次に、ステップS16において、補正部107は、特徴点取得部106によって取得された第1の特徴点と、特徴点抽出部103によって抽出された第2の特徴点との位置関係に基づいて、登録画像の各画素の座標を補正する。すなわち、登録画像と撮像画像とは、撮像された時間及び場所が異なっているため、登録画像に含まれる顔領域の位置と撮像画像に含まれる顔領域の位置とがずれている場合がある。そこで、補正部107は、登録画像に含まれる第1の特徴点の位置座標と、第1の特徴点と同じ種類であり撮像画像に含まれる第2の特徴点の位置座標とのずれ量を求め、求めたずれ量に応じて登録画像の各画素の座標を補正する。
Next, in step S <b> 16, the
図7は、撮像画像取得部102によって取得された撮像画像の一例を示す図である。図7に示す撮像画像23は、化粧を施した後の顔を撮像したものである。特徴点抽出部103は、撮像画像23内のユーザの顔を表す顔領域に含まれ、登録画像22に対応付けられている第1の特徴点P17,P15と同じ位置にある第2の特徴点P17’,P15’を抽出する。図7に示すように、撮像画像23に含まれる顔部分の領域は、図5に示す登録画像22に対して右下方向へずれている。そのため、補正部107は、登録画像22に含まれる第1の特徴点P17,P15の位置座標と、第1の特徴点P17,P15と同じ種類であり撮像画像23に含まれる第2の特徴点P17’,P15’の位置座標とのずれ量を求め、求めたずれ量に応じて登録画像22の各画素の座標を補正する。
FIG. 7 is a diagram illustrating an example of a captured image acquired by the captured
図8は、補正後の登録画像の一例を示す図である。図8に示すように、補正後の登録画像24は、顔領域が図7に示す撮像画像23と同じ位置に移動している。このようにして、登録画像の顔領域と、撮像画像の顔領域とを一致させることができる。
FIG. 8 is a diagram illustrating an example of a registered image after correction. As shown in FIG. 8, the corrected registered
なお、本実施の形態において、第1の特徴点及び第2の特徴点は、少なくとも2つの特徴点を含む。第1の特徴点及び第2の特徴点がそれぞれ1つの特徴点である場合、登録画像に含まれる第1の特徴点と、撮像画像に含まれる第2の特徴点との1次元のずれ量しか求めることができない。しかしながら、第1の特徴点及び第2の特徴点がそれぞれ2つの特徴点である場合、登録画像に含まれる第1の特徴点と、撮像画像に含まれる第2の特徴点との2次元のずれ量を求めることができ、登録画像の顔領域と、撮像画像の顔領域とを正確に一致させることができる。 In the present embodiment, the first feature point and the second feature point include at least two feature points. When each of the first feature point and the second feature point is one feature point, the one-dimensional deviation amount between the first feature point included in the registered image and the second feature point included in the captured image Can only ask. However, when each of the first feature point and the second feature point is two feature points, the two-dimensional feature of the first feature point included in the registered image and the second feature point included in the captured image is displayed. The amount of deviation can be obtained, and the face area of the registered image and the face area of the captured image can be accurately matched.
次に、ステップS17において、シミュレーション実行部108は、補正部107によって補正された登録画像の各画素値に基づいて、顔領域を仮想的に着色するシミュレーションを実行する。このとき、入力装置1は、化粧を施す化粧領域と、化粧領域の色とのユーザによる入力を受け付ける。シミュレーション実行部108は、アルファブレンディングにより、補正後の登録画像と、入力装置1によって受け付けられた化粧領域とを合成する。
Next, in step S <b> 17, the
登録画像の各画素の画素値P(x,y)は、補正部107によって座標が補正されることにより、画素値P(x’,y’)となる。シミュレーション後の画像の画素値R(x,y)は、シミュレーション関数f(col)を用いて、下記の(1)式で表される。
The pixel value P (x, y) of each pixel of the registered image becomes the pixel value P (x ′, y ′) by correcting the coordinates by the
R(x,y)=f(P(x’,y’))・・・・(1)
ただし、P(x,y),P(x’,y’),R(x,y)∈N3である。N3は、自然数からなる3次元空間(色空間)を表している。シミュレーション関数f(col)は、下記の(2)式で表される。
R (x, y) = f (P (x ′, y ′)) (1)
However, P (x, y), P (x ′, y ′), and R (x, y) εN 3 . N 3 represents a three-dimensional space (color space) composed of natural numbers. The simulation function f (col) is expressed by the following equation (2).
f(col)=αcol+(1−α)L・・・・(2)
上記(2)式において、colは、画素値を示し、αは、アルファブレンディングにおける透明度を表すα値を示し、Lは、仮想的な化粧を施す際に加色する色を示している。
f (col) = αcol + (1−α) L (2)
In the above equation (2), col represents a pixel value, α represents an α value representing transparency in alpha blending, and L represents a color to be added when applying virtual makeup.
従来は、撮像画像の各画素の画素値Q(x,y)を用いてシミュレーションを行っていた。そのため、従来のシミュレーション後の画像の画素値R(x,y)は、シミュレーション関数f(col)を用いて、下記の(3)式で表される。 Conventionally, the simulation is performed using the pixel value Q (x, y) of each pixel of the captured image. Therefore, the pixel value R (x, y) of the image after the conventional simulation is expressed by the following equation (3) using the simulation function f (col).
R(x,y)=f(Q(x,y))・・・・(3)
ただし、Q(x,y)∈N3である。このように、本実施の形態では、従来のように化粧が施されたユーザの顔を撮像した撮像画像を用いるのではなく、化粧が施される前のユーザの顔を撮像した登録画像を用いてシミュレーションが行われる。
R (x, y) = f (Q (x, y)) (3)
However, Q (x, y) εN 3 . As described above, in the present embodiment, a registered image obtained by capturing the face of the user before the makeup is used is used instead of using a captured image obtained by capturing the face of the user who is subjected to the makeup as in the prior art. Simulation.
そして、表示制御部109は、シミュレーション実行部108によるシミュレーション結果を表示装置6に表示するように制御する。表示装置6は、シミュレーション結果を表示する。
Then, the
図9は、シミュレーション結果の画像の一例を示す図である。図9に示すように、表示装置6には、撮像画像23の顔領域に対して仮想的に化粧を施したシミュレーション結果画像25が表示される。このとき、シミュレーション結果画像25は、既に化粧が施されている顔領域の各画素値に対してさらに化粧の色が合成されるのではなく、化粧が施されていない登録画像24の顔領域の各画素値に対して化粧の色が合成される。
FIG. 9 is a diagram illustrating an example of a simulation result image. As shown in FIG. 9, a
このように、登録画像記憶部201には、化粧が施される前の顔を撮像した撮像画像が登録画像として予め記憶されているとともに、登録画像内の顔を表す領域に含まれる第1の特徴点の位置が登録画像に対応付けて予め記憶されている。そして、化粧が施された後の顔を撮像した撮像画像が取得され、登録画像記憶部201に記憶されている登録画像が取得される。登録画像に対応付けられている第1の特徴点の位置が登録画像記憶部201から取得される。続いて、撮像画像内の顔を表す領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点が抽出され、第1の特徴点と第2の特徴点との位置関係に基づいて、登録画像の各画素の座標が補正される。その後、補正された登録画像の各画素値に基づいて、顔を表す領域に仮想的に化粧を施すシミュレーションが実行される。
As described above, in the registered
したがって、顔に仮想的に化粧を施すシミュレーションにおいて、既に化粧が施されている顔領域の各画素値に基づいて仮想的に着色するのではなく、化粧が施されていない顔領域の各画素値に基づいて仮想的に着色するので、化粧が施された状態であっても、化粧が施されていない状態と同等の色再現性を確保することができる。 Therefore, in the simulation of virtually applying makeup to the face, each pixel value of the face area where makeup is not applied, instead of virtually coloring based on each pixel value of the face area where makeup is already applied Therefore, even in a state where makeup is applied, color reproducibility equivalent to that in a state where makeup is not applied can be ensured.
また、登録画像内の対象物を表す領域に含まれる第1の特徴点の位置を登録画像に対応付けて予め記憶しておくことにより、シミュレーション時に登録画像から第1の特徴点を抽出する処理を省くことができ、シミュレーション時における処理時間を短縮することができる。 Also, the process of extracting the first feature point from the registered image during simulation by storing in advance the position of the first feature point included in the region representing the object in the registered image in association with the registered image. The processing time during simulation can be shortened.
また、ユーザを識別するためのユーザIDのユーザによる入力が受け付けられ、登録画像記憶部201には、ユーザIDが登録画像に対応付けて予め記憶され、受け付けられたユーザIDに対応付けられている登録画像が登録画像記憶部201から取得される。
Also, an input by the user of a user ID for identifying the user is accepted, and the registered
したがって、化粧が施された後の顔を撮像した撮像画像が取得され、この顔と同一人物であり、化粧が施された後の顔を撮像した登録画像が取得されるので、登録画像の各画素の座標を正確に補正することができ、シミュレーション結果をより現実に近いものにすることができる。 Therefore, a captured image obtained by capturing a face after applying makeup is acquired, and a registered image obtained by capturing the face after applying makeup by acquiring the same person as this face is obtained. Pixel coordinates can be accurately corrected, and simulation results can be made closer to reality.
なお、本実施の形態において、補正部107は、撮像画像取得部102によって取得された撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とを識別し、第1の特徴点と第2の特徴点との位置関係に基づいて、識別された撮像画像の肌領域の各画素の座標に対応する登録画像の肌領域の各画素の座標を補正し、シミュレーション実行部108は、補正部107によって補正された登録画像の各画素値に基づいて、撮像画像の肌領域のみを仮想的に着色するシミュレーションを実行してもよい。
In the present embodiment, the
この場合、撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とが識別され、第1の特徴点と第2の特徴点との位置関係に基づいて、識別された撮像画像の肌領域の各画素の座標に対応する登録画像の肌領域の各画素の座標が補正され、補正された登録画像の各画素値に基づいて、撮像画像の肌領域のみを仮想的に着色するシミュレーションが実行される。 In this case, a hair region representing human hair and a skin region representing human skin in the captured image are identified and identified based on the positional relationship between the first feature point and the second feature point. The coordinates of each pixel of the skin area of the registered image corresponding to the coordinates of each pixel of the skin area of the captured image are corrected, and based on each pixel value of the corrected registered image, only the skin area of the captured image is virtually A simulation of coloring is performed.
したがって、登録画像を撮像したときの髪型と、撮像画像を撮像したときの髪型とが異なっていたとしても、撮像画像の肌領域のみが登録画像の各画素値に基づいて仮想的に着色されるので、違和感のないシミュレーション結果を得ることができる。 Therefore, even if the hairstyle when the registered image is captured is different from the hairstyle when the captured image is captured, only the skin region of the captured image is virtually colored based on each pixel value of the registered image. Therefore, a simulation result without a sense of incongruity can be obtained.
また、撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とを識別するためには、髪領域と肌領域との境界を表す複数の特徴点を抽出する必要がある。この場合、撮像画像から抽出した髪領域と肌領域との境界を表す複数の特徴点のうち、髪領域を含む隣接する3つの特徴点を結ぶ三角形状のパッチ(以下、三角パッチとする)を形成する。そして、撮像画像内の三角パッチと同じ位置の登録画像の画素値を、三角パッチの画素値に変換する変換行列を求める。 In addition, in order to distinguish between a hair region representing human hair and a skin region representing human skin in the captured image, it is necessary to extract a plurality of feature points representing the boundary between the hair region and the skin region. . In this case, among the plurality of feature points representing the boundary between the hair region and the skin region extracted from the captured image, a triangular patch connecting the three adjacent feature points including the hair region (hereinafter referred to as a triangular patch) is used. Form. Then, a conversion matrix for converting the pixel value of the registered image at the same position as the triangular patch in the captured image into the pixel value of the triangular patch is obtained.
また、本実施の形態における補正部107は、登録画像に含まれる第1の特徴点の位置座標と、第1の特徴点と同じ種類であり撮像画像に含まれる第2の特徴点の位置座標とのずれ量を求め、求めたずれ量に応じて登録画像の各画素の座標を補正しているが、本発明は特にこれに限定されない。補正部107は、登録画像に含まれる第1の特徴点の位置座標と、第1の特徴点と同じ種類であり撮像画像に含まれる第2の特徴点の位置座標との拡縮率を求め、求めた拡縮率に応じて登録画像の各画素の座標を補正してもよい。すなわち、第1の特徴点及び第2の特徴点がそれぞれ2つの特徴点である場合、登録画像に含まれる第1の特徴点と、撮像画像に含まれる第2の特徴点との拡縮率を求めることができ、登録画像の顔領域と、撮像画像の顔領域とを正確に一致させることができる。
In addition, the
(第2の実施の形態)
次に、本発明の第2の実施の形態に係る着色シミュレーション装置について説明する。上述した第1の実施の形態では、登録時において、特徴点を抽出し、抽出した特徴点に関する情報を登録画像に対応付けて予め記憶している。これに対し、第2の実施の形態では、登録時に特徴点を抽出するのではなく、シミュレーション時に登録画像から特徴点を抽出する。
(Second Embodiment)
Next, a coloring simulation apparatus according to the second embodiment of the present invention will be described. In the first embodiment described above, at the time of registration, feature points are extracted, and information regarding the extracted feature points is stored in advance in association with the registered image. In contrast, in the second embodiment, feature points are not extracted during registration, but feature points are extracted from a registered image during simulation.
なお、第2の実施の形態における着色シミュレーション装置のハードウエア構成は、図1に示す第1の実施の形態における着色シミュレーション装置のハードウエア構成と同じであるので説明を省略する。 The hardware configuration of the coloring simulation apparatus according to the second embodiment is the same as the hardware configuration of the coloring simulation apparatus according to the first embodiment shown in FIG.
図10は、第2の実施の形態における着色シミュレーション装置の機能を説明するためのブロック図である。図10に示す着色シミュレーション装置は、プログラム実行部100及び記憶部200を備えて構成される。プログラム実行部100は、CPU3が着色シミュレーションプログラムを実行することにより実現され、ユーザID取得部101、撮像画像取得部102、特徴点抽出部103’、登録部104’、登録画像取得部105、補正部107’、シミュレーション実行部108及び表示制御部109を備えて構成される。記憶部200は、RAM4等から構成され、CPU3が着色シミュレーションプログラムを実行することにより実現され、登録画像記憶部201’を備えて構成される。なお、図10において、図2に示す第1の実施の形態における着色シミュレーション装置と同じ構成については同じ符号を付し、説明を省略する。
FIG. 10 is a block diagram for explaining the function of the coloring simulation apparatus according to the second embodiment. The coloring simulation apparatus illustrated in FIG. 10 includes a
登録画像記憶部201’は、化粧を施す前の顔を撮像した撮像画像を登録画像として予め記憶する。また、登録画像記憶部201’は、ユーザIDに対応付けて登録画像を記憶する。
The registered
登録部104’は、撮像画像取得部102によって取得された撮像画像を登録画像として登録画像記憶部201に記憶する。また、登録部104’は、ユーザID取得部101によって取得されたユーザIDを登録画像に対応付けて登録画像記憶部201に記憶する。
The
特徴点抽出部103’は、登録画像取得部105によって取得された登録画像内の顔領域に含まれる第1の特徴点を抽出する。また、特徴点抽出部103’は、撮像画像取得部102によって取得された撮像画像内の顔領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点を抽出する。補正部107’は、特徴点抽出部103’によって抽出された第1の特徴点と第2の特徴点との位置関係に基づいて、登録画像の各画素の座標を補正する。
The feature
ここで、第2の実施の形態において、登録画像記憶部201’に画像を登録する登録処理について説明する。図11は、図10に示す着色シミュレーション装置による登録処理の一例を示すフローチャートである。
Here, a registration process for registering an image in the registered
まず、ステップS21において、ユーザID取得部101は、入力装置1によって入力されたユーザIDを取得する。このとき、表示制御部109は、ユーザによるユーザIDの入力を受け付けるためのユーザID入力画面を表示するように表示装置6を制御する。ユーザは、入力装置1を用いてユーザIDを入力する。
First, in step S <b> 21, the user
次に、ステップS22において、撮像画像取得部102は、化粧を施す前のユーザの顔を撮像した撮像画像をカメラ10から取得する。次に、ステップS23において、登録部104’は、化粧を施す前のユーザの顔を撮像した撮像画像を登録画像として登録画像記憶部201’に記憶する。このとき、登録部104’は、ユーザID取得部101によって取得されたユーザIDを登録画像に対応付けて登録画像記憶部201’に記憶する。
Next, in step S <b> 22, the captured
続いて、第2の実施の形態において、対象物を仮想的に着色する着色シミュレーション処理について説明する。図12は、図10に示す着色シミュレーション装置による着色シミュレーション処理の一例を示すフローチャートである。なお、図12において、ステップS31,S32の処理は、図11におけるステップS21,S22の処理と同じであるので説明を省略する。 Next, a coloring simulation process for virtually coloring an object in the second embodiment will be described. FIG. 12 is a flowchart illustrating an example of a coloring simulation process performed by the coloring simulation apparatus illustrated in FIG. 10. In FIG. 12, the processing in steps S31 and S32 is the same as the processing in steps S21 and S22 in FIG.
ステップS33において、登録画像取得部105は、ユーザID取得部101によって取得されたユーザIDに対応付けられている登録画像を登録画像記憶部201’から取得する。
In step S <b> 33, the registered
次に、ステップS34において、特徴点抽出部103’は、登録画像取得部105によって取得された登録画像内のユーザの顔を表す顔領域に含まれる第1の特徴点を抽出する。なお、抽出される第1の特徴点の種類は、予め定められており、例えば、目及び唇に対応する特徴点が抽出される。
Next, in step S <b> 34, the feature
次に、ステップS35において、特徴点抽出部103’は、撮像画像取得部102によって取得された撮像画像内のユーザの顔を表す顔領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点を抽出する。なお、抽出される第2の特徴点の種類は、予め定められており、第1の特徴点と同じ種類の特徴点が抽出される。
Next, in step S35, the feature
次に、ステップS36において、補正部107’は、特徴点抽出部103’によって取得された第1の特徴点と第2の特徴点との位置関係に基づいて、登録画像の各画素の座標を補正する。なお、ここでの補正方法については、図6のステップS16における補正処理と同じであるので説明を省略する。また、ステップS37の処理は、図6のステップS17の処理と同じであるので説明を省略する。
Next, in step S36, the
このように、登録画像記憶部201’には、化粧が施される前の顔を撮像した撮像画像が登録画像として予め記憶される。そして、化粧が施された後の顔を撮像した撮像画像が取得され、登録画像記憶部201’に記憶されている登録画像が取得され、登録画像内の顔を表す領域に含まれる第1の特徴点が抽出される。続いて、撮像画像内の顔を表す領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点が抽出され、第1の特徴点と第2の特徴点との位置関係に基づいて、登録画像の各画素の座標が補正される。その後、補正された登録画像の各画素値に基づいて、顔を表す領域を仮想的に着色するシミュレーションが実行される。
As described above, the registered
したがって、顔に仮想的に化粧を施すシミュレーションにおいて、既に化粧が施されている顔領域の各画素値に基づいて仮想的に着色するのではなく、化粧が施されていない顔領域の各画素値に基づいて仮想的に着色するので、化粧が施された状態であっても、化粧が施されていない状態と同等の色再現性を確保することができる。また、登録画像のみを予め記憶しておくことにより、メモリのデータ量を削減することができる。 Therefore, in the simulation of virtually applying makeup to the face, each pixel value of the face area where makeup is not applied, instead of virtually coloring based on each pixel value of the face area where makeup is already applied Therefore, even in a state where makeup is applied, color reproducibility equivalent to that in a state where makeup is not applied can be ensured. In addition, by storing only registered images in advance, the amount of memory data can be reduced.
なお、第1及び第2の実施の形態では、対象物を人間の顔とし、顔を表す領域に仮想的に化粧を施すシミュレーションについて説明しているが、本発明は特にこれに限定されず、例えば、人間の爪を仮想的に着色するシミュレーションなどの人間の体の部位を仮想的に着色するシミュレーションにも適用可能であり、さらに人間以外の動物や物品を仮想的に着色するシミュレーションにも適用可能である。 In the first and second embodiments, a simulation is described in which an object is a human face and makeup is virtually applied to a region representing the face. However, the present invention is not particularly limited thereto, For example, it can be applied to simulations that virtually color human body parts, such as simulations that virtually color human nails, and also to simulations that virtually color non-human animals and articles. Is possible.
1 入力装置
2 ROM
3 CPU
4 RAM
5 外部記憶装置
6 表示装置
7 記録媒体駆動装置
8 記録媒体
9 I/F
10 カメラ
100 プログラム実行部
101 ユーザID取得部
102 撮像画像取得部
103 特徴点抽出部
104 登録部
105 登録画像取得部
106 特徴点取得部
107 補正部
108 シミュレーション実行部
109 表示制御部
200 記憶部
201 登録画像記憶部
1
3 CPU
4 RAM
5
DESCRIPTION OF
Claims (9)
着色された後の前記対象物を撮像した撮像画像を取得する撮像画像取得手段と、
前記登録画像記憶手段に記憶されている前記登録画像を取得する登録画像取得手段と、
前記登録画像取得手段によって取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得手段と、
前記撮像画像取得手段によって取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出手段と、
前記第1の特徴点取得手段によって取得された前記第1の特徴点と、前記第2の特徴点抽出手段によって抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正手段と、
前記補正手段によって補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行手段としてコンピュータを機能させることを特徴とする着色シミュレーションプログラム。 Registered image storage means for storing in advance a captured image obtained by capturing an object before being colored as a registered image;
Captured image acquisition means for acquiring a captured image obtained by imaging the object after being colored;
Registered image acquisition means for acquiring the registered image stored in the registered image storage means;
First feature point acquiring means for acquiring a first feature point included in an area representing the object in the registered image acquired by the registered image acquiring means;
Second feature point extraction means for extracting a second feature point included in an area representing the object in the captured image acquired by the captured image acquisition means and located at the same position as the first feature point When,
Based on the positional relationship between the first feature point acquired by the first feature point acquisition unit and the second feature point extracted by the second feature point extraction unit, Correction means for correcting the coordinates of each pixel;
A coloring simulation program that causes a computer to function as a simulation execution unit that executes a simulation of virtually coloring a region representing the object based on the registered image corrected by the correction unit.
前記第1の特徴点取得手段は、前記登録画像取得手段によって取得された前記登録画像に対応付けられている前記第1の特徴点の位置を前記登録画像記憶手段から取得することを特徴とする請求項1記載の着色シミュレーションプログラム。 The registered image storage means stores in advance a position of a first feature point included in an area representing the object in the registered image in association with the registered image;
The first feature point acquisition unit acquires the position of the first feature point associated with the registered image acquired by the registered image acquisition unit from the registered image storage unit. The coloring simulation program according to claim 1.
前記登録画像記憶手段は、前記識別情報を前記登録画像に対応付けて予め記憶し、
前記登録画像取得手段は、前記受付手段によって受け付けられた前記識別情報に対応付けられている前記登録画像を前記登録画像記憶手段から取得することを特徴とする請求項1〜4のいずれかに記載の着色シミュレーションプログラム。 Causing the computer to further function as a receiving unit that accepts input by the user of identification information for identifying the user;
The registered image storage means stores the identification information in association with the registered image in advance,
The said registered image acquisition means acquires the said registered image matched with the said identification information received by the said reception means from the said registered image memory | storage means. Coloring simulation program.
前記シミュレーション実行手段は、前記補正手段によって補正された前記登録画像に基づいて、前記撮像画像の肌領域のみを仮想的に着色するシミュレーションを実行することを特徴とする請求項4記載の着色シミュレーションプログラム。 The correction unit identifies a hair region representing human hair and a skin region representing human skin in the captured image acquired by the captured image acquisition unit, and the first feature point and the second feature point are identified. Correcting the coordinates of each pixel of the skin area of the registered image corresponding to the coordinates of each pixel of the skin area of the identified captured image based on the positional relationship with the feature point of
The coloring simulation program according to claim 4, wherein the simulation executing unit executes a simulation of virtually coloring only a skin region of the captured image based on the registered image corrected by the correcting unit. .
登録画像取得手段が、着色される前の対象物を撮像した撮像画像を登録画像として予め記憶している登録画像記憶手段から前記登録画像を取得する登録画像取得ステップと、
第1の特徴点取得手段が、前記登録画像取得ステップにおいて取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得ステップと、
第2の特徴点抽出手段が、前記撮像画像取得ステップにおいて取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出ステップと、
補正手段が、前記第1の特徴点取得ステップにおいて取得された前記第1の特徴点と、前記第2の特徴点抽出ステップにおいて抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正ステップと、
シミュレーション実行手段が、前記補正ステップにおいて補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行ステップとを含むことを特徴とする着色シミュレーション方法。 A captured image acquisition means for acquiring a captured image obtained by capturing an object after being colored,
A registered image acquiring unit that acquires a registered image from a registered image storage unit that stores a captured image obtained by capturing an image of an object before coloring as a registered image;
A first feature point acquiring unit that acquires a first feature point included in a region representing the object in the registered image acquired in the registered image acquiring step;
A second feature point extracting unit includes a second feature point included in an area representing the object in the captured image acquired in the captured image acquisition step and located at the same position as the first feature point. A second feature point extraction step to extract;
Based on the positional relationship between the first feature point acquired in the first feature point acquisition step and the second feature point extracted in the second feature point extraction step, A correction step of correcting the coordinates of each pixel of the registered image;
A coloring simulation method comprising: a simulation executing step in which a simulation executing unit executes a simulation of virtually coloring a region representing the object based on the registered image corrected in the correcting step.
着色された後の前記対象物を撮像した撮像画像を取得する撮像画像取得手段と、
前記登録画像記憶手段に記憶されている前記登録画像を取得する登録画像取得手段と、
前記登録画像取得手段によって取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得手段と、
前記撮像画像取得手段によって取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出手段と、
前記第1の特徴点取得手段によって取得された前記第1の特徴点と、前記第2の特徴点抽出手段によって抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正手段と、
前記補正手段によって補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行手段とを備えることを特徴とする着色シミュレーション装置。 Registered image storage means for storing in advance a captured image obtained by capturing an object before being colored as a registered image;
Captured image acquisition means for acquiring a captured image obtained by imaging the object after being colored;
Registered image acquisition means for acquiring the registered image stored in the registered image storage means;
First feature point acquiring means for acquiring a first feature point included in an area representing the object in the registered image acquired by the registered image acquiring means;
Second feature point extraction means for extracting a second feature point included in an area representing the object in the captured image acquired by the captured image acquisition means and located at the same position as the first feature point When,
Based on the positional relationship between the first feature point acquired by the first feature point acquisition unit and the second feature point extracted by the second feature point extraction unit, Correction means for correcting the coordinates of each pixel;
A coloring simulation apparatus comprising: a simulation executing unit that executes a simulation of virtually coloring a region representing the object based on the registered image corrected by the correcting unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006239283A JP2008065379A (en) | 2006-09-04 | 2006-09-04 | Coloring simulation program, coloring simulation method, and coloring simulation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006239283A JP2008065379A (en) | 2006-09-04 | 2006-09-04 | Coloring simulation program, coloring simulation method, and coloring simulation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008065379A true JP2008065379A (en) | 2008-03-21 |
Family
ID=39288079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006239283A Pending JP2008065379A (en) | 2006-09-04 | 2006-09-04 | Coloring simulation program, coloring simulation method, and coloring simulation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008065379A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009259149A (en) * | 2008-04-21 | 2009-11-05 | Dainippon Screen Mfg Co Ltd | Line drawing processor, line drawing processing method, and program |
JP2010017360A (en) * | 2008-07-10 | 2010-01-28 | Sega Corp | Game device, game control method, game control program, and recording medium recording the program |
-
2006
- 2006-09-04 JP JP2006239283A patent/JP2008065379A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009259149A (en) * | 2008-04-21 | 2009-11-05 | Dainippon Screen Mfg Co Ltd | Line drawing processor, line drawing processing method, and program |
US8335377B2 (en) | 2008-04-21 | 2012-12-18 | Dainippon Screen Mfg Co., Ltd. | Line drawing processor, line drawing processing method, and program therefor |
JP2010017360A (en) * | 2008-07-10 | 2010-01-28 | Sega Corp | Game device, game control method, game control program, and recording medium recording the program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9563975B2 (en) | Makeup support apparatus and method for supporting makeup | |
US6389155B2 (en) | Image processing apparatus | |
US20070019882A1 (en) | Makeup simulation program, makeup simulation device, and makeup simulation method | |
CN105147311B (en) | For the visualization device sub-scanning localization method and system in CT system | |
JP6458569B2 (en) | Image processing apparatus and image processing method | |
JP7031697B2 (en) | Information processing device and recognition support method | |
JP6458570B2 (en) | Image processing apparatus and image processing method | |
JP3993029B2 (en) | Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program | |
JP2000261650A (en) | Image processing unit | |
JP5433886B2 (en) | Image comparison apparatus and image comparison program | |
JP2008243059A (en) | Image processing device and method | |
EP3543955A1 (en) | Image processing device and projection system | |
JP2019046239A (en) | Image processing apparatus, image processing method, program, and image data for synthesis | |
JP2008065379A (en) | Coloring simulation program, coloring simulation method, and coloring simulation device | |
JP6098133B2 (en) | Face component extraction device, face component extraction method and program | |
JP4502645B2 (en) | Person image extraction apparatus and computer program | |
JP4372494B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2021099749A (en) | Detection method of nasolabial folds | |
JP2020000602A (en) | Medical image processing apparatus, medical image processing method, program, and data creation method | |
JP6650738B2 (en) | Information processing apparatus, information processing system, information processing method and program | |
JP2008065378A (en) | Image recognition program, image recognition method, and image recognition device | |
CN112790887A (en) | Oral imaging method, system and device, and readable storage medium | |
JP5198967B2 (en) | Image comparison apparatus and image comparison program | |
JP6481432B2 (en) | Fundus image processing device | |
JP2004242272A (en) | Color defective area correction method, color defective area correction processing program, color area particularizing method, color area particularizing processing program, and image rocessing apparatus |