JP2008065379A - Coloring simulation program, coloring simulation method, and coloring simulation device - Google Patents

Coloring simulation program, coloring simulation method, and coloring simulation device Download PDF

Info

Publication number
JP2008065379A
JP2008065379A JP2006239283A JP2006239283A JP2008065379A JP 2008065379 A JP2008065379 A JP 2008065379A JP 2006239283 A JP2006239283 A JP 2006239283A JP 2006239283 A JP2006239283 A JP 2006239283A JP 2008065379 A JP2008065379 A JP 2008065379A
Authority
JP
Japan
Prior art keywords
feature point
registered image
unit
simulation
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006239283A
Other languages
Japanese (ja)
Inventor
Atsushi Ono
敦史 小野
Naomi Sugiyama
奈緒美 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Digital Fashion Ltd
Original Assignee
Digital Fashion Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Fashion Ltd filed Critical Digital Fashion Ltd
Priority to JP2006239283A priority Critical patent/JP2008065379A/en
Publication of JP2008065379A publication Critical patent/JP2008065379A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To secure color reproducibility equivalent to an uncolored state even in a colored state, in simulation for coloring virtually an object. <P>SOLUTION: A registration image storage part 201 stores preliminarily a picked-up image of an imaged object before colored as a registration image, and stores preliminarily a position of the first feature point included in an area expressing the object within the registration image, while correlated with the registration image, a picked-up image acquisition part 102 acquires the picked-up image with the object picked up after colored, a feature point extracting part 103 extracts the second feature point included in the area expressing the object within the picked-up image, and located in the position same to that of the first feature point, a correction part 107 corrects coordinates of respective pixel values of the registration image, based on a positional relation between the first feature point and the second feature point, and a simulation execution part 108 colors the area expressing the object, based on the corrected registration image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、対象物に対して仮想的に着色する着色シミュレーションプログラム、着色シミュレーション方法及び着色シミュレーション装置に関するものである。   The present invention relates to a coloring simulation program, a coloring simulation method, and a coloring simulation apparatus for virtually coloring an object.

従来、ユーザの顔画像を撮影し、この顔画像に化粧を施した画像を合成し、これをユーザに提示するシミュレーション装置が提案されている(例えば、特許文献1参照)。このような、従来のシミュレーション装置の場合、化粧を施した状態のユーザの顔画像を撮影し、化粧が施された顔画像に対してさらに仮想的に化粧を施すシミュレーションが行われる。
特開2002−74342号公報
2. Description of the Related Art Conventionally, there has been proposed a simulation apparatus that captures a user's face image, combines a face image with makeup, and presents the image to the user (see, for example, Patent Document 1). In the case of such a conventional simulation device, a face image of a user in a state where makeup is applied is photographed, and a simulation is further performed in which makeup is virtually applied to the face image subjected to makeup.
JP 2002-74342 A

しかしながら、従来のシミュレーション装置の場合、化粧が施された顔画像に対してさらに仮想的に化粧を施すシミュレーションが行われるため、シミュレーション結果は、既に化粧が施された顔画像に別の色が混色したものとなる。通常、ユーザは、化粧を施していない状態から化粧を施す。そのため、化粧を施した顔画像にさらに化粧を施すシミュレーションを行った場合、化粧を施していない状態から化粧を施したときの実際の色を正確に再現することが困難であった。   However, in the case of the conventional simulation apparatus, since a simulation is further performed on the face image on which the makeup has been applied, a different color is mixed with the face image on which the makeup has already been applied. Will be. Usually, a user applies makeup from a state where makeup is not applied. Therefore, when a simulation for applying makeup to a face image with makeup applied is performed, it is difficult to accurately reproduce the actual color when the makeup is applied from a state where makeup is not applied.

本発明は、上記の問題を解決するためになされたもので、対象物を仮想的に着色するシミュレーションにおいて、着色した状態であっても、着色していない状態と同等の色再現性を確保することができる着色シミュレーションプログラム、着色シミュレーション方法及び着色シミュレーション装置を提供することを目的とするものである。   The present invention has been made to solve the above problem, and in a simulation for virtually coloring an object, even if it is in a colored state, it ensures a color reproducibility equivalent to that in the uncolored state. An object of the present invention is to provide a coloring simulation program, a coloring simulation method, and a coloring simulation apparatus.

本発明に係る着色シミュレーションプログラムは、着色される前の対象物を撮像した撮像画像を登録画像として予め記憶する登録画像記憶手段と、着色された後の前記対象物を撮像した撮像画像を取得する撮像画像取得手段と、前記登録画像記憶手段に記憶されている前記登録画像を取得する登録画像取得手段と、前記登録画像取得手段によって取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得手段と、前記撮像画像取得手段によって取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出手段と、前記第1の特徴点取得手段によって取得された前記第1の特徴点と、前記第2の特徴点抽出手段によって抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正手段と、前記補正手段によって補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行手段としてコンピュータを機能させる。   The coloring simulation program according to the present invention acquires a registered image storage unit that preliminarily stores a captured image obtained by imaging an object before being colored as a registered image, and a captured image obtained by imaging the object after being colored. Included in a region representing the target object in the registered image acquired by the registered image acquiring means, a registered image acquiring means for acquiring the registered image stored in the registered image storage means, and a captured image acquiring means A first feature point acquiring means for acquiring the first feature point and a region representing the object in the captured image acquired by the captured image acquisition means, and the same as the first feature point A second feature point extracting unit for extracting a second feature point at a position; the first feature point acquired by the first feature point acquiring unit; and the second feature point extracting unit. Based on the positional relationship with the extracted second feature point, correction means for correcting the coordinates of each pixel of the registered image, and the object based on the registered image corrected by the correction means A computer is caused to function as a simulation execution unit that executes a simulation of virtually coloring a region to be represented.

本発明に係る着色シミュレーション方法は、撮像画像取得手段が、着色された後の対象物を撮像した撮像画像を取得する撮像画像取得ステップと、登録画像取得手段が、着色される前の対象物を撮像した撮像画像を登録画像として予め記憶している登録画像記憶手段から前記登録画像を取得する登録画像取得ステップと、第1の特徴点取得手段が、前記登録画像取得ステップにおいて取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得ステップと、第2の特徴点抽出手段が、前記撮像画像取得ステップにおいて取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出ステップと、補正手段が、前記第1の特徴点取得ステップにおいて取得された前記第1の特徴点と、前記第2の特徴点抽出ステップにおいて抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正ステップと、シミュレーション実行手段が、前記補正ステップにおいて補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行ステップとを含む。   The coloring simulation method according to the present invention includes a captured image acquisition step in which a captured image acquisition unit acquires a captured image obtained by imaging a colored object, and a registered image acquisition unit calculates an object before being colored. The registered image acquisition step of acquiring the registered image from a registered image storage unit that stores the captured image as a registered image in advance, and the first feature point acquisition unit is the registration acquired in the registered image acquisition step. The first feature point acquisition step for acquiring a first feature point included in a region representing the object in the image, and the second feature point extraction means, the captured image acquired in the captured image acquisition step. A second feature point extracting step for extracting a second feature point that is included in a region representing the target object and located at the same position as the first feature point; Based on the positional relationship between the first feature point acquired in the feature point acquisition step and the second feature point extracted in the second feature point extraction step, the coordinates of each pixel of the registered image And a simulation execution step in which a simulation execution unit executes a simulation of virtually coloring a region representing the object based on the registered image corrected in the correction step.

本発明に係る着色シミュレーション装置は、着色される前の対象物を撮像した撮像画像を登録画像として予め記憶する登録画像記憶手段と、着色された後の前記対象物を撮像した撮像画像を取得する撮像画像取得手段と、前記登録画像記憶手段に記憶されている前記登録画像を取得する登録画像取得手段と、前記登録画像取得手段によって取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得手段と、前記撮像画像取得手段によって取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出手段と、前記第1の特徴点取得手段によって取得された前記第1の特徴点と、前記第2の特徴点抽出手段によって抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正手段と、前記補正手段によって補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行手段とを備える。   The coloring simulation apparatus according to the present invention acquires a registered image storage unit that stores in advance a captured image obtained by imaging an object before being colored as a registered image, and a captured image obtained by imaging the object after being colored. Included in a region representing the target object in the registered image acquired by the registered image acquiring means, a registered image acquiring means for acquiring the registered image stored in the registered image storage means, and a captured image acquiring means A first feature point acquiring means for acquiring the first feature point and a region representing the object in the captured image acquired by the captured image acquisition means, and the same as the first feature point Second feature point extraction means for extracting a second feature point at a position, the first feature point acquired by the first feature point acquisition means, and extraction by the second feature point extraction means The correction means for correcting the coordinates of each pixel of the registered image based on the positional relationship with the second feature point, and the object based on the registered image corrected by the correction means Simulation executing means for executing a simulation for virtually coloring the region.

これらの構成によれば、登録画像記憶手段には、着色される前の対象物を撮像した撮像画像が登録画像として予め記憶されている。そして、着色された後の対象物を撮像した撮像画像が取得され、登録画像記憶手段に記憶されている登録画像が取得され、登録画像内の対象物を表す領域に含まれる第1の特徴点が取得される。続いて、撮像画像内の対象物を表す領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点が抽出され、第1の特徴点と第2の特徴点との位置関係に基づいて、登録画像の各画素の座標が補正される。その後、補正された登録画像に基づいて、対象物を表す領域を仮想的に着色するシミュレーションが実行される。   According to these configurations, a captured image obtained by capturing an object before being colored is stored in advance as a registered image in the registered image storage unit. And the captured image which imaged the object after coloring is acquired, the registration image memorize | stored in the registration image memory | storage means is acquired, and the 1st feature point contained in the area | region showing the object in a registration image Is acquired. Subsequently, a second feature point included in a region representing the object in the captured image and located at the same position as the first feature point is extracted, and the positional relationship between the first feature point and the second feature point is extracted. Based on the above, the coordinates of each pixel of the registered image are corrected. After that, based on the corrected registered image, a simulation for virtually coloring a region representing the object is executed.

したがって、対象物を仮想的に着色するシミュレーションにおいて、既に着色されている対象物に基づいて仮想的に着色するのではなく、着色されていない対象物に基づいて仮想的に着色するので、着色した状態であっても、着色していない状態と同等の色再現性を確保することができる。   Therefore, in the simulation for virtually coloring the object, the object is not colored based on the already colored object, but is virtually colored based on the uncolored object. Even in the state, color reproducibility equivalent to that in the uncolored state can be ensured.

また、上記の着色シミュレーションプログラムにおいて、前記登録画像記憶手段は、前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点の位置を前記登録画像に対応付けて予め記憶し、前記第1の特徴点取得手段は、前記登録画像取得手段によって取得された前記登録画像に対応付けられている前記第1の特徴点の位置を前記登録画像記憶手段から取得することが好ましい。   In the coloring simulation program, the registered image storage unit stores in advance the position of the first feature point included in the region representing the object in the registered image in association with the registered image, and Preferably, the first feature point acquisition unit acquires the position of the first feature point associated with the registered image acquired by the registered image acquisition unit from the registered image storage unit.

この構成によれば、登録画像記憶手段には、着色される前の対象物を撮像した撮像画像が登録画像として予め記憶されているとともに、登録画像内の対象物を表す領域に含まれる第1の特徴点の位置が登録画像に対応付けて予め記憶されている。そして、登録画像に対応付けられている第1の特徴点の位置が登録画像記憶手段から取得される。   According to this configuration, the registered image storage unit stores in advance a captured image obtained by capturing the object before coloring as a registered image, and includes the first image included in the region representing the object in the registered image. The positions of the feature points are stored in advance in association with the registered image. Then, the position of the first feature point associated with the registered image is acquired from the registered image storage unit.

したがって、登録画像内の対象物を表す領域に含まれる第1の特徴点の位置を登録画像に対応付けて予め記憶しておくことにより、シミュレーション時に登録画像から第1の特徴点を抽出する処理を省くことができ、シミュレーション時における処理時間を短縮することができる。   Therefore, the process of extracting the first feature point from the registered image during simulation by storing in advance the position of the first feature point included in the region representing the object in the registered image in association with the registered image. The processing time during simulation can be shortened.

また、上記の着色シミュレーションプログラムにおいて、前記第1の特徴点取得手段は、前記登録画像取得手段によって取得された前記登録画像から前記第1の特徴点を抽出することが好ましい。   In the coloring simulation program, it is preferable that the first feature point acquisition unit extracts the first feature point from the registered image acquired by the registered image acquisition unit.

この構成によれば、登録画像記憶手段に記憶されている登録画像が取得され、登録画像内の対象物を表す領域に含まれる第1の特徴点が抽出される。したがって、登録画像のみを予め記憶しておくことにより、メモリのデータ量を削減することができる。   According to this configuration, the registered image stored in the registered image storage unit is acquired, and the first feature point included in the region representing the object in the registered image is extracted. Therefore, the memory data amount can be reduced by storing only the registered images in advance.

また、上記の着色シミュレーションプログラムにおいて、前記対象物は、人間の顔であることが好ましい。この構成によれば、化粧が施される前の顔を撮像した登録画像の特徴点と、化粧が施された後の顔を撮像した撮像画像の特徴点との位置関係に基づいて、登録画像の各画素の座標が補正され、補正された登録画像に基づいて、顔を表す領域に仮想的に化粧を施すシミュレーションが実行される。したがって、顔に仮想的に化粧を施すシミュレーションにおいて、既に化粧が施されている顔に基づいて仮想的に化粧を施すのではなく、化粧が施されていない顔に基づいて仮想的に化粧が施されるので、化粧を施した状態であっても、化粧を施していない状態と同等の色再現性を確保することができる。   In the coloring simulation program, the object is preferably a human face. According to this configuration, the registered image is based on the positional relationship between the feature point of the registered image obtained by capturing the face before the makeup is applied and the feature point of the captured image obtained by capturing the face after the makeup is applied. The coordinates of each pixel are corrected, and based on the corrected registered image, a simulation for virtually applying makeup to the area representing the face is executed. Therefore, in a simulation in which makeup is virtually applied to the face, makeup is not applied virtually based on a face that has already been applied, but is applied virtually based on a face that has not been applied. Therefore, even in a state where makeup is applied, color reproducibility equivalent to a state where makeup is not applied can be ensured.

また、上記の着色シミュレーションプログラムにおいて、ユーザを識別するための識別情報のユーザによる入力を受け付ける受付手段としてコンピュータをさらに機能させ、前記登録画像記憶手段は、前記識別情報を前記登録画像に対応付けて予め記憶し、前記登録画像取得手段は、前記受付手段によって受け付けられた前記識別情報に対応付けられている前記登録画像を前記登録画像記憶手段から取得することが好ましい。   In the coloring simulation program, the computer further functions as a receiving unit that receives an input of identification information for identifying the user by the user, and the registered image storage unit associates the identification information with the registered image. It is preferable that the registered image acquisition unit acquires the registered image associated with the identification information received by the receiving unit from the registered image storage unit.

この構成によれば、ユーザを識別するための識別情報のユーザによる入力が受け付けられ、登録画像記憶手段には、識別情報が登録画像に対応付けて予め記憶され、受け付けられた識別情報に対応付けられている登録画像が登録画像記憶手段から取得される。   According to this configuration, input by the user of identification information for identifying the user is accepted, and the registered image storage unit stores the identification information in advance in association with the registered image, and associates it with the received identification information. The registered image being acquired is acquired from the registered image storage means.

したがって、着色された後の対象物を撮像した撮像画像が取得され、この対象物と同一物であり、着色された後の対象物を撮像した登録画像が取得されるので、登録画像の各画素の座標を正確に補正することができ、シミュレーション結果をより現実に近いものにすることができる。   Accordingly, a captured image obtained by imaging the object after being colored is acquired, and a registered image obtained by capturing the object after being colored is the same as this object, so each pixel of the registered image is acquired. Can be accurately corrected, and the simulation result can be made closer to reality.

また、上記の着色シミュレーションプログラムにおいて、前記第1の特徴点及び前記第2の特徴点は、少なくとも2つの特徴点を含むことが好ましい。この構成によれば、第1の特徴点及び第2の特徴点は、少なくとも2つの特徴点を含んでいるので、第1の特徴点と第2の特徴点との1次元的な位置関係ではなく、2次元的な位置関係を特定することができる。   In the coloring simulation program, it is preferable that the first feature point and the second feature point include at least two feature points. According to this configuration, since the first feature point and the second feature point include at least two feature points, in the one-dimensional positional relationship between the first feature point and the second feature point, And a two-dimensional positional relationship can be specified.

また、上記の着色シミュレーションプログラムにおいて、前記補正手段は、前記撮像画像取得手段によって取得された前記撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とを識別し、前記第1の特徴点と前記第2の特徴点との位置関係に基づいて、識別された前記撮像画像の前記肌領域の各画素の座標に対応する前記登録画像の肌領域の各画素の座標を補正し、前記シミュレーション実行手段は、前記補正手段によって補正された前記登録画像に基づいて、前記撮像画像の肌領域のみを仮想的に着色するシミュレーションを実行することが好ましい。   In the coloring simulation program, the correction unit identifies a hair region representing human hair and a skin region representing human skin in the captured image acquired by the captured image acquisition unit, and Based on the positional relationship between the first feature point and the second feature point, the coordinates of each pixel of the skin area of the registered image corresponding to the coordinates of each pixel of the skin area of the identified captured image are determined. Preferably, the simulation execution unit executes a simulation for virtually coloring only the skin region of the captured image based on the registered image corrected by the correction unit.

この構成によれば、撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とが識別され、第1の特徴点と第2の特徴点との位置関係に基づいて、識別された撮像画像の肌領域の各画素の座標に対応する登録画像の肌領域の各画素の座標が補正され、補正された登録画像に基づいて、撮像画像の肌領域のみを仮想的に着色するシミュレーションが実行される。   According to this configuration, a hair region representing human hair and a skin region representing human skin in the captured image are identified, and based on the positional relationship between the first feature point and the second feature point, The coordinates of each pixel of the skin area of the registered image corresponding to the coordinates of each pixel of the skin area of the identified captured image are corrected, and only the skin area of the captured image is virtually colored based on the corrected registered image A simulation is executed.

したがって、登録画像を撮像したときの髪型と、撮像画像を撮像したときの髪型とが異なっていたとしても、撮像画像の肌領域のみが登録画像に基づいて仮想的に着色されるので、違和感のないシミュレーション結果を得ることができる。   Therefore, even if the hairstyle when the registered image is captured is different from the hairstyle when the captured image is captured, only the skin area of the captured image is virtually colored based on the registered image. No simulation results can be obtained.

本発明によれば、対象物を仮想的に着色するシミュレーションにおいて、既に着色されている対象物に基づいて仮想的に着色するのではなく、着色されていない対象物に基づいて仮想的に着色するので、着色した状態であっても、着色していない状態と同等の色再現性を確保することができる。   According to the present invention, in a simulation for virtually coloring an object, the object is virtually colored based on an object that is not colored, rather than virtually colored based on an object that is already colored. Therefore, even in a colored state, color reproducibility equivalent to that in a non-colored state can be ensured.

以下、本発明に係る実施形態を図面に基づいて説明する。   Embodiments according to the present invention will be described below with reference to the drawings.

(第1の実施の形態)
図1は、第1の実施の形態における着色シミュレーション装置のハードウエア構成を示す図である。図1に示す着色シミュレーション装置は、通常のコンピュータから構成され、入力装置1、ROM(リードオンリメモリ)2、CPU(中央演算処理装置)3、RAM(ランダムアクセスメモリ)4、外部記憶装置5、表示装置6、記録媒体駆動装置7及びI/F(入出力インターフェイス)9を備えて構成される。各ブロックは内部のバスに接続され、このバスを介して種々のデータ等が入出力され、CPU3の制御の下、種々の処理が実行される。
(First embodiment)
FIG. 1 is a diagram illustrating a hardware configuration of the coloring simulation apparatus according to the first embodiment. The coloring simulation apparatus shown in FIG. 1 is composed of a normal computer, and includes an input device 1, a ROM (Read Only Memory) 2, a CPU (Central Processing Unit) 3, a RAM (Random Access Memory) 4, an external storage device 5, A display device 6, a recording medium drive device 7, and an I / F (input / output interface) 9 are provided. Each block is connected to an internal bus, and various data and the like are input / output through this bus, and various processes are executed under the control of the CPU 3.

入力装置1は、キーボード及びマウス等から構成され、操作者が種々のデータ及び操作指令等を入力するために使用される。ROM2には、BIOS(Basic Input/Output System)等のシステムプログラム等が記憶されている。外部記憶装置5は、ハードディスクドライブ等から構成され、所定のOS(Operating System)及び後述する着色シミュレーションプログラム等が記憶されている。RAM4は、CPU3の作業領域等として用いられる。   The input device 1 includes a keyboard and a mouse, and is used by an operator to input various data and operation commands. The ROM 2 stores a system program such as BIOS (Basic Input / Output System). The external storage device 5 is composed of a hard disk drive or the like, and stores a predetermined OS (Operating System), a coloring simulation program described later, and the like. The RAM 4 is used as a work area for the CPU 3.

記録媒体駆動装置7は、DVD−ROMドライブ、CD−ROMドライブ又はフレキシブルディスクドライブ等から構成される。なお、着色シミュレーションプログラムを、DVD−ROM、CD−ROM又はフレキシブルディスク等のコンピュータ読み取り可能な記録媒体8に記録し、記録媒体駆動装置7により記録媒体8から着色シミュレーションプログラムを読み出して外部記憶装置5にインストールして実行するようにしてもよい。また、着色シミュレーション装置が通信装置等を備え、着色シミュレーションプログラムが通信ネットワークを介して接続された他のコンピュータに記憶されている場合、当該コンピュータからネットワークを介して着色シミュレーションプログラムをダウンロードして実行するようにしてもよい。   The recording medium drive device 7 is composed of a DVD-ROM drive, a CD-ROM drive, a flexible disk drive, or the like. The coloring simulation program is recorded on a computer-readable recording medium 8 such as a DVD-ROM, a CD-ROM, or a flexible disk, and the coloring simulation program is read from the recording medium 8 by the recording medium driving device 7 to be stored in the external storage device 5. It may be installed and executed. When the coloring simulation apparatus includes a communication device or the like and the coloring simulation program is stored in another computer connected via a communication network, the coloring simulation program is downloaded from the computer via the network and executed. You may do it.

カメラ10は、I/F9を介してバスラインに接続され、CCDエリアセンサにより、人間の顔を含む画像(顔画像)を所定のフレームレート(例えば1/30sec)で取得する。表示装置6は、液晶表示装置又はCRT(陰極線管)等から構成され、CPU3の制御の基、カメラ10が撮影した人間の顔画像を表示する。   The camera 10 is connected to the bus line via the I / F 9 and acquires an image including a human face (face image) at a predetermined frame rate (for example, 1/30 sec) by a CCD area sensor. The display device 6 includes a liquid crystal display device, a CRT (cathode ray tube), or the like, and displays a human face image taken by the camera 10 under the control of the CPU 3.

図2は、第1の実施の形態における着色シミュレーション装置の機能を説明するためのブロック図である。図2に示す着色シミュレーション装置は、プログラム実行部100及び記憶部200を備えて構成される。プログラム実行部100は、CPU3が着色シミュレーションプログラムを実行することにより実現され、ユーザID取得部101、撮像画像取得部102、特徴点抽出部103、登録部104、登録画像取得部105、特徴点取得部106、補正部107、シミュレーション実行部108及び表示制御部109を備えて構成される。記憶部200は、RAM4等から構成され、CPU3が着色シミュレーションプログラムを実行することにより実現され、登録画像記憶部201を備えて構成される。   FIG. 2 is a block diagram for explaining the function of the coloring simulation apparatus according to the first embodiment. The coloring simulation apparatus shown in FIG. 2 includes a program execution unit 100 and a storage unit 200. The program execution unit 100 is realized by the CPU 3 executing the coloring simulation program, and includes a user ID acquisition unit 101, a captured image acquisition unit 102, a feature point extraction unit 103, a registration unit 104, a registered image acquisition unit 105, and a feature point acquisition. Unit 106, correction unit 107, simulation execution unit 108, and display control unit 109. The storage unit 200 includes a RAM 4 and the like, is realized by the CPU 3 executing a coloring simulation program, and includes a registered image storage unit 201.

入力装置1は、ユーザを識別するためのユーザIDの入力を受け付ける。ユーザID取得部101は、入力装置1によって入力されたユーザIDを取得する。撮像画像取得部102は、対象物である人間(ユーザ)の顔を撮像した2次元の撮像画像をカメラ10から取得する。なお、撮像画像取得部102は、入力装置1を用いてユーザにより指定された1フレーム分の静止画像をカメラ10から取得する。   The input device 1 receives an input of a user ID for identifying a user. The user ID acquisition unit 101 acquires the user ID input by the input device 1. The captured image acquisition unit 102 acquires, from the camera 10, a two-dimensional captured image obtained by capturing an image of a human (user) face that is an object. The captured image acquisition unit 102 acquires a still image for one frame designated by the user using the input device 1 from the camera 10.

登録画像記憶部201は、化粧を施す前の顔を撮像した撮像画像を登録画像として予め記憶するとともに、登録画像内の前記顔を表す領域に含まれる第1の特徴点の位置座標及び種類を登録画像に対応付けて予め記憶する。また、登録画像記憶部201は、ユーザIDに対応付けて登録画像を記憶する。   The registered image storage unit 201 stores in advance a captured image obtained by capturing a face before applying makeup as a registered image, and the position coordinates and type of the first feature point included in the region representing the face in the registered image. Pre-stored in association with the registered image. The registered image storage unit 201 stores a registered image in association with the user ID.

特徴点抽出部103は、撮像画像取得部102によって取得された撮像画像内の顔領域に含まれる第1の特徴点を抽出する。また、特徴点抽出部103は、撮像画像取得部102によって取得された撮像画像内の顔領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点を抽出する。なお、第2の特徴点は、第1の特徴点と同じ種類の特徴点である。   The feature point extraction unit 103 extracts a first feature point included in the face area in the captured image acquired by the captured image acquisition unit 102. The feature point extraction unit 103 also extracts a second feature point that is included in the face area in the captured image acquired by the captured image acquisition unit 102 and is at the same position as the first feature point. The second feature point is the same type of feature point as the first feature point.

登録部104は、撮像画像取得部102によって取得された撮像画像を登録画像として登録画像記憶部201に記憶する。また、登録部104は、ユーザID取得部101によって取得されたユーザIDを登録画像に対応付けて登録画像記憶部201に記憶する。さらに、登録部104は、特徴点抽出部103によって抽出された第1の特徴点の撮像画像内における位置座標及び種類を撮像画像に対応付けて登録画像記憶部201に記憶する。   The registration unit 104 stores the captured image acquired by the captured image acquisition unit 102 in the registered image storage unit 201 as a registered image. In addition, the registration unit 104 stores the user ID acquired by the user ID acquisition unit 101 in the registered image storage unit 201 in association with the registered image. Furthermore, the registration unit 104 stores the position coordinates and type of the first feature point extracted by the feature point extraction unit 103 in the captured image in the registered image storage unit 201 in association with the captured image.

登録画像取得部105は、ユーザID取得部101によって取得されたユーザIDに対応付けられている登録画像を登録画像記憶部201から取得する。特徴点取得部106は、登録画像取得部105によって取得された登録画像に対応付けられている第1の特徴点の位置座標及び種類を登録画像記憶部201から取得する。   The registered image acquisition unit 105 acquires a registered image associated with the user ID acquired by the user ID acquisition unit 101 from the registered image storage unit 201. The feature point acquisition unit 106 acquires from the registered image storage unit 201 the position coordinates and type of the first feature point associated with the registered image acquired by the registered image acquisition unit 105.

補正部107は、特徴点取得部106によって取得された第1の特徴点と、特徴点抽出部103によって抽出された第2の特徴点との位置関係に基づいて、登録画像の各画素の座標を補正する。シミュレーション実行部108は、補正部107によって補正された登録画像の各画素値に基づいて、顔を表す領域に仮想的に化粧を施すシミュレーションを実行する。ここで、撮像画像は、所定行×所定列でマトリックス状に配列された画素から構成され、各画素の画素値は、R,G,Bの3つの色成分を有し、R,G,Bの色成分は、各々、例えば0〜255の数値で表される。   Based on the positional relationship between the first feature point acquired by the feature point acquisition unit 106 and the second feature point extracted by the feature point extraction unit 103, the correction unit 107 coordinates the pixels of the registered image. Correct. Based on the pixel values of the registered image corrected by the correction unit 107, the simulation execution unit 108 executes a simulation for virtually applying makeup to the area representing the face. Here, the captured image is composed of pixels arranged in a matrix in a predetermined row × predetermined column, and the pixel value of each pixel has three color components of R, G, B, and R, G, B Each of the color components is represented by a numerical value of 0 to 255, for example.

なお、本実施の形態において、各画素の画素値は、RGB表色系で表される色成分を有しているが、本発明は特にこれに限定されず、HSV(H:色相、S:彩度、V:明度)表色系を用いてもよく、HSV表色系以外の表色系、例えばマンセル表色系、L*a*b*表色系、XYZ表色系又はCIE表色系等を用いてもよい。   In this embodiment, the pixel value of each pixel has a color component represented by the RGB color system, but the present invention is not particularly limited to this, and HSV (H: Hue, S: (Saturation, V: lightness) color system may be used, and color systems other than the HSV color system, such as Munsell color system, L * a * b * color system, XYZ color system or CIE color system A system or the like may be used.

表示制御部109は、人間の顔の撮像時において、顔を撮像した撮像画像を表示装置6に表示するように制御する。また、表示制御部109は、シミュレーション実行部108によって実行されたシミュレーション結果の画像を表示装置6の画面上に表示するように制御する。   The display control unit 109 performs control so that a captured image obtained by capturing a face is displayed on the display device 6 when a human face is captured. Further, the display control unit 109 performs control so that an image of a simulation result executed by the simulation execution unit 108 is displayed on the screen of the display device 6.

なお、本実施の形態において、登録画像記憶部201が登録画像記憶手段の一例に相当し、撮像画像取得部102が撮像画像取得手段の一例に相当し、特徴点抽出部103が第2の特徴点抽出手段の一例に相当し、登録画像取得部105が登録画像取得手段の一例に相当し、特徴点取得部106が第1の特徴点取得手段の一例に相当し、補正部107が補正手段の一例に相当し、シミュレーション実行部108がシミュレーション実行手段の一例に相当し、入力装置1が受付手段の一例に相当する。   In the present embodiment, the registered image storage unit 201 corresponds to an example of a registered image storage unit, the captured image acquisition unit 102 corresponds to an example of a captured image acquisition unit, and the feature point extraction unit 103 serves as a second feature. The registered image acquiring unit 105 corresponds to an example of a registered image acquiring unit, the feature point acquiring unit 106 corresponds to an example of a first feature point acquiring unit, and the correcting unit 107 is a correcting unit. The simulation execution unit 108 corresponds to an example of simulation execution means, and the input device 1 corresponds to an example of reception means.

ここで、登録画像記憶部201に画像を登録する登録処理について説明する。顔に仮想的に化粧を施す着色シミュレーション処理の前段階として以下の登録処理が行われる。図3は、図2に示す着色シミュレーション装置による登録処理の一例を示すフローチャートである。   Here, a registration process for registering an image in the registered image storage unit 201 will be described. The following registration process is performed as a pre-stage of the coloring simulation process for virtually applying makeup on the face. FIG. 3 is a flowchart showing an example of registration processing by the coloring simulation apparatus shown in FIG.

まず、ステップS1において、ユーザID取得部101は、入力装置1によって入力されたユーザIDを取得する。このとき、表示制御部109は、ユーザによるユーザIDの入力を受け付けるためのユーザID入力画面を表示するように表示装置6を制御する。ユーザは、入力装置1を用いてユーザIDを入力する。   First, in step S <b> 1, the user ID acquisition unit 101 acquires a user ID input by the input device 1. At this time, the display control unit 109 controls the display device 6 to display a user ID input screen for accepting an input of the user ID by the user. The user inputs a user ID using the input device 1.

次に、ステップS2において、撮像画像取得部102は、化粧を施す前のユーザの顔を撮像した撮像画像をカメラ10から取得する。次に、ステップS3において、特徴点抽出部103は、撮像画像取得部102によって取得された撮像画像内のユーザの顔を表す顔領域に含まれる第1の特徴点を抽出する。この特徴点とは、顔領域における眉、目、鼻、唇、頬及び顎などの特徴的な部位を表す点である。なお、特徴点の抽出については、従来から種々の技術が提案されており、本実施の形態ではこれらの従来技術を用いることが可能である。   Next, in step S <b> 2, the captured image acquisition unit 102 acquires a captured image obtained by capturing the face of the user before applying makeup from the camera 10. Next, in step S <b> 3, the feature point extraction unit 103 extracts a first feature point included in the face area representing the user's face in the captured image acquired by the captured image acquisition unit 102. This feature point is a point representing a characteristic part such as an eyebrow, an eye, a nose, a lip, a cheek, and a chin in a face region. Various techniques have been proposed for extracting feature points, and these conventional techniques can be used in this embodiment.

ここで、特徴点の抽出について説明する。図4は、撮像画像内の顔領域から抽出される特徴点の一例を示す図である。図4に示すように、撮像画像20の顔領域21には、複数の特徴点P1〜P19が含まれている。なお、特徴点抽出部103は、これら全ての特徴点P1〜P19を抽出するのではなく、少なくとも2つの特徴点を抽出する。   Here, feature point extraction will be described. FIG. 4 is a diagram illustrating an example of feature points extracted from a face area in a captured image. As shown in FIG. 4, the face region 21 of the captured image 20 includes a plurality of feature points P1 to P19. Note that the feature point extraction unit 103 does not extract all these feature points P1 to P19, but extracts at least two feature points.

例えば、目の位置に相当する特徴点P1〜P10を抽出する場合、撮像画像に対してエッジ検出が行われ、ハフ変換が行われることにより、左右の目の領域が検出される。そして、特徴点抽出部103は、右目領域の瞳部分の中心画素を右目の瞳部分の特徴点P1として抽出し、右目領域の右端の画素を右目の目頭部分の特徴点P2として抽出し、右目領域の左端の画素を右目の目尻部分の特徴点P3として抽出し、右目領域の上端の画素を右目の上端部分の特徴点P4として抽出し、右目領域の下端の画素を右目の下端部分の特徴点P5として抽出する。同様に、特徴点抽出部103は、左目領域の瞳部分の中心画素を左目の瞳部分の特徴点P6として抽出し、左目領域の左端の画素を左目の目頭部分の特徴点P7として抽出し、左目領域の右端の画素を左目の目尻部分の特徴点P8として抽出し、左目領域の上端の画素を左目の上端部分の特徴点P9として抽出し、左目領域の下端の画素を左目の下端部分の特徴点P10として抽出する。   For example, when the feature points P1 to P10 corresponding to the eye positions are extracted, edge detection is performed on the captured image, and the left and right eye regions are detected by performing Hough transform. Then, the feature point extraction unit 103 extracts the center pixel of the pupil part of the right eye area as the feature point P1 of the right eye part, extracts the right end pixel of the right eye area as the feature point P2 of the right eye part, and The pixel at the left end of the region is extracted as the feature point P3 of the right eye corner, the pixel at the upper end of the right eye region is extracted as the feature point P4 of the upper end portion of the right eye, and the pixel at the lower end of the right eye region is the feature of the lower end portion of the right eye Extracted as a point P5. Similarly, the feature point extraction unit 103 extracts the center pixel of the pupil portion of the left eye region as the feature point P6 of the left eye region, extracts the left end pixel of the left eye region as the feature point P7 of the left eye region, The pixel at the right end of the left eye region is extracted as the feature point P8 of the left eye area, the pixel at the upper end of the left eye region is extracted as the feature point P9 of the upper end portion of the left eye, and the pixel at the lower end of the left eye region is extracted Extracted as a feature point P10.

また、例えば、眉の位置に相当する特徴点P11〜P14を抽出する場合、撮像画像の各画素が走査され、各画素の色成分値が黒色を示す領域が抽出され、抽出した黒色の領域の横幅が縦幅よりも2倍以上となる領域が抽出され、左右の眉の領域の位置が検出される。そして、特徴点抽出部103は、右眉領域の右端の画素を右眉の右端部分の特徴点P11として抽出し、右眉領域の左端の画素を右眉の左端部分の特徴点P12として抽出し、左眉領域の左端の画素を左眉の左端部分の特徴点P13として抽出し、左眉領域の右端の画素を左眉の右端部分の特徴点P14として抽出する。   Further, for example, when extracting the feature points P11 to P14 corresponding to the position of the eyebrow, each pixel of the captured image is scanned, an area where the color component value of each pixel is black is extracted, and the extracted black area A region where the horizontal width is twice or more than the vertical width is extracted, and the positions of the left and right eyebrow regions are detected. Then, the feature point extraction unit 103 extracts the right end pixel of the right eyebrow region as the feature point P11 of the right end portion of the right eyebrow, and extracts the left end pixel of the right eyebrow region as the feature point P12 of the left end portion of the right eyebrow. Then, the left end pixel of the left eyebrow area is extracted as the feature point P13 of the left end part of the left eyebrow, and the right end pixel of the left eyebrow area is extracted as the feature point P14 of the right end part of the left eyebrow.

また、例えば、唇の位置に相当する特徴点P15,P16を抽出する場合、撮像画像の各画素が走査され、各画素の色成分値が赤色を示す領域が抽出され、唇領域の位置が検出される。特徴点抽出部103は、唇領域の左端の画素を唇の右口角部分の特徴点P15として抽出し、唇領域の右端の画素を唇の左口角部分の特徴点P16として抽出する。   Also, for example, when extracting the feature points P15 and P16 corresponding to the position of the lips, each pixel of the captured image is scanned, an area in which the color component value of each pixel is red is extracted, and the position of the lip area is detected. Is done. The feature point extraction unit 103 extracts the pixel at the left end of the lip region as the feature point P15 of the right mouth corner portion of the lip, and extracts the pixel at the right end of the lip region as the feature point P16 of the left mouth corner portion of the lip.

さらに、例えば、鼻頭の位置に相当する特徴点P17を抽出する場合、撮像画像の各画素が走査され、各画素の色成分値が黒色を示す2つの鼻孔領域が抽出される。そして、特徴点抽出部103は、各鼻孔領域の中心点を結ぶ直線を底辺とする所定の2等辺三角形の頂点の画素を鼻頭部分の特徴点P17として抽出する。   Furthermore, for example, when extracting the feature point P17 corresponding to the position of the nasal head, each pixel of the captured image is scanned, and two nostril regions whose color component value is black are extracted. Then, the feature point extraction unit 103 extracts a pixel at the apex of a predetermined isosceles triangle having a straight line connecting the center points of the nostril regions as the base, as the feature point P17 of the nasal head portion.

さらにまた、例えば、左右の頬の位置に相当する特徴点P18,P19を抽出する場合、特徴点抽出部103は、鼻頭の特徴点P17から所定の距離だけ左方向に離れた位置の画素を右頬の中心部分の特徴点P18として抽出し、鼻頭の特徴点P17から所定の距離だけ右方向に離れた位置の画素を左頬の中心部分の特徴点P19として抽出する。   Furthermore, for example, when extracting the feature points P18 and P19 corresponding to the positions of the left and right cheeks, the feature point extraction unit 103 sets the pixel at a position away from the nasal head feature point P17 to the left by a predetermined distance to the right. Extracted as a feature point P18 in the central part of the cheek, and a pixel located at a right distance from the nasal feature point P17 by a predetermined distance is extracted as a feature point P19 in the central part of the left cheek.

なお、特徴点P1〜P19は一例であって、特徴点P1〜P19のうちのいずれかの特徴点を省略してもよいし、新たに特徴点を追加してもよく、図4に示す点に限定されない。また、上記の特徴点P1〜P19の抽出方法は一例であって、他の方法で特徴点P1〜P19を抽出してもよい。本実施の形態における特徴点は、画像上における1つの画素であるが、本発明は特にこれに限定されず、複数の画素の集合であってもよい。特徴点抽出部103によって抽出される第1の特徴点の種類は、予め定められており、例えば、鼻頭及び右口角に対応する特徴点P17,P15が抽出される。   Note that the feature points P1 to P19 are merely examples, and any one of the feature points P1 to P19 may be omitted, or a new feature point may be added, as shown in FIG. It is not limited to. The above-described method for extracting the feature points P1 to P19 is an example, and the feature points P1 to P19 may be extracted by other methods. The feature point in the present embodiment is one pixel on the image, but the present invention is not particularly limited to this, and may be a set of a plurality of pixels. The type of the first feature point extracted by the feature point extraction unit 103 is determined in advance. For example, feature points P17 and P15 corresponding to the nasal head and the right mouth corner are extracted.

図3に戻って、次に、ステップS4において、特徴点抽出部103は、予め設定されている全ての特徴点を抽出したか否かを判断する。ここで、全ての特徴点を抽出していないと判断された場合、ステップS2の処理に戻り、ユーザの顔を撮像した撮像画像をカメラ10から再度取得する。そして、全ての特徴点が抽出されるまで、ステップS2〜S4の処理が繰り返し実行される。   Returning to FIG. 3, next, in step S <b> 4, the feature point extraction unit 103 determines whether all preset feature points have been extracted. If it is determined that not all feature points have been extracted, the process returns to step S <b> 2, and a captured image obtained by capturing the user's face is acquired again from the camera 10. And the process of step S2-S4 is repeatedly performed until all the feature points are extracted.

一方、全ての特徴点を抽出したと判断された場合、ステップS5において、登録部104は、化粧を施す前のユーザの顔を撮像した撮像画像を登録画像として登録画像記憶部201に記憶する。このとき、登録部104は、ユーザID取得部101によって取得されたユーザIDを登録画像に対応付けて登録画像記憶部201に記憶する。さらに、登録部104は、特徴点抽出部103によって抽出された第1の特徴点の位置座標及び種類を登録画像に対応付けて登録画像記憶部201に記憶する。なお、第1の特徴点の位置座標とは、登録画像における第1の特徴点の2次元位置を特定するためのものであり、例えば登録画像の左上端の画素が原点となる。また、種類とは、眉、目、鼻、唇、頬及び顎など、第1の特徴点が顔領域におけるどの部位を示す点であるかを表すものである。   On the other hand, if it is determined that all feature points have been extracted, in step S5, the registration unit 104 stores a captured image obtained by capturing the face of the user before applying makeup in the registered image storage unit 201 as a registered image. At this time, the registration unit 104 stores the user ID acquired by the user ID acquisition unit 101 in the registered image storage unit 201 in association with the registered image. Further, the registration unit 104 stores the position coordinates and type of the first feature point extracted by the feature point extraction unit 103 in the registered image storage unit 201 in association with the registered image. The position coordinates of the first feature point are for specifying the two-dimensional position of the first feature point in the registered image. For example, the upper left pixel of the registered image is the origin. The type indicates which part of the face region the first feature point, such as eyebrows, eyes, nose, lips, cheeks, and chin, indicates.

図5は、登録画像記憶部201に記憶される登録画像の一例を示す図である。図5に示す登録画像22は、化粧を施す前のユーザの顔を撮像したものである。登録画像22には、鼻頭の特徴点P17及び右口角の特徴点P15の位置座標及び種類が対応付けられている。   FIG. 5 is a diagram illustrating an example of a registered image stored in the registered image storage unit 201. The registered image 22 shown in FIG. 5 is an image of the face of the user before applying makeup. The registered image 22 is associated with the position coordinates and types of the feature point P17 of the nasal head and the feature point P15 of the right mouth corner.

このようにして、化粧を施す前のユーザの顔を撮像した撮像画像を登録画像として登録画像記憶部201に予め記憶することができる。そして、着色シミュレーション時において、この登録画像を用いて着色シミュレーションが行われる。   In this way, a captured image obtained by capturing the face of the user before applying makeup can be stored in advance in the registered image storage unit 201 as a registered image. And at the time of coloring simulation, coloring simulation is performed using this registered image.

続いて、対象物を仮想的に着色する着色シミュレーション処理について説明する。図6は、図2に示す着色シミュレーション装置による着色シミュレーション処理の一例を示すフローチャートである。なお、図6において、ステップS11,S12の処理は、図3におけるステップS1,S2の処理と同じであるので説明を省略する。   Subsequently, a coloring simulation process for virtually coloring an object will be described. FIG. 6 is a flowchart showing an example of a coloring simulation process by the coloring simulation apparatus shown in FIG. In FIG. 6, the processes in steps S11 and S12 are the same as the processes in steps S1 and S2 in FIG.

ステップS13において、登録画像取得部105は、ユーザID取得部101によって取得されたユーザIDに対応付けられている登録画像を登録画像記憶部201から取得する。   In step S <b> 13, the registered image acquisition unit 105 acquires the registered image associated with the user ID acquired by the user ID acquisition unit 101 from the registered image storage unit 201.

次に、ステップS14において、特徴点抽出部103は、撮像画像取得部102によって取得された撮像画像内のユーザの顔を表す顔領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点を抽出する。   Next, in step S <b> 14, the feature point extraction unit 103 is included in the face area representing the user's face in the captured image acquired by the captured image acquisition unit 102 and is located at the same position as the first feature point. Extract feature points.

次に、ステップS15において、特徴点取得部106は、登録画像取得部105によって取得された登録画像に対応付けられている第1の特徴点の位置座標及び種類を登録画像記憶部201から取得する。   Next, in step S <b> 15, the feature point acquisition unit 106 acquires the position coordinates and type of the first feature point associated with the registered image acquired by the registered image acquisition unit 105 from the registered image storage unit 201. .

次に、ステップS16において、補正部107は、特徴点取得部106によって取得された第1の特徴点と、特徴点抽出部103によって抽出された第2の特徴点との位置関係に基づいて、登録画像の各画素の座標を補正する。すなわち、登録画像と撮像画像とは、撮像された時間及び場所が異なっているため、登録画像に含まれる顔領域の位置と撮像画像に含まれる顔領域の位置とがずれている場合がある。そこで、補正部107は、登録画像に含まれる第1の特徴点の位置座標と、第1の特徴点と同じ種類であり撮像画像に含まれる第2の特徴点の位置座標とのずれ量を求め、求めたずれ量に応じて登録画像の各画素の座標を補正する。   Next, in step S <b> 16, the correction unit 107 is based on the positional relationship between the first feature point acquired by the feature point acquisition unit 106 and the second feature point extracted by the feature point extraction unit 103. The coordinates of each pixel of the registered image are corrected. That is, since the registered image and the captured image are different in time and place where the image was captured, the position of the face area included in the registered image may be shifted from the position of the face area included in the captured image. Therefore, the correction unit 107 calculates a deviation amount between the position coordinates of the first feature point included in the registered image and the position coordinates of the second feature point that is the same type as the first feature point and included in the captured image. The coordinates of each pixel of the registered image are corrected according to the obtained shift amount.

図7は、撮像画像取得部102によって取得された撮像画像の一例を示す図である。図7に示す撮像画像23は、化粧を施した後の顔を撮像したものである。特徴点抽出部103は、撮像画像23内のユーザの顔を表す顔領域に含まれ、登録画像22に対応付けられている第1の特徴点P17,P15と同じ位置にある第2の特徴点P17’,P15’を抽出する。図7に示すように、撮像画像23に含まれる顔部分の領域は、図5に示す登録画像22に対して右下方向へずれている。そのため、補正部107は、登録画像22に含まれる第1の特徴点P17,P15の位置座標と、第1の特徴点P17,P15と同じ種類であり撮像画像23に含まれる第2の特徴点P17’,P15’の位置座標とのずれ量を求め、求めたずれ量に応じて登録画像22の各画素の座標を補正する。   FIG. 7 is a diagram illustrating an example of a captured image acquired by the captured image acquisition unit 102. The captured image 23 shown in FIG. 7 is an image of the face after applying makeup. The feature point extraction unit 103 is included in the face area representing the user's face in the captured image 23, and is the second feature point at the same position as the first feature points P17 and P15 associated with the registered image 22. P17 ′ and P15 ′ are extracted. As shown in FIG. 7, the area of the face part included in the captured image 23 is shifted in the lower right direction with respect to the registered image 22 shown in FIG. Therefore, the correction unit 107 uses the position coordinates of the first feature points P17 and P15 included in the registered image 22 and the second feature points included in the captured image 23 that are the same type as the first feature points P17 and P15. The amount of deviation from the position coordinates of P17 ′ and P15 ′ is obtained, and the coordinates of each pixel of the registered image 22 are corrected according to the obtained amount of deviation.

図8は、補正後の登録画像の一例を示す図である。図8に示すように、補正後の登録画像24は、顔領域が図7に示す撮像画像23と同じ位置に移動している。このようにして、登録画像の顔領域と、撮像画像の顔領域とを一致させることができる。   FIG. 8 is a diagram illustrating an example of a registered image after correction. As shown in FIG. 8, the corrected registered image 24 has the face area moved to the same position as the captured image 23 shown in FIG. In this way, the face area of the registered image and the face area of the captured image can be matched.

なお、本実施の形態において、第1の特徴点及び第2の特徴点は、少なくとも2つの特徴点を含む。第1の特徴点及び第2の特徴点がそれぞれ1つの特徴点である場合、登録画像に含まれる第1の特徴点と、撮像画像に含まれる第2の特徴点との1次元のずれ量しか求めることができない。しかしながら、第1の特徴点及び第2の特徴点がそれぞれ2つの特徴点である場合、登録画像に含まれる第1の特徴点と、撮像画像に含まれる第2の特徴点との2次元のずれ量を求めることができ、登録画像の顔領域と、撮像画像の顔領域とを正確に一致させることができる。   In the present embodiment, the first feature point and the second feature point include at least two feature points. When each of the first feature point and the second feature point is one feature point, the one-dimensional deviation amount between the first feature point included in the registered image and the second feature point included in the captured image Can only ask. However, when each of the first feature point and the second feature point is two feature points, the two-dimensional feature of the first feature point included in the registered image and the second feature point included in the captured image is displayed. The amount of deviation can be obtained, and the face area of the registered image and the face area of the captured image can be accurately matched.

次に、ステップS17において、シミュレーション実行部108は、補正部107によって補正された登録画像の各画素値に基づいて、顔領域を仮想的に着色するシミュレーションを実行する。このとき、入力装置1は、化粧を施す化粧領域と、化粧領域の色とのユーザによる入力を受け付ける。シミュレーション実行部108は、アルファブレンディングにより、補正後の登録画像と、入力装置1によって受け付けられた化粧領域とを合成する。   Next, in step S <b> 17, the simulation execution unit 108 executes a simulation for virtually coloring the face area based on each pixel value of the registered image corrected by the correction unit 107. At this time, the input device 1 accepts input by the user of the makeup area to which makeup is applied and the color of the makeup area. The simulation execution unit 108 combines the corrected registered image and the makeup area received by the input device 1 by alpha blending.

登録画像の各画素の画素値P(x,y)は、補正部107によって座標が補正されることにより、画素値P(x’,y’)となる。シミュレーション後の画像の画素値R(x,y)は、シミュレーション関数f(col)を用いて、下記の(1)式で表される。   The pixel value P (x, y) of each pixel of the registered image becomes the pixel value P (x ′, y ′) by correcting the coordinates by the correction unit 107. The pixel value R (x, y) of the image after simulation is expressed by the following equation (1) using the simulation function f (col).

R(x,y)=f(P(x’,y’))・・・・(1)
ただし、P(x,y),P(x’,y’),R(x,y)∈Nである。Nは、自然数からなる3次元空間(色空間)を表している。シミュレーション関数f(col)は、下記の(2)式で表される。
R (x, y) = f (P (x ′, y ′)) (1)
However, P (x, y), P (x ′, y ′), and R (x, y) εN 3 . N 3 represents a three-dimensional space (color space) composed of natural numbers. The simulation function f (col) is expressed by the following equation (2).

f(col)=αcol+(1−α)L・・・・(2)
上記(2)式において、colは、画素値を示し、αは、アルファブレンディングにおける透明度を表すα値を示し、Lは、仮想的な化粧を施す際に加色する色を示している。
f (col) = αcol + (1−α) L (2)
In the above equation (2), col represents a pixel value, α represents an α value representing transparency in alpha blending, and L represents a color to be added when applying virtual makeup.

従来は、撮像画像の各画素の画素値Q(x,y)を用いてシミュレーションを行っていた。そのため、従来のシミュレーション後の画像の画素値R(x,y)は、シミュレーション関数f(col)を用いて、下記の(3)式で表される。   Conventionally, the simulation is performed using the pixel value Q (x, y) of each pixel of the captured image. Therefore, the pixel value R (x, y) of the image after the conventional simulation is expressed by the following equation (3) using the simulation function f (col).

R(x,y)=f(Q(x,y))・・・・(3)
ただし、Q(x,y)∈Nである。このように、本実施の形態では、従来のように化粧が施されたユーザの顔を撮像した撮像画像を用いるのではなく、化粧が施される前のユーザの顔を撮像した登録画像を用いてシミュレーションが行われる。
R (x, y) = f (Q (x, y)) (3)
However, Q (x, y) εN 3 . As described above, in the present embodiment, a registered image obtained by capturing the face of the user before the makeup is used is used instead of using a captured image obtained by capturing the face of the user who is subjected to the makeup as in the prior art. Simulation.

そして、表示制御部109は、シミュレーション実行部108によるシミュレーション結果を表示装置6に表示するように制御する。表示装置6は、シミュレーション結果を表示する。   Then, the display control unit 109 controls to display the simulation result by the simulation execution unit 108 on the display device 6. The display device 6 displays the simulation result.

図9は、シミュレーション結果の画像の一例を示す図である。図9に示すように、表示装置6には、撮像画像23の顔領域に対して仮想的に化粧を施したシミュレーション結果画像25が表示される。このとき、シミュレーション結果画像25は、既に化粧が施されている顔領域の各画素値に対してさらに化粧の色が合成されるのではなく、化粧が施されていない登録画像24の顔領域の各画素値に対して化粧の色が合成される。   FIG. 9 is a diagram illustrating an example of a simulation result image. As shown in FIG. 9, a simulation result image 25 in which makeup is virtually applied to the face area of the captured image 23 is displayed on the display device 6. At this time, in the simulation result image 25, the makeup color is not further synthesized with each pixel value of the face area already applied with makeup, but the face area of the registered image 24 without makeup is applied. A makeup color is synthesized for each pixel value.

このように、登録画像記憶部201には、化粧が施される前の顔を撮像した撮像画像が登録画像として予め記憶されているとともに、登録画像内の顔を表す領域に含まれる第1の特徴点の位置が登録画像に対応付けて予め記憶されている。そして、化粧が施された後の顔を撮像した撮像画像が取得され、登録画像記憶部201に記憶されている登録画像が取得される。登録画像に対応付けられている第1の特徴点の位置が登録画像記憶部201から取得される。続いて、撮像画像内の顔を表す領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点が抽出され、第1の特徴点と第2の特徴点との位置関係に基づいて、登録画像の各画素の座標が補正される。その後、補正された登録画像の各画素値に基づいて、顔を表す領域に仮想的に化粧を施すシミュレーションが実行される。   As described above, in the registered image storage unit 201, a captured image obtained by capturing a face before makeup is stored is stored in advance as a registered image, and the first image included in the area representing the face in the registered image. The position of the feature point is stored in advance in association with the registered image. Then, a captured image obtained by capturing the face after the makeup is applied is acquired, and a registered image stored in the registered image storage unit 201 is acquired. The position of the first feature point associated with the registered image is acquired from the registered image storage unit 201. Subsequently, a second feature point included in a region representing the face in the captured image and located at the same position as the first feature point is extracted, and the positional relationship between the first feature point and the second feature point is determined. Based on this, the coordinates of each pixel of the registered image are corrected. Thereafter, based on each pixel value of the corrected registered image, a simulation for virtually applying makeup to the area representing the face is executed.

したがって、顔に仮想的に化粧を施すシミュレーションにおいて、既に化粧が施されている顔領域の各画素値に基づいて仮想的に着色するのではなく、化粧が施されていない顔領域の各画素値に基づいて仮想的に着色するので、化粧が施された状態であっても、化粧が施されていない状態と同等の色再現性を確保することができる。   Therefore, in the simulation of virtually applying makeup to the face, each pixel value of the face area where makeup is not applied, instead of virtually coloring based on each pixel value of the face area where makeup is already applied Therefore, even in a state where makeup is applied, color reproducibility equivalent to that in a state where makeup is not applied can be ensured.

また、登録画像内の対象物を表す領域に含まれる第1の特徴点の位置を登録画像に対応付けて予め記憶しておくことにより、シミュレーション時に登録画像から第1の特徴点を抽出する処理を省くことができ、シミュレーション時における処理時間を短縮することができる。   Also, the process of extracting the first feature point from the registered image during simulation by storing in advance the position of the first feature point included in the region representing the object in the registered image in association with the registered image. The processing time during simulation can be shortened.

また、ユーザを識別するためのユーザIDのユーザによる入力が受け付けられ、登録画像記憶部201には、ユーザIDが登録画像に対応付けて予め記憶され、受け付けられたユーザIDに対応付けられている登録画像が登録画像記憶部201から取得される。   Also, an input by the user of a user ID for identifying the user is accepted, and the registered image storage unit 201 stores the user ID in advance in association with the registered image, and associates it with the accepted user ID. A registered image is acquired from the registered image storage unit 201.

したがって、化粧が施された後の顔を撮像した撮像画像が取得され、この顔と同一人物であり、化粧が施された後の顔を撮像した登録画像が取得されるので、登録画像の各画素の座標を正確に補正することができ、シミュレーション結果をより現実に近いものにすることができる。   Therefore, a captured image obtained by capturing a face after applying makeup is acquired, and a registered image obtained by capturing the face after applying makeup by acquiring the same person as this face is obtained. Pixel coordinates can be accurately corrected, and simulation results can be made closer to reality.

なお、本実施の形態において、補正部107は、撮像画像取得部102によって取得された撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とを識別し、第1の特徴点と第2の特徴点との位置関係に基づいて、識別された撮像画像の肌領域の各画素の座標に対応する登録画像の肌領域の各画素の座標を補正し、シミュレーション実行部108は、補正部107によって補正された登録画像の各画素値に基づいて、撮像画像の肌領域のみを仮想的に着色するシミュレーションを実行してもよい。   In the present embodiment, the correction unit 107 identifies a hair region representing human hair and a skin region representing human skin in the captured image acquired by the captured image acquisition unit 102, and the first region Based on the positional relationship between the feature points and the second feature points, the coordinates of each pixel of the skin area of the registered image corresponding to the coordinates of each pixel of the skin area of the identified captured image are corrected, and the simulation execution unit 108 May execute a simulation of virtually coloring only the skin region of the captured image based on each pixel value of the registered image corrected by the correction unit 107.

この場合、撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とが識別され、第1の特徴点と第2の特徴点との位置関係に基づいて、識別された撮像画像の肌領域の各画素の座標に対応する登録画像の肌領域の各画素の座標が補正され、補正された登録画像の各画素値に基づいて、撮像画像の肌領域のみを仮想的に着色するシミュレーションが実行される。   In this case, a hair region representing human hair and a skin region representing human skin in the captured image are identified and identified based on the positional relationship between the first feature point and the second feature point. The coordinates of each pixel of the skin area of the registered image corresponding to the coordinates of each pixel of the skin area of the captured image are corrected, and based on each pixel value of the corrected registered image, only the skin area of the captured image is virtually A simulation of coloring is performed.

したがって、登録画像を撮像したときの髪型と、撮像画像を撮像したときの髪型とが異なっていたとしても、撮像画像の肌領域のみが登録画像の各画素値に基づいて仮想的に着色されるので、違和感のないシミュレーション結果を得ることができる。   Therefore, even if the hairstyle when the registered image is captured is different from the hairstyle when the captured image is captured, only the skin region of the captured image is virtually colored based on each pixel value of the registered image. Therefore, a simulation result without a sense of incongruity can be obtained.

また、撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とを識別するためには、髪領域と肌領域との境界を表す複数の特徴点を抽出する必要がある。この場合、撮像画像から抽出した髪領域と肌領域との境界を表す複数の特徴点のうち、髪領域を含む隣接する3つの特徴点を結ぶ三角形状のパッチ(以下、三角パッチとする)を形成する。そして、撮像画像内の三角パッチと同じ位置の登録画像の画素値を、三角パッチの画素値に変換する変換行列を求める。   In addition, in order to distinguish between a hair region representing human hair and a skin region representing human skin in the captured image, it is necessary to extract a plurality of feature points representing the boundary between the hair region and the skin region. . In this case, among the plurality of feature points representing the boundary between the hair region and the skin region extracted from the captured image, a triangular patch connecting the three adjacent feature points including the hair region (hereinafter referred to as a triangular patch) is used. Form. Then, a conversion matrix for converting the pixel value of the registered image at the same position as the triangular patch in the captured image into the pixel value of the triangular patch is obtained.

また、本実施の形態における補正部107は、登録画像に含まれる第1の特徴点の位置座標と、第1の特徴点と同じ種類であり撮像画像に含まれる第2の特徴点の位置座標とのずれ量を求め、求めたずれ量に応じて登録画像の各画素の座標を補正しているが、本発明は特にこれに限定されない。補正部107は、登録画像に含まれる第1の特徴点の位置座標と、第1の特徴点と同じ種類であり撮像画像に含まれる第2の特徴点の位置座標との拡縮率を求め、求めた拡縮率に応じて登録画像の各画素の座標を補正してもよい。すなわち、第1の特徴点及び第2の特徴点がそれぞれ2つの特徴点である場合、登録画像に含まれる第1の特徴点と、撮像画像に含まれる第2の特徴点との拡縮率を求めることができ、登録画像の顔領域と、撮像画像の顔領域とを正確に一致させることができる。   In addition, the correction unit 107 according to the present embodiment uses the position coordinates of the first feature point included in the registered image and the position coordinates of the second feature point included in the captured image that are the same type as the first feature point. The coordinate of each pixel of the registered image is corrected according to the calculated shift amount, but the present invention is not particularly limited to this. The correction unit 107 obtains a scaling ratio between the position coordinates of the first feature point included in the registered image and the position coordinates of the second feature point that is the same type as the first feature point and included in the captured image, You may correct | amend the coordinate of each pixel of a registration image according to the calculated expansion / contraction rate. That is, when each of the first feature point and the second feature point is two feature points, the scaling ratio between the first feature point included in the registered image and the second feature point included in the captured image is set. The face area of the registered image and the face area of the captured image can be accurately matched.

(第2の実施の形態)
次に、本発明の第2の実施の形態に係る着色シミュレーション装置について説明する。上述した第1の実施の形態では、登録時において、特徴点を抽出し、抽出した特徴点に関する情報を登録画像に対応付けて予め記憶している。これに対し、第2の実施の形態では、登録時に特徴点を抽出するのではなく、シミュレーション時に登録画像から特徴点を抽出する。
(Second Embodiment)
Next, a coloring simulation apparatus according to the second embodiment of the present invention will be described. In the first embodiment described above, at the time of registration, feature points are extracted, and information regarding the extracted feature points is stored in advance in association with the registered image. In contrast, in the second embodiment, feature points are not extracted during registration, but feature points are extracted from a registered image during simulation.

なお、第2の実施の形態における着色シミュレーション装置のハードウエア構成は、図1に示す第1の実施の形態における着色シミュレーション装置のハードウエア構成と同じであるので説明を省略する。   The hardware configuration of the coloring simulation apparatus according to the second embodiment is the same as the hardware configuration of the coloring simulation apparatus according to the first embodiment shown in FIG.

図10は、第2の実施の形態における着色シミュレーション装置の機能を説明するためのブロック図である。図10に示す着色シミュレーション装置は、プログラム実行部100及び記憶部200を備えて構成される。プログラム実行部100は、CPU3が着色シミュレーションプログラムを実行することにより実現され、ユーザID取得部101、撮像画像取得部102、特徴点抽出部103’、登録部104’、登録画像取得部105、補正部107’、シミュレーション実行部108及び表示制御部109を備えて構成される。記憶部200は、RAM4等から構成され、CPU3が着色シミュレーションプログラムを実行することにより実現され、登録画像記憶部201’を備えて構成される。なお、図10において、図2に示す第1の実施の形態における着色シミュレーション装置と同じ構成については同じ符号を付し、説明を省略する。   FIG. 10 is a block diagram for explaining the function of the coloring simulation apparatus according to the second embodiment. The coloring simulation apparatus illustrated in FIG. 10 includes a program execution unit 100 and a storage unit 200. The program execution unit 100 is realized by the CPU 3 executing the coloring simulation program, and includes a user ID acquisition unit 101, a captured image acquisition unit 102, a feature point extraction unit 103 ′, a registration unit 104 ′, a registered image acquisition unit 105, and a correction. Unit 107 ′, a simulation execution unit 108, and a display control unit 109. The storage unit 200 includes a RAM 4 and the like, is realized by the CPU 3 executing a coloring simulation program, and includes a registered image storage unit 201 ′. In FIG. 10, the same components as those in the coloring simulation apparatus according to the first embodiment shown in FIG.

登録画像記憶部201’は、化粧を施す前の顔を撮像した撮像画像を登録画像として予め記憶する。また、登録画像記憶部201’は、ユーザIDに対応付けて登録画像を記憶する。   The registered image storage unit 201 ′ stores in advance a captured image obtained by capturing the face before applying makeup as a registered image. The registered image storage unit 201 ′ stores a registered image in association with the user ID.

登録部104’は、撮像画像取得部102によって取得された撮像画像を登録画像として登録画像記憶部201に記憶する。また、登録部104’は、ユーザID取得部101によって取得されたユーザIDを登録画像に対応付けて登録画像記憶部201に記憶する。   The registration unit 104 ′ stores the captured image acquired by the captured image acquisition unit 102 in the registered image storage unit 201 as a registered image. The registration unit 104 ′ stores the user ID acquired by the user ID acquisition unit 101 in the registered image storage unit 201 in association with the registered image.

特徴点抽出部103’は、登録画像取得部105によって取得された登録画像内の顔領域に含まれる第1の特徴点を抽出する。また、特徴点抽出部103’は、撮像画像取得部102によって取得された撮像画像内の顔領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点を抽出する。補正部107’は、特徴点抽出部103’によって抽出された第1の特徴点と第2の特徴点との位置関係に基づいて、登録画像の各画素の座標を補正する。   The feature point extraction unit 103 ′ extracts a first feature point included in the face area in the registered image acquired by the registered image acquisition unit 105. The feature point extraction unit 103 ′ extracts a second feature point that is included in the face area in the captured image acquired by the captured image acquisition unit 102 and is at the same position as the first feature point. The correction unit 107 ′ corrects the coordinates of each pixel of the registered image based on the positional relationship between the first feature point and the second feature point extracted by the feature point extraction unit 103 ′.

ここで、第2の実施の形態において、登録画像記憶部201’に画像を登録する登録処理について説明する。図11は、図10に示す着色シミュレーション装置による登録処理の一例を示すフローチャートである。   Here, a registration process for registering an image in the registered image storage unit 201 ′ in the second embodiment will be described. FIG. 11 is a flowchart illustrating an example of a registration process performed by the coloring simulation apparatus illustrated in FIG.

まず、ステップS21において、ユーザID取得部101は、入力装置1によって入力されたユーザIDを取得する。このとき、表示制御部109は、ユーザによるユーザIDの入力を受け付けるためのユーザID入力画面を表示するように表示装置6を制御する。ユーザは、入力装置1を用いてユーザIDを入力する。   First, in step S <b> 21, the user ID acquisition unit 101 acquires a user ID input by the input device 1. At this time, the display control unit 109 controls the display device 6 to display a user ID input screen for accepting an input of the user ID by the user. The user inputs a user ID using the input device 1.

次に、ステップS22において、撮像画像取得部102は、化粧を施す前のユーザの顔を撮像した撮像画像をカメラ10から取得する。次に、ステップS23において、登録部104’は、化粧を施す前のユーザの顔を撮像した撮像画像を登録画像として登録画像記憶部201’に記憶する。このとき、登録部104’は、ユーザID取得部101によって取得されたユーザIDを登録画像に対応付けて登録画像記憶部201’に記憶する。   Next, in step S <b> 22, the captured image acquisition unit 102 acquires a captured image obtained by capturing the face of the user before applying makeup from the camera 10. Next, in step S <b> 23, the registration unit 104 ′ stores a captured image obtained by capturing the face of the user before applying makeup as a registered image in the registered image storage unit 201 ′. At this time, the registration unit 104 ′ stores the user ID acquired by the user ID acquisition unit 101 in the registered image storage unit 201 ′ in association with the registered image.

続いて、第2の実施の形態において、対象物を仮想的に着色する着色シミュレーション処理について説明する。図12は、図10に示す着色シミュレーション装置による着色シミュレーション処理の一例を示すフローチャートである。なお、図12において、ステップS31,S32の処理は、図11におけるステップS21,S22の処理と同じであるので説明を省略する。   Next, a coloring simulation process for virtually coloring an object in the second embodiment will be described. FIG. 12 is a flowchart illustrating an example of a coloring simulation process performed by the coloring simulation apparatus illustrated in FIG. 10. In FIG. 12, the processing in steps S31 and S32 is the same as the processing in steps S21 and S22 in FIG.

ステップS33において、登録画像取得部105は、ユーザID取得部101によって取得されたユーザIDに対応付けられている登録画像を登録画像記憶部201’から取得する。   In step S <b> 33, the registered image acquisition unit 105 acquires a registered image associated with the user ID acquired by the user ID acquisition unit 101 from the registered image storage unit 201 ′.

次に、ステップS34において、特徴点抽出部103’は、登録画像取得部105によって取得された登録画像内のユーザの顔を表す顔領域に含まれる第1の特徴点を抽出する。なお、抽出される第1の特徴点の種類は、予め定められており、例えば、目及び唇に対応する特徴点が抽出される。   Next, in step S <b> 34, the feature point extraction unit 103 ′ extracts a first feature point included in the face area representing the user's face in the registered image acquired by the registered image acquisition unit 105. Note that the type of the first feature point to be extracted is determined in advance. For example, feature points corresponding to eyes and lips are extracted.

次に、ステップS35において、特徴点抽出部103’は、撮像画像取得部102によって取得された撮像画像内のユーザの顔を表す顔領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点を抽出する。なお、抽出される第2の特徴点の種類は、予め定められており、第1の特徴点と同じ種類の特徴点が抽出される。   Next, in step S35, the feature point extraction unit 103 ′ is included in the face region representing the user's face in the captured image acquired by the captured image acquisition unit 102, and is located at the same position as the first feature point. Two feature points are extracted. The type of the second feature point to be extracted is determined in advance, and the same type of feature point as the first feature point is extracted.

次に、ステップS36において、補正部107’は、特徴点抽出部103’によって取得された第1の特徴点と第2の特徴点との位置関係に基づいて、登録画像の各画素の座標を補正する。なお、ここでの補正方法については、図6のステップS16における補正処理と同じであるので説明を省略する。また、ステップS37の処理は、図6のステップS17の処理と同じであるので説明を省略する。   Next, in step S36, the correction unit 107 ′ calculates the coordinates of each pixel of the registered image based on the positional relationship between the first feature point and the second feature point acquired by the feature point extraction unit 103 ′. to correct. The correction method here is the same as the correction process in step S16 in FIG. Moreover, since the process of step S37 is the same as the process of step S17 of FIG. 6, description is abbreviate | omitted.

このように、登録画像記憶部201’には、化粧が施される前の顔を撮像した撮像画像が登録画像として予め記憶される。そして、化粧が施された後の顔を撮像した撮像画像が取得され、登録画像記憶部201’に記憶されている登録画像が取得され、登録画像内の顔を表す領域に含まれる第1の特徴点が抽出される。続いて、撮像画像内の顔を表す領域に含まれ、第1の特徴点と同じ位置にある第2の特徴点が抽出され、第1の特徴点と第2の特徴点との位置関係に基づいて、登録画像の各画素の座標が補正される。その後、補正された登録画像の各画素値に基づいて、顔を表す領域を仮想的に着色するシミュレーションが実行される。   As described above, the registered image storage unit 201 ′ stores in advance a captured image obtained by capturing a face before makeup is applied as a registered image. Then, a captured image obtained by capturing the face after the makeup is applied is acquired, a registered image stored in the registered image storage unit 201 ′ is acquired, and the first image included in the area representing the face in the registered image is included. Feature points are extracted. Subsequently, a second feature point included in a region representing the face in the captured image and located at the same position as the first feature point is extracted, and the positional relationship between the first feature point and the second feature point is determined. Based on this, the coordinates of each pixel of the registered image are corrected. Thereafter, a simulation for virtually coloring the area representing the face is executed based on the corrected pixel values of the registered image.

したがって、顔に仮想的に化粧を施すシミュレーションにおいて、既に化粧が施されている顔領域の各画素値に基づいて仮想的に着色するのではなく、化粧が施されていない顔領域の各画素値に基づいて仮想的に着色するので、化粧が施された状態であっても、化粧が施されていない状態と同等の色再現性を確保することができる。また、登録画像のみを予め記憶しておくことにより、メモリのデータ量を削減することができる。   Therefore, in the simulation of virtually applying makeup to the face, each pixel value of the face area where makeup is not applied, instead of virtually coloring based on each pixel value of the face area where makeup is already applied Therefore, even in a state where makeup is applied, color reproducibility equivalent to that in a state where makeup is not applied can be ensured. In addition, by storing only registered images in advance, the amount of memory data can be reduced.

なお、第1及び第2の実施の形態では、対象物を人間の顔とし、顔を表す領域に仮想的に化粧を施すシミュレーションについて説明しているが、本発明は特にこれに限定されず、例えば、人間の爪を仮想的に着色するシミュレーションなどの人間の体の部位を仮想的に着色するシミュレーションにも適用可能であり、さらに人間以外の動物や物品を仮想的に着色するシミュレーションにも適用可能である。   In the first and second embodiments, a simulation is described in which an object is a human face and makeup is virtually applied to a region representing the face. However, the present invention is not particularly limited thereto, For example, it can be applied to simulations that virtually color human body parts, such as simulations that virtually color human nails, and also to simulations that virtually color non-human animals and articles. Is possible.

第1の実施の形態における着色シミュレーション装置のハードウエア構成を示す図である。It is a figure which shows the hardware constitutions of the coloring simulation apparatus in 1st Embodiment. 第1の実施の形態における着色シミュレーション装置の機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of the coloring simulation apparatus in 1st Embodiment. 図2に示す着色シミュレーション装置による登録処理の一例を示すフローチャートである。It is a flowchart which shows an example of the registration process by the coloring simulation apparatus shown in FIG. 撮像画像内の顔領域から抽出される特徴点の一例を示す図である。It is a figure which shows an example of the feature point extracted from the face area | region in a captured image. 登録画像記憶部に記憶される登録画像の一例を示す図である。It is a figure which shows an example of the registration image memorize | stored in a registration image memory | storage part. 図2に示す着色シミュレーション装置による着色シミュレーション処理の一例を示すフローチャートである。It is a flowchart which shows an example of the coloring simulation process by the coloring simulation apparatus shown in FIG. 撮像画像取得部によって取得された撮像画像の一例を示す図である。It is a figure which shows an example of the captured image acquired by the captured image acquisition part. 補正後の登録画像の一例を示す図である。It is a figure which shows an example of the registration image after correction | amendment. シミュレーション結果の画像の一例を示す図である。It is a figure which shows an example of the image of a simulation result. 第2の実施の形態における着色シミュレーション装置の機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of the coloring simulation apparatus in 2nd Embodiment. 図10に示す着色シミュレーション装置による登録処理の一例を示すフローチャートである。It is a flowchart which shows an example of the registration process by the coloring simulation apparatus shown in FIG. 図10に示す着色シミュレーション装置による着色シミュレーション処理の一例を示すフローチャートである。It is a flowchart which shows an example of the coloring simulation process by the coloring simulation apparatus shown in FIG.

符号の説明Explanation of symbols

1 入力装置
2 ROM
3 CPU
4 RAM
5 外部記憶装置
6 表示装置
7 記録媒体駆動装置
8 記録媒体
9 I/F
10 カメラ
100 プログラム実行部
101 ユーザID取得部
102 撮像画像取得部
103 特徴点抽出部
104 登録部
105 登録画像取得部
106 特徴点取得部
107 補正部
108 シミュレーション実行部
109 表示制御部
200 記憶部
201 登録画像記憶部
1 Input device 2 ROM
3 CPU
4 RAM
5 External Storage Device 6 Display Device 7 Recording Medium Drive Device 8 Recording Medium 9 I / F
DESCRIPTION OF SYMBOLS 10 Camera 100 Program execution part 101 User ID acquisition part 102 Captured image acquisition part 103 Feature point extraction part 104 Registration part 105 Registered image acquisition part 106 Feature point acquisition part 107 Correction part 108 Simulation execution part 109 Display control part 200 Storage part 201 Registration Image storage unit

Claims (9)

着色される前の対象物を撮像した撮像画像を登録画像として予め記憶する登録画像記憶手段と、
着色された後の前記対象物を撮像した撮像画像を取得する撮像画像取得手段と、
前記登録画像記憶手段に記憶されている前記登録画像を取得する登録画像取得手段と、
前記登録画像取得手段によって取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得手段と、
前記撮像画像取得手段によって取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出手段と、
前記第1の特徴点取得手段によって取得された前記第1の特徴点と、前記第2の特徴点抽出手段によって抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正手段と、
前記補正手段によって補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行手段としてコンピュータを機能させることを特徴とする着色シミュレーションプログラム。
Registered image storage means for storing in advance a captured image obtained by capturing an object before being colored as a registered image;
Captured image acquisition means for acquiring a captured image obtained by imaging the object after being colored;
Registered image acquisition means for acquiring the registered image stored in the registered image storage means;
First feature point acquiring means for acquiring a first feature point included in an area representing the object in the registered image acquired by the registered image acquiring means;
Second feature point extraction means for extracting a second feature point included in an area representing the object in the captured image acquired by the captured image acquisition means and located at the same position as the first feature point When,
Based on the positional relationship between the first feature point acquired by the first feature point acquisition unit and the second feature point extracted by the second feature point extraction unit, Correction means for correcting the coordinates of each pixel;
A coloring simulation program that causes a computer to function as a simulation execution unit that executes a simulation of virtually coloring a region representing the object based on the registered image corrected by the correction unit.
前記登録画像記憶手段は、前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点の位置を前記登録画像に対応付けて予め記憶し、
前記第1の特徴点取得手段は、前記登録画像取得手段によって取得された前記登録画像に対応付けられている前記第1の特徴点の位置を前記登録画像記憶手段から取得することを特徴とする請求項1記載の着色シミュレーションプログラム。
The registered image storage means stores in advance a position of a first feature point included in an area representing the object in the registered image in association with the registered image;
The first feature point acquisition unit acquires the position of the first feature point associated with the registered image acquired by the registered image acquisition unit from the registered image storage unit. The coloring simulation program according to claim 1.
前記第1の特徴点取得手段は、前記登録画像取得手段によって取得された前記登録画像から前記第1の特徴点を抽出することを特徴とする請求項1記載の着色シミュレーションプログラム。   The coloring simulation program according to claim 1, wherein the first feature point acquisition unit extracts the first feature point from the registered image acquired by the registered image acquisition unit. 前記対象物は、人間の顔であることを特徴とする請求項1〜3のいずれかに記載の着色シミュレーションプログラム。   The coloring simulation program according to claim 1, wherein the object is a human face. ユーザを識別するための識別情報のユーザによる入力を受け付ける受付手段としてコンピュータをさらに機能させ、
前記登録画像記憶手段は、前記識別情報を前記登録画像に対応付けて予め記憶し、
前記登録画像取得手段は、前記受付手段によって受け付けられた前記識別情報に対応付けられている前記登録画像を前記登録画像記憶手段から取得することを特徴とする請求項1〜4のいずれかに記載の着色シミュレーションプログラム。
Causing the computer to further function as a receiving unit that accepts input by the user of identification information for identifying the user;
The registered image storage means stores the identification information in association with the registered image in advance,
The said registered image acquisition means acquires the said registered image matched with the said identification information received by the said reception means from the said registered image memory | storage means. Coloring simulation program.
前記第1の特徴点及び前記第2の特徴点は、少なくとも2つの特徴点を含むことを特徴とする請求項1〜5のいずれかに記載の着色シミュレーションプログラム。   The coloring simulation program according to claim 1, wherein the first feature point and the second feature point include at least two feature points. 前記補正手段は、前記撮像画像取得手段によって取得された前記撮像画像内の人間の髪を表す髪領域と、人間の肌を表す肌領域とを識別し、前記第1の特徴点と前記第2の特徴点との位置関係に基づいて、識別された前記撮像画像の前記肌領域の各画素の座標に対応する前記登録画像の肌領域の各画素の座標を補正し、
前記シミュレーション実行手段は、前記補正手段によって補正された前記登録画像に基づいて、前記撮像画像の肌領域のみを仮想的に着色するシミュレーションを実行することを特徴とする請求項4記載の着色シミュレーションプログラム。
The correction unit identifies a hair region representing human hair and a skin region representing human skin in the captured image acquired by the captured image acquisition unit, and the first feature point and the second feature point are identified. Correcting the coordinates of each pixel of the skin area of the registered image corresponding to the coordinates of each pixel of the skin area of the identified captured image based on the positional relationship with the feature point of
The coloring simulation program according to claim 4, wherein the simulation executing unit executes a simulation of virtually coloring only a skin region of the captured image based on the registered image corrected by the correcting unit. .
撮像画像取得手段が、着色された後の対象物を撮像した撮像画像を取得する撮像画像取得ステップと、
登録画像取得手段が、着色される前の対象物を撮像した撮像画像を登録画像として予め記憶している登録画像記憶手段から前記登録画像を取得する登録画像取得ステップと、
第1の特徴点取得手段が、前記登録画像取得ステップにおいて取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得ステップと、
第2の特徴点抽出手段が、前記撮像画像取得ステップにおいて取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出ステップと、
補正手段が、前記第1の特徴点取得ステップにおいて取得された前記第1の特徴点と、前記第2の特徴点抽出ステップにおいて抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正ステップと、
シミュレーション実行手段が、前記補正ステップにおいて補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行ステップとを含むことを特徴とする着色シミュレーション方法。
A captured image acquisition means for acquiring a captured image obtained by capturing an object after being colored,
A registered image acquiring unit that acquires a registered image from a registered image storage unit that stores a captured image obtained by capturing an image of an object before coloring as a registered image;
A first feature point acquiring unit that acquires a first feature point included in a region representing the object in the registered image acquired in the registered image acquiring step;
A second feature point extracting unit includes a second feature point included in an area representing the object in the captured image acquired in the captured image acquisition step and located at the same position as the first feature point. A second feature point extraction step to extract;
Based on the positional relationship between the first feature point acquired in the first feature point acquisition step and the second feature point extracted in the second feature point extraction step, A correction step of correcting the coordinates of each pixel of the registered image;
A coloring simulation method comprising: a simulation executing step in which a simulation executing unit executes a simulation of virtually coloring a region representing the object based on the registered image corrected in the correcting step.
着色される前の対象物を撮像した撮像画像を登録画像として予め記憶する登録画像記憶手段と、
着色された後の前記対象物を撮像した撮像画像を取得する撮像画像取得手段と、
前記登録画像記憶手段に記憶されている前記登録画像を取得する登録画像取得手段と、
前記登録画像取得手段によって取得された前記登録画像内の前記対象物を表す領域に含まれる第1の特徴点を取得する第1の特徴点取得手段と、
前記撮像画像取得手段によって取得された前記撮像画像内の前記対象物を表す領域に含まれ、前記第1の特徴点と同じ位置にある第2の特徴点を抽出する第2の特徴点抽出手段と、
前記第1の特徴点取得手段によって取得された前記第1の特徴点と、前記第2の特徴点抽出手段によって抽出された前記第2の特徴点との位置関係に基づいて、前記登録画像の各画素の座標を補正する補正手段と、
前記補正手段によって補正された前記登録画像に基づいて、前記対象物を表す領域を仮想的に着色するシミュレーションを実行するシミュレーション実行手段とを備えることを特徴とする着色シミュレーション装置。
Registered image storage means for storing in advance a captured image obtained by capturing an object before being colored as a registered image;
Captured image acquisition means for acquiring a captured image obtained by imaging the object after being colored;
Registered image acquisition means for acquiring the registered image stored in the registered image storage means;
First feature point acquiring means for acquiring a first feature point included in an area representing the object in the registered image acquired by the registered image acquiring means;
Second feature point extraction means for extracting a second feature point included in an area representing the object in the captured image acquired by the captured image acquisition means and located at the same position as the first feature point When,
Based on the positional relationship between the first feature point acquired by the first feature point acquisition unit and the second feature point extracted by the second feature point extraction unit, Correction means for correcting the coordinates of each pixel;
A coloring simulation apparatus comprising: a simulation executing unit that executes a simulation of virtually coloring a region representing the object based on the registered image corrected by the correcting unit.
JP2006239283A 2006-09-04 2006-09-04 Coloring simulation program, coloring simulation method, and coloring simulation device Pending JP2008065379A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006239283A JP2008065379A (en) 2006-09-04 2006-09-04 Coloring simulation program, coloring simulation method, and coloring simulation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006239283A JP2008065379A (en) 2006-09-04 2006-09-04 Coloring simulation program, coloring simulation method, and coloring simulation device

Publications (1)

Publication Number Publication Date
JP2008065379A true JP2008065379A (en) 2008-03-21

Family

ID=39288079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006239283A Pending JP2008065379A (en) 2006-09-04 2006-09-04 Coloring simulation program, coloring simulation method, and coloring simulation device

Country Status (1)

Country Link
JP (1) JP2008065379A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009259149A (en) * 2008-04-21 2009-11-05 Dainippon Screen Mfg Co Ltd Line drawing processor, line drawing processing method, and program
JP2010017360A (en) * 2008-07-10 2010-01-28 Sega Corp Game device, game control method, game control program, and recording medium recording the program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009259149A (en) * 2008-04-21 2009-11-05 Dainippon Screen Mfg Co Ltd Line drawing processor, line drawing processing method, and program
US8335377B2 (en) 2008-04-21 2012-12-18 Dainippon Screen Mfg Co., Ltd. Line drawing processor, line drawing processing method, and program therefor
JP2010017360A (en) * 2008-07-10 2010-01-28 Sega Corp Game device, game control method, game control program, and recording medium recording the program

Similar Documents

Publication Publication Date Title
US9563975B2 (en) Makeup support apparatus and method for supporting makeup
US6389155B2 (en) Image processing apparatus
US20070019882A1 (en) Makeup simulation program, makeup simulation device, and makeup simulation method
CN105147311B (en) For the visualization device sub-scanning localization method and system in CT system
JP6458569B2 (en) Image processing apparatus and image processing method
JP7031697B2 (en) Information processing device and recognition support method
JP6458570B2 (en) Image processing apparatus and image processing method
JP3993029B2 (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program
JP2000261650A (en) Image processing unit
JP5433886B2 (en) Image comparison apparatus and image comparison program
JP2008243059A (en) Image processing device and method
EP3543955A1 (en) Image processing device and projection system
JP2019046239A (en) Image processing apparatus, image processing method, program, and image data for synthesis
JP2008065379A (en) Coloring simulation program, coloring simulation method, and coloring simulation device
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP4502645B2 (en) Person image extraction apparatus and computer program
JP4372494B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2021099749A (en) Detection method of nasolabial folds
JP2020000602A (en) Medical image processing apparatus, medical image processing method, program, and data creation method
JP6650738B2 (en) Information processing apparatus, information processing system, information processing method and program
JP2008065378A (en) Image recognition program, image recognition method, and image recognition device
CN112790887A (en) Oral imaging method, system and device, and readable storage medium
JP5198967B2 (en) Image comparison apparatus and image comparison program
JP6481432B2 (en) Fundus image processing device
JP2004242272A (en) Color defective area correction method, color defective area correction processing program, color area particularizing method, color area particularizing processing program, and image rocessing apparatus