JP2009294955A - Image processor, image processing method, image processing program and recording medium with the same program recorded thereon - Google Patents
Image processor, image processing method, image processing program and recording medium with the same program recorded thereon Download PDFInfo
- Publication number
- JP2009294955A JP2009294955A JP2008148601A JP2008148601A JP2009294955A JP 2009294955 A JP2009294955 A JP 2009294955A JP 2008148601 A JP2008148601 A JP 2008148601A JP 2008148601 A JP2008148601 A JP 2008148601A JP 2009294955 A JP2009294955 A JP 2009294955A
- Authority
- JP
- Japan
- Prior art keywords
- region
- spectacle
- image
- face
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像中に含まれる眼鏡の有無および眼鏡領域を判断し、眼鏡パターンを精度よく除去する画像処理の技術に関する。 The present invention relates to an image processing technique for determining presence / absence of spectacles and a spectacle region included in an image and accurately removing spectacle patterns.
今日のコンピュータビジョンの分野では、生体認証の一つとして顔認証の技術が監視システムやペットロボット、ヒューマンインターフェースなどで頻繁に用いられている。顔認証については、事前に登録しておいた顔画像と入力画像を比較して認識するため、基本的には誤認識の原因となる部分遮蔽や眼鏡や装飾品といった遮蔽物のない顔画像を登録しておく必要がある。 In the field of computer vision today, face authentication technology is frequently used as one of biometrics in surveillance systems, pet robots, human interfaces, and the like. For face authentication, the face image registered in advance and the input image are compared and recognized, so basically face images without obstructions such as partial occlusion, glasses and ornaments that cause misrecognition. It is necessary to register.
そのため眼鏡をかけている人の顔画像登録の際には、眼鏡をかけている時の顔画像と眼鏡をはずした時の顔画像の2種類を登録する必要性が出てくる。顔認証のシステムにおいて、このような二度手間を省き、かつ顔の部分遮蔽による誤認識を軽減するために顔画像内から眼鏡領域のみを除去する技術が必要である。 Therefore, when registering a face image of a person wearing glasses, there is a need to register two types of images: a face image when wearing glasses and a face image when wearing glasses. In the face authentication system, a technique for removing only the eyeglass region from the face image is required in order to save such troubles twice and to reduce misrecognition due to partial masking of the face.
眼鏡除去の処理手順は「前処理部」、「眼鏡モデル生成部」、「眼鏡検出部」、「領域抽出部」、「補間部」の5つに分けることができる。従来の眼鏡除去法の一例としては、パラメトリック眼鏡フレームモデルを用いた手法(非特許文献1参照)がある。この技術は以下の手順で眼鏡領域の除去を行う。即ち、眼鏡をかけた人物の顔画像を入力とし、あらかじめ作成しておいた眼鏡フレームモデルと入力画像のエッジの検出を行い得られた線の情報とを比較し、眼鏡フレーム領域を検出する。次に、検出された眼鏡フレーム領域の輝度値を除去した後、眼鏡フレーム領域の輝度値を周辺領域の肌色部分の輝度値で線形補間する。線形補間した部分に、更に偏差を加算し、平滑化することにより眼鏡除去画像を生成する。
しかしながら、従来の眼鏡除去方法には次の問題があった。すなわち、一般に眼鏡フレームの形状や色は様々であるため、眼鏡フレームモデルを作成して、使用しても、眼鏡フレームの誤検出が生じる。これはエッジ抽出により得られた線の情報のみで眼鏡フレームを検出していることや眼鏡のフレームだけのモデルを使用していることに起因していると考えられる。顔画像内からの眼鏡領域除去を実現するためには、エッジ抽出から得られる線の情報から眼鏡のフレーム位置を推定するだけでなく、眼鏡フレームや眼鏡のレンズ内部のテクスチャといった付加情報も必要であると言える。 However, the conventional spectacle removal method has the following problems. That is, since the shape and color of a spectacle frame are generally various, even if a spectacle frame model is created and used, erroneous detection of the spectacle frame occurs. This can be attributed to the fact that the spectacle frame is detected only from the line information obtained by the edge extraction, and that the spectacle frame only model is used. In order to realize the removal of the spectacle region from the face image, not only the spectacle frame position is estimated from the line information obtained from the edge extraction, but also additional information such as the spectacle frame and the texture inside the spectacle lens is necessary. It can be said that there is.
また、眼鏡を含む顔画像を入力としているため、入力画像内に顔が存在し、且つ、眼鏡が含まれるという事前情報がないと、この技術を実際に適応することができない。 In addition, since a face image including glasses is used as an input, this technique cannot be actually applied without a prior information that a face exists in the input image and glasses are included.
さらに、検出された眼鏡フレーム領域の輝度値を周辺領域の肌色部分の輝度値で線形補間や平滑化を施しても、眼鏡フレーム領域と隣接するフレーム内側および眼鏡フレーム外側の領域間の境界でコントラストが不連続になり、処理結果画像の見た目が不自然になる可能性があるため、その効果は十分であるとは言えない。 Furthermore, even if the detected luminance value of the spectacle frame region is linearly interpolated or smoothed with the luminance value of the flesh-colored portion of the surrounding region, the contrast at the boundary between the spectacle frame region and the adjacent frame inner region and the outer region of the spectacle frame Is discontinuous and the processing result image may appear unnatural, so that the effect is not sufficient.
そこで、本発明は、様々なフレーム形状の眼鏡に対応可能な眼鏡モデルを生成して、眼鏡パターンを除去することを第1の課題とする。また、眼鏡の有無や顔の存在に関わらず、どのような画像を入力しても眼鏡除去を可能にするための顔の存在、および眼鏡の有無の識別することを第2の課題とする。さらに、眼鏡除去の処理結果が自然に見えるように除去領域を補間することを第3の課題とする。 Accordingly, a first object of the present invention is to generate a spectacle model that can accommodate spectacles having various frame shapes and remove a spectacle pattern. Further, it is a second problem to identify the presence of a face and the presence or absence of glasses for enabling the removal of glasses regardless of the input of any image regardless of the presence or absence of glasses or the presence of a face. Furthermore, a third problem is to interpolate the removal region so that the processing result of the eyeglass removal looks natural.
本発明は、前記課題を解決すべく創作された技術的思想であって、請求項1〜8記載の発明は、眼鏡フレームと眼球の形状に加え、テクスチャ情報を考慮して眼鏡領域を検出することで第1の課題を解決している。請求項2.5記載の発明は、撮像画像内おける顔の存在、および眼鏡の有無の識別を可能にすることで第2の課題を解決している。請求項3.6記載の発明は、顔領域を複数の小領域に切り分け、それぞれの領域全体の質感を考慮したテクスチャを含むレイヤーを生成し、合成することで第3の課題を解決している。
The present invention is a technical idea created to solve the above-mentioned problems, and the invention according to
具体的には、請求項1記載の発明は、人物の撮像画像から眼鏡の有無を識別し、眼鏡パターンを除去した顔画像を生成する画像処理装置であって、サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する眼鏡モデル生成手段と、入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する特徴抽出手段と、前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する眼鏡識別手段と、前記撮像画像を前記顔領域と前記眼鏡領域の特徴量とから任意の領域に分割する領域抽出手段と、前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する補間手段とを備え、前記統合結果を出力することを特徴としている。
Specifically, the invention described in
請求項2記載の発明は、前記撮像画像内における顔の有無を識別して、前記顔領域を抽出する前処理手段を備え、前記特徴抽出手段は、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出するとともに、前記眼鏡識別手段は、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定することを特徴としている。 The invention according to claim 2 includes pre-processing means for identifying the presence or absence of a face in the captured image and extracting the face area, wherein the feature extraction means searches for the spectacle area, The spectacles model parameter obtained as a result is extracted as a feature value, and the spectacles identification unit reads the learning pattern identification parameter stored in the database as a feature value, and uses the spectacle model parameter to store in the captured image. It is characterized by determining the presence or absence of glasses.
請求項3記載の発明は、前記領域抽出手段は、前記入力画像データ内における前記眼鏡領域の座標値、眼鏡フレーム領域の座標値および眼球領域の座標値を算出する手段と、前記顔領域を複数の領域に分割して切り分ける手段とを備えるとともに、前記補間手段は、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋める手段と、任意の領域のレイヤーを作成する手段と、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正する手段と、複数の前記レイヤーを単一の画像データに変換して統合する手段とを備えることを特徴としている。 According to a third aspect of the present invention, the region extracting means calculates a coordinate value of the spectacle region, a coordinate value of the spectacle frame region, and a coordinate value of the eyeball region in the input image data, and a plurality of the face regions. Means for dividing and dividing the area into a plurality of areas, and the interpolation means fills the hollow pixel values of the objects in each area cut by the area extraction means, and creates a layer of an arbitrary area And means for automatically generating a texture from the object and correcting the texture, and means for converting and integrating the plurality of layers into a single image data.
請求項4記載の発明は、人物の撮像画像から眼鏡の有無を識別し、眼鏡パターンを除去した顔画像を生成する画像処理方法であって、眼鏡モデル生成手段が、サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する第1ステップと、特徴抽出手段が、入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する第2ステップと、眼鏡識別手段が、前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する第3ステップと、領域抽出手段が、前記顔領域と前記眼鏡領域の特徴量とから前記撮像画像を任意の領域に分割する第4ステップと、補間手段が、前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する第5ステップと、前記第5ステップの統合結果を出力する第6ステップと、を有することを特徴としている。 The invention according to claim 4 is an image processing method for identifying the presence or absence of eyeglasses from a captured image of a person and generating a face image from which the eyeglass pattern is removed, wherein the eyeglass model generating means A first step of generating a spectacle model that takes into account the spectacle frame shape, the shape of the eyeball inside the spectacle frame, and the texture inside the spectacle frame including the spectacle frame and the eyeball; The second step of extracting the feature amount of the spectacle region from the face region and the spectacle model, and the spectacle identification means compares the feature amount of the spectacle region with the feature amount of the learning pattern, and the spectacles in the captured image A third step of determining whether or not there is a fourth step, and a region extracting unit divides the captured image into arbitrary regions from the feature amounts of the face region and the spectacle region; The interleaving unit has a fifth step of generating an arbitrary texture from the data of each divided area and integrating the areas, and a sixth step of outputting the integration result of the fifth step. It is said.
請求項5記載の発明は、前処理手段において前記撮像画像内の顔の有無を識別して、前記顔領域を抽出するステップをさらに有し、前記第2ステップは、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出し、前記第3ステップは、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定することを特徴としている。 According to a fifth aspect of the present invention, the preprocessing means further includes the step of identifying the presence or absence of a face in the captured image and extracting the face region, and the second step searches for the spectacle region. Then, the eyeglass model parameter obtained as a result of the search is extracted as a feature amount, and the third step reads the learning pattern identification parameter stored in the database as the feature amount, and uses the eyeglass model parameter to perform the imaging. It is characterized by determining the presence or absence of glasses in the image.
請求項6記載の発明は、前記第4ステップは、前記入力画像データ内における前記眼鏡領域の座標値、眼鏡フレーム領域の座標値および眼球領域の座標値を算出するステップと、前記顔領域を複数の領域に分割して切り分けるステップとを有する一方、前記第5ステップは、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋めるステップと、任意の領域のレイヤーを作成するステップと、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正するステップと、複数の前記レイヤーを単一の画像データに変換して統合するステップとを有することを特徴としている。 According to a sixth aspect of the present invention, the step of calculating the coordinate value of the spectacle region, the coordinate value of the spectacle frame region, and the coordinate value of the eyeball region in the input image data includes a plurality of face regions. The fifth step includes a step of filling the pixel value of the cavity of the object in each region cut by the region extraction means, and a layer of an arbitrary region. A step of automatically generating a texture from the object and correcting the texture; and converting and integrating the plurality of layers into a single image data.
請求項7記載の発明は、請求項1〜3のいずれか1項に記載の画像処理装置を構成する各手段としてコンピュータを機能させることを特徴とする画像処理プログラムに関する。 A seventh aspect of the present invention relates to an image processing program that causes a computer to function as each means constituting the image processing apparatus according to any one of the first to third aspects.
請求項8記載の発明は、請求項7記載の画像処理プログラムを記録した記録媒体に関する。
The invention according to
請求項1〜8記載の発明によれば、眼鏡フレームと眼球の形状に加え、テクスチャ情報も考慮して眼鏡領域が検出されるため、様々なタイプの眼鏡に対応でき、また従来手法と比べ、多くの情報量を使用するため結果として誤検出を減らすことが可能となる。 According to the first to eighth aspects of the present invention, the spectacle region is detected in consideration of the texture information in addition to the spectacle frame and the shape of the eyeball. Since a large amount of information is used, it is possible to reduce false detection as a result.
特に、請求項2.5記載の発明によれば、撮像画像内おける顔の存在、および眼鏡の有無の識別が可能になるので、眼鏡や顔の有無にかかわらず、任意の画像データを入力できるようになる。 In particular, according to the invention described in claim 2.5, it is possible to identify the presence of the face in the captured image and the presence or absence of the glasses, so that any image data can be input regardless of the presence or absence of the glasses or the face. It becomes like this.
また、請求項3.6記載の発明によれば、顔領域を複数の小領域に切り分け、それぞれの領域全体の質感を考慮したテクスチャを含むレイヤーを生成し、合成することにより、全体の自然な感じを損なうことなく、眼鏡パターンを除去した画像処理結果が得られる。 According to the invention described in claim 3.6, the face area is divided into a plurality of small areas, and a layer including a texture that takes into consideration the texture of each of the entire areas is generated and synthesized. An image processing result from which the eyeglass pattern is removed can be obtained without impairing the feeling.
以下、本発明の実施の形態について図面を用いて詳細に説明する。図1は、本発明の実施形態に係る画像処理装置の機能ブロック図を示している。この画像処理装置10は、コンピュータにより構成され、画像データ入力部11,前処理部12,第1学習パターン記憶部13,特徴抽出部14,眼鏡モデル生成部15,眼鏡識別部16,第2学習パターン記憶部17,領域抽出部18,補間部19,出力部20を有している。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram of an image processing apparatus according to an embodiment of the present invention. The
具体的には、前記画像処理装置10は、通常のコンピュータの構成要素、例えばCPU(Central Processor Unit)、メモリ(RAM)、ハードディスクドライブ装置、通信デバイスなどのハードウェア資源を備え、かかるハードウェア資源とインストール済みのソフトウェアとの協働によって前記各機能ブロック11〜20の処理が実行されている。このうち前記学習パターン記憶部13,17は、ハードディスクドライブ装置にデータベースとして構築されている。
Specifically, the
そして、前記画像処理装置10の全体的な処理を、図2のフローに沿って概略説明すれば、まず、画像データ入力部11は、前記通信デバイスなどで実現され、デジタルカメラなどの撮像手段をもって撮像されたデジタル画像データがネットワーク経由で入力され、この入力された撮像画像データ(以下、入力画像データと略す。)を前処理部12に伝送する(S1)。
Then, the overall processing of the
つぎに、前処理部12は入力画像データと第1学習パターン記憶部13に記憶されているパターンの特徴量とを比較して、顔検出を行い、顔が存在するか否かを識別する(S2)。このとき入力画像内に顔があると識別された場合、顔と思われる部分の切出しを経て特徴抽出部14へ伝送する(S3)。一方、入力画像内に顔が無いと識別された場合には、処理を終了する。
Next, the
特徴抽出部14では、特徴量となる眼鏡モデルパラメータを抽出し、眼鏡識別部16へ送る(S4)。この眼鏡モデルパラメータは、入力された顔領域の画像データと眼鏡モデル生成部15で生成された眼鏡モデルとに基づき生成される。
The
眼鏡識別部16は、特徴抽出部14から伝送された特徴量(眼鏡モデルパラメータ)と第2学習パターン記憶部17に記憶されている識別パラメータを用いて、眼鏡の有無の識別結果を得る(S5)。このとき眼鏡があると判定された場合(S6)には、以降の(S7)〜(S9)の処理を続行する一方、眼鏡が無いと判定された場合には処理を終了する。ここで第2学習パターン記憶部17では、あらかじめ多数の学習画像から学習サンプルを生成し、学習により識別パラメータを生成し、これらを保持しておき、眼鏡識別部16へ伝送している。
The
領域抽出部18では、前処理部12で得られた顔領域の画像データと特徴抽出部14で得られた特徴量(眼鏡モデルパラメータ)からデジタル画像データを複数の領域に分割し、抽出する。(S7)。
The
補間部19では、領域抽出部18で得られた各領域を、図3に示すようにレイヤー化し、各レイヤーのラスタ表現された画像データをベクタ表現に変換し、色の補正を行い、生成されたレイヤーデータを統合した結果をラスタ表現に変換し、出力部20へ伝送する(S8)。出力部20は、伝送された画像データを出力する(S9)。この出力された画像データはモニタなどの表示手段に表示される。以下、前記各機能ブロック11〜20の処理を個別具体的に説明する。
In the
(1)前処理部12
前処理部12における処理の実行方法を、図4のフローチャートに示す。前処理部12では入力画像データ内から、顔検出を行って顔領域を切り出す(S10)〜(S12)。この顔検出は非特許文献2に記載された手法でよい。ここでは例えば正面以外の方向を向いている顔でも検出できる顔検出手法を使用する。一般に顔検出においては、事前に多数の学習画像を用いて学習を行い、その学習の結果得られた識別パラメータを学習パターン記憶部に蓄積しておき、顔か否かの識別の際には、その識別パラメータを使用して画像内の顔の有無を識別し、画像内位置を特定する。
(1)
The execution method of the process in the
本発明においても同様に、顔検出(S10)の際には第1学習パターン記憶部13から識別パラメータを読み出し、識別に使用する。第1学習パターン記憶部13は、入力された多数の学習画像から学習を行って、識別パラメータを生成し、保持する機能を持つものとする。
Similarly, in the present invention, at the time of face detection (S10), an identification parameter is read from the first learning
次に、入力画像データ内に顔が有ると識別された場合(S11)、顔領域切出し(S12)を行う。顔がないと識別された場合は処理を終了する。顔領域切出し(S12)では、顔領域の画素値を持つ顔領域の画像データと顔領域以外の背景の画素値を持つ背景領域の画像データを生成する。まず、顔領域の画像データと背景領域の画像データの生成のために、入力されたデジタル画像データのコピーを二枚作成する。続いて、顔検出(S10)の結果得られた画像内の顔のパーツである目、鼻、口の座標値情報を使用し、全てのパーツを含む任意の大きさの楕円領域内の画素値を選択する。そして、一方のコピー画像において、選択した楕円領域以外の画素を全て白(または黒)に変換することで顔領域の画像データとする。同様に、他方のコピー画像において、選択した楕円領域内の画素を全て白(または黒)に変換したものを背景領域画像データとする。 Next, when it is identified that there is a face in the input image data (S11), face area extraction (S12) is performed. If it is identified that there is no face, the process ends. In the face area extraction (S12), image data of a face area having pixel values of the face area and image data of a background area having background pixel values other than the face area are generated. First, two copies of the input digital image data are created in order to generate image data for the face area and image data for the background area. Subsequently, using the coordinate value information of the eyes, nose, and mouth, which are facial parts in the image obtained as a result of the face detection (S10), the pixel values in an elliptical area of any size including all parts Select. Then, in one copy image, all the pixels other than the selected elliptical area are converted into white (or black) to obtain face area image data. Similarly, in the other copy image, all the pixels in the selected elliptical area are converted to white (or black) as background area image data.
(2)眼鏡モデル生成部15
眼鏡モデル生成部15における処理のフローチャートを図5に示す。眼鏡モデル生成部15では、眼鏡モデルの生成(S13,S14)および、保持しているデータの出力(S15)を行う。眼鏡モデルの生成処理では「Active Appearance Model」(以下、「AAM」と略す。)を使用する。
(2) Eyeglass
FIG. 5 shows a flowchart of processing in the spectacle
「AAM」は、アピアランスモデルと呼ばれる統計的なモデルの作成と、モデル探索によるパラメータ調節の2つの工程から構成される生成モデルと未知画像のマッチング手法である。アピアランスモデルの作成工程では、物体の形状を表す特徴点の座標値と見えを表す輝度値の相関をパラメータとして持つ統計的モデルを作成する。モデル探索によるパラメータ調節工程は、生成したアピアランスモデルと入力した未知画像とのイメージ残差を最小化するように生成したアピアランスモデルのパラメータを変化させる最適化問題に帰着し、その最適化問題を解くことで入力未知画像と生成したモデルのマッチングを行うものである。眼鏡モデル生成部15では、「AAM」の第1工程であるアピアランスモデルの作成のみを行う。
“AAM” is a method of matching an unknown image with a generated model composed of two processes: creation of a statistical model called an appearance model and parameter adjustment by model search. In the appearance model creation process, a statistical model having a correlation between the coordinate value of the feature point representing the shape of the object and the luminance value representing the appearance as a parameter is created. The parameter adjustment process by model search results in an optimization problem that changes the parameters of the generated appearance model to minimize the image residual between the generated appearance model and the input unknown image, and solves the optimization problem Thus, the input unknown image is matched with the generated model. The spectacle
以下で、アピアランスモデル作成について簡単に概説する。アピアランスモデルは特徴点を配置した学習画像データセットを使用して作成する。まず1枚の学習画像内の特徴点の座標を並べたベクトルを形状ベクトル「x」とし、全学習画像の形状ベクトルの平均形状「x bar」を求める。次に各学習画像において形状を平均形状「x bar」で正規化し、正規化された形状内の輝度値を並べ、テクスチャベクトル「g」を得る。形状ベクトルと同様に、全学習画像のテクスチャベクトルの平均テクスチャ「g bar」を算出する。形状ベクトル「x」とテクチヤベクトル「g」とは式(1)のようにモデル化することができる。 The following outlines the appearance model creation. The appearance model is created using a learning image data set in which feature points are arranged. First, a vector in which the coordinates of feature points in one learning image are arranged is set as a shape vector “x”, and an average shape “x bar” of the shape vectors of all learning images is obtained. Next, in each learning image, the shape is normalized by the average shape “x bar”, and the luminance values in the normalized shape are arranged to obtain the texture vector “g”. Similar to the shape vector, the average texture “g bar” of the texture vectors of all learning images is calculated. The shape vector “x” and the texture vector “g” can be modeled as shown in Equation (1).
ここで「Qs」,「Qg」は固有ベクトルであり、「c」は形状とテクスチャの両方をコントロールするアピアランスパラメータである。アピアランスパラメータ「c」を用いることで、形状だけでなくテクスチャも表現することができる。また逆に、アピアランスパラメータ「c」が求まれば、形状およびテクスチャを算出することが可能となる。(「AAM」の基本原理については非特許文献3参照)。 Here, “Q s ” and “Q g ” are eigenvectors, and “c” is an appearance parameter that controls both shape and texture. By using the appearance parameter “c”, not only the shape but also the texture can be expressed. Conversely, if the appearance parameter “c” is obtained, the shape and texture can be calculated. (See Non-Patent Document 3 for the basic principle of “AAM”).
具体的には、眼鏡をかけた顔画像とその顔画像に図6のように配置された特徴点の座標値を学習画像データとして多数用意し、眼鏡フレームと眼鏡のレンズ内部、眼球の形状とテクスチャから、上記の「x bar」,「g bar」,「Qs」,「Qg」を算出する。ただし、図6中の眼鏡フレーム部分特徴点の画像内の座標を(xf,yf)、レンズ部分特徴点の画像内の座標を(xl,yl)、眼球部分特徴点の画像内の座標を(xe,ye)とする。このとき、形状ベクトル「x」は式(2)であらわすものとする。 Specifically, a face image with spectacles and coordinate values of feature points arranged on the face image as shown in FIG. 6 are prepared as learning image data, and the spectacle frame and the inside of the spectacle lens, the shape of the eyeball, From the texture, the above “x bar”, “g bar”, “Q s ”, and “Q g ” are calculated. However, the coordinates of the spectacle frame partial feature points in the image in FIG. 6 are (x f , y f ), the coordinates of the lens partial feature points in the image (x l , y l ), and the eyeball partial feature points in the image Is set to (x e , y e ). At this time, the shape vector “x” is expressed by Expression (2).
学習画像データセットから得られた「x bar」,「g bar」,「Qs」,「Qg」は、アピアランスモデルとしてメモリなどの一時記憶手段に保持しておき、特徴抽出部14へ伝送する。なお、前記アピアランスモデルは、ハードディスクドライブ装置に保存してもよい。
“X bar”, “g bar”, “Q s ”, and “Q g ” obtained from the learning image data set are held in a temporary storage means such as a memory as an appearance model and transmitted to the
(3)特徴抽出部14
特徴抽出部14における処理の実行方法を、図7のフローチャートに示す。特徴抽出部14では、前処理部12から伝送された顔領域の画像データを入力とし、眼鏡モデル生成部15で作成した眼鏡モデルを使用して、最適化問題を解くことで眼鏡領域の探索を行う。探索の結果得られた眼鏡モデルパラメータを特徴量とし、その特徴量と前処理部12から伝送された顔領域データを眼鏡識別部16へ伝送する。
(3)
A method for executing processing in the
具体的には、「AAM」の第2工程であるモデル探索によるパラメータ調節により眼鏡領域の探索を行う(S16)。ここでは画像データ内から眼鏡領域を探索する際には、モデルの形状とテクスチャをあらわすアピアランスパラメータ「c」に加え、顔領域の画像データ内の眼鏡位置、大きさ、回転を考慮した新しいパラメータ「p」を用いる。顔領域の画像データ内の眼鏡と思われる部分の画素値から作成したテクスチャベクトル「gs」と眼鏡モデルを用いて作成したテクスチャベクトル「gm」とのイメージ残差を「r(p)=gs−gm」とし、「r(p)」が最小となるように「p」を変化させ、最適解を求める。得られた最適解から「c」を逆算し、これを眼鏡モデルパラメータとする。ここでの最適化問題の詳細は非特許文献3と同様とする。 Specifically, the spectacle region is searched by parameter adjustment by model search, which is the second step of “AAM” (S16). Here, when searching for the spectacle region from the image data, in addition to the appearance parameter “c” representing the shape and texture of the model, a new parameter “in consideration of the position, size, and rotation of the spectacles in the image data of the face region” p "is used. The image residual between the texture vector “g s ” created from the pixel values of the part of the image data of the face region that is considered to be glasses and the texture vector “g m ” created using the glasses model is expressed as “r (p) = g s −g m ”,“ p ”is changed so that“ r (p) ”is minimized, and an optimal solution is obtained. “C” is calculated backward from the obtained optimal solution, and this is used as a spectacle model parameter. The details of the optimization problem here are the same as in Non-Patent Document 3.
(4)第2学習パターン記憶部17
第2学習パターン記憶部17では、眼鏡の有無を識別するための識別関数データを生成し、眼鏡識別部16へ伝送する。識別関数データの生成には、「Support Vector Machine(以下、SVMと略す。)」を使用する。「SVM」は2クラスの分類問題を解くためのパターン識別器を構成する手法である。識別器は入力ベクトルを非線形写像によって仮想的な高次特徴空間に写像し、その特徴空間内の2つのクラスの間で汎化能力を最大とする境界となるような超平面として構成される。ここでの「SVM」の基本原理は非特許文献4と同様とする。
(4) Second learning
In the second learning
第2学習パターン記憶部17の処理手順のフローチャートを図8に示す。第2学習パターン記憶部17は、学習サンプル生成部17−1と、識別関数データ生成部17−2とから構成される。学習サンプル生成部17−1では、入力された多数の学習画像から、学習画像と同じ数の学習サンプルを生成する。生成される学習サンプルは、特徴量と所属するクラスを示すラベルから構成される。
A flowchart of the processing procedure of the second learning
図8では、ラベル入力前の段階では学習サンプルの枚数「n=0」とする(S19)。学習サンプル生成部17−1には、学習画像として眼鏡を掛けている人物の顔画像と眼鏡を掛けていない人物の顔画像の2種類の画像が入力される(S20)。なお、入力される顔画像は、それぞれ眼鏡を掛けている人物の顔画像の場合は眼鏡ありクラス、眼鏡を掛けていない人物の顔画像の場合は眼鏡無しクラスに属するものとし、眼鏡ありのクラスに属している顔画像のラベルは「y=1」,眼鏡なしのクラスに属している顔画像のラベルは「y=−1」として与えられている。 In FIG. 8, the number of learning samples “n = 0” is set before the label input (S19). Two types of images, that is, a face image of a person wearing glasses and a face image of a person not wearing glasses are input to the learning sample generation unit 17-1 (S20). Note that the input face image belongs to the class with glasses for the face image of a person wearing glasses, and belongs to the class without glasses for the face image of a person without glasses. The label of the face image belonging to “y = 1” and the label of the face image belonging to the class without glasses is given as “y = −1”.
入力された1組の学習画像とラベルに対し、眼鏡モデル生成部15で生成した眼鏡モデルを用いて、特徴抽出部14のパラメータ最適化処理(S16)と同様にモデル探索によるパラメータ調整を行う(S21)。得られた眼鏡モデルパラメータを、その学習画像の特徴量とする。得られた特徴量とラベルのセットを1つの学習サンプル(n=1)とする(S22)。この処理を繰り返し(S23,S24)、用意した全ての学習画像に対して行い、それぞれ特徴量を抽出し、「n←n+1」枚の学習サンプルを生成する。この学習サンプルは、メモリなどの一時記憶手段に記憶しておいてもよい。
Using the spectacle model generated by the spectacle
識別関数データ生成部17−2では、学習サンプル生成部17−1にて生成した学習サンプルを入力とし、「SVM」で学習を行って識別関数データを得る。「SVM」の学習では、l個の特徴量「xi(i=1,2,…,l)」がラベル「y」とともに与えられているとき、識別関数「f(x)」は、式(3)の形で与えられる。この式(3)を解いて最適化する(S25)。 In the discrimination function data generation unit 17-2, the learning sample generated in the learning sample generation unit 17-1 is input, and learning is performed with “SVM” to obtain discrimination function data. In the learning of “SVM”, when l feature quantities “x i (i = 1, 2,..., L)” are given together with the label “y”, the discriminant function “f (x)” It is given in the form of (3). The equation (3) is solved and optimized (S25).
ここで、「α*,β*」は、以下の式(4)の最大化問題の最適解である。 Here, “α * , β * ” is an optimal solution of the maximization problem of the following equation (4).
識別関数データ生成部S18では、学習により生成された「α*,β*」および「xi」を識別関数データとして第2学習パターン記憶部17に蓄積する(S26)。なお、式(3)の識別関数は非線形に拡張したものを用いてもよい。
In the discrimination function data generation unit S18, “α * , β * ” and “x i ” generated by learning are accumulated in the second learning
(5)眼鏡識別部16
眼鏡識別部16における処理の実行方法を、図9のフローチャートに示す。眼鏡識別部16では、眼鏡の有無の識別処理を行う。眼鏡ありクラスか眼鏡無しクラスかを識別する際には、特徴抽出部14で生成された特徴量と第2学習パターン記憶部17から識別関数データを呼び出し、それらを用いてどちらのクラスに属するかを識別する(S27)。
(5)
The execution method of the process in the
例えば、特徴抽出部14で生成された特徴量を入力「x」とし、式(3)に代入する。「SVM」を用いた識別では未知の入力「x」が与えられたとき、上記識別関数「f(x)」の符号により未知画像の所属するクラスを決める。具体的には、「f(x)≧0」のときは眼鏡ありクラス、「f(x)<0」の時は眼鏡無しクラスとする。ここで入力した特徴量が眼鏡パターンであると判断された場合のみ、データを領域抽出部18へ伝送する。眼鏡パターンはないと判断された場合、処理はここで終了する。なお、識別処理においては、「SVM」以外にも例えば最近傍法、フィッシャーの線形識別法、ニューラルネットワークや部分空間法等を用いてもよい。
For example, the feature amount generated by the
(6)領域抽出部18
領域抽出部18における処理の実行方法を、図10のフローチャートに示す。領域抽出部18は、眼鏡領域位置算出処理部18−1と領域切出し部18−2から構成される。眼鏡領域位置算出処理部18−1では、特徴抽出部14で得られた眼鏡モデルのパラメータを使用し、眼鏡領域の画像内における位置を算出する(S30)。
(6)
A method for executing processing in the
具体的には、眼鏡モデルパラメータ「c」から逆算し、形状ベクトル「x」を算出する。その後、得られた形状ベクトルのうち眼鏡フレーム部分特徴点の画像内座標値(xf,yf)を眼鏡領域位置として算出する。次に、眼鏡フレーム領域位置として(xf,yf)と(xl,yl)を算出し、眼球領域位置として(xe,ye)を算出する(S31)。 Specifically, the shape vector “x” is calculated by performing reverse calculation from the spectacle model parameter “c”. Thereafter, the in-image coordinate values (x f , y f ) of the spectacle frame partial feature points in the obtained shape vector are calculated as the spectacle region position. Next, (x f , y f ) and (x l , y l ) are calculated as spectacle frame region positions, and (x e , y e ) are calculated as eyeball region positions (S31).
次に、領域切出し部18−12の処理(S32〜S34)を、図11を参照して説明する。図11は、領域切出し処理における各領域の説明図である。切り出し処理は、前処理部12の顔領域切出し(S12)と同様に、特定の領域以外の画素値を全て白(または黒)に置き換えた画像データを生成する。まず、図11(a)の顔領域から算出した図11(b)の眼鏡領域を選択し、眼鏡領域の画素値を保存した画像データを眼鏡領域データとし、逆に眼鏡領域以外の画素値を保存し、眼鏡領域内部の画素値を白(または黒)に変更したものを顔ベース領域図11(c)とする(S32)。さらに眼鏡領域から図11(d)に示す眼鏡フレーム領域部分の画素値を保存した画像データを作成し、また眼鏡領域から図11(e)の眼球領域部分の画素値のみを保存した画像データを作成する(S33)。図11(f)のように眼鏡領域からフレーム領域と眼球領域の画素値を白(または黒)にしたものをレンズ領域の画像データとする(S34)。
Next, the processing (S32 to S34) of the area cutout unit 18-12 will be described with reference to FIG. FIG. 11 is an explanatory diagram of each area in the area extraction process. The clipping process generates image data in which all pixel values other than the specific area are replaced with white (or black), as in the face area extraction (S12) of the
(7)補間部19
補間部19では領域抽出部18で生成された領域ごとにベクタ化し、レイヤー分けを行う。ベクタ化とはラスタ表現と呼ばれるデジタル画像データのような離散値しか取れない画素の集合として記述されている画像データを、ベクタ表現と呼ばれる物体の特徴点や頂点をつないだ線分で記述した連続値を取り得る形式で表現される画像データに変換することである。具体的なベクタ化の手法として、ここではグラデーションメッシュを使用する。グラデーションメッシュとは対象とする物体の形状を網目状に区切り、その網目に沿って色のグラデーションを施すことで物の質感を写実的に表現することを可能にするグラフィック技術である。またグラデーションメッシュによるベクタ化は、非特許文献5のような最適化手法により自動生成させるものとする。
(7)
The
以下で非特許文献5におけるグラデーションメッシュの構造について図12を用いて概説する。図12(a)はおのおのの座標がパラメータ「u,v」の関数として表現されるパラメトリック曲面の例であり、以下これをパッチと呼ぶ。非特許文献5にて使用されているファーガソンパッチは式(5)で表現される。 The structure of the gradation mesh in Non-Patent Document 5 will be outlined below with reference to FIG. FIG. 12A shows an example of a parametric curved surface in which each coordinate is expressed as a function of the parameter “u, v”, and this is hereinafter referred to as a patch. The Ferguson patch used in Non-Patent Document 5 is expressed by Equation (5).
グラデーションメッシュはパッチとメッシュラインから構成され、上記ファーガソンパッチ上の点はメッシュラインを表現するための位置、位置の微分、色、色情報の微分の4種類の情報を持っている。図12(b)はグラデーションメッシュの例であり、点「q」を通る2本の曲線はメッシュラインである。例えば図12(b)中の点「q」の場合、式(6)の位置情報と、式(7)の位置の微分情報、式(8)のRGBカラー情報、式(9)のRGBカラーの微分情報を持っており、グラデーションメッシュは式(10)で表現される。 The gradation mesh is composed of patches and mesh lines, and the points on the Ferguson patch have four types of information: positions for expressing the mesh lines, position differentiation, color, and color information differentiation. FIG. 12B is an example of a gradation mesh, and two curves passing through the point “q” are mesh lines. For example, in the case of the point “q” in FIG. 12B, the position information of Expression (6), the differential information of the position of Expression (7), the RGB color information of Expression (8), and the RGB color of Expression (9) The gradation mesh is expressed by equation (10).
また、非特許文献5はベクタ化における最適化は以下の手順で行われる。即ち、まず入力されたラスタ画像内のベクタ化したい領域を均等に分割するなどして、複数のパッチを作成することでメッシュの初期化を行う。今、P個のパッチが生成され、ベクタ化したい画像を「I」としたとき、式(11)のエネルギー関数を最小化することでメッシュが最適化されベクタ化される。 In Non-Patent Document 5, optimization in vectorization is performed according to the following procedure. That is, first, the mesh is initialized by creating a plurality of patches, for example, by equally dividing a region to be vectorized in the input raster image. Now, when P patches are generated and the image to be vectorized is “I”, the mesh is optimized and vectorized by minimizing the energy function of equation (11).
具体的な補間部19における処理手順を図13のフローチャートに示す。補間処理は図13の顔ベースレイヤー作成部19−1とレンズレイヤー作成部19−2と眼球レイヤー作成部19−3とから構成される。各レイヤー作成部19−1〜19−3で作成された情報は全てレイヤー統合処理S43により1枚の画像に合成される。
A specific processing procedure in the
以下、各レイヤー作成部19−1〜19−3の処理を説明する。図14は、図13のフローチャート内の顔ベースレイヤー作成部19−1内の処理を説明するための概念図である。顔ベースレイヤー作成部19−1では、領域抽出部18で作成された顔ベース領域情報を使用し、顔ベース穴埋め処理(S38)により顔ベース領域の領域切出しの際に開いた眼鏡領域の穴を埋め、次に顔ベースベクタ化処理(S39)を行う。
Hereinafter, processing of each of the layer creation units 19-1 to 19-3 will be described. FIG. 14 is a conceptual diagram for explaining the processing in the face base layer creation unit 19-1 in the flowchart of FIG. The face base layer creation unit 19-1 uses the face base region information created by the
具体的には、顔ベース穴埋め処理(S38)は、図14(a)の顔ベース領域内の穴領域との境界の画素の画素値の平均で、眼鏡領域部分の色を補間し、図14(b)のような穴領域も肌と同じ色を持つ画像を生成する。顔ベースベクタ化処理(S39)は、顔ベース領域を前記最適化手法により最適化されたグラデーションメッシュを作成する。図14(c)は最適化により自動作成されたメッシュの形状情報である。このメッシュ上には最適化によりテクスチャも生成される。メッシュ情報とテクスチャの両方の情報を持つ、図14(d)のような生成したベクタ画像を顔ベースレイヤーとし、生成したデータはレイヤー統合処理S43とレンズレイヤー作成部19−2に伝送する。 Specifically, the face base hole filling process (S38) interpolates the color of the eyeglass region by the average of the pixel values of the pixels at the boundary with the hole region in the face base region of FIG. An image having the same color as the skin is also generated in the hole region as shown in (b). The face base vectorization process (S39) creates a gradation mesh in which the face base area is optimized by the optimization method. FIG. 14C shows mesh shape information automatically created by optimization. A texture is also generated on the mesh by optimization. The generated vector image as shown in FIG. 14D having both mesh information and texture information is used as a face base layer, and the generated data is transmitted to the layer integration processing S43 and the lens layer creation unit 19-2.
眼球レイヤー作成部19−3では、領域抽出部18で作成された眼球領域の情報を使用し、前記最適化手法を用いて眼球領域ベクタ化処理(S42)を行う。ここで生成したベクタ画像を眼球レイヤーとし、生成したデータはレイヤー統合処理S43とレンズレイヤー作成部19−2に伝送する。
The eyeball layer creation unit 19-3 uses the information on the eyeball region created by the
レンズレイヤー作成部19−2では、領域抽出部18で作成されたレンズ領域の情報を使用し、前記最適化手法を用いてレンズ領域ベクタ化処理(S40)を行う。ここで生成したベクタ画像をレンズレイヤーとする。次に、生成した顔ベースレイヤーと眼球レイヤーとレンズレイヤーの3つのレイヤーの情報を用いて、レンズレイヤー色補正(S41)を行う。レンズレイヤー色補正(S41)の処理内容を、図15を参照して説明する。生成したレイヤーには図15(a)のようなメッシュと、その交差点であるメッシュポイントを持っている。メッシュポイントは色情報を保持し、メッシュポイント近傍の色の具合を制御することが可能である。まず、レンズレイヤーの外側の輪郭部分のメッシュポイントである図15(b)の顔ベース側メッシュポイントの色を、図15(c)のように対応する顔ベースレイヤー内における同じ座標値の場所の色に置換する。次に、内側の輪郭部分のメッシュポイントである図15(b)の眼球側メッシュポイントの色は、図15(d)のように対応する眼球レイヤー内の同じ座標値の場所の色に置換することで色を制御する。
The lens layer creation unit 19-2 uses the lens region information created by the
レイヤー統合処理S43では、下から順に、前処理で切出した背景領域、顔ベースレイヤー、レンズレイヤー、眼球レイヤーの順に重ね合わせて一枚のラスタ画像データに変換する。ラスタ画像への変換処理は、ベクタ表現されていた画像を離散の値をとる画像データに変換することである。なお、ベクタ化画像の自動生成については、非特許文献の手法以外に「subdivisionmesh」を用いてもよい。 In layer integration processing S43, the background area, face base layer, lens layer, and eyeball layer cut out in the preprocessing are sequentially overlapped in order from the bottom and converted into a single raster image data. The process of converting to a raster image is to convert an image that has been vector-expressed into image data that takes discrete values. For automatic generation of a vectorized image, “subdivisionmesh” may be used in addition to the method of non-patent literature.
また、本発明は、上記実施形態に限定されるものではなく、例えば前記画像処理装置10の各機能ブロック11〜20としてコンピュータを機能させるプログラムとして構築することもできる。このプログラムは、各機能ブロック11〜20の全ての処理をコンピュータに実行させてもよく、また、その一部の機能をコンピュータに実行させるものであってもよい。
In addition, the present invention is not limited to the above-described embodiment, and can be constructed as a program that causes a computer to function as each of the
このプログラムは、Webサイトなどからのダウンロードによってコンピュータに提供することができる。また、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体に格納してコンピュータに提供してもよい。この記録媒体から読み出されたプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。 This program can be provided to a computer by downloading from a website or the like. Also, it is stored in a recording medium such as a CD-ROM, DVD-ROM, CD-R, CD-RW, DVD-R, DVD-RW, MO, HDD, Blu-ray Disk (registered trademark) and provided to a computer. May be. Since the program code itself read from the recording medium realizes the processing of the above embodiment, the recording medium also constitutes the present invention.
10…画像処理装置
11…画像データ入力部
12…前処理部(前処理手段)
13…第1学習パターン記憶部
14…特徴抽出部(特徴抽出手段)
15…眼鏡モデル生成部(眼鏡モデル生成手段)
16…眼鏡識別部(眼鏡識別手段)
17…第2学習パターン記憶部
17−1…学習サンプル生成部
17−2…識別関数データ生成部
18…領域抽出部(領域抽出手段)
18−1…眼鏡領域位置算出部
18−2…領域切出し部
19…補間部(補間手段)
19−1…顔ベースレイヤー作成部
19−2…レンズレイヤー作成部
19−3…眼球レイヤー作成部
20…出力部
DESCRIPTION OF
13 ... 1st learning pattern memory |
15 ... Eyeglass model generation unit (glasses model generation means)
16 ... Glasses identifying unit (glasses identifying means)
DESCRIPTION OF
18-1 ... Eyeglass region position calculation unit 18-2 ...
19-1 ... Face base layer creation unit 19-2 ... Lens layer creation unit 19-3 ... Eyeball
Claims (8)
サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する眼鏡モデル生成手段と、
入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する特徴抽出手段と、
前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する眼鏡識別手段と、
前記撮像画像を前記顔領域と前記眼鏡領域の特徴量とから任意の領域に分割する領域抽出手段と、
前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する補間手段とを備え、
前記統合結果を出力することを特徴とする画像処理装置。 An image processing apparatus that identifies the presence or absence of glasses from a captured image of a person and generates a face image from which a glasses pattern is removed,
A spectacle model generation means for generating a spectacle model taking into account the spectacle frame shape and the shape of the eyeball inside the spectacle frame, and the texture inside the spectacle frame including the spectacle frame and the eyeball, from the learning pattern of the sample image;
Feature extraction means for extracting a feature amount of a spectacle region from the face region in the input captured image and the spectacle model;
A pair of glasses identifying means for comparing the feature amount of the glasses region and the feature amount of the learning pattern to determine the presence or absence of glasses in the captured image;
An area extracting unit that divides the captured image into arbitrary areas from the feature quantities of the face area and the eyeglass area;
Interpolating means for generating an arbitrary texture from the data of each divided area and integrating the areas;
An image processing apparatus that outputs the integration result.
前記特徴抽出手段は、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出するとともに、
前記眼鏡識別手段は、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定する
ことを特徴とする請求項1記載の画像処理装置。 Recognizing the presence or absence of a face in the captured image, and comprising preprocessing means for extracting the face region;
The feature extraction means performs a search of the spectacle region, extracts spectacle model parameters obtained as a result of the search as a feature amount,
The eyeglass identification unit reads an identification parameter of a learning pattern stored in a database as a feature amount, and uses the eyeglass model parameter to determine the presence / absence of eyeglasses in the captured image. Image processing apparatus.
前記補間手段は、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋める手段と、任意の領域のレイヤーを作成する手段と、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正する手段と、複数の前記レイヤーを単一の画像に変換して統合する手段とを備える
ことを特徴とする請求項1または2のいずれか1項に記載の画像処理装置。 The area extracting means calculates a coordinate value of the eyeglass area, a coordinate value of the eyeglass frame area, and a coordinate value of the eyeball area in the captured image; and a means for dividing the face area into a plurality of areas. With
The interpolation means includes a means for filling pixel values of a cavity of an object in each area separated by the area extraction means, a means for creating a layer of an arbitrary area, and a texture automatically generated from the object to generate the texture. The image processing apparatus according to claim 1, further comprising: a unit that corrects the plurality of layers, and a unit that converts and integrates the plurality of layers into a single image.
眼鏡モデル生成手段が、サンプル画像の学習パターンから、眼鏡フレーム形状と眼鏡フレーム内部の眼球の形状、および眼鏡フレームと眼球を含む眼鏡フレーム内部のテクスチャを加味した眼鏡モデルを生成する第1ステップと、
特徴抽出手段が、入力された前記撮像画像内の顔領域と前記眼鏡モデルとから眼鏡領域の特徴量を抽出する第2ステップと、
眼鏡識別手段が、前記眼鏡領域の特徴量と学習パターンの特徴量とを比較して、前記撮像画像内の眼鏡の有無を判別する第3ステップと、
領域抽出手段が、前記顔領域と前記眼鏡領域の特徴量とから前記撮像画像を任意の領域に分割する第4ステップと、
補間手段が、前記分割された各領域のデータから任意のテクスチャを生成し、各領域を統合する第5ステップと、
前記第5ステップの統合結果を出力する第6ステップと、
を有することを特徴とする画像処理方法。 An image processing method for identifying the presence or absence of glasses from a captured image of a person and generating a face image from which a glasses pattern is removed,
A first step in which the spectacle model generation means generates a spectacle model taking into account the spectacle frame shape and the shape of the eyeball inside the spectacle frame, and the texture inside the spectacle frame including the spectacle frame and the eyeball, from the learning pattern of the sample image;
A second step in which a feature extraction unit extracts a feature amount of the spectacle region from the face region in the input captured image and the spectacle model;
A third step in which the eyeglass identification means compares the feature amount of the eyeglass region and the feature amount of the learning pattern to determine the presence or absence of glasses in the captured image;
A fourth step in which an area extracting unit divides the captured image into arbitrary areas from the feature quantities of the face area and the eyeglass area;
A fifth step in which an interpolating unit generates an arbitrary texture from the data of the divided areas and integrates the areas;
A sixth step of outputting the integration result of the fifth step;
An image processing method comprising:
前記第2ステップは、前記眼鏡領域の探索を行って、探索の結果得られた眼鏡モデルパラメータを特徴量として抽出し、
前記第3ステップは、データベースに保存された学習パターンの識別パラメータを特徴量として読み込み、前記眼鏡モデルパラメータを用いて、前記撮像画像内の眼鏡の有無を判定する
ことを特徴とする請求項4記載の画像処理方法。 Further comprising the step of identifying the presence or absence of a face in the captured image in the pre-processing means and extracting the face region;
In the second step, the eyeglass region is searched, and eyeglass model parameters obtained as a result of the search are extracted as feature amounts.
5. The third step is to read an identification parameter of a learning pattern stored in a database as a feature amount, and to determine the presence or absence of glasses in the captured image using the spectacle model parameter. Image processing method.
前記第5ステップは、領域抽出手段にて切り分けられた各領域内のオブジェクトの空洞の画素値を埋めるステップと、任意の領域のレイヤーを作成するステップと、前記オブジェクトからテクスチャを自動生成して該テクスチャを補正するステップと、複数の前記レイヤーを単一の画像データに変換して統合するステップとを有する
ことを特徴とする請求項4または5のいずれか1項に記載の画像処理装置。 The fourth step includes calculating a coordinate value of the spectacle region, a coordinate value of the spectacle frame region, and a coordinate value of the eyeball region in the input image data, and dividing and dividing the face region into a plurality of regions. While having
The fifth step includes a step of filling a pixel value of a cavity of an object in each region separated by the region extraction means, a step of creating a layer of an arbitrary region, a texture is automatically generated from the object, and the step The image processing apparatus according to claim 4, further comprising a step of correcting a texture, and a step of converting and integrating the plurality of layers into a single image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008148601A JP2009294955A (en) | 2008-06-05 | 2008-06-05 | Image processor, image processing method, image processing program and recording medium with the same program recorded thereon |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008148601A JP2009294955A (en) | 2008-06-05 | 2008-06-05 | Image processor, image processing method, image processing program and recording medium with the same program recorded thereon |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009294955A true JP2009294955A (en) | 2009-12-17 |
Family
ID=41543079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008148601A Pending JP2009294955A (en) | 2008-06-05 | 2008-06-05 | Image processor, image processing method, image processing program and recording medium with the same program recorded thereon |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009294955A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011129045A (en) * | 2009-12-21 | 2011-06-30 | Toyota Motor Corp | Living body monitoring device |
CN105528783A (en) * | 2015-12-01 | 2016-04-27 | 上海电机学院 | Multi-level compact texture feature extraction method and image texture segmentation method |
KR101856546B1 (en) * | 2017-06-29 | 2018-05-11 | 링크플로우 주식회사 | Method for removing processing target object in image and apparatus for performing the method |
JP2018165980A (en) * | 2017-03-28 | 2018-10-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Face authentication method and apparatus |
JP2019087242A (en) * | 2017-11-03 | 2019-06-06 | 富士通株式会社 | Method and apparatus for training face recognition model |
JP2020197795A (en) * | 2019-05-31 | 2020-12-10 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, and program |
JP2021515945A (en) * | 2018-12-21 | 2021-06-24 | シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド | Image processing methods and devices, electronic devices and storage media |
CN113052068A (en) * | 2021-03-24 | 2021-06-29 | 深圳威富云数科技有限公司 | Image processing method, image processing device, computer equipment and storage medium |
-
2008
- 2008-06-05 JP JP2008148601A patent/JP2009294955A/en active Pending
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011129045A (en) * | 2009-12-21 | 2011-06-30 | Toyota Motor Corp | Living body monitoring device |
CN105528783A (en) * | 2015-12-01 | 2016-04-27 | 上海电机学院 | Multi-level compact texture feature extraction method and image texture segmentation method |
JP7046625B2 (en) | 2017-03-28 | 2022-04-04 | 三星電子株式会社 | Face recognition method and equipment |
JP2018165980A (en) * | 2017-03-28 | 2018-10-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Face authentication method and apparatus |
WO2019004530A1 (en) * | 2017-06-29 | 2019-01-03 | 링크플로우 주식회사 | Method for removing object to be processed from image and device for performing method |
EP3648051A4 (en) * | 2017-06-29 | 2021-01-13 | Linkflow Co. Ltd | Method for removing object to be processed from image and device for performing method |
US11076096B2 (en) | 2017-06-29 | 2021-07-27 | Linkflow Co., Ltd | Method for removing object to be processed from image and device for performing method |
KR101856546B1 (en) * | 2017-06-29 | 2018-05-11 | 링크플로우 주식회사 | Method for removing processing target object in image and apparatus for performing the method |
JP2019087242A (en) * | 2017-11-03 | 2019-06-06 | 富士通株式会社 | Method and apparatus for training face recognition model |
JP7119907B2 (en) | 2017-11-03 | 2022-08-17 | 富士通株式会社 | Training method and training device for face recognition model |
JP2021515945A (en) * | 2018-12-21 | 2021-06-24 | シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド | Image processing methods and devices, electronic devices and storage media |
JP7043619B2 (en) | 2018-12-21 | 2022-03-29 | シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド | Image processing methods and devices, electronic devices and storage media |
US11410001B2 (en) | 2018-12-21 | 2022-08-09 | Shanghai Sensetime Intelligent Technology Co., Ltd | Method and apparatus for object authentication using images, electronic device, and storage medium |
JP2020197795A (en) * | 2019-05-31 | 2020-12-10 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, and program |
CN113052068A (en) * | 2021-03-24 | 2021-06-29 | 深圳威富云数科技有限公司 | Image processing method, image processing device, computer equipment and storage medium |
CN113052068B (en) * | 2021-03-24 | 2024-04-30 | 深圳威富云数科技有限公司 | Image processing method, device, computer equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10452899B2 (en) | Unsupervised deep representation learning for fine-grained body part recognition | |
JP7512262B2 (en) | Facial keypoint detection method, device, computer device and computer program | |
US20230237841A1 (en) | Occlusion Detection | |
JP2009294955A (en) | Image processor, image processing method, image processing program and recording medium with the same program recorded thereon | |
JP4950787B2 (en) | Image processing apparatus and method | |
US8300883B2 (en) | Sketch generating system and method for generating sketch based on image | |
US20150278710A1 (en) | Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium | |
CN109754007A (en) | Peplos intelligent measurement and method for early warning and system in operation on prostate | |
US20150302240A1 (en) | Method and device for locating feature points on human face and storage medium | |
Tuzel et al. | Global-local face upsampling network | |
CN104123749A (en) | Picture processing method and system | |
JP2003196661A (en) | Appearance model for visual motion analysis and visual tracking | |
JP2004086891A (en) | Object detection method in digital image | |
US11282257B2 (en) | Pose selection and animation of characters using video data and training techniques | |
JP2014149678A (en) | Makeup support apparatus, makeup support system, makeup support method and makeup support program | |
JP6296205B2 (en) | Image processing apparatus, image processing method, and storage medium for storing the program | |
JP2014149677A (en) | Makeup support apparatus, makeup support system, makeup support method and makeup support system | |
US20220292690A1 (en) | Data generation method, data generation apparatus, model generation method, model generation apparatus, and program | |
CN106558042B (en) | Method and device for positioning key points of image | |
Kim et al. | Robust facial landmark extraction scheme using multiple convolutional neural networks | |
CN112541394A (en) | Black eye and rhinitis identification method, system and computer medium | |
CN111275778A (en) | Face sketch generating method and device | |
JP2018206260A (en) | Image processing system, evaluation model construction method, image processing method, and program | |
CN114049290A (en) | Image processing method, device, equipment and storage medium | |
CN113870314A (en) | Training method of action migration model and action migration method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100603 |