JP2009205469A - Extraction system and method of object area - Google Patents

Extraction system and method of object area Download PDF

Info

Publication number
JP2009205469A
JP2009205469A JP2008047492A JP2008047492A JP2009205469A JP 2009205469 A JP2009205469 A JP 2009205469A JP 2008047492 A JP2008047492 A JP 2008047492A JP 2008047492 A JP2008047492 A JP 2008047492A JP 2009205469 A JP2009205469 A JP 2009205469A
Authority
JP
Japan
Prior art keywords
histogram
area
object area
color
skin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008047492A
Other languages
Japanese (ja)
Other versions
JP5099434B2 (en
Inventor
Kenta Otaki
健太 大瀧
Yoichi Shirasawa
洋一 白澤
Makoto Nishida
眞 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Akita University NUC
Alpha Systems KK
Original Assignee
Akita University NUC
Alpha Systems KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Akita University NUC, Alpha Systems KK filed Critical Akita University NUC
Priority to JP2008047492A priority Critical patent/JP5099434B2/en
Publication of JP2009205469A publication Critical patent/JP2009205469A/en
Application granted granted Critical
Publication of JP5099434B2 publication Critical patent/JP5099434B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an extraction system and an extraction method of an object area, robust in white balance, allowing real time processing. <P>SOLUTION: This extraction system 1 of the object area includes: a color image acquisition means 2 acquiring a color image of an object; a first object area extraction means 31 extracting a first object area from the color image by use of a chromaticity component histogram and a hue histogram; a second object area extraction means 32 extracting a second object area by use of a chroma histogram; a third object area extraction means 33 extracting a third object area by use of a luminance histogram; and an object area composition means 34 obtaining an overlap area between the first to third object areas as the object area. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、オブジェクト領域の抽出システムおよび方法に関する。詳しくは、カラー画像中から肌領域等のオブジェクト領域を抽出するに際し、ホワイトバランスの変化にロバストな抽出システムおよび抽出方法に関する。   The present invention relates to an object region extraction system and method. Specifically, the present invention relates to an extraction system and an extraction method that are robust to changes in white balance when extracting an object region such as a skin region from a color image.

近年、パーソナルコンピュータ(PC)によるビジュアルコミュニケーションが一般家庭でも手軽に導入できるようになり、普及し始めている。例えば、カラー画像データ中の連続する肌色領域の面積を求め、それぞれの肌色領域について、肌色総画素数、縦横方向の幅などの特徴を考慮して顔領域を求める方法が提案されている。また、発明者らは、画像中から人物のみを抜き出し、背景を予め用意した画像に差し替える画像処理技術の要素技術として、L色空間の知覚色度aヒストグラム、色相habヒストグラムを用いて、照明の影響にロバスト(安定)な人物の肌領域を抽出する方法を提案した。また、画像情報のあいまいさ、口唇輪郭のあいまいさを考慮し、ファジィ推論処理を用いて、テンプレート(データベースに蓄積された参照用画像情報)を使用せずに、人物の口唇領域および肌領域を抽出する方法を提案した。(特許文献1、非特許文献1〜4参照) In recent years, visual communication using a personal computer (PC) can be easily introduced even in general households, and has begun to spread. For example, a method has been proposed in which the area of continuous skin color regions in color image data is obtained and the face region is obtained for each skin color region in consideration of features such as the total number of skin color pixels and the width in the vertical and horizontal directions. In addition, as an elemental technique of image processing technology for extracting only a person from an image and replacing the background with an image prepared in advance, the inventors have developed a perceptual chromaticity a * histogram and hue h ab in an L * a * b * color space. We proposed a method for extracting human skin areas that are robust to the effects of lighting using histograms. Considering the ambiguity of image information and lip contour, the fuzzy inference process is used to determine the lip area and skin area of a person without using a template (reference image information stored in the database). A method to extract was proposed. (See Patent Document 1 and Non-Patent Documents 1 to 4)

特開2000−187721号公報(段落0016〜0060、図1〜図10)JP 2000-187721 A (paragraphs 0016 to 0060, FIGS. 1 to 10) 佐井高、西田眞、景山陽一、大瀧健太、「色彩情報を用いた顔領域抽出に関する検討」、情報処理学会全国大会、5P−1(2007).Takashi Sai, Satoshi Nishida, Yoichi Kageyama, Kenta Otsuki, “Study on face area extraction using color information”, National Convention on Information Processing, 5P-1 (2007). 白澤洋一、大瀧健太、「色差に着目した口唇追跡に関する検討」、電子情報通信学会総合大会、D−12−89(2007).Yoichi Shirasawa and Kenta Otsuki, “Study on Lip Tracking Focusing on Color Difference”, IEICE General Conference, D-12-89 (2007). 白澤洋一、西田眞、西健治、「色彩情報を用いたファジィ推論による口唇形状抽出に関する検討」、電気学会論文誌 C,Vol.125−C,No.9,pp.1430−1437.Yoichi Shirasawa, Kei Nishida, Kenji Nishi, “Examination of Lip Shape Extraction by Fuzzy Reasoning Using Color Information”, IEEJ Transactions C, Vol. 125-C, no. 9, pp. 1430-1437. 白澤洋一、西田眞、栗栖怜史、「ズームと顔の向き変化にロバストな口唇位置の推定」、映像情報メディア学会誌,Vol.59,No.12,pp.1616−1821.Yoichi Shirasawa, Atsushi Nishida, Fumi Kurisu, “Estimation of Lip Position Robust to Zoom and Face Direction Changes”, Journal of the Institute of Image Information and Television Engineers, Vol. 59, no. 12, pp. 1616-1821.

しかしながら、一般家庭のPC環境で身近なカメラデバイスであるデジタルカメラなどではホワイトバランスの変動が大きい。また、従来、固定閾値による肌抽出法が報告されているものの、ホワイトバランスへの対応は困難であった。また、従来はテンプレートを用いた処理が主流であり、リアルタイムの処理が困難であった。   However, the fluctuation of white balance is large in a digital camera or the like that is a familiar camera device in a general home PC environment. Conventionally, although a skin extraction method using a fixed threshold has been reported, it has been difficult to cope with white balance. Conventionally, processing using a template has been mainstream, and real-time processing has been difficult.

本発明は、ホワイトバランスにロバストでかつリアルタイム処理ができるオブジェクト領域の抽出システムおよび抽出方法を提供することを目的とする。   An object of the present invention is to provide an object region extraction system and an extraction method that are robust to white balance and can be processed in real time.

上記課題を解決するために、本発明の第1の態様に係るオブジェクト領域の抽出システム1は、例えば図1に示すように、オブジェクトのカラー画像を取得するカラー画像取得手段2と、カラー画像から色度成分ヒストグラムおよび色相ヒストグラムを用いて第1のオブジェクト領域を抽出する第1のオブジェクト領域抽出手段31と、カラー画像から彩度ヒストグラムを用いて第2のオブジェクト領域を抽出する第2のオブジェクト領域抽出手段32と、カラー画像から輝度ヒストグラムを用いて第3のオブジェクト領域を抽出する第3のオブジェクト領域抽出手段33と、第1のオブジェクト領域と第2のオブジェクト領域と第3のオブジェクト領域との重複領域をオブジェクト領域として求めるオブジェクト領域合成手段34とを備える。   In order to solve the above problems, an object region extraction system 1 according to a first aspect of the present invention includes, as shown in FIG. 1, for example, a color image acquisition unit 2 that acquires a color image of an object, First object region extraction means 31 for extracting a first object region using a chromaticity component histogram and a hue histogram, and a second object region for extracting a second object region from a color image using a saturation histogram An extraction unit 32; a third object region extraction unit 33 that extracts a third object region from a color image using a luminance histogram; and a first object region, a second object region, and a third object region. An object area synthesis means for obtaining an overlapping area as an object area. .

ここにおいて、色度成分ヒストグラム、色相ヒストグラム、彩度ヒストグラム、輝度ヒストグラムはいずれかの色空間におけるヒストグラムが使用される。色空間として、例えば、HSV色空間(色相hue、彩度saturation value、明度valueを指標とする)、HLS色空間(指標に輝度luminanceを含む)の他に、均等色空間(Uniform Color Space:UCS、人間の知覚上での差異に主眼を置いた色空間で、CIE(国際照明委員会)が定める表色系であり、L色空間、L色空間が含まれる)を使用できる。色相ヒストグラム、彩度ヒストグラム、輝度ヒストグラムはHSV色空間、HLS色空間、L色空間、L色空間の特徴量である。ただし、L色空間、L色空間の特徴量であるが、色度成分ヒストグラムはHSV色空間、HLS色空間の特徴量ではない。したがって、L色空間、L色空間など1つの色空間における色相ヒストグラム、知覚色度ヒストグラム、彩度ヒストグラム、輝度ヒストグラムの4ヒストグラムを用いても良いが、HLS色空間、HSV色空間には色度成分ヒストグラムがないので、HLS色空間またはHSV色空間の彩度ヒストグラムと輝度ヒストグラムを用い、L色空間またはL色空間の色相ヒストグラムと色度成分ヒストグラムを用いるなど複数の色空間を併わせて用いても良い。 Here, a histogram in any color space is used as the chromaticity component histogram, the hue histogram, the saturation histogram, and the luminance histogram. As the color space, for example, in addition to the HSV color space (hue hue, saturation saturation value, and lightness value are used as indices), the HLS color space (including the luminance luminance in the index), a uniform color space (Uniform Color Space: UCS) , A color space that focuses on differences in human perception, and is a color system specified by the CIE (International Commission on Illumination). L * a * b * color space, L * u * v * color space Included). The hue histogram, saturation histogram, and luminance histogram are feature quantities of the HSV color space, the HLS color space, the L * a * b * color space, and the L * u * v * color space. However, although it is a feature amount of the L * a * b * color space and the L * u * v * color space, the chromaticity component histogram is not a feature amount of the HSV color space and the HLS color space. Therefore, four histograms of hue histogram, perceptual chromaticity histogram, saturation histogram, and luminance histogram in one color space such as L * a * b * color space, L * u * v * color space may be used. Since there is no chromaticity component histogram in the color space or HSV color space, the saturation histogram and luminance histogram of the HLS color space or HSV color space are used, and the L * a * b * color space or the L * u * v * color space. A plurality of color spaces may be used together, such as using a hue histogram and a chromaticity component histogram.

色空間は、z方向を輝度L、x軸を赤味−緑味に係る知覚色度a、y軸を黄味−青味に係る知覚色度b、円周方向を色相(メトリック色相角)habとする表色系である。z軸には無彩色が配される。また、L色空間は知覚色度u、vを用い、波長間隔の均等性が考慮された表色系なので、特定の波長方向をx方向に採用すれば、当該波長に対する色味の強度を表現可能である。また、知覚色度は等色差性を有する色度成分(chrominance)といえ、色度成分として知覚色度を用いても良い。また、知覚色度ヒストグラムとは、特定の色相に関する知覚色度(色味)の強度を示すヒストグラムをいい、オブジェクトが肌の場合には赤味の知覚強度を示すaヒストグラムを使用すると好適である。知覚色度は色相と彩度に依存するが、2つの知覚色度(例えばaとb)をxy軸とするx座標値で表される。また、オブジェクトに応じて青味の知覚強度を示すヒストグラム、黄味の知覚強度を示すヒストグラム、緑味の知覚強度を示すヒストグラムなどを適宜選択可能である。また、輝度はRGBに重み付けをした明度といえ(人間の目からみた明るさに近いといわれている)、輝度ヒストグラムに代えて明度ヒストグラムを用いても良い。 The L * a * b * color space is the luminance L * in the z direction, the perceptual chromaticity a * relating to reddish-greenishness in the x-axis, and the perceptual chromaticity b * relating to yellowish-blueness in the y-axis This is a color system in which the circumferential direction is a hue (metric hue angle) h ab . An achromatic color is arranged on the z-axis. Also, since the L * u * v * color space is a color system that uses perceptual chromaticity u * and v * and the uniformity of the wavelength interval is taken into account, if the specific wavelength direction is adopted in the x direction, the wavelength It is possible to express the intensity of the color with respect to. The perceived chromaticity can be said to be a chromaticity component having equal color difference, and the perceived chromaticity may be used as the chromaticity component. The perceptual chromaticity histogram is a histogram indicating the intensity of the perceptual chromaticity (hue) relating to a specific hue. When the object is skin, it is preferable to use an a * histogram indicating the perceived intensity of redness. is there. The perceptual chromaticity depends on the hue and the saturation, but is represented by an x coordinate value having two perceptual chromaticities (for example, a * and b * ) as xy axes. In addition, a histogram indicating the perceived intensity of blue, a histogram indicating the perceived intensity of yellow, a histogram indicating the perceived intensity of green, and the like can be selected as appropriate according to the object. In addition, the luminance is a lightness weighted by RGB (it is said to be close to the light seen from the human eye), and a lightness histogram may be used instead of the luminance histogram.

このように構成すると、第1ないし第3のオブジェクト領域との重複領域をオブジェクト領域として求めるためホワイトバランスにロバストであり、また、テンプレートを用いなくても良いのでリアルタイム処理ができるオブジェクト領域の抽出システムを提供できる。   With this configuration, an object area extraction system that is robust to white balance because an overlapping area with the first to third object areas is obtained as an object area, and that can perform real-time processing without using a template. Can provide.

また、本発明の第2の態様に係るオブジェクト領域の抽出システムは、第1の態様において、オブジェクトが人物の肌である。このように構成すると、肌領域は撮影画像を含むカラー画像に多く使用され、かつホワイトバランスに強く影響を受けるので、ホワイトバランスにロバストな第1の態様を適用すると実用的である。   In the object region extraction system according to the second aspect of the present invention, in the first aspect, the object is a human skin. With this configuration, the skin region is frequently used for color images including captured images and is strongly influenced by white balance. Therefore, it is practical to apply the first aspect that is robust to white balance.

また、本発明の第3の態様に係るオブジェクト領域の抽出システムは、第1または第2の態様において、色度成分ヒストグラムがとしてL色空間におけるaヒストグラムを、色相ヒストグラムとしてL色空間におけるhabヒストグラムを用いる。このように構成すると、L色空間は人物の肌領域と口唇領域を共に抽出する場合に照明の影響に対してロバストなので、人物の肌領域の抽出に好適である。 The object region extraction system according to the third aspect of the present invention, in the first or second aspect, uses the chromaticity component histogram as an a * histogram in the L * a * b * color space as a hue histogram. Use a h ab histogram in the L * a * b * color space. When configured in this manner, the L * a * b * color space is robust to the influence of illumination when extracting both the human skin area and the lip area, and thus is suitable for extracting the human skin area.

また、本発明の第4の態様に係るオブジェクト領域の抽出システムは、第1ないし第3のいずれかの態様において、第1のオブジェクト領域の抽出にファジィ推論を用いる。このように構成すると、撮影環境の変化に伴う色味のあいまい性に自動的に対応できるので、第1のオブジェクト領域の抽出に効率的である。   The object region extraction system according to the fourth aspect of the present invention uses fuzzy reasoning for extraction of the first object region in any of the first to third aspects. With this configuration, it is possible to automatically cope with the ambiguity of the color associated with the change in the shooting environment, which is efficient for extracting the first object region.

また、本発明の第5の態様に係るオブジェクト領域の抽出システムは、第1ないし第4のいずれかの態様において、オブジェクトに対する色度成分ヒストグラム、色相ヒストグラム、彩度ヒストグラムおよび輝度ヒストグラムを記憶する記憶手段4を有する。このように構成すると、計測された画素の色彩を記憶手段4に記憶されたヒストグラムと対比でき、第1ないし第3のオブジェクト領域の抽出に効率的である。   The object region extraction system according to the fifth aspect of the present invention is a memory for storing a chromaticity component histogram, a hue histogram, a saturation histogram, and a luminance histogram for an object in any one of the first to fourth aspects. Means 4 are provided. With this configuration, the color of the measured pixel can be compared with the histogram stored in the storage unit 4, and it is efficient for extracting the first to third object areas.

また、本発明の第6の態様に係るオブジェクト領域の抽出システムは、第5の態様において、記憶手段4は、彩度ヒストグラムおよび輝度ヒストグラムを色温度と関連付けて記憶する。このように構成すると、ホワイトバランスの変化に効率的に対処できる。   In the object region extraction system according to the sixth aspect of the present invention, in the fifth aspect, the storage unit 4 stores the saturation histogram and the luminance histogram in association with the color temperature. With this configuration, it is possible to efficiently cope with a change in white balance.

上記課題を解決するために、本発明の第7の態様に係るオブジェクト領域の抽出方法は、例えば図2に示すように、オブジェクトのカラー画像を取得するカラー画像取得工程(S010)と、カラー画像から色度成分ヒストグラムおよび色相ヒストグラムを用いて第1のオブジェクト領域を抽出する第1のオブジェクト領域抽出工程(S030)と、カラー画像から彩度ヒストグラムを用いて第2のオブジェクト領域を抽出する第2のオブジェクト領域抽出工程(S040)と、カラー画像から輝度ヒストグラムを用いて第3のオブジェクト領域を抽出する第3のオブジェクト領域抽出工程(S050)と、第1のオブジェクト領域と第2のオブジェクト領域と第3のオブジェクト領域との重複領域をオブジェクト領域として求めるオブジェクト領域合成工程(S060)とを備える。   In order to solve the above problem, an object region extraction method according to a seventh aspect of the present invention includes a color image acquisition step (S010) for acquiring a color image of an object, as shown in FIG. A first object region extraction step (S030) for extracting a first object region from the color image using a chromaticity component histogram and a hue histogram, and a second object for extracting a second object region from the color image using a saturation histogram. Object region extraction step (S040), a third object region extraction step (S050) for extracting a third object region from a color image using a luminance histogram, a first object region and a second object region, An object for which an overlapping area with the third object area is obtained as an object area And a preparative area combining step (S060).

ここにおいて、工程順序は適宜変更可能である。例えば、第1ないし第3のオブジェクト領域抽出工程は、どのような順序で行なっても良く、併行して行なっても良い。このように構成すると、ホワイトバランスにロバストでかつリアルタイム処理ができるオブジェクト領域の抽出システムおよび抽出方法を提供できる。   Here, the process order can be changed as appropriate. For example, the first to third object region extraction steps may be performed in any order and may be performed in parallel. If comprised in this way, the extraction system and extraction method of the object area | region which are robust to white balance and can be processed in real time can be provided.

また、本発明の第8の態様に係るプログラムは、第7の態様におけるオブジェクト領域の抽出方法をコンピュータに実行させるためのプログラムである。   A program according to the eighth aspect of the present invention is a program for causing a computer to execute the object region extraction method according to the seventh aspect.

本発明によれば、ホワイトバランスにロバストでかつリアルタイム処理ができるオブジェクト領域の抽出システムおよび抽出方法を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the extraction system and extraction method of the object area | region which are robust to white balance and can be processed in real time can be provided.

以下に、図面を参照して本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[第1の実施の形態]
第1の実施の形態では、オブジェクトが人物の肌、特に顔部分の肌であり、色度成分ヒストグラムがL色空間における知覚色度aヒストグラム、色相ヒストグラムがL色空間におけるメトリック色相角habヒストグラムである例について説明する。
[First Embodiment]
In the first embodiment, the object is the skin of a person, particularly the skin of the face, the chromaticity component histogram is the perceptual chromaticity a * histogram and the hue histogram is L * a * in the L * a * b * color space . An example of a metric hue angle hab histogram in the b * color space will be described.

[システム構成]
図1にオブジェクト領域抽出システムの構成例を示す。図1において、1はオブジェクト領域抽出システムであり、例えば、パーソナルコンピュータ(PC)にプログラムをインストールするなどにより構成可能である。本実施の形態では、オブジェクトとして人物の肌を対象とし、色度成分ヒストグラムとしてL色空間における知覚色度aヒストグラムを、色相ヒストグラムとしてL色空間におけるメトリック色相角habヒストグラムを用いる例について説明する。2はオブジェクトのカラー画像を取得するカラー画像取得手段である。例えば、CCDカメラなどのデジタルカメラ、その他カラー画像を得られるカメラで撮影し、これをデジタル情報としてカラー画像取得手段2により取得する。カラー画像取得手段2はこのようなカメラを含んでも良く、カメラを含まず、他のカメラで撮影した画像を取得するものでも良い。
[System configuration]
FIG. 1 shows a configuration example of an object area extraction system. In FIG. 1, reference numeral 1 denotes an object area extraction system, which can be configured by installing a program in a personal computer (PC), for example. In the present embodiment, the object is human skin, the perceptual chromaticity a * histogram in the L * a * b * color space is used as the chromaticity component histogram, and the metric in the L * a * b * color space is used as the hue histogram. An example using the hue angle hab histogram will be described. Reference numeral 2 denotes color image acquisition means for acquiring a color image of an object. For example, a digital camera such as a CCD camera or other camera capable of obtaining a color image is photographed and obtained as digital information by the color image obtaining means 2. The color image acquisition means 2 may include such a camera, or may not include a camera and may acquire an image taken with another camera.

3はオブジェクト領域抽出手段であり、第1ないし第3のオブジェクト領域抽出手段31〜33、オブジェクト領域合成手段34および部品領域抽出手段35を有する。第1のオブジェクト領域抽出手段31は、カラー画像取得手段2で取得したカラー画像から知覚色度ヒストグラムおよび色相ヒストグラムを用いて第1のオブジェクト領域を抽出する。第2のオブジェクト領域抽出手段32は、カラー画像から彩度ヒストグラムを用いて第2のオブジェクト領域を抽出する。第3のオブジェクト領域抽出手段33は、カラー画像から輝度ヒストグラムを用いて第3のオブジェクト領域を抽出する。オブジェクト領域合成手段34は、第1ないし第3のオブジェクト領域の重複領域を最終結果のオブジェクト領域として求めるもので、これによりオブジェクト領域が決定される。部品領域抽出手段35は、例えばオブジェクトである人物の肌に対して、肌領域の抽出の前に顔の一部である口唇を抽出し、口唇に隣接する顔領域の抽出を容易にする。口唇の抽出手法は第1のオブジェクト領域の抽出手法と同様の手法を使用できる。このため、部品領域抽出手段35を第1のオブジェクト領域抽出手段に含めても良い。なお、部品領域抽出手段35がなくても良く、特に手足などの顔以外の肌領域を求める場合などではなくても良い。なお、彩度ヒストグラムおよび輝度ヒストグラムはL色空間におけるヒストグラムを使用しても良く、HLS色空間におけるヒストグラムを使用しても良い。 Reference numeral 3 denotes an object area extracting means, which has first to third object area extracting means 31 to 33, an object area synthesizing means 34, and a part area extracting means 35. The first object region extraction unit 31 extracts a first object region from the color image acquired by the color image acquisition unit 2 using a perceptual chromaticity histogram and a hue histogram. The second object area extraction means 32 extracts a second object area from the color image using a saturation histogram. The third object area extraction unit 33 extracts a third object area from the color image using a luminance histogram. The object area synthesizing unit 34 obtains an overlapping area of the first to third object areas as an object area as a final result, whereby the object area is determined. The part area extracting unit 35 extracts, for example, a lip, which is a part of a face, before extracting a skin area for a person's skin, which is an object, and facilitates extraction of a face area adjacent to the lip. As the lip extraction method, the same method as the first object region extraction method can be used. For this reason, the part area extraction means 35 may be included in the first object area extraction means. The part area extracting means 35 may not be provided, and it is not particularly necessary to obtain a skin area other than the face such as a limb. Note that the saturation histogram and the luminance histogram may be a histogram in the L * a * b * color space or a histogram in the HLS color space.

4は記憶手段であり、カラー画像取得手段にて取得したカラー画像や第1ないし第3のオブジェクト領域抽出手段31〜33で抽出した画像やオブジェクト領域合成手段で合成した画像を記憶する。記憶手段4にこれらのヒストグラムや画像を記憶することにより、例えば、計測された画素の色彩を記憶手段4に記憶されたヒストグラムと対比でき、第1ないし第3のオブジェクト領域の抽出を効率化できる。5は入出力手段で、マウスやキーボードなどの入力手段や、ディスプレイ、プリンタなどの出力手段を有する。6は演算手段で制御手段7の指示により、適宜オブジェクト抽出に必要な演算を実行する。制御手段7は、オブジェクト領域抽出方法のプログラムを有し、オブジェクト領域抽出システム1全体および各手段2〜6を制御して、オブジェクト領域抽出方法を実行させる。   A storage unit 4 stores the color image acquired by the color image acquisition unit, the images extracted by the first to third object area extraction units 31 to 33, and the image synthesized by the object area synthesis unit. By storing these histograms and images in the storage means 4, for example, the color of the measured pixel can be compared with the histogram stored in the storage means 4, and the extraction of the first to third object areas can be made efficient. . Input / output means 5 has input means such as a mouse and keyboard, and output means such as a display and a printer. Reference numeral 6 denotes a calculation means, which appropriately performs calculations necessary for object extraction in accordance with instructions from the control means 7. The control means 7 has a program for the object area extraction method, and controls the entire object area extraction system 1 and each means 2 to 6 to execute the object area extraction method.

[処理フロー]
図2にオブジェクト領域抽出方法の処理フロー例を示す。はじめに、オブジェクトとしての人物の肌を含むカラー画像を取得する(S010)。例えば、カラー画像を得られるカメラで撮影し、これをデジタル情報としてカラー画像取得手段2により取得する。次に、部品領域抽出手段35にて、取得したカラー画像から口唇領域を検出する(S020)。肌領域に先駆けて口唇領域を抽出するのは、口唇領域は他の領域に比して特徴を識別し易く、又、顔領域と隣接しているので、これを手掛かりとして、容易に顔領域を抽出できるからである。顔面の肌と口唇の相違を示す特徴を有し、照明の影響にロバストであるL色空間に着目し、知覚色度aヒストグラムおよび色相(メトリック色相角)habヒストグラムを用い、ファジィ推論により口唇を検出し、口唇周辺領域の色彩情報を取得する。次に、第1のオブジェクト領域抽出手段31にて、同じ知覚色度aヒストグラムおよび色相habヒストグラムを用いて第1のオブジェクト領域としての肌領域を抽出する(S030)。すなわち、口唇と肌で2つのヒストグラムの分布範囲が分かれるので、両者を分離して抽出できる。知覚色度aヒストグラムおよび色相habヒストグラムは色温度(ホワイトバランス)に影響され難いので、ロバストな第1のオブジェクト領域を抽出できる。また、口唇領域や肌領域にあいまい性がある場合は、抽出にファジィ推論を用いると、撮影環境の変化に伴う色味のあいまい性に自動的に対応できるので、効率良くオブジェクト領域の抽出ができる。次に、第2のオブジェクト領域抽出手段32にて、彩度ヒストグラムを用いて第2のオブジェクト領域としての肌領域を抽出する(S040)。また、第3のオブジェクト領域抽出手段33にて、輝度ヒストグラムを用いて第3のオブジェクト領域としての肌領域を抽出する(S050)。彩度ヒストグラムおよび輝度ヒストグラムは色温度によって影響を受けて変化するので、彩度ヒストグラムおよび輝度ヒストグラムを用いてホワイトバランスに応じた補正ができる。なお、第1ないし第3のオブジェクト領域の抽出は、どのような順序で行っても良く、併行して行なっても良い。次に、オブジェクト領域合成手段34にて、第1ないし第3のオブジェクト領域の重複領域を最終結果のオブジェクト領域として求める(S060)。これにより、第1ないし第3のオブジェクト領域との重複領域を最終結果のオブジェクト領域として求めるため、ホワイトバランスにロバストであり、また、テンプレートを用いなくても良いのでリアルタイム処理ができるオブジェクト領域の抽出方法を提供できる。以下に、本実施の形態におけるオブジェクト領域の抽出方法について詳細に説明する。
[Processing flow]
FIG. 2 shows a processing flow example of the object region extraction method. First, a color image including a human skin as an object is acquired (S010). For example, a color image is taken by a camera that can obtain a color image, which is acquired by the color image acquisition means 2 as digital information. Next, the lip region is detected from the acquired color image by the component region extraction means 35 (S020). The lip area is extracted prior to the skin area because the lip area is easier to identify the features than the other areas and is adjacent to the face area. This is because it can be extracted. Focusing on the L * a * b * color space, which has a feature that shows the difference between facial skin and lips, and is robust to the effects of lighting, perceptual chromaticity a * histogram and hue (metric hue angle) hab histogram Used to detect lips by fuzzy reasoning and acquire color information of the lip peripheral area. Then, in the first object region extraction unit 31, a skin area of a first object region extracted with the same perception chromaticity a * histogram and hue h ab histogram (S030). That is, since the distribution range of the two histograms is divided between the lips and the skin, both can be extracted separately. Since the perceptual chromaticity a * histogram and hue h ab histogram are not easily affected by the color temperature (white balance), a robust first object region can be extracted. Also, if there is ambiguity in the lip area or skin area, if fuzzy reasoning is used for extraction, it is possible to automatically cope with the ambiguity of the color due to changes in the shooting environment, so the object area can be extracted efficiently . Next, the skin area as the second object area is extracted by the second object area extracting means 32 using the saturation histogram (S040). In addition, the third object area extraction unit 33 extracts a skin area as the third object area using the luminance histogram (S050). Since the saturation histogram and the luminance histogram change depending on the color temperature, correction according to the white balance can be performed using the saturation histogram and the luminance histogram. The extraction of the first to third object areas may be performed in any order and may be performed in parallel. Next, the object area synthesizing unit 34 obtains the overlapping area of the first to third object areas as the final object area (S060). As a result, since the overlapping area with the first to third object areas is obtained as the object area of the final result, the object area extraction that is robust to white balance and does not need to use a template and can be processed in real time is extracted. Can provide a method. Hereinafter, a method for extracting an object area in the present embodiment will be described in detail.

[顔部品(口唇)検出]
はじめに、顔部分で特徴的な口唇部分の検出を行なう。口唇部分の検出は部品領域抽出手段35にて行なう。顔面の肌と口唇の相違を示す特徴を有し、照明の影響にロバストであるL色空間に着目し、知覚色度aヒストグラムおよび色相habヒストグラムを用い、ファジィ推論により口唇を検出し、口唇周辺領域の色彩情報を取得する。次に、肌領域を抽出する。
[Face parts (lip) detection]
First, a characteristic lip portion is detected in the face portion. The part area extracting means 35 detects the lip portion. Focusing on the L * a * b * color space, which has a feature that shows the difference between facial skin and lips, and is robust to the influence of lighting, using perceptual chromaticity a * histogram and hue hab histogram, and fuzzy inference The lip is detected, and color information about the lip peripheral area is acquired. Next, a skin region is extracted.

図3に口唇周辺領域とその領域における色度成分ヒストグラムとしての知覚色度aヒストグラムと色相ヒストグラムとしてのメトリック色相角habヒストグラムを示す。図3(a)に口唇周辺領域を、図3(b)にaヒストグラムを、図3(c)にhabヒストグラムを示す。知覚色度aは赤味の強さを示す指標である。各ヒストグラムの縦軸は画素が現れる頻度を示す。図3(a)に示すように、口唇周辺領域(図中四角形で示す)として、横方向に口唇の左右量端までを含み、縦方向に拡張し拡張した領域を設定する。図3(b)より、aヒストグラムは、肌(Skin)を示す領域と口唇(Lip)を示す領域に分かれる。肌領域を表すヒストグラムは、赤みが比較的低く、μ11に頂点を有しLとkを裾とする三角形に近似する。口唇領域を表すヒストグラムは、赤みが比較的高く、μ21に頂点を有しkとRを裾とする三角形に近似する。このように、aヒストグラム上で、肌領域と口唇領域を良く区別することができる。また、図3(c)より、habヒストグラムは、肌(Skin)を示す領域と口唇(Lip)を示す領域に分かれる。口唇領域を表すヒストグラムは、色相が比較的赤色に近く、μ12に頂点を有しLとkを裾とする三角形に近似する。肌領域を表すヒストグラムは、色相が比較的黄色に近く、μ22に頂点を有しkとRを裾とする三角形に近似する。このように、habヒストグラム上で、肌領域と口唇領域を良く区別することができる。これにより、予め肌情報、口唇情報について予め記憶手段4に記憶されたaヒストグラムとhabヒストグラムとを参照することによって、オブジェクトとして取得したカラー画像から口唇領域と肌領域を分離して抽出することができる。そして、口唇領域の周辺に連なる顔領域、顔領域と同じヒストグラムを示す肌を抽出する手掛りとすることができる。 Shows the metric hue angle h ab histogram as perceived chromaticity a * histogram and hue histogram as chromaticity component histogram in lip surrounding area and the area in Figure 3. FIG. 3 (a) shows the lip peripheral region, FIG. 3 (b) shows the a * histogram, and FIG. 3 (c) shows the hab histogram. The perceptual chromaticity a * is an index indicating the intensity of redness. The vertical axis of each histogram indicates the frequency at which pixels appear. As shown in FIG. 3A, as the lip peripheral area (indicated by a square in the figure), an area that extends in the horizontal direction up to the left and right ends of the lip and extends in the vertical direction is set. As shown in FIG. 3B, the a * histogram is divided into a region indicating skin and a region indicating lips. The histogram representing the skin region is relatively low in redness and approximates a triangle having a vertex at μ 11 and having L 1 and k 1 as hems. The histogram representing the lip region is relatively reddish and approximates a triangle having a vertex at μ 21 and skirts of k 1 and R 1 . In this way, the skin area and the lip area can be well distinguished on the a * histogram. Further, from FIG. 3C, the hab histogram is divided into a region indicating skin (Skin) and a region indicating lips (Lip). Histogram representing the lip region, hue relatively close to red, approximates a triangle having the hem has a vertex L 2 and k 2 in mu 12. The histogram representing the skin region approximates a triangle whose hue is relatively yellow, has a vertex at μ 22 and has k 2 and R 2 as hems. In this way, the skin area and the lip area can be well distinguished on the hab histogram. Thereby, the lip area and the skin area are separated and extracted from the color image acquired as an object by referring to the a * histogram and the hab histogram stored in advance in the storage unit 4 for the skin information and the lip information. be able to. And it can be set as the clue which extracts the skin which shows the same histogram as a face area | region and the face area | region continuous in the periphery of a lip | lip area | region.

[肌情報取得]
知覚色度a*ヒストグラム、色相habヒストグラムを使用すると、口唇と肌を分離して抽出できるので、これを利用して肌領域を抽出する。カラー画像から図3(a)で設定した口唇周辺領域について取得した、知覚色度a*ヒストグラム、メトリック色相角habヒストグラムを使用できる。肌情報取得は第1ないし第3のオブジェクト領域抽出手段31〜33にて行なう。
[Skin Information Acquisition]
If the perceptual chromaticity a * histogram and the hue hab histogram are used, the lip and the skin can be separated and extracted, and this is used to extract the skin region. The perceptual chromaticity a * histogram and the metric hue angle hab histogram acquired from the color image for the lip peripheral region set in FIG. 3A can be used. Skin information acquisition is performed by the first to third object region extraction means 31-33.

図4に肌領域の色温度に独立な(色温度に影響され難い)ヒストグラムを示す。図4(a)にaヒストグラム、図4(b)にhabヒストグラムを示す。それぞれ、図3(b)、(c)のヒストグラムから、口唇の領域を分離し、肌領域のみについて再度取得したヒストグラムである。知覚色度aヒストグラムおよびメトリック色相角habヒストグラムは上記のように肌と口唇に対応する分布を有し、この傾向は色温度(ホワイトバランス)が変化しても保持されることから、色温度に独立なヒストグラムといわれ、これを用いて肌領域をロバストに抽出することができる。カラー画像全体、または、カラー画像から目的とする肌領域を含む領域を探索領域に指定し、指定した探索領域について、カラー画像の各画素のaとhabを記憶手段4に記憶されたaヒストグラムとhabヒストグラムと比較して、カラー画像の各部分が肌領域であるか否かを判定することができる。色温度に独立なヒストグラムを用いた肌領域の抽出は第1のオブジェクト領域抽出手段31で行なわれ、抽出された肌領域は第1のオブジェクト領域となる。 FIG. 4 shows a histogram that is independent of the color temperature of the skin region (not easily influenced by the color temperature). FIG. 4A shows an a * histogram, and FIG. 4B shows a hab histogram. Each of these is a histogram obtained by separating the lip area from the histograms of FIGS. 3B and 3C and acquiring only the skin area again. The perceptual chromaticity a * histogram and the metric hue angle h ab histogram have distributions corresponding to the skin and lips as described above, and this tendency is maintained even when the color temperature (white balance) changes. It is said to be a temperature independent histogram, and this can be used to robustly extract the skin region. An entire color image or an area including a target skin area from the color image is designated as a search area, and a * and hab of each pixel of the color image are stored in the storage unit 4 for the designated search area. * By comparing the histogram with the hab histogram, it can be determined whether each part of the color image is a skin region. The extraction of the skin area using the histogram independent of the color temperature is performed by the first object area extracting means 31, and the extracted skin area becomes the first object area.

図5に肌領域の色温度に従属な(色温度に影響され易い)ヒストグラムを示す。図5(a)に彩度ヒストグラム、図5(b)に輝度ヒストグラムを示す。彩度ヒストグラム、輝度ヒストグラムは色温度により変化する。したがって、撮影時の色温度に対応した彩度ヒストグラムおよび輝度ヒストグラムを使用することによって、カラー画像の各画素が肌領域であるか否かを判定し、色温度の変化に応じた適切な肌領域を抽出できる。彩度ヒストグラムを用いた肌領域の抽出は第2のオブジェクト領域抽出手段32で行なわれ、抽出された肌領域は第2のオブジェクト領域となる。輝度ヒストグラムを用いた肌領域の抽出は第3のオブジェクト領域抽出手段33で行なわれ、抽出された肌領域は第3のオブジェクト領域となる。第2のオブジェクト領域および第3のオブジェクト領域を用いて第1のオブジェクト領域を補正できる。なお、彩度ヒストグラムおよび輝度ヒストグラムはL色空間におけるヒストグラムを使用しても良く、HLS色空間におけるヒストグラムを使用しても良い。 FIG. 5 shows a histogram dependent on the color temperature of the skin region (easily affected by the color temperature). FIG. 5A shows a saturation histogram, and FIG. 5B shows a luminance histogram. The saturation histogram and the luminance histogram change depending on the color temperature. Therefore, by using the saturation histogram and luminance histogram corresponding to the color temperature at the time of shooting, it is determined whether each pixel of the color image is a skin region, and an appropriate skin region corresponding to the change in color temperature Can be extracted. The extraction of the skin area using the saturation histogram is performed by the second object area extraction means 32, and the extracted skin area becomes the second object area. The extraction of the skin area using the luminance histogram is performed by the third object area extracting means 33, and the extracted skin area becomes the third object area. The first object area can be corrected using the second object area and the third object area. Note that the saturation histogram and the luminance histogram may be a histogram in the L * a * b * color space or a histogram in the HLS color space.

[肌領域判定(色温度に独立な特徴を用いる)]
次に、取得した肌情報に基づいて、肌領域の判定を行なう。肌領域の判定にはパターン認識、例えばファジィ推論を使用できる。ファジィ推論を用いると、撮影環境の変化に伴う色味のあいまい性に自動的に対応できるので、肌領域を効率的に抽出することができる。まず、知覚色度aの強度と色相habは照明にロバストであり、肌に良く対応した分布を有することに注目し、ファジィ推論などのパターン認識により肌らしさの度合いを演算し、肌領域を求める。例えば、カラー画像の各画素について、ヒストグラムの端点(最大値と最小値)とクラスの平均レベル(口唇と肌それぞれの2つの峰に対応、ただし分布が双峰性を有する必要はない)を用い、肌らしさの度合いを算出し、ヒストグラムに自動閾値選定法(肌らしさの度合を示す帰属度に閾値を設定する)で設定した閾値により、肌領域に属するか否かを判定する。色温度に独立なヒストグラムを用いた肌領域の判定は第1のオブジェクト領域抽出手段31で行なわれる。
[Skin area determination (uses an independent feature for color temperature)]
Next, the skin area is determined based on the acquired skin information. Pattern recognition, such as fuzzy inference, can be used for skin area determination. When fuzzy reasoning is used, it is possible to automatically cope with the ambiguity of the color according to the change of the shooting environment, so that the skin region can be extracted efficiently. First, paying attention to the fact that the intensity of the perceptual chromaticity a * and the hue h ab are robust to lighting and have a distribution that corresponds well to the skin, the degree of skininess is calculated by pattern recognition such as fuzzy inference, and the skin region Ask for. For example, for each pixel in the color image, use the histogram endpoints (maximum and minimum) and class average levels (corresponding to two peaks each of lips and skin, but the distribution need not be bimodal) The degree of skininess is calculated, and it is determined whether or not it belongs to the skin region based on the threshold value set by the automatic threshold selection method (setting the threshold value to the degree of attribution indicating the degree of skininess) in the histogram. Skin area determination using a histogram independent of color temperature is performed by the first object area extraction means 31.

図6に、ファジィ推論を概略的を示す。図6(a)にファジィ規則を模式的に示し、図6(b)にデファジィ化のための計算式を示す。記憶手段4に記憶されたカラー画像に、ガウシアンフィルタを用いた平滑化処理などの前処理を施し、前処理済画像から、aヒストグラムおよびhabヒストグラムを取得する。図6(a)に示すように、ファジィ規則を用いて、aヒストグラムおよびhabヒストグラムを三角形のパターンμ(x)で近似した前件部メンバーシップ関数で表し、各画素についてのa、habの測定値x0、x1を、前件部メンバーシップ関数を用いてμ(x)を求める。さらに、前件部メンバーシップ関数y1’={μ(x)}1/2およびy2’=μ(x)を用いて、各画素についてのa、habの測定値x0、x1からy1’,y2’を求める。そして、図6(b)に示すように、求めたy1’,y2’を用いて、荷重平均法によりデファジィ化を行い、次式により(肌クラスの)帰属度y1を求める。

y1=(w1×y1’+w2×y2’)/(w1+w2)

ここに、w1,w2は重み係数であり、w1=1.5、w2=1.0としたときの結果が良好であったので、これらの値を用いることとする。帰属度y1は肌らしさを表す評価値である。閾値をy2およびy3とし、y2<y1<y3の条件を満たせば、画素は肌領域に属するものとし、条件を満たさなければ、画素は肌領域に属さないものと判定する。これにより、カラー画像について肌領域とその他の領域を2値化表示できる。この例では、荷重平均法を用いているが、これに代えて簡略化ファジィ推論法などを用いても良い。
FIG. 6 schematically shows fuzzy inference. FIG. 6A schematically shows a fuzzy rule, and FIG. 6B shows a calculation formula for defuzzification. The color image stored in the storage unit 4 is subjected to preprocessing such as smoothing processing using a Gaussian filter, and an a * histogram and a hab histogram are obtained from the preprocessed image. As shown in FIG. 6A, using a fuzzy rule, the a * histogram and the hab histogram are expressed by an antecedent part membership function approximated by a triangular pattern μ (x), and a * , Using the antecedent part membership function, μ (x) is obtained from the measured values x0 and x1 of h ab . Further, using the antecedent part membership function y1 ′ = {μ (x)} 1/2 and y2 ′ = μ (x), the measured values of a * and hab for each pixel x0, x1 to y1 ′ , Y2 ′. Then, as shown in FIG. 6B, using the obtained y1 ′ and y2 ′, defuzzification is performed by the weighted average method, and the degree of attribution y1 (of the skin class) is obtained by the following equation.

y1 = (w1 × y1 ′ + w2 × y2 ′) / (w1 + w2)

Here, w1 and w2 are weighting factors, and the results when w1 = 1.5 and w2 = 1.0 are good, so these values are used. The degree of attribution y1 is an evaluation value that represents skinness. If the threshold values are y2 and y3 and the condition of y2 <y1 <y3 is satisfied, the pixel is determined to belong to the skin region, and if the condition is not satisfied, it is determined that the pixel does not belong to the skin region. Thereby, the skin area and other areas can be binarized and displayed for the color image. In this example, the weighted average method is used, but a simplified fuzzy inference method or the like may be used instead.

図7にファジィ推論で求めた肌領域の分布を示す。図7(a)に肌クラスの帰属度y1で表した画像を、図7(b)に2値化した画像を示す。2値化された白色部分が第1のオブジェクト領域に該当する。なお、口唇領域もファジィ推論で求められる。   FIG. 7 shows the distribution of the skin area obtained by fuzzy reasoning. FIG. 7A shows an image represented by the skin class attribution level y1, and FIG. 7B shows a binarized image. The binarized white portion corresponds to the first object area. The lip area can also be obtained by fuzzy inference.

[肌領域判定(色温度に従属な特徴を用いる)]
次に、カラー画像について、色温度により変化する部分がある。すなわち、太陽光、照明の当り方によって、カラー画像の色彩が変化し、肌部分の色彩も変化する。すなわち、彩度、輝度はホワイトバランス設定の影響を大きく受けるので、彩度ヒストグラム、輝度ヒストグラムは色温度により変化する。
[Skin area determination (uses characteristics dependent on color temperature)]
Next, the color image has a portion that changes depending on the color temperature. That is, the color of the color image changes and the color of the skin part also changes depending on how the sunlight and illumination are applied. That is, since the saturation and luminance are greatly affected by the white balance setting, the saturation histogram and luminance histogram change depending on the color temperature.

図8に色温度(ホワイトバランス)による、彩度ヒストグラムおよび輝度ヒストグラムの変化を示す。図8(a)に色温度によるカラー画像の変化を、図8(b)に色温度による彩度ヒストグラムの変化を、図8(c)に色温度による輝度ヒストグラムの変化を示す。図8(a)より色温度が高くなるにつれてカラー画像が暗くなっていくことが分かる。また、図8(b)では、彩度ヒストグラムは色温度が高くなるにつれて彩度ヒストグラムの幅が低彩度側に拡大していくことが示されている。また、図8(c)では色温度が高くなるにつれて輝度ヒストグラムが低輝度側に移動していくことが示されている。したがって、カラー画像中の各画素については、各色温度における彩度ヒストグラムおよび輝度ヒストグラムの最大値と最小値を用いて範囲指定することにより、肌領域を抽出するものとする。彩度ヒストグラムを用いた肌領域の判定は第2のオブジェクト領域抽出手段32で行なわれ、輝度ヒストグラムを用いた肌領域の判定は第3のオブジェクト領域抽出手段33で行なわれる。まず、カラー画像の全体の彩度ヒストグラムおよび輝度ヒストグラムから色温度を求め、その色温度における彩度ヒストグラムの最大値と最小値の範囲内であれば第2のオブジェクト領域として求め、その色温度における輝度ヒストグラムの最大値と最小値の範囲内であれば第3のオブジェクト領域として求める。なお、最大値と最小値は測定誤差を考慮し、例えば上下数%を除いて設定しても良い。   FIG. 8 shows changes in the saturation histogram and the luminance histogram depending on the color temperature (white balance). FIG. 8A shows a change in the color image due to the color temperature, FIG. 8B shows a change in the saturation histogram due to the color temperature, and FIG. 8C shows a change in the luminance histogram due to the color temperature. It can be seen from FIG. 8A that the color image becomes darker as the color temperature increases. FIG. 8B shows that the saturation histogram expands toward the low saturation side as the color temperature increases. Further, FIG. 8C shows that the luminance histogram moves to the low luminance side as the color temperature increases. Therefore, for each pixel in the color image, a skin region is extracted by specifying a range using the maximum and minimum values of the saturation histogram and the luminance histogram at each color temperature. The determination of the skin area using the saturation histogram is performed by the second object area extraction means 32, and the determination of the skin area using the luminance histogram is performed by the third object area extraction means 33. First, the color temperature is obtained from the saturation histogram and luminance histogram of the entire color image, and if it is within the range between the maximum value and the minimum value of the saturation histogram at that color temperature, it is obtained as the second object region, and at that color temperature If it is within the range between the maximum value and the minimum value of the luminance histogram, it is determined as the third object region. Note that the maximum value and the minimum value may be set by taking measurement error into consideration and excluding, for example, several% above and below.

図9に彩度ヒストグラムを用いて抽出した肌領域を、図10に彩度ヒストグラムを用いて抽出した肌領域を示す。両者共に2値化した画像であり、白い部分が肌領域に該当する。望ましくは、平滑化処理などのヒストグラムにおいて微小な頻度の要素を除外する処理を加えても良い。第1のオブジェクト領域として抽出された画像(図7参照)および第3のオブジェクト領域として抽出された画像(図10参照)では背景の壁の部分の一部または全部が肌領域として抽出されているが、第2のオブジェクト領域として抽出された画像(図9参照)では、背景の壁の部分が全て除去されている。また、第1のオブジェクト領域として抽出された画像(図7参照)および第2のオブジェクト領域として抽出された画像(図9参照)では、髪の毛の部分、眉毛の部分および眼の部分が一部、肌領域として抽出されているが、第3のオブジェクト領域として抽出された画像(図10参照)では、髪の毛の部分、眉毛の部分および眼の部分が全て除去されている。   FIG. 9 shows a skin region extracted using the saturation histogram, and FIG. 10 shows a skin region extracted using the saturation histogram. Both images are binarized images, and the white portion corresponds to the skin region. Desirably, processing such as smoothing processing for excluding elements with a very low frequency in the histogram may be added. In the image extracted as the first object area (see FIG. 7) and the image extracted as the third object area (see FIG. 10), part or all of the background wall portion is extracted as the skin area. However, in the image extracted as the second object region (see FIG. 9), all the background wall portions are removed. Further, in the image extracted as the first object region (see FIG. 7) and the image extracted as the second object region (see FIG. 9), the hair part, the eyebrow part and the eye part are partly, Although extracted as a skin region, in the image extracted as the third object region (see FIG. 10), the hair portion, the eyebrows portion, and the eye portion are all removed.

[肌領域抽出(合成)]
図11に、第1ないし第3の抽出画像を重ね合わせて肌領域を抽出する工程を模式的に示す。すなわち、図7に示す第1のオブジェクト領域、図9に示す第2のオブジェクト領域、図10に示す第3のオブジェクト領域の重複部分を最終結果のオブジェクト領域として決定する。すなわち、肌領域判定で求めた3種類の画像のANDを求め、肌領域判定結果とする。この重ね合わせはオブジェクト領域合成手段34にて行なう。図11(a)に第1ないし第3のオブジェクト領域の画像を、図11(b)にこれらを重複して抽出されたオブジェクト領域の画像を、図11(c)に抽出されたオブジェクト領域に彩色処理した画像を示す。図11(b)によれば、壁、髪の毛、眉、眼の部分が除去され、正しい肌領域に補正されていることが分かる。また、図11(c)の彩色処理は、図11(b)のオブジェクト領域の範囲に、カラー画像取得手段2で取得した画像を前処理したカラー画像の彩色を施したものである。望ましくは、形状平滑化処理を加えても良い。
[Skin area extraction (synthesis)]
FIG. 11 schematically shows a process of extracting the skin region by superimposing the first to third extracted images. That is, the overlapping part of the first object area shown in FIG. 7, the second object area shown in FIG. 9, and the third object area shown in FIG. 10 is determined as the final object area. That is, an AND of the three types of images obtained in the skin area determination is obtained and used as the skin area determination result. This superposition is performed by the object area synthesis means 34. FIG. 11A shows an image of the first to third object areas, FIG. 11B shows an image of the object area extracted by overlapping them, and FIG. 11C shows an object area extracted. An image subjected to coloring processing is shown. According to FIG. 11B, it can be seen that the wall, hair, eyebrows, and eye portions have been removed and corrected to the correct skin area. Further, the coloring process of FIG. 11C is a color image obtained by pre-processing the image acquired by the color image acquisition unit 2 in the range of the object area of FIG. 11B. Desirably, a shape smoothing process may be added.

[実験結果]
図12に、原画像、従来法による肌領域抽出結果例、本実施の形態による肌領域抽出結果例を比較して示す。図12(a)に色温度による原画像の変化を、図12(b)に色温度による従来法による肌領域抽出結果の変化を、図12(c)に本実施の形態による肌領域抽出結果の変化を示す。従来法では、色温度低〜中設定時には肌が抽出されているものの、色温度高では肌領域の抽出に失敗している。これに対し、本実施の形態では全ての色温度において、肌領域を抽出可能であることが分かる。本実施の形態では、画像1枚の処理に要した演算時間は約30msである。なお、デジタルカメラで撮影した画像データをリアルタイム処理が可能であることを確認している。以上より、本実施の形態におけるオブジェクト領域抽出システムまたは抽出方法は、ホワイトバランス変化に対応した肌領域抽出がリアルタイムで可能であることを示すものである。
[Experimental result]
FIG. 12 shows a comparison between an original image, a skin region extraction result example according to the conventional method, and a skin region extraction result example according to the present embodiment. FIG. 12A shows the change in the original image due to the color temperature, FIG. 12B shows the change in the skin region extraction result according to the conventional method due to the color temperature, and FIG. 12C shows the skin region extraction result according to the present embodiment. Shows changes. In the conventional method, skin is extracted when the color temperature is low to medium, but extraction of the skin region fails when the color temperature is high. On the other hand, in this embodiment, it can be seen that skin regions can be extracted at all color temperatures. In the present embodiment, the calculation time required for processing one image is about 30 ms. It has been confirmed that image data taken with a digital camera can be processed in real time. As described above, the object region extraction system or the extraction method in the present embodiment shows that skin region extraction corresponding to white balance change is possible in real time.

[第2の実施の形態]
第1の実施の形態では、色度成分ヒストグラムがL色空間における知覚色度aヒストグラム、色相ヒストグラムがL色空間におけるメトリック色相角habがヒストグラムである例について説明したが、第2の実施の形態では、他の色空間を用いる例を説明する。また、第1の実施の形態では、ファジィ推論を用いる例を説明したが、第2の実施の形態では、用いない例を説明する。
[Second Embodiment]
In the first embodiment, perception chromaticity a * Histogram chromaticity component histogram in the L * a * b * color space, the hue histogram L * a * b * metrics in a color space hue angle h ab is a histogram Although an example has been described, in the second embodiment, an example using another color space will be described. In the first embodiment, an example using fuzzy inference has been described. In the second embodiment, an example in which fuzzy inference is not used will be described.

色空間以外の色空間として、例えば、均等色空間であるLを用いても良い。L色空間は波長間隔の均等性が考慮された表色系なので、特定の波長方向をx方向に採用すれば、当該波長に対する色味の強度を表現可能である。また、知覚色度ヒストグラムには均等色空間を用い、色相ヒストグラム、彩度ヒストグラム、輝度ヒストグラムにはHSL色空間、HSV色空間を用いても良く、知覚色度ヒストグラム、色相ヒストグラムには均等色空間を用い、彩度ヒストグラム、輝度ヒストグラムにはHSL色空間、HSV色空間を用いても良い。その他、特徴量が在る範囲で多様な組み合わせが可能である。このように他の均等色空間や均等色空間と他の色相と彩度または知覚色度と明度または輝度に基づいて表現される色空間を組み合わせても、第1の実施の形態と同様に知覚色度ヒストグラム、色相ヒストグラムを用いて第1のオブジェクト領域を抽出し、また、彩度ヒストグラム、輝度ヒストグラムを用いて第2、第3のオブジェクト領域を抽出できる。また、ファジィ推論に代えて、ヒストグラムの最大値と最小値の範囲内であれば第1のオブジェクト領域として求めても良い。そして、第1ないし第3のオブジェクト領域の重複領域から、目的とするオブジェクト領域を求めることができる。Lv色空間、HSL色空間、HSV色空間を用いた場合には、ロバスト性がL色空間を用いる場合に比して劣るものの、なお実用的範囲に保たれる。本実施の形態においても、第1のオブジェクト領域を用いることによりロバストなオブジェクト領域を抽出でき、第2、第3のオブジェクト領域を用いることによりホワイトバランス変化に対応したオブジェクト領域抽出でき、また、リアルタイムでオブジェクト領域の抽出が可能である。 As a color space other than the L * a * b * color space, for example, L * u * v * that is a uniform color space may be used. Since the L * u * v * color space is a color system in which the uniformity of the wavelength interval is taken into account, if a specific wavelength direction is adopted in the x direction, the intensity of the color relative to the wavelength can be expressed. Further, a uniform color space may be used for the perceptual chromaticity histogram, an HSL color space or an HSV color space may be used for the hue histogram, saturation histogram, and luminance histogram, and a uniform color space may be used for the perceptual chromaticity histogram and hue histogram. HSL color space and HSV color space may be used for the saturation histogram and the luminance histogram. In addition, various combinations are possible as long as the feature amount exists. In this way, even when a color space expressed based on another uniform color space, uniform color space, other hue, saturation, perceptual chromaticity, brightness, or luminance is combined, it is perceived as in the first embodiment. The first object region can be extracted using the chromaticity histogram and the hue histogram, and the second and third object regions can be extracted using the saturation histogram and the luminance histogram. Further, instead of fuzzy inference, the first object region may be obtained as long as it is within the range between the maximum value and the minimum value of the histogram. A target object area can be obtained from the overlapping area of the first to third object areas. When the L * u * v color space, HSL color space, and HSV color space are used, the robustness is inferior to that when the L * a * b * color space is used, but the practical range is maintained. It is. Also in the present embodiment, a robust object area can be extracted by using the first object area, an object area corresponding to a white balance change can be extracted by using the second and third object areas, and real-time The object area can be extracted with.

[第3の実施の形態]
第1の実施の形態では、オブジェクトが人物の肌である例を説明したが、第3の実施の形態では他の例について説明する。例えば、カラー画像におけるパンダの白色部分、目玉領域の白身部分などは、ホワイトバランスに影響を強く受けるので、これらのオブジェクトに、第1、第2の実施の形態の手法を適用すれば、好適な結果を期待できる。知覚色度ヒストグラム、色相ヒストグラム、彩度ヒストグラム、輝度ヒストグラムを用いて、ロバストかつ、ホワイトバランス変化に対応したオブジェクト領域をリアルタイムで抽出が可能である。
[Third Embodiment]
In the first embodiment, an example in which the object is a person's skin has been described. In the third embodiment, another example will be described. For example, the white portion of the panda in the color image and the white portion of the eyeball region are strongly affected by the white balance. Therefore, it is preferable to apply the methods of the first and second embodiments to these objects. Expect results. Using a perceptual chromaticity histogram, a hue histogram, a saturation histogram, and a luminance histogram, an object region that is robust and corresponds to a change in white balance can be extracted in real time.

また、本発明は、以上の実施の形態に記載のオブジェクト領域の抽出方法をコンピュータに実行させるためのプログラムとしても実現可能である。プログラムはコンピュータの内蔵メモリに蓄積して使用してもよく、外付けの記憶装置に蓄積して使用しても良く、インターネットからダウンロードして使用しても良い。また、当該プログラムを記録した記録媒体としても実現可能である。   The present invention can also be realized as a program for causing a computer to execute the object region extraction method described in the above embodiments. The program may be used by being stored in a built-in memory of the computer, may be stored and used in an external storage device, or may be downloaded from the Internet and used. Moreover, it is realizable also as a recording medium which recorded the said program.

以上、本発明の実施の形態について説明したが、本発明は上記の実施の形態に限定されるものではなく、実施の形態に種々変更を加えられることは明白である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and it is obvious that various modifications can be made to the embodiments.

例えば、ヒストグラムを用いて第1ないし第3のオブジェクト領域を求める際に、ファジィ推論を用いる例または最大値と最小値を閾値として用いる例を説明したが、例えば肌をいくつかの小部分に区分し、各小部分のヒストグラムと記憶手段に記憶されたヒストグラムを比較して、肌領域か否かを判定してもよく。閾値についても上下何%までをとるかを適宜決めることができる。また、第1の実施の形態では知覚色度ヒストグラムとして赤味ヒストグラムを用いる例を説明したが、オブジェクトに応じて、種々の知覚色度ヒストグラムを選択可能である。   For example, when the first to third object regions are obtained using the histogram, the example using fuzzy inference or the example using the maximum value and the minimum value as threshold values has been described. For example, the skin is divided into several small parts. Then, the histogram of each small portion may be compared with the histogram stored in the storage means to determine whether or not it is a skin region. As for the threshold value, it is possible to appropriately determine the upper and lower percentages. In the first embodiment, an example in which a redness histogram is used as the perceptual chromaticity histogram has been described. However, various perceptual chromaticity histograms can be selected according to the object.

本発明は、肌領域などのオブジェクト領域の抽出に利用できる。   The present invention can be used to extract an object region such as a skin region.

オブジェクト領域抽出システムの構成例を示す図である。It is a figure which shows the structural example of an object area | region extraction system. オブジェクト領域抽出方法の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of an object area | region extraction method. 口唇周辺領域とその領域における知覚色度ヒストグラムとしてのaヒストグラムと色相ヒストグラムとしてのhabヒストグラムを示す図である。It is a diagram illustrating a h ab histogram as a * histogram and hue histogram as perceived chromaticity histogram in lip surrounding area and the area. 肌領域の色温度に独立なヒストグラムを示す図である。It is a figure which shows the histogram independent of the color temperature of a skin area | region. 肌領域の色温度に従属なヒストグラムを示す図である。It is a figure which shows the histogram dependent on the color temperature of a skin area | region. ファジィ推論を概略的を示す図である。It is a figure showing fuzzy reasoning roughly. ファジィ推論で求めた肌領域の分布を示す図である。It is a figure which shows distribution of the skin area | region calculated | required by the fuzzy reasoning. 色温度による、彩度ヒストグラムおよび輝度ヒストグラムの変化を示す図である。It is a figure which shows the change of a saturation histogram and a brightness | luminance histogram by color temperature. 彩度ヒストグラムを用いて抽出した肌領域を示す図である。It is a figure which shows the skin area | region extracted using the saturation histogram. 彩度ヒストグラムを用いて抽出した肌領域を示す図である。It is a figure which shows the skin area | region extracted using the saturation histogram. 第1ないし第3の抽出画像を重ね合わせて肌領域を抽出する工程を模式的に示す図である。It is a figure which shows typically the process of extracting a skin area | region by superimposing the 1st thru | or 3rd extraction image. 原画像、従来法による肌領域抽出結果例、第1の実施の形態における肌領域抽出結果例を比較して示す図である。It is a figure which compares and shows an original image, the skin region extraction result example by the conventional method, and the skin region extraction result example in 1st Embodiment.

符号の説明Explanation of symbols

1 オブジェクト領域抽出システム
2 カラー画像取得手段
3 オブジェクト領域抽出手段
4 記憶手段
5 入出力手段
6 演算手段
7 制御手段
31 第1のオブジェクト領域抽出手段
32 第2のオブジェクト領域抽出手段
33 第3のオブジェクト領域抽出手段
34 オブジェクト領域合成手段
35 部品領域抽出手段
DESCRIPTION OF SYMBOLS 1 Object area extraction system 2 Color image acquisition means 3 Object area extraction means 4 Storage means 5 Input / output means 6 Calculation means 7 Control means 31 First object area extraction means 32 Second object area extraction means 33 Third object area Extracting means 34 Object area synthesizing means 35 Parts area extracting means

Claims (8)

オブジェクトのカラー画像を取得するカラー画像取得手段と;
前記カラー画像から色度成分ヒストグラムおよび色相ヒストグラムを用いて第1のオブジェクト領域を抽出する第1のオブジェクト領域抽出手段と;
前記カラー画像から彩度ヒストグラムを用いて第2のオブジェクト領域を抽出する第2のオブジェクト領域抽出手段と;
前記カラー画像から輝度ヒストグラムを用いて第3のオブジェクト領域を抽出する第3のオブジェクト領域抽出手段と;
前記第1のオブジェクト領域と前記第2のオブジェクト領域と前記第3のオブジェクト領域との重複領域をオブジェクト領域として求めるオブジェクト領域合成手段とを備える;
オブジェクト領域の抽出システム。
Color image acquisition means for acquiring a color image of the object;
First object area extraction means for extracting a first object area from the color image using a chromaticity component histogram and a hue histogram;
Second object region extraction means for extracting a second object region from the color image using a saturation histogram;
Third object area extraction means for extracting a third object area from the color image using a luminance histogram;
An object area synthesizing unit that obtains an overlapping area of the first object area, the second object area, and the third object area as an object area;
Object area extraction system.
前記オブジェクトが人物の肌である;
請求項1に記載のオブジェクト領域の抽出システム。
The object is human skin;
The object region extraction system according to claim 1.
前記色度成分ヒストグラムとしてL色空間におけるaヒストグラムを、前記色相ヒストグラムとしてL色空間におけるhabヒストグラムを用いる;
請求項1または請求項2に記載のオブジェクト領域の抽出システム。
The a * histogram in the L * a * b * color space as the chromaticity component histogram, using h ab histogram in the L * a * b * color space as the color histogram;
The object region extraction system according to claim 1 or 2.
前記第1のオブジェクト領域の抽出にファジィ推論を用いる;
請求項1ないし請求項3のいずれか1項に記載のオブジェクト領域の抽出システム。
Using fuzzy inference to extract the first object region;
The object region extraction system according to any one of claims 1 to 3.
前記オブジェクトに対する前記色度成分ヒストグラム、前記色相ヒストグラム、前記彩度ヒストグラムおよび前記輝度ヒストグラムを記憶する記憶手段を有する;
請求項1ないし請求項4のいずれか1項に記載のオブジェクト領域の抽出システム。
Storage means for storing the chromaticity component histogram, the hue histogram, the saturation histogram, and the luminance histogram for the object;
The object region extraction system according to any one of claims 1 to 4.
前記記憶手段は、前記彩度ヒストグラムおよび前記輝度ヒストグラムを色温度と関連付けて記憶する;
請求項5に記載のオブジェクト領域の抽出システム。
The storage means stores the saturation histogram and the luminance histogram in association with a color temperature;
The object region extraction system according to claim 5.
オブジェクトのカラー画像を取得するカラー画像取得工程と;
前記カラー画像から色度成分ヒストグラムおよび色相ヒストグラムを用いて第1のオブジェクト領域を抽出する第1のオブジェクト領域抽出工程と;
前記カラー画像から彩度ヒストグラムを用いて第2のオブジェクト領域を抽出する第2のオブジェクト領域抽出工程と;
前記カラー画像から輝度ヒストグラムを用いて第3のオブジェクト領域を抽出する第3のオブジェクト領域抽出工程と;
前記第1のオブジェクト領域と前記第2のオブジェクト領域と前記第3のオブジェクト領域との重複領域をオブジェクト領域として求めるオブジェクト領域合成工程とを備える;
オブジェクト領域の抽出方法。
A color image acquisition step of acquiring a color image of the object;
A first object region extraction step of extracting a first object region from the color image using a chromaticity component histogram and a hue histogram;
A second object region extraction step of extracting a second object region from the color image using a saturation histogram;
A third object region extracting step of extracting a third object region from the color image using a luminance histogram;
An object area synthesis step of obtaining an overlapping area of the first object area, the second object area, and the third object area as an object area;
Object area extraction method.
請求項7に記載のオブジェクト領域の抽出方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the object region extraction method according to claim 7.
JP2008047492A 2008-02-28 2008-02-28 Object region extraction system and method Expired - Fee Related JP5099434B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008047492A JP5099434B2 (en) 2008-02-28 2008-02-28 Object region extraction system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008047492A JP5099434B2 (en) 2008-02-28 2008-02-28 Object region extraction system and method

Publications (2)

Publication Number Publication Date
JP2009205469A true JP2009205469A (en) 2009-09-10
JP5099434B2 JP5099434B2 (en) 2012-12-19

Family

ID=41147653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008047492A Expired - Fee Related JP5099434B2 (en) 2008-02-28 2008-02-28 Object region extraction system and method

Country Status (1)

Country Link
JP (1) JP5099434B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5887264B2 (en) * 2010-05-11 2016-03-16 日本システムウエア株式会社 Object recognition apparatus, method, program, and computer-readable medium storing the software
JP2016061692A (en) * 2014-09-18 2016-04-25 株式会社メガチップス Human body detection device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11313202A (en) * 1998-04-28 1999-11-09 Sharp Corp Image processing unit and image processing method
JP2000105819A (en) * 1998-09-28 2000-04-11 Sanyo Electric Co Ltd Face image area detecting device
JP2000123165A (en) * 1998-10-19 2000-04-28 Canon Inc Image processor and its method
JP2003070742A (en) * 2001-08-31 2003-03-11 Japan Science & Technology Corp Device and method to detect visual line
JP2005216094A (en) * 2004-01-30 2005-08-11 Konica Minolta Photo Imaging Inc Trial fitting simulation method
JP2006171929A (en) * 2004-12-14 2006-06-29 Honda Motor Co Ltd Facial area estimation system, facial area estimation method and facial area estimation program
JP2007067559A (en) * 2005-08-29 2007-03-15 Canon Inc Image processing method, image processing apparatus, and control method of imaging apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11313202A (en) * 1998-04-28 1999-11-09 Sharp Corp Image processing unit and image processing method
JP2000105819A (en) * 1998-09-28 2000-04-11 Sanyo Electric Co Ltd Face image area detecting device
JP2000123165A (en) * 1998-10-19 2000-04-28 Canon Inc Image processor and its method
JP2003070742A (en) * 2001-08-31 2003-03-11 Japan Science & Technology Corp Device and method to detect visual line
JP2005216094A (en) * 2004-01-30 2005-08-11 Konica Minolta Photo Imaging Inc Trial fitting simulation method
JP2006171929A (en) * 2004-12-14 2006-06-29 Honda Motor Co Ltd Facial area estimation system, facial area estimation method and facial area estimation program
JP2007067559A (en) * 2005-08-29 2007-03-15 Canon Inc Image processing method, image processing apparatus, and control method of imaging apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5887264B2 (en) * 2010-05-11 2016-03-16 日本システムウエア株式会社 Object recognition apparatus, method, program, and computer-readable medium storing the software
JP2016061692A (en) * 2014-09-18 2016-04-25 株式会社メガチップス Human body detection device

Also Published As

Publication number Publication date
JP5099434B2 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
KR101554403B1 (en) Image processing device, image processing method, and recording medium for control program
US8774503B2 (en) Method for color feature extraction
EP2720190B1 (en) Image processing device, image processing method, and control program
US8855371B2 (en) Color image processing method, color image processing device, and color image processing program
US20160106198A1 (en) Transparency evaluation device, transparency evaluation method and transparency evaluation program
EP3067865B1 (en) Image processing apparatus and image processing method
CN105103187A (en) Multi-spectral imaging system for shadow detection and attenuation
CN113344836B (en) Face image processing method and device, computer readable storage medium and terminal
Gritzman et al. Comparison of colour transforms used in lip segmentation algorithms
WO2015145917A1 (en) Image-correcting device, image correction method, and program-recording medium
CN109063598A (en) Face pore detection method, device, computer equipment and storage medium
JP2016170628A (en) Image processor and image processing method
US20170061664A1 (en) Method for generating image and image generation system
JP5099434B2 (en) Object region extraction system and method
CN116563570B (en) Color recognition method and device, electronic equipment and storage medium
Berbar Novel colors correction approaches for natural scenes and skin detection techniques
JP5203159B2 (en) Image processing method, image processing system, and image processing program
JP2007243987A (en) Image processing method, image processing system, and image processing program
US10083516B2 (en) Method for segmenting a color image and digital microscope
CN113781330A (en) Image processing method, device and electronic system
JP5903315B2 (en) Image processing apparatus and image processing program
Porle et al. Performance of histogram-based skin colour segmentation for arms detection in human motion analysis application
JP4171354B2 (en) Color image processing apparatus and method
CN110751078B (en) Method and equipment for determining non-skin color region of three-dimensional face
JP7400198B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110221

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120912

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5099434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees