JP5153660B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5153660B2
JP5153660B2 JP2009006116A JP2009006116A JP5153660B2 JP 5153660 B2 JP5153660 B2 JP 5153660B2 JP 2009006116 A JP2009006116 A JP 2009006116A JP 2009006116 A JP2009006116 A JP 2009006116A JP 5153660 B2 JP5153660 B2 JP 5153660B2
Authority
JP
Japan
Prior art keywords
region
specific color
area
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009006116A
Other languages
Japanese (ja)
Other versions
JP2010166263A (en
Inventor
文貴 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009006116A priority Critical patent/JP5153660B2/en
Publication of JP2010166263A publication Critical patent/JP2010166263A/en
Application granted granted Critical
Publication of JP5153660B2 publication Critical patent/JP5153660B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から人物の肌色領域を検出する画像処理技術に関する。   The present invention relates to an image processing technique for detecting a human skin color region from an image.

近年のマルティメディアの発展に伴い様々な動画像圧縮符号化方式が提案されており、代表的なものに、MPEG−1,2,4やH.26Lがある。MPEG方式に準拠して画像の圧縮・符号化を行う場合、その符号量は、画像自体の特性である空間周波数特性やシーン及び量子化パラメータに応じて大きく異なる場合が多い。このような符号化特性を実現する上で良好な画質の復号化画像を得られるようにするための重要な技術が符号量制御や量子化制御であり、TM5(Test Model 5)と呼ばれる方式が一般的に使用されている。   With the development of multimedia in recent years, various video compression encoding systems have been proposed, and representative ones include MPEG-1, 2, 4 and H.264. There are 26L. When image compression / encoding is performed in conformity with the MPEG system, the amount of code often varies greatly depending on the spatial frequency characteristics, scenes, and quantization parameters that are characteristics of the image itself. An important technique for obtaining a decoded image with good image quality in realizing such coding characteristics is code amount control and quantization control, and a method called TM5 (Test Model 5) is used. Commonly used.

TM5方式は、大きく3つのステップに分けて実行される。ステップ1は、今から符号化を行うピクチャの目標符号量を決定する。ステップ2は、ピクチャ内で実際の発生符号量が目標符号量に近づくように、マクロブロックについて、量子化パラメータの参照値を設定する。   The TM5 method is roughly divided into three steps. In step 1, a target code amount of a picture to be encoded is determined. Step 2 sets the reference value of the quantization parameter for the macroblock so that the actual generated code amount approaches the target code amount in the picture.

ステップ3は、視覚特性、即ち、復号化された画像の画質が良好になるように、符号化対象のマクロブロックの空間アクティビティに基づいて、量子化パラメータを決定する処理を実行する。具体的には、マクロブロックにおける8x8のサブブロックにおける空間アクティビティを算出し、ステップ2で算出した量子化パラメータの参照値に乗ずることで量子化に使用する量子化パラメータを決定する。この処理により、視覚的劣化が目立ちやすい平坦部(空間アクティビティが低い)に符号量が多く割り当てられるため、画質の劣化を抑えた符号量制御ならびに量子化制御が実現できる。   Step 3 executes a process of determining a quantization parameter based on the spatial activity of the macroblock to be encoded so that the visual characteristics, that is, the quality of the decoded image is good. Specifically, the spatial activity in the 8 × 8 sub-block in the macroblock is calculated, and the quantization parameter used for quantization is determined by multiplying the reference value of the quantization parameter calculated in step 2. By this processing, a large amount of code is allocated to a flat portion (low spatial activity) where visual degradation is conspicuous, so that it is possible to realize code amount control and quantization control with suppressed image quality degradation.

一方、ステップ3に、人物の肌色を検出して、肌色と検出された領域に対して多くの符号量を割り当てる処理を組み入れることで注視領域に対する画質の向上を図る手法も提案されている。   On the other hand, a method for improving the image quality of the gaze area by incorporating a process of detecting the skin color of the person and assigning a large amount of code to the detected area as the skin color is proposed in Step 3.

肌色検出手法に関しては、その多くは閾値を用いた検出方法であり、過去に様々な提案がされている。その理由は、人物の肌色は色領域の中でも特定の領域に存在することがわかっているためである。以下に肌色検出の一例について説明する。   Many of the skin color detection methods are detection methods using threshold values, and various proposals have been made in the past. The reason is that it is known that the skin color of a person exists in a specific area in the color area. An example of skin color detection will be described below.

一般的な肌色検出手法として、所定サイズのブロックに含まれる各画素の色差の平均値を算出し、閾値(th0〜th1)内に含まれる場合、そのブロックを肌色であると判定する手法がある。   As a general skin color detection method, there is a method of calculating an average value of color differences of pixels included in a block of a predetermined size and determining that the block is a skin color when included in a threshold (th0 to th1). .

また、他の肌色検出手法として、ブロック内の各画素が持つ色差の値が所定の閾値内(th2〜th3)に含まれるか判定して、th1〜th2にある画素が別の閾値(th4)を超えた場合、ブロックは肌色が多く含まれていると判定する手法がある。なお、このブロックは符号化(量子化)との整合性を利用してマクロブロックとしてもよい。   As another skin color detection method, it is determined whether the color difference value of each pixel in the block is within a predetermined threshold (th2 to th3), and pixels in th1 to th2 are set to another threshold (th4). There is a method for determining that the block contains a lot of skin color when the value exceeds. This block may be a macroblock using consistency with encoding (quantization).

また、別の手法として色情報をRGB空間からHI(V)空間に変換し、HとIで予め決められた閾値により肌色を抽出する方法(特許文献1参照)や、この手法の応用としてデジタルカメラによるホワイトバランス設定や美肌処理がある。
特開2000−048184号公報
As another method, color information is converted from RGB space to HI (V) space, and skin color is extracted with a threshold value determined in advance by H and I (see Patent Document 1). There are white balance setting and skin care treatment by the camera.
JP 2000-048184 A

しかしながら、上記閾値を用いた肌色検出では、照明条件や気候の変化等の影響によって人物の肌色を正確に検出することが難しくなる。暗い室内や曇りの日には撮像装置に入力される光信号が弱いため、装置内部で信号の増幅(ゲインアップ)を行うので、実際の肌色とは異なる色空間となる場合がある。   However, in skin color detection using the above threshold, it is difficult to accurately detect the skin color of a person due to the influence of lighting conditions, climate change, and the like. Since the optical signal input to the imaging device is weak in a dark room or on a cloudy day, signal amplification (gain increase) is performed inside the device, so that there may be a color space different from the actual skin color.

また、自然界には木目の机や紅葉といった人物の目には肌色に見えなくても、人物の肌色に近い色空間を持つ物体が数多く存在する。このため、本来肌色として検出したい領域が検出できなかったり、肌色でない領域を肌色と誤検出してしまうことで、肌色の領域よりも肌色以外の領域に符号量が多く割り当てられてしまい、画質低下を引き起こすおそれもある。   In the natural world, there are many objects having a color space that is close to the skin color of a person, even though it does not look like a skin color to the eyes of a person, such as a wood desk or autumn leaves. For this reason, an area that is originally intended to be detected as skin color cannot be detected, or a non-skin color area is erroneously detected as a skin color, so that a larger amount of code is assigned to a non-skin color area than a skin color area, resulting in a reduction in image quality. There is also a risk of causing.

本発明は、上記課題に鑑みてなされ、肌色検出の精度を向上し、高画質化を実現するものである。   The present invention has been made in view of the above problems, and improves the accuracy of skin color detection and achieves high image quality.

上記課題を解決するために、本発明に係る画像処理装置は、画像中に含まれる特定色の領域を検出し、前記特定色の領域の符号量が前記特定色の領域ではない領域の符号量よりもえるように符号化する画像処理装置であって、画像を入力する画像入力手段と、前記画像入手段により入力された画像から人物の顔に対応する領域を検出する顔検出手段と、前記検出された人物のに対応する領域色情報を抽出する特徴量抽出手段と、前記画像から特定色の領域を検出する特定色領域検出手段と、前記抽出された色情報に基づいて、前記特定色領域検出手段により前記特定色の領域を検出するための閾値を設定する設定手段と、を有し、前記顔検出手段により前記画像から複数の人物の顔に対応する複数の領域が検出された場合、
前記設定手段は、前記検出されたそれぞれの人物の顔に対応する領域から抽出された色情報に基づいて、前記特定色領域検出手段により前記特定色の領域を検出するための閾値を設定し、前記特定色領域検出手段は、前記閾値に基づいて前記検出されたそれぞれの人物の顔に対応する領域ごとに前記特定色の領域を検出する。
In order to solve the above-described problem, an image processing apparatus according to the present invention detects a specific color area included in an image, and the code amount of an area where the code amount of the specific color area is not the specific color area. an image processing apparatus that turn into symbols as obtain increased than an image input means for inputting images, face detection for detecting an area corresponding to a person's face from the input image by the image ZoIri force means means and a feature extraction means for extracting color information of the region corresponding to the face of the detected person, the specific color area detecting means for detecting a region of a specific color from the image image, color information of the extracted based on, it has a setting means for setting a threshold value for detecting the region of the specific color by the specific color area detection unit, corresponding to the face of a plurality of persons from the image by the face detecting unit more If this area is detected,
The setting means sets a threshold for detecting the specific color area by the specific color area detection means based on color information extracted from the area corresponding to each detected human face, The specific color area detecting means detects the specific color area for each area corresponding to the detected human face based on the threshold .

また、本発明に係る画像処理方法は、画像中に含まれる特定色の領域を検出し、前記特定色の領域の符号量が前記特定色の領域ではない領域の符号量よりもえるように符号化する画像処理方法であって、画像を入力する画像入力工程と、前記画像から人物の顔に対応する領域を検出する顔検出工程と、前記検出された人物のに対応する領域色情報を抽出する特徴量抽出工程と、前記画像から特定色の領域を検出する特定色領域検出工程と、前記抽出された色情報に基づいて、前記特定色領域検出工程にて特定色の領域を検出するための閾値を設定する設定工程と、を有し、前記顔検出工程において前記画像から人物の顔に対応する複数の領域が検出された場合、前記設定工程では、前記検出されたそれぞれの人物の顔に対応する領域から抽出された色情報に基づいて、前記特定色領域検出工程により前記特定色の領域を検出するための閾値を設定し、前記特定色領域検出工程では、前記閾値に基づいて前記検出されたそれぞれの人物の顔に対応する領域ごとに前記特定色の領域を検出する。 The image processing method according to the present invention detects the region of a specific color included in the image, such that the code amount of the specific color region is obtaining increased than the code amount of the non-specific color area region an image processing method that turn into symbols, a face detection step of detecting an image input step of inputting images, an area corresponding from the front Kiga image on the face of a person, corresponding to the face of the detected person a feature amount extraction step of extracting color information of the region, and the specific color area detection step of detecting a region of a specific color from the image image, based on the extracted color information, specified by the specific color area detection step possess a setting step of setting a threshold value for detecting the area of color, and when a plurality of regions corresponding to a person's face from the image in the face detection step is detected in the setting step, the detection The area corresponding to the face of each person Based on the extracted color information, a threshold value for detecting the specific color region is set by the specific color region detection step. In the specific color region detection step, each of the detected values based on the threshold value is set. The specific color area is detected for each area corresponding to a human face .

本発明によれば、肌色検出に用いる閾値を顔検出結果から得られる顔特徴量を用いてダイナミックに変化させることで、肌色検出精度を向上し、高画質化を実現できる。   According to the present invention, the skin color detection accuracy can be improved and the image quality can be improved by dynamically changing the threshold value used for the skin color detection using the face feature amount obtained from the face detection result.

以下に、添付図面を参照して本発明を実施するための最良の形態について詳細に説明する。     The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

[第1の実施形態]
先ず、本発明に係る第1の実施形態について図1〜図5を参照して説明する。
[First Embodiment]
First, a first embodiment according to the present invention will be described with reference to FIGS.

図1は、本発明に係る第1の実施形態の画像処理装置の全体構成を示すブロック図である。図2は本実施形態の画像処理装置による画像処理方法示すフローチャートである。図3は顔検出処理と肌色検出処理について説明する図である。図4は顔検出されない画像を例示する図である。図5は肌色検出領域の設定方法について説明する図である。   FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to the first embodiment of the present invention. FIG. 2 is a flowchart showing an image processing method by the image processing apparatus of the present embodiment. FIG. 3 is a diagram for explaining the face detection process and the skin color detection process. FIG. 4 is a diagram illustrating an image whose face is not detected. FIG. 5 is a diagram for explaining a skin color detection area setting method.

本実施形態の画像処理装置は、符号化方式としてMPEG(Moving Pictures of Experts Group)やH.264/AVC(Advanced Video Coding)を適用するデジタルビデオカメラである。また、本実施形態に係る画像処理装置は、画像中に含まれる肌色領域を検出し、当該肌色領域の符号量を増やして高画質に符号化処理する機能を有する。   The image processing apparatus of the present embodiment uses MPEG (Moving Pictures of Experts Group) or H.264 as an encoding method. This is a digital video camera to which H.264 / AVC (Advanced Video Coding) is applied. In addition, the image processing apparatus according to the present embodiment has a function of detecting a flesh color area included in an image, increasing the code amount of the flesh color area, and performing a coding process with high image quality.

図1において、100〜110が主にカメラ処理系を構成するブロックであり、120〜137が主に記録処理系を構成するブロックである。   In FIG. 1, reference numerals 100 to 110 are blocks that mainly constitute a camera processing system, and reference numerals 120 to 137 are blocks that mainly constitute a recording processing system.

カメラ処理系のうち、フォーカスレンズを含む結像光学系100により、被写体の光学像がCCDやCMOSなどの撮像素子101の受光面に結像され、撮像素子101により光電変換されて画像信号が生成される。撮像素子101から出力される画像信号はカメラ信号処理部102で色分離、ガンマ補正、ホワイトバランス調整等の必要な信号処理が施され、輝度・色差信号を形成してフレームメモリ103に格納される。フレームメモリ103に格納された輝度・色差信号は、画像変倍部104により、任意の画像範囲が読み出され、所定の画素補間処理により、画像の拡大/縮小処理を行うと共に、所定の記録フォーマットに変換される。   Among the camera processing systems, an imaging optical system 100 including a focus lens forms an optical image of a subject on a light receiving surface of an image sensor 101 such as a CCD or CMOS, and photoelectric conversion is performed by the image sensor 101 to generate an image signal. Is done. The image signal output from the image sensor 101 is subjected to necessary signal processing such as color separation, gamma correction, white balance adjustment and the like by the camera signal processing unit 102 to form a luminance / color difference signal and store it in the frame memory 103. . The luminance / color difference signal stored in the frame memory 103 is read out by an image scaling unit 104, and an image range is read out by a predetermined pixel interpolation process, and a predetermined recording format is used. Is converted to

また、カメラ処理系には顔検出部106が設けられ、カメラ信号処理部102からの出力信号ならびに画像変倍部104で所定の記録フォーマットに変換された信号のいずれかが第1のセレクタ105によって選択的に入力される。   The camera processing system is provided with a face detection unit 106, and either the output signal from the camera signal processing unit 102 or the signal converted into a predetermined recording format by the image scaling unit 104 is input by the first selector 105. Input selectively.

第1のセレクタ105は顔検出部106の性能に依存して入力を切り替えるためにあり、画像変倍部104で変換された画像サイズがカメラ信号処理部102の出力画像サイズよりも小さいと仮定する。顔検出部106の処理性能が十分高い場合や高精度で顔検出を行う場合は、入力画像をそのまま顔検出に使用するため、カメラ信号処理部102からの出力信号を第1のセレクタ105に入力する。逆に、顔検出部106の処理性能が十分ではない場合や高い精度が必要ない場合は画像変倍部104で所定の記録フォーマットに変換された信号を第1のセレクタ105に入力する。本実施形態では、どちらの信号を選択しても良いし、検出する顔の個数などからダイナミックに切り替えても良く、本発明はこの選択方法について特に限定されるものではない。   The first selector 105 is for switching input depending on the performance of the face detection unit 106, and it is assumed that the image size converted by the image scaling unit 104 is smaller than the output image size of the camera signal processing unit 102. . When the processing performance of the face detection unit 106 is sufficiently high or when performing face detection with high accuracy, the output signal from the camera signal processing unit 102 is input to the first selector 105 in order to directly use the input image for face detection. To do. On the contrary, when the processing performance of the face detection unit 106 is not sufficient or when high accuracy is not required, the signal converted into a predetermined recording format by the image scaling unit 104 is input to the first selector 105. In this embodiment, either signal may be selected, and the number of faces to be detected may be dynamically switched, and the present invention is not particularly limited with respect to this selection method.

顔検出部106により顔が検出された場合、検出された顔のサイズや位置情報を顔特徴量抽出部109に出力する。顔特徴量抽出部109では、検出した顔の色情報を抽出してカメラ系コントローラ110に出力する。また、上記顔のサイズや位置情報もカメラ系コントローラ110に出力され、肌色検出領域の設定に使用される。ここでの処理の詳細は、後段の記録処理系の肌色検出部135と合わせて後述する。   When a face is detected by the face detection unit 106, the detected face size and position information is output to the face feature amount extraction unit 109. The face feature quantity extraction unit 109 extracts the detected face color information and outputs it to the camera system controller 110. The face size and position information is also output to the camera controller 110 and used for setting the skin color detection area. Details of the processing here will be described later together with the skin color detection unit 135 of the recording processing system in the subsequent stage.

なお、顔検出部106の検出結果がカメラ処理系のレンズ制御部107に出力され、顔領域にピントを合わせるために結像光学系100を制御する。同様に、カメラ制御部108にも顔検出結果が出力され、顔の画質を向上させるための露出補正や美肌処理も合わせて実行する。ただし、本発明を実現する上で、この機能は必須ではない。   The detection result of the face detection unit 106 is output to the lens control unit 107 of the camera processing system, and the imaging optical system 100 is controlled to focus on the face area. Similarly, the face detection result is output to the camera control unit 108, and exposure correction and skin beautification processing for improving the image quality of the face are also executed. However, this function is not essential for realizing the present invention.

次に、記録処理系のうち、カメラ処理系で所定の記録フォーマットに変換された信号が記録処理系の入力部であるフレームメモリ120に保持される。フレームメモリ120に保持された信号は、フレーム並べ替え部121により所定の符号化フォーマットに準拠した順序で符号化ピクチャタイプに応じた並べ替えが実行される。フレーム並べ替え部121による並べ替えが終了した画像はブロックに分割される。その後、符号化ピクチャがフレーム内符号化(イントラ符号化)方式の場合は、直交変換部123にてマクロブロック内の信号に対して直交変換処理が実行され、量子化部124で直交変換係数が量子化される。また、符号化ピクチャがフレーム間符号化ピクチャ(インター符号化)方式の場合は、既に符号化されたピクチャに対して逆量子化部125にて逆量子化、逆直交変換部126にて逆直交変換処理が実行されたローカルデコード画像を作成する。   Next, of the recording processing system, a signal converted into a predetermined recording format by the camera processing system is held in the frame memory 120 which is an input unit of the recording processing system. The signals held in the frame memory 120 are rearranged according to the encoded picture type by the frame rearrangement unit 121 in an order compliant with a predetermined encoding format. The image that has been rearranged by the frame rearrangement unit 121 is divided into blocks. Thereafter, when the encoded picture is an intra-frame coding (intra coding) system, the orthogonal transform unit 123 performs orthogonal transform processing on the signal in the macroblock, and the quantization unit 124 determines the orthogonal transform coefficient. Quantized. Further, when the encoded picture is an inter-frame encoded picture (inter-encoded) system, the inverse quantization unit 125 performs inverse quantization on the already encoded picture, and the inverse orthogonal transform unit 126 performs inverse orthogonality. A locally decoded image that has been subjected to the conversion process is created.

次に、動き予測/動き補償部127により、これから符号化するピクチャとの動き予測ならびに動き補償が実行され、ローカルデコード画像との差分値が加減算部122により算出される。算出された差分値は、直交変換部123にて直交変換処理が実行され、量子化部124にて直交変換係数が量子化される。   Next, the motion prediction / motion compensation unit 127 performs motion prediction and motion compensation with the picture to be encoded, and the difference value with respect to the local decoded image is calculated by the addition / subtraction unit 122. The calculated difference value is subjected to orthogonal transformation processing by the orthogonal transformation unit 123, and the orthogonal transformation coefficient is quantized by the quantization unit 124.

フレーム内符号化およびフレーム間符号化に関わらず量子化部124で量子化された量子化信号は可変長符号化部131で符号化され、符号化された信号がストリームバッファ132で一旦保持された後、HDDや光ディスク等の記録媒体136に記録される。   Regardless of intraframe coding or interframe coding, the quantized signal quantized by the quantizing unit 124 is encoded by the variable length encoding unit 131, and the encoded signal is temporarily held by the stream buffer 132. Thereafter, the data is recorded on a recording medium 136 such as an HDD or an optical disk.

一方、符号量制御部133は、GOP内の各ピクチャに対する割り当てビット量を、割り当て対象ピクチャを含めてGOP内でまだ符号化されていないピクチャに対するビット量に応じて割り当てる。この割り当てをGOP内の符号化ピクチャ順に繰り返し、ピクチャごとにピクチャ目標符号量が設定される。   On the other hand, the code amount control unit 133 allocates an allocation bit amount for each picture in the GOP according to a bit amount for a picture that has not been encoded in the GOP including the allocation target picture. This allocation is repeated in the order of the encoded pictures in the GOP, and a picture target code amount is set for each picture.

量子化制御部134は、各ピクチャに対する目標符号量と可変長符号化部131から出力される発生符号量とを一致させるための仮想バッファの容量に基づき、フィードバック制御により量子化パラメータを算出する。そして、肌色検出部135で肌色と検出したマクロブロックを、上記算出された量子化パラメータよりも小さくするように制御する。量子化パラメータを小さくすることによって、肌色と検出されたマクロブロックでは符号量が増え、高画質となる。   The quantization control unit 134 calculates a quantization parameter by feedback control based on the capacity of the virtual buffer for matching the target code amount for each picture with the generated code amount output from the variable length encoding unit 131. Then, the macro block detected as the skin color by the skin color detection unit 135 is controlled to be smaller than the calculated quantization parameter. By reducing the quantization parameter, the amount of code increases in the macroblock detected as flesh color, resulting in high image quality.

次に、本実施形態における顔検出処理と肌色検出処理について図2のフローと図3〜図5を参照して説明する。   Next, the face detection process and the skin color detection process in this embodiment will be described with reference to the flow of FIG. 2 and FIGS.

図2において、AC電源やバッテリーなどから電力が供給され、画像処理装置が起動されると、S201において、先ず、顔検出部106が連続して顔を検出しないフレーム数であるMの値をゼロにリセットする。この時点でカメラ処理系、記録処理系を含む装置の各ブロックが記録スタンバイ状態に移行する。   In FIG. 2, when power is supplied from an AC power source or a battery and the image processing apparatus is activated, first, in S201, the value of M, which is the number of frames in which the face detection unit 106 does not continuously detect a face, is set to zero. Reset to. At this time, each block of the apparatus including the camera processing system and the recording processing system shifts to the recording standby state.

S202では、画像入力処理として、結像光学系100、撮像素子101、カメラ信号処理部102を介して顔検出部106に画像が入力される。なお、顔検出部106以外の画像信号の流れは上述した通りである。   In S <b> 202, as an image input process, an image is input to the face detection unit 106 via the imaging optical system 100, the image sensor 101, and the camera signal processing unit 102. The flow of image signals other than the face detection unit 106 is as described above.

S203では、顔検出部106で顔検出処理を行う。S203で顔を検出した場合はS204に移行する。顔を検出しなかった場合はS212に移行するが、ここでの処理は後述する。   In S203, the face detection unit 106 performs face detection processing. If a face is detected in S203, the process proceeds to S204. If a face is not detected, the process proceeds to S212, but the process here will be described later.

S204では、現在のフレームで顔を検出したので連続して顔を検出しないフレーム数Mをゼロにリセットする。   In S204, since the face is detected in the current frame, the number M of frames in which no face is continuously detected is reset to zero.

S205では、顔検出部106で顔と検出された領域に対して、顔のサイズと位置情報から肌色検出を行う肌色検出領域(AM0)を設定する。この設定方法について図5を参照して説明する。   In S205, a skin color detection area (AM0) for performing skin color detection from the face size and position information is set for the area detected as a face by the face detection unit 106. This setting method will be described with reference to FIG.

図5において、501は入力画像、502は顔検出部106で顔と検出された領域である。503は入力画像501に対して顔のサイズと位置情報から肌色検出領域の設定を行った画像である。504は領域設定を行う過程の領域であり、505が肌色検出領域である。   In FIG. 5, reference numeral 501 denotes an input image, and reference numeral 502 denotes an area detected as a face by the face detection unit 106. Reference numeral 503 denotes an image in which a skin color detection area is set based on face size and position information with respect to the input image 501. Reference numeral 504 denotes an area setting process, and reference numeral 505 denotes a skin color detection area.

入力画像501に対して、顔と検出された領域502のサイズと位置情報から、504のように顔の位置を基準として下方向に肌色検出領域が設定される。また、一般的に人物の胴体は顔よりも横方向に広いため、505のように顔より下の領域を肌色検出領域504よりも横方向に広く設定する。なお、肌色検出領域の形状は、505のような四角形に限らず、506のような台形でも良く、顔のサイズ等に応じて任意に設定可能である。また、顔検出結果から人物の胴体を検出する機能を有していれば、胴体に対して肌色検出領域を設定しても良い。また、本発明は、上述した肌色検出領域の設定方法に限定されない。   From the size and position information of the area 502 detected as a face, a skin color detection area is set downward with respect to the input image 501 with reference to the face position. In general, since the human torso is wider in the horizontal direction than the face, an area below the face is set wider in the horizontal direction than the skin color detection area 504 as in 505. Note that the shape of the skin color detection region is not limited to a quadrangle such as 505 but may be a trapezoid such as 506, and can be arbitrarily set according to the size of the face. Further, if it has a function of detecting a human torso from the face detection result, a skin color detection region may be set for the torso. Further, the present invention is not limited to the above-described skin color detection area setting method.

図2の説明に戻り、S206aにおいて、顔検出部106で顔と検出された領域に対して顔特徴量抽出部109が顔に含まれる色情報を抽出し、S206bにおいて、顔特徴量抽出部109での抽出結果から肌色検出部135に用いる閾値を設定する。ここでの色情報は、YUV(YCbCr)、RGB、HSV等の色空間情報である。   Returning to the description of FIG. 2, in step S <b> 206 a, the face feature amount extraction unit 109 extracts color information included in the face from the area detected as a face by the face detection unit 106. In step S <b> 206 b, the face feature amount extraction unit 109. The threshold value used for the skin color detection unit 135 is set from the extraction result of. The color information here is color space information such as YUV (YCbCr), RGB, and HSV.

ここで、色空間としてYCbCrを一例とした顔特徴量抽出処理および肌色検出処理について図3を参照して説明する。   Here, face feature amount extraction processing and skin color detection processing using YCbCr as an example of the color space will be described with reference to FIG.

図3において、301は入力画像であり、入力画像301に対して顔検出を行った結果、図5の501,502と同様に、顔検出領域302で顔が検出されたとする。次に、顔検出領域302に含まれるCb値のヒストグラムの中で最も多くの画素数を占めるCb値(ピーク値)をCbtopとする。Cbtopは、顔検出領域302にある顔を構成する肌色に最も近い色であると考えられる。これより、顔検出領域302に含まれる顔だけでなく、人物の首、手、足といった肌色もCbtopを中心として構成されていると考えられる。よって、Cbtopから所定の範囲内にあるCb値はこの人物の肌色であるとして、肌色検出部135で用いるCb値の閾値としてCbLM0、CbHM0を設定する(303)。ここでの所定の範囲は任意に決定できるものである。また、Cr値もCb値と同様に閾値としてCrLM0、CrHM0を設定する(303)。なお、色空間としてYCbCrを例示したが、他の色空間の場合はその空間に応じた閾値を設定すればよい。   In FIG. 3, reference numeral 301 denotes an input image. As a result of performing face detection on the input image 301, it is assumed that a face is detected in the face detection area 302 as in 501 and 502 of FIG. 5. Next, the Cb value (peak value) occupying the largest number of pixels in the Cb value histogram included in the face detection area 302 is defined as Cbtop. Cbtop is considered to be the color closest to the skin color constituting the face in the face detection area 302. From this, it is considered that not only the face included in the face detection area 302 but also the skin color of the person's neck, hands, feet, etc. is centered on Cbtop. Therefore, CbLM0 and CbHM0 are set as threshold values of the Cb value used in the skin color detection unit 135, assuming that the Cb value within a predetermined range from Cbtop is the skin color of this person (303). The predetermined range here can be arbitrarily determined. Also, CrLM0 and CrHM0 are set as threshold values for the Cr value as well as the Cb value (303). In addition, although YCbCr was illustrated as a color space, in the case of another color space, a threshold value corresponding to the space may be set.

次に、S207に移行して、顔のサイズと位置情報から設定された肌色検出領域に対して、S206bで設定された肌色検出閾値を用いて肌色検出を行う(図3の304)。また、肌色検出領域以外の領域に対しては肌色検出を行わない。これにより、肌色が存在しない可能性が高い領域での肌色の誤検出が発生しにくくなる。   Next, the process proceeds to S207, and skin color detection is performed on the skin color detection region set from the face size and position information using the skin color detection threshold set in S206b (304 in FIG. 3). In addition, skin color detection is not performed for regions other than the skin color detection region. This makes it difficult for erroneous detection of the skin color in an area where there is a high possibility that the skin color does not exist.

一方、S203において顔を検出しなかった場合、S212に移行して顔を検出しないフレーム数であるMに1を加算して更新する。   On the other hand, if a face is not detected in S203, the process proceeds to S212, and M is updated by adding 1 to M, which is the number of frames for which no face is detected.

S213において、顔を検出しないフレーム数Mが所定の期間T0よりも短い場合はS214aに移行し、T0よりも長い場合はS215に移行する。   In S213, if the number M of frames for which no face is detected is shorter than the predetermined period T0, the process proceeds to S214a, and if it is longer than T0, the process proceeds to S215.

S214a,214bでは、直近の顔検出時(つまりM=0)の肌色検出領域および肌色検出閾値に設定し、S207に移行して肌色検出を行う。これは、図4の401のように人物が一時的に横を向いた場合や下を向いた場合、あるいは顔検出部106の処理量等の関係で一瞬だけ顔が検出されなかったのであれば、人物自体は画像内に存在すると考えられるためである。   In S214a and 214b, the skin color detection region and the skin color detection threshold value at the time of the most recent face detection (that is, M = 0) are set, and the process proceeds to S207 to perform skin color detection. This is because when a person temporarily turns sideways or down like 401 in FIG. 4 or when the face is not detected for a moment due to the processing amount of the face detection unit 106, etc. This is because the person itself is considered to exist in the image.

一方、顔を検出しないフレーム数Mが所定の期間TOより長い場合は、S215に移行して肌色検出を行わない。これは、図4の402のように人物の顔が一瞬だけ検出されなかったのではなく、画像内に人物が存在しないと考えられるためである。   On the other hand, when the number M of frames in which no face is detected is longer than the predetermined period TO, the process proceeds to S215 and skin color detection is not performed. This is because a person's face is not detected for a moment as in 402 of FIG. 4 and it is considered that no person exists in the image.

S208において、顔を検出した場合または顔を検出しないフレーム数Mが期間TOより短かい場合には、S206bまたはS214bで設定された肌色検出閾値に応じて肌色検出を行い、その結果に基づいて入力画像を符号化する。ここでは、量子化制御部134は、肌色領域の符号量を肌色以外の領域よりも多く割り当てるように量子化パラメータを決定する。   In S208, when the face is detected or the number M of frames in which no face is detected is shorter than the period TO, the skin color is detected according to the skin color detection threshold set in S206b or S214b, and the input is made based on the result. Encode the image. Here, the quantization control unit 134 determines the quantization parameter so that the code amount of the skin color region is allocated more than the region other than the skin color region.

次に、S209において、符号化された画像信号は記録媒体136に保存され、S210において、記録終了が行われない、つまりそのまま記録を継続する場合は、S211に移行する。S211では、現在の肌色検出閾値を保持した上でS202に移行し、次フレームの画像の入力を受けて上記S202以降の処理を繰り返し実行する。   Next, in S209, the encoded image signal is stored in the recording medium 136. In S210, when the recording is not finished, that is, when the recording is continued as it is, the process proceeds to S211. In S211, the current skin color detection threshold value is retained, and then the process proceeds to S202, and the processing of S202 and subsequent steps is repeatedly executed in response to the input of the next frame image.

一方、S210において、記録終了が行われたならば本処理を終了する。   On the other hand, if the recording is finished in S210, the process is finished.

[第2の実施形態]
第2の実施形態は、入力画像内に複数の人物が存在した場合である。
[Second Embodiment]
In the second embodiment, there are a plurality of persons in the input image.

なお、本実施形態の画像処理装置の構成は図1と同様であるので説明は省略する。   The configuration of the image processing apparatus according to the present embodiment is the same as that shown in FIG.

図6は第2の実施形態の画像処理方法を説明する図であり、図5の画像内の人物が複数になったものである。   FIG. 6 is a diagram for explaining an image processing method according to the second embodiment, in which a plurality of persons are included in the image of FIG.

図6において、601は入力画像であり、人物Aと人物Bが存在するものとする。602は人物Aに対して顔検出部106で顔と検出された領域であり、603は入力画像601に対して顔のサイズと位置情報から設定された人物Aの肌色検出領域である。同様に、604は人物Bに対して顔検出部106で顔と検出された領域であり、605は入力画像601に対して顔のサイズと位置情報から設定された人物Bの肌色検出領域である。   In FIG. 6, reference numeral 601 denotes an input image, and it is assumed that a person A and a person B exist. Reference numeral 602 denotes an area where the face detection unit 106 detects a face of the person A, and reference numeral 603 denotes a skin color detection area of the person A set from the face size and position information with respect to the input image 601. Similarly, reference numeral 604 denotes an area in which the face detection unit 106 detects a face for the person B, and reference numeral 605 denotes a skin color detection area for the person B set from the face size and position information for the input image 601. .

第1の実施形態と同様の方法により、入力画像601に対して、人物Aの顔と検出された領域602のサイズと位置情報から、603のように人物Aに対する肌色検出領域が設定される。同様に、人物Bの顔と検出された領域604のサイズと位置情報から、605のように人物Bに対する肌色検出領域が設定される。   By the same method as in the first embodiment, a skin color detection area for the person A is set for the input image 601 from the size and position information of the area 602 detected for the face of the person A as in 603. Similarly, a skin color detection area for the person B is set as indicated by 605 from the size and position information of the face of the person B and the detected area 604.

次に、人物Aの顔に対して顔特徴量抽出部109が顔に含まれる色情報を抽出し、肌色検出領域603に対して肌色検出閾値の設定を行う。同様に、人物Bの顔に対しても肌色検出領域605に対して肌色検出に用いる閾値の設定を行う。なお、これら肌色検出領域と閾値の各設定方法は第1の実施形態と同様であるが、これらに限ったものではない。   Next, the face feature amount extraction unit 109 extracts color information included in the face of the person A, and sets a skin color detection threshold for the skin color detection region 603. Similarly, for the face of the person B, a threshold value used for skin color detection is set in the skin color detection area 605. Each setting method of the skin color detection area and the threshold is the same as that in the first embodiment, but is not limited thereto.

次に、顔のサイズと位置情報から設定された肌色検出領域に対して、顔の肌色情報から設定された肌色検出閾値を用いて肌色検出を行う(606)。また、肌色検出領域以外の領域に対しては肌色検出を行わないようにする。これにより肌色が存在しない可能性が高い領域での肌色誤検出を発生しにくくなる。   Next, skin color detection is performed on the skin color detection region set from the face size and position information using the skin color detection threshold set from the face skin color information (606). In addition, skin color detection is not performed for areas other than the skin color detection area. Thereby, it becomes difficult to generate the false detection of the skin color in an area where there is a high possibility that the skin color does not exist.

その他の処理は第1の実施形態と同様である。また、第2の実施形態では2人の人物を例示したが、3人以上でも良く、顔検出部106により検出可能な顔の数に依存するものとする。   Other processes are the same as those in the first embodiment. Further, in the second embodiment, two persons are exemplified, but three or more persons may be used and depend on the number of faces that can be detected by the face detection unit 106.

[第3の実施形態]
第3の実施形態は、入力画像内に複数の人物が存在しかつ顔検出結果から設定された肌色検出領域が互いに重複している場合である。
[Third Embodiment]
The third embodiment is a case where a plurality of persons exist in the input image and the skin color detection areas set from the face detection results overlap each other.

なお、本実施形態の画像処理装置の構成は図1と同様であるので説明は省略する。   The configuration of the image processing apparatus according to the present embodiment is the same as that shown in FIG.

図7は第3の実施形態の画像処理方法を説明する図であり、図5の画像内の人物について肌色検出領域が重複したものである。   FIG. 7 is a diagram for explaining an image processing method according to the third embodiment, in which skin color detection regions overlap for a person in the image of FIG.

図7において、701は入力画像であり、人物Aと人物Bが存在するものとする。702は人物Aに対して顔検出部106で顔と検出された領域であり、703は入力画像701に対して顔のサイズと位置情報から設定された人物Aの肌色検出領域である。同様に、704は人物Bに対して顔検出部106で顔と検出された領域であり、705は入力画像701に対して顔のサイズと位置情報から設定された人物Bの肌色検出領域である。また、706は人物Aの肌色検出領域703と人物Bの肌色検出領域705が重複した領域である。   In FIG. 7, reference numeral 701 denotes an input image, and it is assumed that a person A and a person B exist. Reference numeral 702 denotes an area where the face detection unit 106 detects a face for the person A, and reference numeral 703 denotes a skin color detection area for the person A set from the face size and position information for the input image 701. Similarly, 704 is an area where the face detection unit 106 detects a face for the person B, and 705 is a skin color detection area for the person B set from the face size and position information for the input image 701. . Reference numeral 706 denotes an area where the skin color detection area 703 of the person A overlaps with the skin color detection area 705 of the person B.

第1の実施形態と同様に、入力画像701に対して、人物Aの顔と検出された領域702のサイズと位置情報から、703のように人物Aに対する肌色検出領域が設定される。同様に、人物Bの顔と検出された領域704のサイズと位置情報から、705のように人物Bに対する肌色検出領域が設定される。   Similar to the first embodiment, a skin color detection area for the person A is set for the input image 701 from the size and position information of the area 702 detected for the face of the person A as in 703. Similarly, a skin color detection area for person B is set as indicated by 705 from the size and position information of the face of person B and the detected area 704.

次に、人物Aの顔に対して顔特徴量抽出部109が顔に含まれる色情報を抽出し、肌色検出領域703に対して肌色検出閾値の設定を行う。同様に、人物Bの顔に対しても肌色検出領域705に対して肌色検出に用いる肌色検出閾値の設定を行う。なお、これらの肌色検出領域と閾値の各設定方法は第1の実施形態と同様であるが、これらに限ったものではない。   Next, the face feature quantity extraction unit 109 extracts color information included in the face of the person A, and sets a skin color detection threshold for the skin color detection area 703. Similarly, for the face of the person B, a skin color detection threshold used for skin color detection is set for the skin color detection region 705. The skin color detection area and the threshold value setting method are the same as those in the first embodiment, but are not limited thereto.

次に、重複した領域706に関する肌色検出閾値の設定方法について説明する。   Next, a method for setting the skin color detection threshold for the overlapping region 706 will be described.

第1の方法を説明する。711は人物Aの肌色検出領域703に設定された肌色検出閾値、712は人物Bの肌色検出領域705に設定された肌色検出閾値、713は重複領域706に設定された肌色検出閾値をそれぞれ示している。なお、色情報としてCb値を用いている。この場合、肌色検出領域703に設定された閾値711が、肌色検出領域705に設定された閾値712よりも広い範囲の肌色を検出できる可能性が高いため、重複領域706に設定する肌色検出閾値は、712よりも検出範囲が広い711と同じ値にする。   The first method will be described. Reference numeral 711 denotes a skin color detection threshold value set in the skin color detection area 703 of the person A, 712 denotes a skin color detection threshold value set in the skin color detection area 705 of the person B, and 713 denotes a skin color detection threshold value set in the overlap area 706. Yes. The Cb value is used as the color information. In this case, since the threshold 711 set in the skin color detection area 703 is highly likely to detect a skin color in a wider range than the threshold 712 set in the skin color detection area 705, the skin color detection threshold set in the overlap area 706 is , 712 having a detection range wider than 712.

第2の方法を説明する。人物Aの肌色検出領域703と人物Bの肌色検出領域705を比較すると人物Aの肌色検出領域703の方が広い。この場合、重複領域706は人物Aの肌色が占めている可能性が高いため、重複領域706に設定する閾値は711と同じ値にする。   The second method will be described. When comparing the skin color detection area 703 of the person A and the skin color detection area 705 of the person B, the skin color detection area 703 of the person A is wider. In this case, since the overlapping area 706 is likely to be occupied by the skin color of the person A, the threshold value set in the overlapping area 706 is set to the same value as 711.

第3の方法を説明する。721は人物Aの肌色検出領域703に設定された肌色検出閾値、722は人物Bの肌色検出領域705に設定された肌色検出閾値、723は重複領域706に設定された肌色検出閾値をそれぞれ示している。なお、色情報としてCb値を用いている。この場合、肌色検出領域703に設定された閾値721と肌色検出領域705に設定された閾値722の両方を含むように、重複領域706に対する肌色検出閾値723を設定する。これにより人物Aと人物Bの両方の肌色を検出できる可能性が高くなる。   A third method will be described. Reference numeral 721 denotes a skin color detection threshold set in the skin color detection area 703 of the person A, 722 denotes a skin color detection threshold set in the skin color detection area 705 of the person B, and 723 denotes a skin color detection threshold set in the overlap area 706. Yes. The Cb value is used as the color information. In this case, the skin color detection threshold 723 for the overlap region 706 is set so as to include both the threshold 721 set in the skin color detection region 703 and the threshold 722 set in the skin color detection region 705. This increases the possibility that the skin color of both the person A and the person B can be detected.

上記重複領域に対する肌色検出閾値の設定方法や個々の肌色検出領域に対する肌色検出閾値の設定方法は特に上述した方法に限定されるものではない。   The method for setting the skin color detection threshold for the overlap region and the method for setting the skin color detection threshold for each skin color detection region are not particularly limited to the methods described above.

また、第3の実施形態では2人の人物を例示したが、3人以上でも良く、顔検出部106が検出可能な顔の数に依存するものとする。   Further, in the third embodiment, two persons are exemplified, but three or more persons may be used, and depend on the number of faces that can be detected by the face detection unit 106.

[他の実施形態]
尚、上述した各実施形態における各処理は、各処理の機能を実現する為のプログラムをメモリから読み出してコンピュータのCPU(中央演算装置)が実行することによりその機能を実現させるものであってもよい。
[Other Embodiments]
In addition, each process in each embodiment mentioned above may implement | achieve the function by reading the program for implement | achieving the function of each process from memory, and CPU (central processing unit) of a computer executing. Good.

また、CPUがアクセスするメモリとしては、HDD、光ディスク、フラッシュメモリ等の不揮発性のメモリや、CD−ROM等の読み出しのみが可能な記録媒体、RAM以外の揮発性のメモリが含まれる。あるいは、これらの組合せによるコンピュータ読み取り、書き込み可能な記録媒体から構成されてもよい。   The memory accessed by the CPU includes a non-volatile memory such as an HDD, an optical disk, and a flash memory, a recording medium such as a CD-ROM that can only be read, and a volatile memory other than the RAM. Or you may comprise from the computer-readable recording medium by these combination, and a writable recording medium.

また、上述した各実施形態における各処理の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各処理を行っても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。具体的には、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含む。   In addition, a program for realizing the function of each process in each of the above-described embodiments is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. Specifically, the program read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

また、「コンピュータ読み取り可能な記録媒体」とは、CD−ROMやDVD等の光ディスクや半導体メモリカードといった可搬媒体、或いはコンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発メモリ(RAM)も含む。つまり、一定時間プログラムを保持しているものも含むものとする。
The “computer-readable recording medium” refers to a portable medium such as an optical disk such as a CD-ROM or DVD, a semiconductor memory card, or a storage device such as a hard disk built in a computer system.
Further, the “computer-readable recording medium” includes a volatile memory (RAM) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In other words, it includes those that hold programs for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体等のプログラムプロダクトも本発明の実施形態として適用することができる。上記のプログラム、記録媒体、伝送媒体およびプログラムプロダクトは、本発明の範疇に含まれる。   A program product such as a computer-readable recording medium in which the above program is recorded can also be applied as an embodiment of the present invention. The above program, recording medium, transmission medium, and program product are included in the scope of the present invention.

以上、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   As described above, the specific configuration is not limited to this embodiment, and includes design and the like within a range not departing from the gist of the present invention.

本発明に係る第1の実施形態の画像処理装置の全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of an image processing apparatus according to a first embodiment of the present invention. 本実施形態の画像処理装置による画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method by the image processing apparatus of this embodiment. 顔検出処理と肌色検出処理について説明する図である。It is a figure explaining a face detection process and a skin color detection process. 顔検出されない画像を例示する図である。It is a figure which illustrates the image in which a face is not detected. 肌色検出領域の設定方法について説明する図である。It is a figure explaining the setting method of a skin color detection area. 第2の実施形態の画像処理方法を説明する図である。It is a figure explaining the image processing method of 2nd Embodiment. 第3の実施形態の画像処理方法を説明する図である。It is a figure explaining the image processing method of 3rd Embodiment.

100 結像光学系
101 撮像素子
102 カメラ信号処理部
103 フレームメモリ(カメラ処理系)
104 画像変倍部
105 第1のセレクタ
106 顔検出部
107 レンズ制御部
108 カメラ制御部
109 顔特徴量抽出部
110 カメラ処理系コントローラ
120 フレームメモリ(記録処理系)
121 フレーム並べ替え部
122 加減算部
123 直交変換部
124 量子化部
125 逆量子化部
126 逆直交変換部
127 動き予測/動き補償部
128 加減算部
129 フレームメモリ(記録処理系)
130 第2のセレクタ
131 可変長符号化部
132 バッファメモリ
133 符号量制御部
134 量子化制御部
135 肌色検出部
136 記録媒体
137 記録処理系コントローラ
DESCRIPTION OF SYMBOLS 100 Imaging optical system 101 Image pick-up element 102 Camera signal processing part 103 Frame memory (camera processing system)
104 Image scaling unit 105 First selector 106 Face detection unit 107 Lens control unit 108 Camera control unit 109 Face feature amount extraction unit 110 Camera processing system controller 120 Frame memory (recording processing system)
121 Frame Rearrangement Unit 122 Addition / Subtraction Unit 123 Orthogonal Transform Unit 124 Quantization Unit 125 Inverse Quantization Unit 126 Inverse Orthogonal Transformation Unit 127 Motion Prediction / Motion Compensation Unit 128 Addition / Subtraction Unit 129 Frame Memory (Recording Processing System)
130 Second selector 131 Variable length encoding unit 132 Buffer memory 133 Code amount control unit 134 Quantization control unit 135 Skin color detection unit 136 Recording medium 137 Recording processing system controller

Claims (26)

画像中に含まれる特定色の領域を検出し、前記特定色の領域の符号量が前記特定色の領域ではない領域の符号量よりもえるように符号化する画像処理装置であって、
像を入力する画像入力手段と、
前記画像入手段により入力された画像から人物の顔に対応する領域を検出する顔検出手段と、
前記検出された人物のに対応する領域色情報を抽出する特徴量抽出手段と、
前記画像から特定色の領域を検出する特定色領域検出手段と、
前記抽出された色情報に基づいて、前記特定色領域検出手段により前記特定色の領域を検出するための閾値を設定する設定手段と、を有し、
前記顔検出手段により前記画像から複数の人物の顔に対応する複数の領域が検出された場合、
前記設定手段は、前記検出されたそれぞれの人物の顔に対応する領域から抽出された色情報に基づいて、前記特定色領域検出手段により前記特定色の領域を検出するための閾値を設定し、
前記特定色領域検出手段は、前記閾値に基づいて前記検出されたそれぞれの人物の顔に対応する領域ごとに前記特定色の領域を検出することを特徴とする画像処理装置。
Detecting a region of a specific color included in the image, an image processing apparatus that turn into symbols as obtain increased than the code amount of area code amount of the specific color region is the non-specific color region,
An image input means for inputting images,
A face detecting unit for detecting an area corresponding to the face of a person from the input image by the image ZoIri force means,
Feature quantity extraction means for extracting color information of a region corresponding to the detected human face;
A specific color area detecting means for detecting a region of a specific color from the image image,
Based on the extracted color information, it has a setting means for setting a threshold value for detecting the region of the specific color by the specific color region detecting means,
When a plurality of regions corresponding to a plurality of human faces are detected from the image by the face detection means,
The setting means sets a threshold for detecting the specific color area by the specific color area detection means based on color information extracted from the area corresponding to each detected human face,
The image processing apparatus according to claim 1, wherein the specific color area detection unit detects the specific color area for each area corresponding to the detected human face based on the threshold .
前記顔検出手段は、前記画像入力手段により入力された画像から人物の顔に対応する領域のサイズと位置を検出し、
前記特定色領域検出手段は、前記検出された人物のに対応する領域とのサイズと位置とを用いて前記特定色の領域を検出するための領域を決定することを特徴とする請求項1に記載の画像処理装置。
The face detecting unit detects the size and position of the region corresponding to the face of a person from the input image by the image input means,
The specific color region detecting means, wherein, characterized in that to determine the region for detecting the region of the specific color by using the size and position of the area your capital corresponding to the face of the detected person Item 8. The image processing apparatus according to Item 1.
前記特定色領域検出手段は、前記顔検出手段により人物のに対応する領域が検出されない期間が所定の期間より短い場合は、直近に人物のに対応する領域が検出されたときに設定された閾値を用いて前記特定色の検出を行うことを特徴とする請求項1または2に記載の画像処理装置。 The specific color area detecting means is set when the area corresponding to the person's face is detected most recently when the period corresponding to the person's face is not detected by the face detecting means is shorter than a predetermined period. the image processing apparatus according to claim 1 or 2, characterized in that the detection of the specific color by using the threshold value. 前記色情報は、画素が持つ色空間情報であることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 The color information, the image processing device according to claim 1, wherein in any one of the three that the color space information with pixels. 前記特定色の検出に用いる閾値は、前記人物のに対応する領域に含まれる色空間情報のヒストグラムにおけるピーク値から算出されることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 4 , wherein the threshold used for detecting the specific color is calculated from a peak value in a histogram of color space information included in an area corresponding to the face of the person . 前記特定色領域を検出するための領域が重複する場合、重複する各検出領域の特定色の領域の検出に用いる閾値のいずれか1つを選択し、前記選択した閾値を用いて前記重複する検出領域の特定色の領域の検出を行うことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。 If the area for detecting an area of the specific color are overlapped, selects one of the threshold used to detect a specific color area of each detection area overlapping, the overlapping with the selected threshold value the image processing apparatus according to any one of claims 1 5, characterized in that the detection of a specific color region of the detection region. 前記特定色領域を検出するための領域が重複する場合、重複する各検出領域の特定色の領域の検出に用いる閾値から検出範囲が最も広くなる閾値を選択し、前記選択した閾値を用いて前記重複する検出領域の特定色の領域の検出を行うことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。 When said area for detecting a specific color area of the overlap, the detection range from the threshold used to detect a specific color region of the detection region overlapping selects the most widely made threshold, using the selected threshold value the image processing apparatus according to any one of claims 1-5, characterized in that the detection of a specific color region of the detection region of the overlap. 前記特定色領域を検出するための領域が重複する場合、重複する各検出領域の特定色の領域の検出に用いる閾値から検出領域が最も広い領域の閾値を選択し、前記選択した閾値を用いて前記重複する検出領域の特定色の領域の検出を行うことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。 If the area for detecting an area of the specific color are overlapped, the detection region from the threshold used to detect a specific color region of the detection region overlapping selects the threshold of the widest area, using the selected threshold value the image processing apparatus according to any one of claims 1 5, characterized in that the detection of a specific color region of the detection region of the overlapping Te. 前記特定色領域を検出するための領域が重複する場合、重複する各検出領域の特定色の領域の検出に用いる閾値から新たな閾値を設定し、前記新たに設定した閾値を用いて前記重複する検出領域の特定色の領域の検出を行うことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。 If the area for detecting an area of the specific color are overlapped, and sets a new threshold from the threshold used to detect a specific color area of each detection area overlapping, the overlapping with the threshold set above the newly the image processing apparatus according to claim 1, any one of 5, characterized in that the detection of a specific color region of the detection region to be. 前記特定色領域を検出するための領域が重複する場合、重複する各検出領域の特定色の領域の検出に用いる閾値から検出範囲が最も広くなる新たな閾値を設定し、前記新たに設定した閾値を用いて前記重複する検出領域の特定色の領域の検出を行うことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。 If the area for detecting an area of the specific color is overlapped, the detection range from the threshold used to detect a specific color region of the detection region overlapping sets the most widely made new threshold was set the new the image processing apparatus according to any one of claims 1 5, characterized in that the detection of a specific color region of the detection region of the overlap with a threshold. 被写体の光学像から画像を生成する撮像手段と、
前記撮像された画像における特定色の領域に対する符号量が前記特定色の領域ではない領域に対する符号量よりも増えるように符号化および記録を行う記録手段と、をさらに有することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
Imaging means for generating the images from the optical image of an object,
The recording apparatus according to claim 1, further comprising: a recording unit configured to perform encoding and recording so that a code amount for a specific color region in the captured image is larger than a code amount for a region that is not the specific color region. The image processing apparatus according to any one of 1 to 10 .
画像中に含まれる特定色の領域を検出し、前記特定色の領域の符号量が前記特定色の領域ではない領域の符号量よりもえるように符号化する画像処理方法であって、
像を入力する画像入力工程と、
記画像から人物の顔に対応する領域を検出する顔検出工程と、
前記検出された人物のに対応する領域色情報を抽出する特徴量抽出工程と、
前記画像から特定色の領域を検出する特定色領域検出工程と、
前記抽出された色情報に基づいて、前記特定色領域検出工程にて特定色の領域を検出するための閾値を設定する設定工程と、を有し、
前記顔検出工程において前記画像から人物の顔に対応する複数の領域が検出された場合、
前記設定工程では、前記検出されたそれぞれの人物の顔に対応する領域から抽出された色情報に基づいて、前記特定色領域検出工程により前記特定色の領域を検出するための閾値を設定し、
前記特定色領域検出工程では、前記閾値に基づいて前記検出されたそれぞれの人物の顔に対応する領域ごとに前記特定色の領域を検出することを特徴とする画像処理方法。
Detecting a region of a specific color included in the image, the a specific color code amount the specific color area code turn into that image processing method as obtain increased than the code amount of area not in the areas of,
An image input step of inputting images,
A face detecting step of detecting an area corresponding from the front Kiga image to a person's face,
A feature amount extracting step of extracting color information of an area corresponding to the detected human face;
A specific color area detection step of detecting a region of a specific color from the image image,
Based on the extracted color information, have a, a setting step of setting a threshold for detecting a region of a specific color in the specific color area detection step,
When a plurality of regions corresponding to a human face are detected from the image in the face detection step,
In the setting step, based on the color information extracted from the region corresponding to each detected human face, a threshold for detecting the specific color region by the specific color region detection step is set.
In the specific color region detection step, the specific color region is detected for each region corresponding to each detected human face based on the threshold value .
請求項12に記載の画像処理方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the image processing method according to claim 12 . 画像を取得する画像取得手段と、  Image acquisition means for acquiring images;
前記画像取得手段により得られた画像を符号化する符号化手段と、を有し、  Encoding means for encoding the image obtained by the image acquisition means,
前記符号化手段は、前記画像取得手段により得られた画像中の特定色の領域を判定し、前記特定色の領域の符号量が前記特定色の領域ではない領域よりも増えるように符号化し、  The encoding means determines a specific color area in the image obtained by the image acquisition means, and encodes the code amount of the specific color area to be larger than an area that is not the specific color area,
前記符号化手段は、前記画像取得手段により得られた画像中の人物の顔に対応する領域の色情報に基づいて前記特定色の領域であると判定するための閾値を設定し、前記人物の顔に対応する領域において前記特定色の領域を判定し、  The encoding means sets a threshold value for determining that the area is the specific color based on the color information of the area corresponding to the face of the person in the image obtained by the image acquisition means, and Determining the region of the specific color in the region corresponding to the face;
前記人物の顔に対応する領域が複数である場合、前記符号化手段は、第1の人物の顔に対応する領域の色情報に基づいて前記特定色の領域であると判定するための第1の閾値を設定し、第2の人物の顔に対応する領域の色情報に基づいて前記特定色の領域であると判定するための第2の閾値を設定し、前記第1の人物の顔に対応する前記特定色の領域を判定するための領域においては、前記第1の閾値を用いて前記特定色の領域を判定し、前記第2の人物の顔に対応する前記特定色の領域を判定するための領域においては、前記第2の閾値を用いて前記特定色の領域を判定することを特徴とする画像処理装置。  When there are a plurality of regions corresponding to the person's face, the encoding means determines the first color region based on the color information of the region corresponding to the first person's face. And a second threshold value for determining that the region is the specific color region based on the color information of the region corresponding to the face of the second person. In the area for determining the corresponding specific color area, the specific color area is determined using the first threshold, and the specific color area corresponding to the face of the second person is determined. An image processing apparatus that determines the specific color area using the second threshold value in the area to be used.
前記符号化手段は、前記特定色の領域の符号量が前記特定色の領域ではない領域よりも増えるように、前記特定色の領域の量子化パラメータを前記特定色の領域ではない領域の量子化パラメータよりも小さくすることを特徴とする請求項14に記載の画像処理装置。  The encoding means is configured to quantize a quantization parameter for the specific color area so that a code amount of the specific color area is larger than that for the non-specific color area. The image processing apparatus according to claim 14, wherein the image processing apparatus is smaller than the parameter. 前記符号化手段は、前記第1の人物の顔に対応する特定色の領域を判定するための領域と前記第2の人物の顔に対応する特定色の領域を判定するための領域とが重複する場合、重複する領域においては、前記第1の閾値または前記第2の閾値のいずれか1つを用いて前記特定色の領域を判定することを特徴とする請求項14または15に記載の画像処理装置。  The encoding means includes a region for determining a specific color region corresponding to the face of the first person and a region for determining a specific color region corresponding to the face of the second person. The image according to claim 14 or 15, wherein, in the overlapping region, the region of the specific color is determined using either one of the first threshold value or the second threshold value. Processing equipment. 前記符号化手段は、前記第1の人物の顔に対応する特定色の領域を判定するための領域と前記第2の人物の顔に対応する特定色の領域を判定するための領域とが重複する場合、重複する領域においては、前記第1の閾値と前記第2の閾値の両方を含む第3の閾値を用いて前記特定色の領域を判定することを特徴とする請求項14または15に記載の画像処理装置。  The encoding means includes a region for determining a specific color region corresponding to the face of the first person and a region for determining a specific color region corresponding to the face of the second person. In this case, in the overlapping region, the region of the specific color is determined using a third threshold value including both the first threshold value and the second threshold value. The image processing apparatus described. 前記符号化手段は、前記第1の人物の顔に対応する特定色の領域を判定するための領域と前記第2の人物の顔に対応する特定色の領域を判定するための領域とが重複する場合、重複する領域においては、前記第1の閾値及び前記第2の閾値と異なる第3の閾値を用いて前記特定色の領域を判定することを特徴とする請求項14または15に記載の画像処理装置。  The encoding means includes a region for determining a specific color region corresponding to the face of the first person and a region for determining a specific color region corresponding to the face of the second person. 16. The method according to claim 14, wherein in the overlapping region, the region of the specific color is determined using a third threshold different from the first threshold and the second threshold. Image processing device. 前記第3の閾値は、前記第1の閾値と前記第2の閾値の両方を含むことを特徴とする請求項18に記載の画像処理装置。  The image processing apparatus according to claim 18, wherein the third threshold value includes both the first threshold value and the second threshold value. 前記色情報は、画素が持つ色空間情報であることを特徴とする請求項14から19のいずれか1項に記載の画像処理装置。  The image processing apparatus according to claim 14, wherein the color information is color space information of a pixel. 前記人物の顔に対応する特定色の領域を判定するための領域は、前記人物の顔に対応する領域のサイズ及び位置に基づいて決定されることを特徴とする請求項14から20のいずれか1項に記載の画像処理装置。  21. The region for determining a specific color region corresponding to the person's face is determined based on a size and a position of the region corresponding to the person's face. The image processing apparatus according to item 1. 前記第1の閾値は、前記第1の人物の顔に対応する領域に含まれる色空間情報のヒストグラムにおけるピーク値から算出されることを特徴とする請求項14から21のいずれか1項に記載の画像処理装置。  The first threshold value is calculated from a peak value in a histogram of color space information included in a region corresponding to the face of the first person. Image processing apparatus. 前記画像取得手段は、被写体の光学像を撮像することにより画像を取得することを特徴とする請求項14から22のいずれか1項に記載の画像処理装置。  The image processing apparatus according to claim 14, wherein the image acquisition unit acquires an image by capturing an optical image of a subject. さらに、前記符号化手段により符号化された画像データを記録媒体に記録する記録手段を有することを特徴とする請求項14から23のいずれか1項に記載の画像処理装置。  24. The image processing apparatus according to claim 14, further comprising recording means for recording the image data encoded by the encoding means on a recording medium. 画像取得手段により得られた画像を符号化する画像処理方法であって、  An image processing method for encoding an image obtained by an image acquisition means,
前記画像取得手段により得られた画像中の特定色の領域を判定し、前記特定色の領域の符号量が前記特定色の領域ではない領域よりも増えるように符号化し、  Determining a specific color area in the image obtained by the image acquisition means, and encoding so that a code amount of the specific color area is larger than a non-specific color area;
前記画像取得手段により得られた画像中の人物の顔に対応する領域の色情報に基づいて前記特定色の領域であると判定するための閾値を設定し、前記人物の顔に対応する領域において前記特定色の領域を判定し、  Based on the color information of the area corresponding to the face of the person in the image obtained by the image acquisition means, a threshold for determining that the area is the specific color is set, and in the area corresponding to the face of the person Determining the region of the specific color;
前記人物の顔に対応する領域が複数である場合、それぞれの前記人物の顔に対応する領域の色情報に基づいて前記特定色の領域であると判定するための閾値を設定し、前記それぞれの前記人物の顔に対応する領域ごとに前記特定色の領域を判定することを特徴とする画像処理方法。  When there are a plurality of regions corresponding to the person's face, a threshold value for determining that the region is the specific color based on the color information of the region corresponding to each person's face is set. An image processing method, wherein the specific color area is determined for each area corresponding to the face of the person.
請求項25に記載の画像処理方法をコンピュータに実行させるためのプログラム。  A program for causing a computer to execute the image processing method according to claim 25.
JP2009006116A 2009-01-14 2009-01-14 Image processing apparatus, image processing method, and program Expired - Fee Related JP5153660B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009006116A JP5153660B2 (en) 2009-01-14 2009-01-14 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009006116A JP5153660B2 (en) 2009-01-14 2009-01-14 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2010166263A JP2010166263A (en) 2010-07-29
JP5153660B2 true JP5153660B2 (en) 2013-02-27

Family

ID=42582094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009006116A Expired - Fee Related JP5153660B2 (en) 2009-01-14 2009-01-14 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5153660B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4064230A1 (en) 2021-03-26 2022-09-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, computer program and storage medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6179569B2 (en) * 2015-08-20 2017-08-16 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP2017130976A (en) * 2017-04-17 2017-07-27 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP7430088B2 (en) * 2020-03-24 2024-02-09 株式会社フジタ speech control device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339471A (en) * 1999-05-31 2000-12-08 Matsushita Electric Ind Co Ltd Method and device for extracting picture
JP3657463B2 (en) * 1999-06-29 2005-06-08 シャープ株式会社 Motion recognition system and recording medium on which motion recognition program is recorded
JP2002238060A (en) * 2001-02-07 2002-08-23 Sony Corp Image-coding method, image coder, program and recording medium
JP3806096B2 (en) * 2002-10-30 2006-08-09 独立行政法人科学技術振興機構 Face detection method and face detection apparatus
JP4356982B2 (en) * 2004-02-02 2009-11-04 キヤノン株式会社 Image processing apparatus and method
JP2007257087A (en) * 2006-03-20 2007-10-04 Univ Of Electro-Communications Skin color area detecting device and skin color area detecting method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4064230A1 (en) 2021-03-26 2022-09-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, computer program and storage medium

Also Published As

Publication number Publication date
JP2010166263A (en) 2010-07-29

Similar Documents

Publication Publication Date Title
CN110139035B (en) Method and electronic device for thermal and power management
KR101528895B1 (en) Method and apparatus for adaptive feature of interest color model parameters estimation
RU2512130C2 (en) Device and method for high-resolution imaging at built-in device
JP4682102B2 (en) Image coding apparatus and image coding method
US20180176573A1 (en) Apparatus and methods for the encoding of imaging data using imaging statistics
JP4799438B2 (en) Image recording apparatus, image recording method, image encoding apparatus, and program
JP4804107B2 (en) Image encoding apparatus, image encoding method and program thereof
JP6961443B2 (en) Image processing equipment, image processing methods, and programs
KR20080085182A (en) Selecting key frames from video frames
JP5421727B2 (en) Image processing apparatus and control method thereof
KR20180044742A (en) Method and apparatus for selecting a image
JP6149707B2 (en) Moving picture coding apparatus, moving picture coding method, moving picture coding program, and moving picture photographing apparatus
JP2005295379A (en) Image coding method, imaging apparatus, and computer program
JP5153660B2 (en) Image processing apparatus, image processing method, and program
WO2016197323A1 (en) Video encoding and decoding method, and video encoder/decoder
JP5256496B2 (en) Image processing system, image processing method, and program
CN113810654A (en) Image video uploading method and device, storage medium and electronic equipment
WO2022252222A1 (en) Encoding method and encoding device
JP7050509B2 (en) Image processing equipment, image processing methods, and programs
JP5847569B2 (en) Image compression method and imaging apparatus
CN116847087A (en) Video processing method and device, storage medium and electronic equipment
JP2009055236A (en) Video coder and method
JP5165084B2 (en) Image encoding device
JP2014090253A (en) Video encoder, video encoding method and program
KR100771138B1 (en) Imaging device and image correcting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5153660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees