JP5153660B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP5153660B2 JP5153660B2 JP2009006116A JP2009006116A JP5153660B2 JP 5153660 B2 JP5153660 B2 JP 5153660B2 JP 2009006116 A JP2009006116 A JP 2009006116A JP 2009006116 A JP2009006116 A JP 2009006116A JP 5153660 B2 JP5153660 B2 JP 5153660B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- specific color
- area
- face
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Description
本発明は、画像から人物の肌色領域を検出する画像処理技術に関する。 The present invention relates to an image processing technique for detecting a human skin color region from an image.
近年のマルティメディアの発展に伴い様々な動画像圧縮符号化方式が提案されており、代表的なものに、MPEG−1,2,4やH.26Lがある。MPEG方式に準拠して画像の圧縮・符号化を行う場合、その符号量は、画像自体の特性である空間周波数特性やシーン及び量子化パラメータに応じて大きく異なる場合が多い。このような符号化特性を実現する上で良好な画質の復号化画像を得られるようにするための重要な技術が符号量制御や量子化制御であり、TM5(Test Model 5)と呼ばれる方式が一般的に使用されている。 With the development of multimedia in recent years, various video compression encoding systems have been proposed, and representative ones include MPEG-1, 2, 4 and H.264. There are 26L. When image compression / encoding is performed in conformity with the MPEG system, the amount of code often varies greatly depending on the spatial frequency characteristics, scenes, and quantization parameters that are characteristics of the image itself. An important technique for obtaining a decoded image with good image quality in realizing such coding characteristics is code amount control and quantization control, and a method called TM5 (Test Model 5) is used. Commonly used.
TM5方式は、大きく3つのステップに分けて実行される。ステップ1は、今から符号化を行うピクチャの目標符号量を決定する。ステップ2は、ピクチャ内で実際の発生符号量が目標符号量に近づくように、マクロブロックについて、量子化パラメータの参照値を設定する。 The TM5 method is roughly divided into three steps. In step 1, a target code amount of a picture to be encoded is determined. Step 2 sets the reference value of the quantization parameter for the macroblock so that the actual generated code amount approaches the target code amount in the picture.
ステップ3は、視覚特性、即ち、復号化された画像の画質が良好になるように、符号化対象のマクロブロックの空間アクティビティに基づいて、量子化パラメータを決定する処理を実行する。具体的には、マクロブロックにおける8x8のサブブロックにおける空間アクティビティを算出し、ステップ2で算出した量子化パラメータの参照値に乗ずることで量子化に使用する量子化パラメータを決定する。この処理により、視覚的劣化が目立ちやすい平坦部(空間アクティビティが低い)に符号量が多く割り当てられるため、画質の劣化を抑えた符号量制御ならびに量子化制御が実現できる。 Step 3 executes a process of determining a quantization parameter based on the spatial activity of the macroblock to be encoded so that the visual characteristics, that is, the quality of the decoded image is good. Specifically, the spatial activity in the 8 × 8 sub-block in the macroblock is calculated, and the quantization parameter used for quantization is determined by multiplying the reference value of the quantization parameter calculated in step 2. By this processing, a large amount of code is allocated to a flat portion (low spatial activity) where visual degradation is conspicuous, so that it is possible to realize code amount control and quantization control with suppressed image quality degradation.
一方、ステップ3に、人物の肌色を検出して、肌色と検出された領域に対して多くの符号量を割り当てる処理を組み入れることで注視領域に対する画質の向上を図る手法も提案されている。 On the other hand, a method for improving the image quality of the gaze area by incorporating a process of detecting the skin color of the person and assigning a large amount of code to the detected area as the skin color is proposed in Step 3.
肌色検出手法に関しては、その多くは閾値を用いた検出方法であり、過去に様々な提案がされている。その理由は、人物の肌色は色領域の中でも特定の領域に存在することがわかっているためである。以下に肌色検出の一例について説明する。 Many of the skin color detection methods are detection methods using threshold values, and various proposals have been made in the past. The reason is that it is known that the skin color of a person exists in a specific area in the color area. An example of skin color detection will be described below.
一般的な肌色検出手法として、所定サイズのブロックに含まれる各画素の色差の平均値を算出し、閾値(th0〜th1)内に含まれる場合、そのブロックを肌色であると判定する手法がある。 As a general skin color detection method, there is a method of calculating an average value of color differences of pixels included in a block of a predetermined size and determining that the block is a skin color when included in a threshold (th0 to th1). .
また、他の肌色検出手法として、ブロック内の各画素が持つ色差の値が所定の閾値内(th2〜th3)に含まれるか判定して、th1〜th2にある画素が別の閾値(th4)を超えた場合、ブロックは肌色が多く含まれていると判定する手法がある。なお、このブロックは符号化(量子化)との整合性を利用してマクロブロックとしてもよい。 As another skin color detection method, it is determined whether the color difference value of each pixel in the block is within a predetermined threshold (th2 to th3), and pixels in th1 to th2 are set to another threshold (th4). There is a method for determining that the block contains a lot of skin color when the value exceeds. This block may be a macroblock using consistency with encoding (quantization).
また、別の手法として色情報をRGB空間からHI(V)空間に変換し、HとIで予め決められた閾値により肌色を抽出する方法(特許文献1参照)や、この手法の応用としてデジタルカメラによるホワイトバランス設定や美肌処理がある。
しかしながら、上記閾値を用いた肌色検出では、照明条件や気候の変化等の影響によって人物の肌色を正確に検出することが難しくなる。暗い室内や曇りの日には撮像装置に入力される光信号が弱いため、装置内部で信号の増幅(ゲインアップ)を行うので、実際の肌色とは異なる色空間となる場合がある。 However, in skin color detection using the above threshold, it is difficult to accurately detect the skin color of a person due to the influence of lighting conditions, climate change, and the like. Since the optical signal input to the imaging device is weak in a dark room or on a cloudy day, signal amplification (gain increase) is performed inside the device, so that there may be a color space different from the actual skin color.
また、自然界には木目の机や紅葉といった人物の目には肌色に見えなくても、人物の肌色に近い色空間を持つ物体が数多く存在する。このため、本来肌色として検出したい領域が検出できなかったり、肌色でない領域を肌色と誤検出してしまうことで、肌色の領域よりも肌色以外の領域に符号量が多く割り当てられてしまい、画質低下を引き起こすおそれもある。 In the natural world, there are many objects having a color space that is close to the skin color of a person, even though it does not look like a skin color to the eyes of a person, such as a wood desk or autumn leaves. For this reason, an area that is originally intended to be detected as skin color cannot be detected, or a non-skin color area is erroneously detected as a skin color, so that a larger amount of code is assigned to a non-skin color area than a skin color area, resulting in a reduction in image quality. There is also a risk of causing.
本発明は、上記課題に鑑みてなされ、肌色検出の精度を向上し、高画質化を実現するものである。 The present invention has been made in view of the above problems, and improves the accuracy of skin color detection and achieves high image quality.
上記課題を解決するために、本発明に係る画像処理装置は、画像中に含まれる特定色の領域を検出し、前記特定色の領域の符号量が前記特定色の領域ではない領域の符号量よりも増えるように符号化する画像処理装置であって、画像を入力する画像入力手段と、前記画像入力手段により入力された画像から人物の顔に対応する領域を検出する顔検出手段と、前記検出された人物の顔に対応する領域の色情報を抽出する特徴量抽出手段と、前記画像から特定色の領域を検出する特定色領域検出手段と、前記抽出された色情報に基づいて、前記特定色領域検出手段により前記特定色の領域を検出するための閾値を設定する設定手段と、を有し、前記顔検出手段により前記画像から複数の人物の顔に対応する複数の領域が検出された場合、
前記設定手段は、前記検出されたそれぞれの人物の顔に対応する領域から抽出された色情報に基づいて、前記特定色領域検出手段により前記特定色の領域を検出するための閾値を設定し、前記特定色領域検出手段は、前記閾値に基づいて前記検出されたそれぞれの人物の顔に対応する領域ごとに前記特定色の領域を検出する。
In order to solve the above-described problem, an image processing apparatus according to the present invention detects a specific color area included in an image, and the code amount of an area where the code amount of the specific color area is not the specific color area. an image processing apparatus that turn into symbols as obtain increased than an image input means for inputting images, face detection for detecting an area corresponding to a person's face from the input image by the image ZoIri force means means and a feature extraction means for extracting color information of the region corresponding to the face of the detected person, the specific color area detecting means for detecting a region of a specific color from the image image, color information of the extracted based on, it has a setting means for setting a threshold value for detecting the region of the specific color by the specific color area detection unit, corresponding to the face of a plurality of persons from the image by the face detecting unit more If this area is detected,
The setting means sets a threshold for detecting the specific color area by the specific color area detection means based on color information extracted from the area corresponding to each detected human face, The specific color area detecting means detects the specific color area for each area corresponding to the detected human face based on the threshold .
また、本発明に係る画像処理方法は、画像中に含まれる特定色の領域を検出し、前記特定色の領域の符号量が前記特定色の領域ではない領域の符号量よりも増えるように符号化する画像処理方法であって、画像を入力する画像入力工程と、前記画像から人物の顔に対応する領域を検出する顔検出工程と、前記検出された人物の顔に対応する領域の色情報を抽出する特徴量抽出工程と、前記画像から特定色の領域を検出する特定色領域検出工程と、前記抽出された色情報に基づいて、前記特定色領域検出工程にて特定色の領域を検出するための閾値を設定する設定工程と、を有し、前記顔検出工程において前記画像から人物の顔に対応する複数の領域が検出された場合、前記設定工程では、前記検出されたそれぞれの人物の顔に対応する領域から抽出された色情報に基づいて、前記特定色領域検出工程により前記特定色の領域を検出するための閾値を設定し、前記特定色領域検出工程では、前記閾値に基づいて前記検出されたそれぞれの人物の顔に対応する領域ごとに前記特定色の領域を検出する。 The image processing method according to the present invention detects the region of a specific color included in the image, such that the code amount of the specific color region is obtaining increased than the code amount of the non-specific color area region an image processing method that turn into symbols, a face detection step of detecting an image input step of inputting images, an area corresponding from the front Kiga image on the face of a person, corresponding to the face of the detected person a feature amount extraction step of extracting color information of the region, and the specific color area detection step of detecting a region of a specific color from the image image, based on the extracted color information, specified by the specific color area detection step possess a setting step of setting a threshold value for detecting the area of color, and when a plurality of regions corresponding to a person's face from the image in the face detection step is detected in the setting step, the detection The area corresponding to the face of each person Based on the extracted color information, a threshold value for detecting the specific color region is set by the specific color region detection step. In the specific color region detection step, each of the detected values based on the threshold value is set. The specific color area is detected for each area corresponding to a human face .
本発明によれば、肌色検出に用いる閾値を顔検出結果から得られる顔特徴量を用いてダイナミックに変化させることで、肌色検出精度を向上し、高画質化を実現できる。 According to the present invention, the skin color detection accuracy can be improved and the image quality can be improved by dynamically changing the threshold value used for the skin color detection using the face feature amount obtained from the face detection result.
以下に、添付図面を参照して本発明を実施するための最良の形態について詳細に説明する。 The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.
尚、以下に説明する実施の形態は、本発明を実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。 The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
[第1の実施形態]
先ず、本発明に係る第1の実施形態について図1〜図5を参照して説明する。
[First Embodiment]
First, a first embodiment according to the present invention will be described with reference to FIGS.
図1は、本発明に係る第1の実施形態の画像処理装置の全体構成を示すブロック図である。図2は本実施形態の画像処理装置による画像処理方法示すフローチャートである。図3は顔検出処理と肌色検出処理について説明する図である。図4は顔検出されない画像を例示する図である。図5は肌色検出領域の設定方法について説明する図である。 FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to the first embodiment of the present invention. FIG. 2 is a flowchart showing an image processing method by the image processing apparatus of the present embodiment. FIG. 3 is a diagram for explaining the face detection process and the skin color detection process. FIG. 4 is a diagram illustrating an image whose face is not detected. FIG. 5 is a diagram for explaining a skin color detection area setting method.
本実施形態の画像処理装置は、符号化方式としてMPEG(Moving Pictures of Experts Group)やH.264/AVC(Advanced Video Coding)を適用するデジタルビデオカメラである。また、本実施形態に係る画像処理装置は、画像中に含まれる肌色領域を検出し、当該肌色領域の符号量を増やして高画質に符号化処理する機能を有する。 The image processing apparatus of the present embodiment uses MPEG (Moving Pictures of Experts Group) or H.264 as an encoding method. This is a digital video camera to which H.264 / AVC (Advanced Video Coding) is applied. In addition, the image processing apparatus according to the present embodiment has a function of detecting a flesh color area included in an image, increasing the code amount of the flesh color area, and performing a coding process with high image quality.
図1において、100〜110が主にカメラ処理系を構成するブロックであり、120〜137が主に記録処理系を構成するブロックである。
In FIG. 1,
カメラ処理系のうち、フォーカスレンズを含む結像光学系100により、被写体の光学像がCCDやCMOSなどの撮像素子101の受光面に結像され、撮像素子101により光電変換されて画像信号が生成される。撮像素子101から出力される画像信号はカメラ信号処理部102で色分離、ガンマ補正、ホワイトバランス調整等の必要な信号処理が施され、輝度・色差信号を形成してフレームメモリ103に格納される。フレームメモリ103に格納された輝度・色差信号は、画像変倍部104により、任意の画像範囲が読み出され、所定の画素補間処理により、画像の拡大/縮小処理を行うと共に、所定の記録フォーマットに変換される。
Among the camera processing systems, an imaging
また、カメラ処理系には顔検出部106が設けられ、カメラ信号処理部102からの出力信号ならびに画像変倍部104で所定の記録フォーマットに変換された信号のいずれかが第1のセレクタ105によって選択的に入力される。
The camera processing system is provided with a
第1のセレクタ105は顔検出部106の性能に依存して入力を切り替えるためにあり、画像変倍部104で変換された画像サイズがカメラ信号処理部102の出力画像サイズよりも小さいと仮定する。顔検出部106の処理性能が十分高い場合や高精度で顔検出を行う場合は、入力画像をそのまま顔検出に使用するため、カメラ信号処理部102からの出力信号を第1のセレクタ105に入力する。逆に、顔検出部106の処理性能が十分ではない場合や高い精度が必要ない場合は画像変倍部104で所定の記録フォーマットに変換された信号を第1のセレクタ105に入力する。本実施形態では、どちらの信号を選択しても良いし、検出する顔の個数などからダイナミックに切り替えても良く、本発明はこの選択方法について特に限定されるものではない。
The
顔検出部106により顔が検出された場合、検出された顔のサイズや位置情報を顔特徴量抽出部109に出力する。顔特徴量抽出部109では、検出した顔の色情報を抽出してカメラ系コントローラ110に出力する。また、上記顔のサイズや位置情報もカメラ系コントローラ110に出力され、肌色検出領域の設定に使用される。ここでの処理の詳細は、後段の記録処理系の肌色検出部135と合わせて後述する。
When a face is detected by the
なお、顔検出部106の検出結果がカメラ処理系のレンズ制御部107に出力され、顔領域にピントを合わせるために結像光学系100を制御する。同様に、カメラ制御部108にも顔検出結果が出力され、顔の画質を向上させるための露出補正や美肌処理も合わせて実行する。ただし、本発明を実現する上で、この機能は必須ではない。
The detection result of the
次に、記録処理系のうち、カメラ処理系で所定の記録フォーマットに変換された信号が記録処理系の入力部であるフレームメモリ120に保持される。フレームメモリ120に保持された信号は、フレーム並べ替え部121により所定の符号化フォーマットに準拠した順序で符号化ピクチャタイプに応じた並べ替えが実行される。フレーム並べ替え部121による並べ替えが終了した画像はブロックに分割される。その後、符号化ピクチャがフレーム内符号化(イントラ符号化)方式の場合は、直交変換部123にてマクロブロック内の信号に対して直交変換処理が実行され、量子化部124で直交変換係数が量子化される。また、符号化ピクチャがフレーム間符号化ピクチャ(インター符号化)方式の場合は、既に符号化されたピクチャに対して逆量子化部125にて逆量子化、逆直交変換部126にて逆直交変換処理が実行されたローカルデコード画像を作成する。
Next, of the recording processing system, a signal converted into a predetermined recording format by the camera processing system is held in the
次に、動き予測/動き補償部127により、これから符号化するピクチャとの動き予測ならびに動き補償が実行され、ローカルデコード画像との差分値が加減算部122により算出される。算出された差分値は、直交変換部123にて直交変換処理が実行され、量子化部124にて直交変換係数が量子化される。
Next, the motion prediction /
フレーム内符号化およびフレーム間符号化に関わらず量子化部124で量子化された量子化信号は可変長符号化部131で符号化され、符号化された信号がストリームバッファ132で一旦保持された後、HDDや光ディスク等の記録媒体136に記録される。
Regardless of intraframe coding or interframe coding, the quantized signal quantized by the
一方、符号量制御部133は、GOP内の各ピクチャに対する割り当てビット量を、割り当て対象ピクチャを含めてGOP内でまだ符号化されていないピクチャに対するビット量に応じて割り当てる。この割り当てをGOP内の符号化ピクチャ順に繰り返し、ピクチャごとにピクチャ目標符号量が設定される。
On the other hand, the code
量子化制御部134は、各ピクチャに対する目標符号量と可変長符号化部131から出力される発生符号量とを一致させるための仮想バッファの容量に基づき、フィードバック制御により量子化パラメータを算出する。そして、肌色検出部135で肌色と検出したマクロブロックを、上記算出された量子化パラメータよりも小さくするように制御する。量子化パラメータを小さくすることによって、肌色と検出されたマクロブロックでは符号量が増え、高画質となる。
The
次に、本実施形態における顔検出処理と肌色検出処理について図2のフローと図3〜図5を参照して説明する。 Next, the face detection process and the skin color detection process in this embodiment will be described with reference to the flow of FIG. 2 and FIGS.
図2において、AC電源やバッテリーなどから電力が供給され、画像処理装置が起動されると、S201において、先ず、顔検出部106が連続して顔を検出しないフレーム数であるMの値をゼロにリセットする。この時点でカメラ処理系、記録処理系を含む装置の各ブロックが記録スタンバイ状態に移行する。
In FIG. 2, when power is supplied from an AC power source or a battery and the image processing apparatus is activated, first, in S201, the value of M, which is the number of frames in which the
S202では、画像入力処理として、結像光学系100、撮像素子101、カメラ信号処理部102を介して顔検出部106に画像が入力される。なお、顔検出部106以外の画像信号の流れは上述した通りである。
In S <b> 202, as an image input process, an image is input to the
S203では、顔検出部106で顔検出処理を行う。S203で顔を検出した場合はS204に移行する。顔を検出しなかった場合はS212に移行するが、ここでの処理は後述する。
In S203, the
S204では、現在のフレームで顔を検出したので連続して顔を検出しないフレーム数Mをゼロにリセットする。 In S204, since the face is detected in the current frame, the number M of frames in which no face is continuously detected is reset to zero.
S205では、顔検出部106で顔と検出された領域に対して、顔のサイズと位置情報から肌色検出を行う肌色検出領域(AM0)を設定する。この設定方法について図5を参照して説明する。
In S205, a skin color detection area (AM0) for performing skin color detection from the face size and position information is set for the area detected as a face by the
図5において、501は入力画像、502は顔検出部106で顔と検出された領域である。503は入力画像501に対して顔のサイズと位置情報から肌色検出領域の設定を行った画像である。504は領域設定を行う過程の領域であり、505が肌色検出領域である。
In FIG. 5,
入力画像501に対して、顔と検出された領域502のサイズと位置情報から、504のように顔の位置を基準として下方向に肌色検出領域が設定される。また、一般的に人物の胴体は顔よりも横方向に広いため、505のように顔より下の領域を肌色検出領域504よりも横方向に広く設定する。なお、肌色検出領域の形状は、505のような四角形に限らず、506のような台形でも良く、顔のサイズ等に応じて任意に設定可能である。また、顔検出結果から人物の胴体を検出する機能を有していれば、胴体に対して肌色検出領域を設定しても良い。また、本発明は、上述した肌色検出領域の設定方法に限定されない。
From the size and position information of the
図2の説明に戻り、S206aにおいて、顔検出部106で顔と検出された領域に対して顔特徴量抽出部109が顔に含まれる色情報を抽出し、S206bにおいて、顔特徴量抽出部109での抽出結果から肌色検出部135に用いる閾値を設定する。ここでの色情報は、YUV(YCbCr)、RGB、HSV等の色空間情報である。
Returning to the description of FIG. 2, in step S <b> 206 a, the face feature
ここで、色空間としてYCbCrを一例とした顔特徴量抽出処理および肌色検出処理について図3を参照して説明する。 Here, face feature amount extraction processing and skin color detection processing using YCbCr as an example of the color space will be described with reference to FIG.
図3において、301は入力画像であり、入力画像301に対して顔検出を行った結果、図5の501,502と同様に、顔検出領域302で顔が検出されたとする。次に、顔検出領域302に含まれるCb値のヒストグラムの中で最も多くの画素数を占めるCb値(ピーク値)をCbtopとする。Cbtopは、顔検出領域302にある顔を構成する肌色に最も近い色であると考えられる。これより、顔検出領域302に含まれる顔だけでなく、人物の首、手、足といった肌色もCbtopを中心として構成されていると考えられる。よって、Cbtopから所定の範囲内にあるCb値はこの人物の肌色であるとして、肌色検出部135で用いるCb値の閾値としてCbLM0、CbHM0を設定する(303)。ここでの所定の範囲は任意に決定できるものである。また、Cr値もCb値と同様に閾値としてCrLM0、CrHM0を設定する(303)。なお、色空間としてYCbCrを例示したが、他の色空間の場合はその空間に応じた閾値を設定すればよい。
In FIG. 3,
次に、S207に移行して、顔のサイズと位置情報から設定された肌色検出領域に対して、S206bで設定された肌色検出閾値を用いて肌色検出を行う(図3の304)。また、肌色検出領域以外の領域に対しては肌色検出を行わない。これにより、肌色が存在しない可能性が高い領域での肌色の誤検出が発生しにくくなる。 Next, the process proceeds to S207, and skin color detection is performed on the skin color detection region set from the face size and position information using the skin color detection threshold set in S206b (304 in FIG. 3). In addition, skin color detection is not performed for regions other than the skin color detection region. This makes it difficult for erroneous detection of the skin color in an area where there is a high possibility that the skin color does not exist.
一方、S203において顔を検出しなかった場合、S212に移行して顔を検出しないフレーム数であるMに1を加算して更新する。 On the other hand, if a face is not detected in S203, the process proceeds to S212, and M is updated by adding 1 to M, which is the number of frames for which no face is detected.
S213において、顔を検出しないフレーム数Mが所定の期間T0よりも短い場合はS214aに移行し、T0よりも長い場合はS215に移行する。 In S213, if the number M of frames for which no face is detected is shorter than the predetermined period T0, the process proceeds to S214a, and if it is longer than T0, the process proceeds to S215.
S214a,214bでは、直近の顔検出時(つまりM=0)の肌色検出領域および肌色検出閾値に設定し、S207に移行して肌色検出を行う。これは、図4の401のように人物が一時的に横を向いた場合や下を向いた場合、あるいは顔検出部106の処理量等の関係で一瞬だけ顔が検出されなかったのであれば、人物自体は画像内に存在すると考えられるためである。
In S214a and 214b, the skin color detection region and the skin color detection threshold value at the time of the most recent face detection (that is, M = 0) are set, and the process proceeds to S207 to perform skin color detection. This is because when a person temporarily turns sideways or down like 401 in FIG. 4 or when the face is not detected for a moment due to the processing amount of the
一方、顔を検出しないフレーム数Mが所定の期間TOより長い場合は、S215に移行して肌色検出を行わない。これは、図4の402のように人物の顔が一瞬だけ検出されなかったのではなく、画像内に人物が存在しないと考えられるためである。 On the other hand, when the number M of frames in which no face is detected is longer than the predetermined period TO, the process proceeds to S215 and skin color detection is not performed. This is because a person's face is not detected for a moment as in 402 of FIG. 4 and it is considered that no person exists in the image.
S208において、顔を検出した場合または顔を検出しないフレーム数Mが期間TOより短かい場合には、S206bまたはS214bで設定された肌色検出閾値に応じて肌色検出を行い、その結果に基づいて入力画像を符号化する。ここでは、量子化制御部134は、肌色領域の符号量を肌色以外の領域よりも多く割り当てるように量子化パラメータを決定する。
In S208, when the face is detected or the number M of frames in which no face is detected is shorter than the period TO, the skin color is detected according to the skin color detection threshold set in S206b or S214b, and the input is made based on the result. Encode the image. Here, the
次に、S209において、符号化された画像信号は記録媒体136に保存され、S210において、記録終了が行われない、つまりそのまま記録を継続する場合は、S211に移行する。S211では、現在の肌色検出閾値を保持した上でS202に移行し、次フレームの画像の入力を受けて上記S202以降の処理を繰り返し実行する。
Next, in S209, the encoded image signal is stored in the
一方、S210において、記録終了が行われたならば本処理を終了する。 On the other hand, if the recording is finished in S210, the process is finished.
[第2の実施形態]
第2の実施形態は、入力画像内に複数の人物が存在した場合である。
[Second Embodiment]
In the second embodiment, there are a plurality of persons in the input image.
なお、本実施形態の画像処理装置の構成は図1と同様であるので説明は省略する。 The configuration of the image processing apparatus according to the present embodiment is the same as that shown in FIG.
図6は第2の実施形態の画像処理方法を説明する図であり、図5の画像内の人物が複数になったものである。 FIG. 6 is a diagram for explaining an image processing method according to the second embodiment, in which a plurality of persons are included in the image of FIG.
図6において、601は入力画像であり、人物Aと人物Bが存在するものとする。602は人物Aに対して顔検出部106で顔と検出された領域であり、603は入力画像601に対して顔のサイズと位置情報から設定された人物Aの肌色検出領域である。同様に、604は人物Bに対して顔検出部106で顔と検出された領域であり、605は入力画像601に対して顔のサイズと位置情報から設定された人物Bの肌色検出領域である。
In FIG. 6,
第1の実施形態と同様の方法により、入力画像601に対して、人物Aの顔と検出された領域602のサイズと位置情報から、603のように人物Aに対する肌色検出領域が設定される。同様に、人物Bの顔と検出された領域604のサイズと位置情報から、605のように人物Bに対する肌色検出領域が設定される。
By the same method as in the first embodiment, a skin color detection area for the person A is set for the
次に、人物Aの顔に対して顔特徴量抽出部109が顔に含まれる色情報を抽出し、肌色検出領域603に対して肌色検出閾値の設定を行う。同様に、人物Bの顔に対しても肌色検出領域605に対して肌色検出に用いる閾値の設定を行う。なお、これら肌色検出領域と閾値の各設定方法は第1の実施形態と同様であるが、これらに限ったものではない。
Next, the face feature
次に、顔のサイズと位置情報から設定された肌色検出領域に対して、顔の肌色情報から設定された肌色検出閾値を用いて肌色検出を行う(606)。また、肌色検出領域以外の領域に対しては肌色検出を行わないようにする。これにより肌色が存在しない可能性が高い領域での肌色誤検出を発生しにくくなる。 Next, skin color detection is performed on the skin color detection region set from the face size and position information using the skin color detection threshold set from the face skin color information (606). In addition, skin color detection is not performed for areas other than the skin color detection area. Thereby, it becomes difficult to generate the false detection of the skin color in an area where there is a high possibility that the skin color does not exist.
その他の処理は第1の実施形態と同様である。また、第2の実施形態では2人の人物を例示したが、3人以上でも良く、顔検出部106により検出可能な顔の数に依存するものとする。
Other processes are the same as those in the first embodiment. Further, in the second embodiment, two persons are exemplified, but three or more persons may be used and depend on the number of faces that can be detected by the
[第3の実施形態]
第3の実施形態は、入力画像内に複数の人物が存在しかつ顔検出結果から設定された肌色検出領域が互いに重複している場合である。
[Third Embodiment]
The third embodiment is a case where a plurality of persons exist in the input image and the skin color detection areas set from the face detection results overlap each other.
なお、本実施形態の画像処理装置の構成は図1と同様であるので説明は省略する。 The configuration of the image processing apparatus according to the present embodiment is the same as that shown in FIG.
図7は第3の実施形態の画像処理方法を説明する図であり、図5の画像内の人物について肌色検出領域が重複したものである。 FIG. 7 is a diagram for explaining an image processing method according to the third embodiment, in which skin color detection regions overlap for a person in the image of FIG.
図7において、701は入力画像であり、人物Aと人物Bが存在するものとする。702は人物Aに対して顔検出部106で顔と検出された領域であり、703は入力画像701に対して顔のサイズと位置情報から設定された人物Aの肌色検出領域である。同様に、704は人物Bに対して顔検出部106で顔と検出された領域であり、705は入力画像701に対して顔のサイズと位置情報から設定された人物Bの肌色検出領域である。また、706は人物Aの肌色検出領域703と人物Bの肌色検出領域705が重複した領域である。
In FIG. 7,
第1の実施形態と同様に、入力画像701に対して、人物Aの顔と検出された領域702のサイズと位置情報から、703のように人物Aに対する肌色検出領域が設定される。同様に、人物Bの顔と検出された領域704のサイズと位置情報から、705のように人物Bに対する肌色検出領域が設定される。
Similar to the first embodiment, a skin color detection area for the person A is set for the
次に、人物Aの顔に対して顔特徴量抽出部109が顔に含まれる色情報を抽出し、肌色検出領域703に対して肌色検出閾値の設定を行う。同様に、人物Bの顔に対しても肌色検出領域705に対して肌色検出に用いる肌色検出閾値の設定を行う。なお、これらの肌色検出領域と閾値の各設定方法は第1の実施形態と同様であるが、これらに限ったものではない。
Next, the face feature
次に、重複した領域706に関する肌色検出閾値の設定方法について説明する。
Next, a method for setting the skin color detection threshold for the
第1の方法を説明する。711は人物Aの肌色検出領域703に設定された肌色検出閾値、712は人物Bの肌色検出領域705に設定された肌色検出閾値、713は重複領域706に設定された肌色検出閾値をそれぞれ示している。なお、色情報としてCb値を用いている。この場合、肌色検出領域703に設定された閾値711が、肌色検出領域705に設定された閾値712よりも広い範囲の肌色を検出できる可能性が高いため、重複領域706に設定する肌色検出閾値は、712よりも検出範囲が広い711と同じ値にする。
The first method will be described.
第2の方法を説明する。人物Aの肌色検出領域703と人物Bの肌色検出領域705を比較すると人物Aの肌色検出領域703の方が広い。この場合、重複領域706は人物Aの肌色が占めている可能性が高いため、重複領域706に設定する閾値は711と同じ値にする。
The second method will be described. When comparing the skin
第3の方法を説明する。721は人物Aの肌色検出領域703に設定された肌色検出閾値、722は人物Bの肌色検出領域705に設定された肌色検出閾値、723は重複領域706に設定された肌色検出閾値をそれぞれ示している。なお、色情報としてCb値を用いている。この場合、肌色検出領域703に設定された閾値721と肌色検出領域705に設定された閾値722の両方を含むように、重複領域706に対する肌色検出閾値723を設定する。これにより人物Aと人物Bの両方の肌色を検出できる可能性が高くなる。
A third method will be described.
上記重複領域に対する肌色検出閾値の設定方法や個々の肌色検出領域に対する肌色検出閾値の設定方法は特に上述した方法に限定されるものではない。 The method for setting the skin color detection threshold for the overlap region and the method for setting the skin color detection threshold for each skin color detection region are not particularly limited to the methods described above.
また、第3の実施形態では2人の人物を例示したが、3人以上でも良く、顔検出部106が検出可能な顔の数に依存するものとする。
Further, in the third embodiment, two persons are exemplified, but three or more persons may be used, and depend on the number of faces that can be detected by the
[他の実施形態]
尚、上述した各実施形態における各処理は、各処理の機能を実現する為のプログラムをメモリから読み出してコンピュータのCPU(中央演算装置)が実行することによりその機能を実現させるものであってもよい。
[Other Embodiments]
In addition, each process in each embodiment mentioned above may implement | achieve the function by reading the program for implement | achieving the function of each process from memory, and CPU (central processing unit) of a computer executing. Good.
また、CPUがアクセスするメモリとしては、HDD、光ディスク、フラッシュメモリ等の不揮発性のメモリや、CD−ROM等の読み出しのみが可能な記録媒体、RAM以外の揮発性のメモリが含まれる。あるいは、これらの組合せによるコンピュータ読み取り、書き込み可能な記録媒体から構成されてもよい。 The memory accessed by the CPU includes a non-volatile memory such as an HDD, an optical disk, and a flash memory, a recording medium such as a CD-ROM that can only be read, and a volatile memory other than the RAM. Or you may comprise from the computer-readable recording medium by these combination, and a writable recording medium.
また、上述した各実施形態における各処理の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各処理を行っても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。具体的には、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含む。 In addition, a program for realizing the function of each process in each of the above-described embodiments is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. Specifically, the program read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.
また、「コンピュータ読み取り可能な記録媒体」とは、CD−ROMやDVD等の光ディスクや半導体メモリカードといった可搬媒体、或いはコンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発メモリ(RAM)も含む。つまり、一定時間プログラムを保持しているものも含むものとする。
The “computer-readable recording medium” refers to a portable medium such as an optical disk such as a CD-ROM or DVD, a semiconductor memory card, or a storage device such as a hard disk built in a computer system.
Further, the “computer-readable recording medium” includes a volatile memory (RAM) inside a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In other words, it includes those that hold programs for a certain period of time.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。 The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
また、上記のプログラムを記録したコンピュータ読み取り可能な記録媒体等のプログラムプロダクトも本発明の実施形態として適用することができる。上記のプログラム、記録媒体、伝送媒体およびプログラムプロダクトは、本発明の範疇に含まれる。 A program product such as a computer-readable recording medium in which the above program is recorded can also be applied as an embodiment of the present invention. The above program, recording medium, transmission medium, and program product are included in the scope of the present invention.
以上、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 As described above, the specific configuration is not limited to this embodiment, and includes design and the like within a range not departing from the gist of the present invention.
100 結像光学系
101 撮像素子
102 カメラ信号処理部
103 フレームメモリ(カメラ処理系)
104 画像変倍部
105 第1のセレクタ
106 顔検出部
107 レンズ制御部
108 カメラ制御部
109 顔特徴量抽出部
110 カメラ処理系コントローラ
120 フレームメモリ(記録処理系)
121 フレーム並べ替え部
122 加減算部
123 直交変換部
124 量子化部
125 逆量子化部
126 逆直交変換部
127 動き予測/動き補償部
128 加減算部
129 フレームメモリ(記録処理系)
130 第2のセレクタ
131 可変長符号化部
132 バッファメモリ
133 符号量制御部
134 量子化制御部
135 肌色検出部
136 記録媒体
137 記録処理系コントローラ
DESCRIPTION OF
104
121
130
Claims (26)
画像を入力する画像入力手段と、
前記画像入力手段により入力された画像から人物の顔に対応する領域を検出する顔検出手段と、
前記検出された人物の顔に対応する領域の色情報を抽出する特徴量抽出手段と、
前記画像から特定色の領域を検出する特定色領域検出手段と、
前記抽出された色情報に基づいて、前記特定色領域検出手段により前記特定色の領域を検出するための閾値を設定する設定手段と、を有し、
前記顔検出手段により前記画像から複数の人物の顔に対応する複数の領域が検出された場合、
前記設定手段は、前記検出されたそれぞれの人物の顔に対応する領域から抽出された色情報に基づいて、前記特定色領域検出手段により前記特定色の領域を検出するための閾値を設定し、
前記特定色領域検出手段は、前記閾値に基づいて前記検出されたそれぞれの人物の顔に対応する領域ごとに前記特定色の領域を検出することを特徴とする画像処理装置。 Detecting a region of a specific color included in the image, an image processing apparatus that turn into symbols as obtain increased than the code amount of area code amount of the specific color region is the non-specific color region,
An image input means for inputting images,
A face detecting unit for detecting an area corresponding to the face of a person from the input image by the image ZoIri force means,
Feature quantity extraction means for extracting color information of a region corresponding to the detected human face;
A specific color area detecting means for detecting a region of a specific color from the image image,
Based on the extracted color information, it has a setting means for setting a threshold value for detecting the region of the specific color by the specific color region detecting means,
When a plurality of regions corresponding to a plurality of human faces are detected from the image by the face detection means,
The setting means sets a threshold for detecting the specific color area by the specific color area detection means based on color information extracted from the area corresponding to each detected human face,
The image processing apparatus according to claim 1, wherein the specific color area detection unit detects the specific color area for each area corresponding to the detected human face based on the threshold .
前記特定色領域検出手段は、前記検出された人物の顔に対応する領域ごとのサイズと位置とを用いて前記特定色の領域を検出するための領域を決定することを特徴とする請求項1に記載の画像処理装置。 The face detecting unit detects the size and position of the region corresponding to the face of a person from the input image by the image input means,
The specific color region detecting means, wherein, characterized in that to determine the region for detecting the region of the specific color by using the size and position of the area your capital corresponding to the face of the detected person Item 8. The image processing apparatus according to Item 1.
前記撮像された画像における特定色の領域に対する符号量が前記特定色の領域ではない領域に対する符号量よりも増えるように符号化および記録を行う記録手段と、をさらに有することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。 Imaging means for generating the images from the optical image of an object,
The recording apparatus according to claim 1, further comprising: a recording unit configured to perform encoding and recording so that a code amount for a specific color region in the captured image is larger than a code amount for a region that is not the specific color region. The image processing apparatus according to any one of 1 to 10 .
画像を入力する画像入力工程と、
前記画像から人物の顔に対応する領域を検出する顔検出工程と、
前記検出された人物の顔に対応する領域の色情報を抽出する特徴量抽出工程と、
前記画像から特定色の領域を検出する特定色領域検出工程と、
前記抽出された色情報に基づいて、前記特定色領域検出工程にて特定色の領域を検出するための閾値を設定する設定工程と、を有し、
前記顔検出工程において前記画像から人物の顔に対応する複数の領域が検出された場合、
前記設定工程では、前記検出されたそれぞれの人物の顔に対応する領域から抽出された色情報に基づいて、前記特定色領域検出工程により前記特定色の領域を検出するための閾値を設定し、
前記特定色領域検出工程では、前記閾値に基づいて前記検出されたそれぞれの人物の顔に対応する領域ごとに前記特定色の領域を検出することを特徴とする画像処理方法。 Detecting a region of a specific color included in the image, the a specific color code amount the specific color area code turn into that image processing method as obtain increased than the code amount of area not in the areas of,
An image input step of inputting images,
A face detecting step of detecting an area corresponding from the front Kiga image to a person's face,
A feature amount extracting step of extracting color information of an area corresponding to the detected human face;
A specific color area detection step of detecting a region of a specific color from the image image,
Based on the extracted color information, have a, a setting step of setting a threshold for detecting a region of a specific color in the specific color area detection step,
When a plurality of regions corresponding to a human face are detected from the image in the face detection step,
In the setting step, based on the color information extracted from the region corresponding to each detected human face, a threshold for detecting the specific color region by the specific color region detection step is set.
In the specific color region detection step, the specific color region is detected for each region corresponding to each detected human face based on the threshold value .
前記画像取得手段により得られた画像を符号化する符号化手段と、を有し、 Encoding means for encoding the image obtained by the image acquisition means,
前記符号化手段は、前記画像取得手段により得られた画像中の特定色の領域を判定し、前記特定色の領域の符号量が前記特定色の領域ではない領域よりも増えるように符号化し、 The encoding means determines a specific color area in the image obtained by the image acquisition means, and encodes the code amount of the specific color area to be larger than an area that is not the specific color area,
前記符号化手段は、前記画像取得手段により得られた画像中の人物の顔に対応する領域の色情報に基づいて前記特定色の領域であると判定するための閾値を設定し、前記人物の顔に対応する領域において前記特定色の領域を判定し、 The encoding means sets a threshold value for determining that the area is the specific color based on the color information of the area corresponding to the face of the person in the image obtained by the image acquisition means, and Determining the region of the specific color in the region corresponding to the face;
前記人物の顔に対応する領域が複数である場合、前記符号化手段は、第1の人物の顔に対応する領域の色情報に基づいて前記特定色の領域であると判定するための第1の閾値を設定し、第2の人物の顔に対応する領域の色情報に基づいて前記特定色の領域であると判定するための第2の閾値を設定し、前記第1の人物の顔に対応する前記特定色の領域を判定するための領域においては、前記第1の閾値を用いて前記特定色の領域を判定し、前記第2の人物の顔に対応する前記特定色の領域を判定するための領域においては、前記第2の閾値を用いて前記特定色の領域を判定することを特徴とする画像処理装置。 When there are a plurality of regions corresponding to the person's face, the encoding means determines the first color region based on the color information of the region corresponding to the first person's face. And a second threshold value for determining that the region is the specific color region based on the color information of the region corresponding to the face of the second person. In the area for determining the corresponding specific color area, the specific color area is determined using the first threshold, and the specific color area corresponding to the face of the second person is determined. An image processing apparatus that determines the specific color area using the second threshold value in the area to be used.
前記画像取得手段により得られた画像中の特定色の領域を判定し、前記特定色の領域の符号量が前記特定色の領域ではない領域よりも増えるように符号化し、 Determining a specific color area in the image obtained by the image acquisition means, and encoding so that a code amount of the specific color area is larger than a non-specific color area;
前記画像取得手段により得られた画像中の人物の顔に対応する領域の色情報に基づいて前記特定色の領域であると判定するための閾値を設定し、前記人物の顔に対応する領域において前記特定色の領域を判定し、 Based on the color information of the area corresponding to the face of the person in the image obtained by the image acquisition means, a threshold for determining that the area is the specific color is set, and in the area corresponding to the face of the person Determining the region of the specific color;
前記人物の顔に対応する領域が複数である場合、それぞれの前記人物の顔に対応する領域の色情報に基づいて前記特定色の領域であると判定するための閾値を設定し、前記それぞれの前記人物の顔に対応する領域ごとに前記特定色の領域を判定することを特徴とする画像処理方法。 When there are a plurality of regions corresponding to the person's face, a threshold value for determining that the region is the specific color based on the color information of the region corresponding to each person's face is set. An image processing method, wherein the specific color area is determined for each area corresponding to the face of the person.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009006116A JP5153660B2 (en) | 2009-01-14 | 2009-01-14 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009006116A JP5153660B2 (en) | 2009-01-14 | 2009-01-14 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010166263A JP2010166263A (en) | 2010-07-29 |
JP5153660B2 true JP5153660B2 (en) | 2013-02-27 |
Family
ID=42582094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009006116A Expired - Fee Related JP5153660B2 (en) | 2009-01-14 | 2009-01-14 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5153660B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4064230A1 (en) | 2021-03-26 | 2022-09-28 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, computer program and storage medium |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6179569B2 (en) * | 2015-08-20 | 2017-08-16 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
JP2017130976A (en) * | 2017-04-17 | 2017-07-27 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
JP7430088B2 (en) * | 2020-03-24 | 2024-02-09 | 株式会社フジタ | speech control device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000339471A (en) * | 1999-05-31 | 2000-12-08 | Matsushita Electric Ind Co Ltd | Method and device for extracting picture |
JP3657463B2 (en) * | 1999-06-29 | 2005-06-08 | シャープ株式会社 | Motion recognition system and recording medium on which motion recognition program is recorded |
JP2002238060A (en) * | 2001-02-07 | 2002-08-23 | Sony Corp | Image-coding method, image coder, program and recording medium |
JP3806096B2 (en) * | 2002-10-30 | 2006-08-09 | 独立行政法人科学技術振興機構 | Face detection method and face detection apparatus |
JP4356982B2 (en) * | 2004-02-02 | 2009-11-04 | キヤノン株式会社 | Image processing apparatus and method |
JP2007257087A (en) * | 2006-03-20 | 2007-10-04 | Univ Of Electro-Communications | Skin color area detecting device and skin color area detecting method |
-
2009
- 2009-01-14 JP JP2009006116A patent/JP5153660B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4064230A1 (en) | 2021-03-26 | 2022-09-28 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, computer program and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2010166263A (en) | 2010-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110139035B (en) | Method and electronic device for thermal and power management | |
KR101528895B1 (en) | Method and apparatus for adaptive feature of interest color model parameters estimation | |
RU2512130C2 (en) | Device and method for high-resolution imaging at built-in device | |
JP4682102B2 (en) | Image coding apparatus and image coding method | |
US20180176573A1 (en) | Apparatus and methods for the encoding of imaging data using imaging statistics | |
JP4799438B2 (en) | Image recording apparatus, image recording method, image encoding apparatus, and program | |
JP4804107B2 (en) | Image encoding apparatus, image encoding method and program thereof | |
JP6961443B2 (en) | Image processing equipment, image processing methods, and programs | |
KR20080085182A (en) | Selecting key frames from video frames | |
JP5421727B2 (en) | Image processing apparatus and control method thereof | |
KR20180044742A (en) | Method and apparatus for selecting a image | |
JP6149707B2 (en) | Moving picture coding apparatus, moving picture coding method, moving picture coding program, and moving picture photographing apparatus | |
JP2005295379A (en) | Image coding method, imaging apparatus, and computer program | |
JP5153660B2 (en) | Image processing apparatus, image processing method, and program | |
WO2016197323A1 (en) | Video encoding and decoding method, and video encoder/decoder | |
JP5256496B2 (en) | Image processing system, image processing method, and program | |
CN113810654A (en) | Image video uploading method and device, storage medium and electronic equipment | |
WO2022252222A1 (en) | Encoding method and encoding device | |
JP7050509B2 (en) | Image processing equipment, image processing methods, and programs | |
JP5847569B2 (en) | Image compression method and imaging apparatus | |
CN116847087A (en) | Video processing method and device, storage medium and electronic equipment | |
JP2009055236A (en) | Video coder and method | |
JP5165084B2 (en) | Image encoding device | |
JP2014090253A (en) | Video encoder, video encoding method and program | |
KR100771138B1 (en) | Imaging device and image correcting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120820 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121204 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151214 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5153660 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151214 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |