JP4692006B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4692006B2
JP4692006B2 JP2005038018A JP2005038018A JP4692006B2 JP 4692006 B2 JP4692006 B2 JP 4692006B2 JP 2005038018 A JP2005038018 A JP 2005038018A JP 2005038018 A JP2005038018 A JP 2005038018A JP 4692006 B2 JP4692006 B2 JP 4692006B2
Authority
JP
Japan
Prior art keywords
image
face
feature point
luminance
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005038018A
Other languages
Japanese (ja)
Other versions
JP2006227734A (en
Inventor
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005038018A priority Critical patent/JP4692006B2/en
Publication of JP2006227734A publication Critical patent/JP2006227734A/en
Application granted granted Critical
Publication of JP4692006B2 publication Critical patent/JP4692006B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像画像から顔の各部位の変化を検出する画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for detecting changes in each part of a face from a captured image.

画像処理には、カメラで顔を撮像し、その撮像画像から顔の向きや並進運動などを推定するものがある。このように顔の運動を推定する手法としては、例えば、目、口の各端部などの顔において複数の特徴点を設定し、撮像画像においてそれらの特徴点を追跡していくことにより顔の運動を推定している。このように特徴点を用いて顔の運動を推定する場合、笑った場合や怒った場合などの顔の表情が変わったときには、目や口などの特徴点の位置が顔の運動だけでなく表情でも変化してしまう。そのため、顔の表情を考慮しないで顔の運動を推定した場合、その推定精度が低下してしまう。   In image processing, a face is imaged by a camera, and the orientation of the face and translational motion are estimated from the captured image. As a technique for estimating the movement of the face in this way, for example, by setting a plurality of feature points on the face such as the ends of the eyes and mouth, and tracking those feature points in the captured image, Estimating movement. When estimating facial motion using feature points in this way, when facial expressions change, such as when laughing or angry, the positions of feature points such as eyes and mouth are not only facial motion but also facial expressions. But it will change. For this reason, when the facial motion is estimated without considering the facial expression, the estimation accuracy decreases.

また、画像処理には、表情の変化を認識するために、撮像画像から顔の各部位の変形を検出するものがある。顔の変形を検出する手法としては、顔上の比較的目立つ点を検出・追跡し、それらの点の時系列的な二次元的あるいは三次元的な動きに基づいて検出を行っている。また、眉に対する目の相対的な位置変化により、目の開閉度の検出を行うものもある(特許文献1参照)。
特開平9−44685号公報
Also, some image processing detects deformation of each part of a face from a captured image in order to recognize a change in facial expression. As a method for detecting the deformation of the face, relatively conspicuous points on the face are detected and tracked, and detection is performed based on the time-series two-dimensional or three-dimensional movement of these points. In addition, there is also a technique that detects the degree of opening and closing of eyes based on a change in the position of the eyes relative to the eyebrows (see Patent Document 1).
JP 9-44685 A

従来の各部位の変形の検出では、もともと顔上には目立つ点が少ないことから、特徴点となりうる点の数が少ない。そのため、この少ない点の動きから各部位の変形が生じたことを検出しても、高い検出精度を望めない。そこで、特徴点の数を増やすためにあまり目立たない点までも特徴点とした場合、それらの点の検出・追跡を失敗する可能性が高く、結局、検出精度が低下してしまう。また、目の開閉度を検出するものについても、表情の変化によって眉の形や位置も変化する場合があり、そのような場合には高い精度を望めない。   In the conventional detection of the deformation of each part, since the number of points that are conspicuous on the face is originally small, the number of points that can be feature points is small. Therefore, high detection accuracy cannot be expected even if the deformation of each part is detected from the movement of the few points. Therefore, when feature points are used even if they are not so conspicuous in order to increase the number of feature points, there is a high possibility that the detection and tracking of those points will fail, and eventually the detection accuracy will decrease. In addition, the shape and position of the eyebrows may also change due to changes in facial expressions for detecting the degree of opening / closing of the eyes. In such a case, high accuracy cannot be expected.

そこで、本発明は、高精度に顔の各部位における変化を検出する画像処理装置及び画像処理方法を提供することを課題とする。   Therefore, an object of the present invention is to provide an image processing apparatus and an image processing method for detecting changes in each part of the face with high accuracy.

本発明に係る画像処理装置は、顔を撮像する撮像手段と、撮像手段で撮像した撮像画像から顔の特徴点を検出する特徴点検出手段と、特徴点検出手段で検出した特徴点を用いて顔の部位全体を含む存在領域を設定する存在領域設定手段と、存在領域設定手段で設定した存在領域内の輝度の統計値として輝度の分散値、標準偏差値及び平均値の少なくとも1つを検出する画像特徴検出手段と、画像特徴検出手段で検出した存在領域内の輝度の統計値と該統計値に応じた閾値とを比較し、比較結果に基づいて顔の部位の開閉状態を判断する判断手段とを備えることを特徴とする。 An image processing apparatus according to the present invention uses an imaging unit that captures a face, a feature point detection unit that detects a feature point of a face from a captured image captured by the imaging unit, and a feature point detected by the feature point detection unit. Detecting at least one of a luminance dispersion value, a standard deviation value, and an average value as a statistic value of luminance in the existence area set by the existence area setting means, and an existence area setting means for setting an existence area including the entire face part The image feature detection means for comparing, and the brightness statistical value in the existing area detected by the image feature detection means and a threshold value corresponding to the statistical value are compared, and the judgment for determining the open / closed state of the facial part based on the comparison result Means.

この画像処理装置では、撮像手段により顔を撮像し、特徴点検出手段により各撮像画像から顔の特徴点を検出する。そして、画像処理装置では、画像特徴検出手段により特徴点周辺の画像特徴を検出する。口が開閉したときなど顔の各部位が変化(変形)した場合、その各部位を含む領域では輝度や色情報などが変化前と変化後で明らかに差がある。そこで、画像処理装置では、判断手段により検出した特徴点周辺の画像特徴から特徴点周辺の状態を判断する。このように、画像処理装置では、顔上の各部位を含む領域の画像特徴から各部位の変化を検出するので、各部位の変化を高精度に検出することができ、特徴点の数が少なくても検出可能である。そのため、この検出結果を利用して顔運動の推定や顔認識などの上位の処理を行った場合、顔における局所的な変化を排除して処理を行うことできるので、その処理精度を向上させることができる。   In this image processing apparatus, a face is imaged by an imaging unit, and a feature point of the face is detected from each captured image by a feature point detection unit. In the image processing apparatus, the image feature detection unit detects the image feature around the feature point. When each part of the face changes (deforms) such as when the mouth opens and closes, there is a clear difference in luminance, color information, etc. before and after the change in the area including each part. Therefore, the image processing apparatus determines the state around the feature point from the image feature around the feature point detected by the determination unit. As described above, since the image processing apparatus detects changes in each part from the image features of the region including each part on the face, the change in each part can be detected with high accuracy, and the number of feature points is small. Can be detected. Therefore, when high-level processing such as face motion estimation and face recognition is performed using this detection result, it is possible to perform processing by eliminating local changes in the face, so that the processing accuracy is improved. Can do.

なお、画像特徴は、例えば、輝度、彩度、色(RGB)などについての情報である。特徴点は、顔の中でそれ自体が変化する部位中の検出が容易な点であり、例えば、目、口、眉毛などの各端部である。特徴点周辺の状態は、例えば、特徴点周辺が目や口の場合には開閉であり、特徴点周辺が眉毛の場合には位置や形状の変化である。   The image feature is information about brightness, saturation, color (RGB), and the like. A feature point is a point that can be easily detected in a part of the face that changes itself, and is, for example, each end of eyes, mouth, eyebrows, and the like. The state around the feature point is, for example, opening / closing when the feature point periphery is an eye or mouth, and changing the position or shape when the feature point periphery is eyebrows.

本発明に係る画像処理方法は、顔を撮像する撮像ステップと、撮像ステップで撮像した撮像画像から顔の特徴点を検出する特徴点検出ステップと、特徴点検出ステップで検出した特徴点を用いて顔の部位全体を含む存在領域を設定する存在領域設定ステップと、存在領域設定ステップで設定した存在領域内の輝度の統計値として輝度の分散値、標準偏差値及び平均値の少なくとも1つを検出する画像特徴検出ステップと、画像特徴検出ステップで検出した存在領域内の輝度の統計値と該統計値に応じた閾値とを比較し、比較結果に基づいて顔の部位の開閉状態を判断する判断ステップとを含むことを特徴とする。なお、この画像処理方法は、上記の各画像処理装置と同様の作用効果を有している。 An image processing method according to the present invention uses an imaging step for imaging a face, a feature point detection step for detecting a feature point of a face from a captured image captured at the imaging step, and a feature point detected at the feature point detection step. An existence area setting step for setting an existence area including the entire face part, and detecting at least one of a luminance dispersion value, a standard deviation value, and an average value as a luminance statistical value in the existence area set in the existence area setting step The image feature detection step to be performed, and the determination of the open / closed state of the facial part based on the comparison result by comparing the statistical value of the luminance in the existing area detected in the image feature detection step with a threshold value corresponding to the statistical value And a step. This image processing method has the same effects as the above-described image processing apparatuses.

本発明によれば、顔の各部位における変化を高精度に検出することができる。   According to the present invention, a change in each part of the face can be detected with high accuracy.

以下、図面を参照して、本発明に係る画像処理装置及び画像処理方法の実施の形態を説明する。   Embodiments of an image processing apparatus and an image processing method according to the present invention will be described below with reference to the drawings.

本実施の形態では、本発明を、対象物体を人物の顔とし、顔の運動(回転運動や並進運動)を推定する画像処理装置に適用する。本実施の形態に係る画像処理装置は、目や口の両端部などを特徴点とし、その特徴点の位置の変化から顔の運動を推定する。特に、本実施の形態に係る画像処理装置では、特徴点の中で変形の起こる部位である目及び口における変形を検出する。   In the present embodiment, the present invention is applied to an image processing apparatus that uses a target object as a human face and estimates a facial motion (rotational motion or translational motion). The image processing apparatus according to the present embodiment uses feature points at both ends of the eyes and mouth, and estimates facial motion from changes in the positions of the feature points. In particular, the image processing apparatus according to the present embodiment detects deformations in the eyes and mouth, which are parts where deformation occurs among the feature points.

図1〜図8を参照して、画像処理装置1について説明する。図1は、本実施の形態に係る画像処理装置の構成図である。図2は、図1のカメラの撮像画像の一例である。図3は、撮像画像から抽出した顔候補領域を示す画像の一例である。図4は、顔候補領域内に設定した各特徴点の候補領域を示す画像の一例である。図5は、各候補領域から検出した各特徴点を示す画像の一例である。図6は、前フレームの各特徴点の位置から予測した現フレームにおける各特徴点の予測領域を示す画像の一例である。図7は、各予測領域から追跡した各特徴点を示す画像の一例である。図8は、口領域の輝度のヒストグラムであり、(a)が口が開いている場合であり、(b)が口を閉じている場合である。   The image processing apparatus 1 will be described with reference to FIGS. FIG. 1 is a configuration diagram of an image processing apparatus according to the present embodiment. FIG. 2 is an example of a captured image of the camera of FIG. FIG. 3 is an example of an image showing a face candidate area extracted from the captured image. FIG. 4 is an example of an image showing a candidate area for each feature point set in the face candidate area. FIG. 5 is an example of an image showing each feature point detected from each candidate area. FIG. 6 is an example of an image showing a prediction area of each feature point in the current frame predicted from the position of each feature point in the previous frame. FIG. 7 is an example of an image showing each feature point tracked from each prediction region. FIG. 8 is a histogram of the luminance of the mouth area, where (a) shows a case where the mouth is open and (b) shows a case where the mouth is closed.

画像処理装置1は、顔の運動を高精度に推定するために、特徴点である目や口が変形しているときにはその部位の特徴点を使用しないで顔の運動を推定する。そのために、画像処理装置1では、撮像画像から目の領域及び口の領域を検出し、その各領域の輝度特徴から目や口の変形を検出する。画像処理装置1は、カメラ2及び画像ECU[Electronic Control Unit]3を備えており、画像ECU3内に特徴点検出・追跡部10、特徴点周辺輝度特徴計測部11、顔部位変形検出部12、顔運動推定部13が構成される。   In order to estimate the facial motion with high accuracy, the image processing apparatus 1 estimates the facial motion without using the feature point of the part when the eyes or the mouth that are the feature points are deformed. For this purpose, the image processing apparatus 1 detects the eye area and the mouth area from the captured image, and detects the deformation of the eyes and mouth from the luminance characteristics of each area. The image processing apparatus 1 includes a camera 2 and an image ECU [Electronic Control Unit] 3. In the image ECU 3, a feature point detection / tracking unit 10, a feature point peripheral luminance feature measurement unit 11, a face part deformation detection unit 12, A face motion estimation unit 13 is configured.

なお、本実施の形態では、カメラ2が特許請求の範囲に記載する撮像手段に相当し、特徴点検出・追跡部10が特許請求の範囲に記載する特徴点検出手段に相当し、特徴点周辺輝度特徴計測部11が特許請求の範囲に記載する画像特徴検出手段に相当し、顔部位変形検出部12が特許請求の範囲に記載する判断手段に相当する。   In the present embodiment, the camera 2 corresponds to the imaging means described in the claims, and the feature point detection / tracking unit 10 corresponds to the feature point detection means described in the claims, and around the feature points. The luminance feature measurement unit 11 corresponds to the image feature detection unit described in the claims, and the facial part deformation detection unit 12 corresponds to the determination unit described in the claims.

画像処理装置1における顔の運動の推定結果の出力は、その顔の運動を示す画像をモニタに表示したりあるいは顔の運動状態を音声出力するなどしてもよい。また、このような画像処理装置1を車両に搭載した場合、運転者の顔の運動を推定し、その推定結果を信号として走行制御装置や警報装置などに提供するようにしてもよい。例えば、前車との車間距離などに応じて自動的にブレーキを作動させる装置の場合、運転者の顔の運動の推定結果から前方から視線を外していると推測できるときには通常よりもブレーキを早く作動させるなどの制御を行う。また、警報装置の場合、運転者がよそ見していると推測できるときには警報を出力するなどしてもよい。あるいは、車両以外にも人とコミュニケーションをとるロボットなどに組み込まれる構成としてもよい。   As the output of the facial motion estimation result in the image processing apparatus 1, an image showing the facial motion may be displayed on a monitor, or the facial motion state may be output by voice. When such an image processing device 1 is mounted on a vehicle, the motion of the driver's face may be estimated, and the estimation result may be provided as a signal to a travel control device, an alarm device, or the like. For example, in the case of a device that automatically activates the brake according to the distance between the vehicle and the front vehicle, when the driver can estimate that the line of sight has been removed from the front from the estimation result of the movement of the driver's face, the brake is applied earlier than usual. Control such as operating. In the case of an alarm device, an alarm may be output when it can be estimated that the driver is looking away. Or it is good also as a structure incorporated in the robot etc. which communicate with people other than a vehicle.

カメラ2は、CCD[Charge coupled device]などの撮像素子を備えるデジタルカメラであり、デジタル画像データからなる撮像画像を画像信号として画像ECU3に送信する。この際、カメラ2では、撮像対象を時間的に連続して撮像し、時間的に連続した画像(動画像)データを出力する。画像ECU3では少なくとも輝度情報が有れば処理を行うことができるので、カメラ2はカラーカメラでもあるいは白黒カメラでもよい。ちなみに、画像処理装置1が車両に搭載される場合、カメラ2は、車室内において、運転席に座っている運転者の顔を真正面から撮像できる位置に配置される。   The camera 2 is a digital camera provided with an image sensor such as a CCD [Charge coupled device], and transmits a captured image composed of digital image data to the image ECU 3 as an image signal. At this time, the camera 2 continuously captures the imaging target in time and outputs temporally continuous image (moving image) data. Since the image ECU 3 can perform processing if there is at least luminance information, the camera 2 may be a color camera or a monochrome camera. Incidentally, when the image processing apparatus 1 is mounted on a vehicle, the camera 2 is disposed at a position in the passenger compartment where the face of the driver sitting in the driver's seat can be imaged from the front.

画像ECU3は、画像処理用のECUであり、CPU[Central Processing Unit]、ROM[Read OnlyMemory]、RAM[Random Access Memory]などからなる。画像ECU3では、画像処理装置1が起動されると、ROMに記憶されている専用のアプリケーションプログラムをRAMにロードし、CPUによってそのプログラムに記述された各処理を実行することによって各処理部10〜13が構成される。画像ECU3は、正面顔画像から作成した顔領域の参照画像、各特徴点の参照画像を予め保持している。画像ECU3では、処理開始後、カメラ2から撮像画像を連続的に(例えば、1/30秒毎)取り入れ、最初に顔を検出したフレームの撮像画像においては各特徴点を検出し、それ以降のフレームの撮像画像においては各特徴点を追跡する。そして、画像ECU3では、検出や追跡した特徴点の位置から目や口の各領域を推定し、目領域や口領域の輝度特徴を求める。さらに、画像ECU3では、その各輝度特徴から目や口の変形状態を検出し、その目や口の状態と参照画像を作成した際の正面顔画像における目や口の状態と異なっている場合にはその特徴点を顔の運動推定に使用しない。   The image ECU 3 is an ECU for image processing, and includes a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like. In the image ECU 3, when the image processing apparatus 1 is activated, a dedicated application program stored in the ROM is loaded into the RAM, and each process described in the program is executed by the CPU. 13 is configured. The image ECU 3 holds in advance a reference image of the face area created from the front face image and a reference image of each feature point. The image ECU 3 continuously captures captured images (for example, every 1/30 seconds) from the camera 2 after the start of processing, detects each feature point in the captured image of the frame in which the face is first detected, and thereafter Each feature point is tracked in the captured image of the frame. Then, the image ECU 3 estimates each area of the eyes and mouth from the positions of the detected and tracked feature points, and obtains luminance characteristics of the eye area and mouth area. Further, the image ECU 3 detects the deformed state of the eyes and mouth from each luminance feature, and when the state of the eyes and mouth differs from the state of the eyes and mouth in the front face image when the reference image is created Does not use the feature points for facial motion estimation.

顔の特徴点としては、例えば、両目の各目尻、各目頭、鼻の左右の孔、口の左右端などの肌との境界となる箇所であり、輝度や色などの画像情報に明らかな差がある箇所とする。この各特徴点の中で、会話、表情などによって変形が起こる部位である目と口に関する特徴点についてのみ変形状態を検出する。なお、図4〜図7では各特徴点に関する画像の一例として目と口に関する各特徴点のみ(変形状態を検出する部位の各特徴点のみ)を示しているが、実際には顔の運動を推定するために目や口以外の特徴点も存在する場合もある。   The facial feature points are, for example, points that are borders with the skin, such as the corners of both eyes, the heads of each eye, the right and left holes of the nose, and the left and right edges of the mouth. It is assumed that there is a place. Among these feature points, the deformation state is detected only for the feature points related to the eyes and mouth, which are parts that are deformed by conversation, facial expressions, and the like. 4 to 7 show only the feature points related to the eyes and mouth (only the feature points of the part for detecting the deformation state) as an example of the images related to the feature points. There may be feature points other than eyes and mouths for estimation.

顔領域の参照画像及び各特徴点の参照画像は予め作成され、画像ECU3に保持される。参照画像の作成方法としては、まず、正面を向いた人の顔の画像を用意する。このときの顔の状態は、口を閉じ、目を開いた通常時の顔の状態である。この用意する顔画像は、顔運動の推定対象の人の顔の画像でもよいが、平均的な顔の画像とする。顔領域の参照画像については、正面顔画像から顔全体を含む矩形領域を切り出すことによって作成される。各特徴点の参照画像については、正面顔画像から各特徴点を中心とする矩形領域をそれぞれ切り出すことによって作成される。   The reference image of the face area and the reference image of each feature point are created in advance and held in the image ECU 3. As a method for creating a reference image, first, an image of a person's face facing the front is prepared. The face state at this time is a normal face state with the mouth closed and the eyes open. The prepared face image may be an image of a person's face to be estimated for facial motion, but is an average face image. The reference image of the face area is created by cutting out a rectangular area including the entire face from the front face image. The reference image of each feature point is created by cutting out a rectangular area centered on each feature point from the front face image.

画像ECU3では、カメラ2から撮像画像PPを取り入れられる毎に(図2参照)、その撮像画像PPをRAMの所定領域に保持するとともに輝度画像に変換する。ちなみに、カメラ2が白黒カメラの場合にはこの輝度画像への変換は行わない。   Each time the captured image PP is taken in from the camera 2 (see FIG. 2), the image ECU 3 holds the captured image PP in a predetermined area of the RAM and converts it into a luminance image. Incidentally, when the camera 2 is a black and white camera, the conversion into the luminance image is not performed.

特徴点検出・追跡部10では、撮像画像PPから各特徴点(顔領域)を検出できるまで各フレームの撮像画像PPに対しては特徴点の検出処理を行う。具体的には、特徴点検出・追跡部10では、顔領域の参照画像を用いて、テンプレートマッチングによって撮像画像(輝度画像)PPから顔候補領域FAを抽出する(図3参照)。そして、特徴点検出・追跡部10では、顔候補領域FAにおいて、各特徴点が存在する可能性のある候補領域CA1〜CA6を設定する(図4参照)。候補領域の設定方法としては、例えば、顔領域の参照画像及び特徴点の参照画像を作成する際に用いた正面顔画像における各特徴点の相対的な位置関係から想定可能な最大範囲で領域を設定する。さらに、特徴点検出・追跡部10では、各特徴点の参照画像を用いて、テンプレートマッチングによって各候補領域CA1〜CA6から特徴点CP1〜CP6を探索する(図5参照)。   The feature point detection / tracking unit 10 performs feature point detection processing on the captured image PP of each frame until each feature point (face region) can be detected from the captured image PP. Specifically, the feature point detection / tracking unit 10 extracts the face candidate area FA from the captured image (luminance image) PP by template matching using the reference image of the face area (see FIG. 3). Then, the feature point detection / tracking unit 10 sets candidate areas CA1 to CA6 in which each feature point may exist in the face candidate area FA (see FIG. 4). As a method for setting the candidate area, for example, the area within the maximum range that can be assumed from the relative positional relationship of each feature point in the front face image used when creating the reference image of the face area and the reference image of the feature point is used. Set. Further, the feature point detection / tracking unit 10 searches for the feature points CP1 to CP6 from the candidate areas CA1 to CA6 by template matching using the reference images of the feature points (see FIG. 5).

顔領域や特徴点の探索方法としては、顔領域の参照画像または各特徴点の参照画像毎に、撮像画像の輝度画像または各候補領域の輝度画像から各参照画像と対応する大きさの領域を順次切り出し、その切り出した領域の輝度画像と各参照画像との類似度を式(1)により順次算出し、類似度が最も大きくなる位置(すなわち、式(1)のcorrの値が最も小さくなる(x,y))を探索する。なお、顔領域の探索において、類似度が最も大きくなる位置でも式(1)のcorrの値が閾値以下とならない場合、撮像画像中に顔が存在しないと判断し、以降の処理を停止し、次のフレームの撮像画像に対する処理に移行する。

Figure 0004692006
As a method of searching for a face area or feature point, for each reference image of the face area or reference image of each feature point, an area having a size corresponding to each reference image is selected from the brightness image of the captured image or the brightness image of each candidate area. Sequentially cut out, the degree of similarity between the luminance image of the cut-out area and each reference image is calculated sequentially using Equation (1), and the position where the degree of similarity is the highest (that is, the value of corr in Equation (1) is the smallest). Search for (x, y)). In the face area search, if the corr value of Equation (1) does not fall below the threshold even at the position where the similarity is the largest, it is determined that no face exists in the captured image, and the subsequent processing is stopped. The process proceeds to the process for the captured image of the next frame.
Figure 0004692006

式(1)において、I(u,v)は撮像画像の輝度画像または各候補領域の輝度画像上の位置(u,v)での輝度値であり、T(u,v)は参照画像上の位置(u,v)での輝度値であり、Uがuの定義域(参照画像の水平方向幅)であり、Vがvの定義域(参照画像の垂直方向幅)であり、xは撮像画像の輝度画像または各候補領域の輝度画像から領域を切り出す際の水平方向の基準位置であり、yは撮像画像の輝度画像または各候補領域の輝度画像から領域を切り出す際の垂直方向の基準位置である。   In Equation (1), I (u, v) is a luminance value of the captured image or a luminance value at a position (u, v) on the luminance image of each candidate region, and T (u, v) is on the reference image. , U is the definition area of u (horizontal width of the reference image), V is the definition area of v (vertical width of the reference image), and x is The horizontal reference position when the region is extracted from the luminance image of the captured image or the luminance image of each candidate region, and y is the vertical reference when the region is extracted from the luminance image of the captured image or the luminance image of each candidate region Position.

特徴点検出・追跡部10では、各特徴点(顔領域)を検出できた以降の各フレームの撮像画像PPに対しては特徴点の追跡処理を行う。具体的には、特徴点検出・追跡部10では、前フレームで検出または追跡した各特徴点の位置に基づいて、現フレームの撮像画像(輝度画像)PPにおいて各特徴点が存在する可能性のある予測領域PA1〜PA6を算出する(図6参照)。そして、特徴点検出・追跡部10では、各特徴点の参照画像を用いて、テンプレートマッチングによって各予測領域PA1〜PA6から特徴点CP1’〜CP6’を探索する(図7参照)。   The feature point detection / tracking unit 10 performs feature point tracking processing on the captured image PP of each frame after detection of each feature point (face region). Specifically, in the feature point detection / tracking unit 10, there is a possibility that each feature point exists in the captured image (luminance image) PP of the current frame based on the position of each feature point detected or tracked in the previous frame. Certain prediction areas PA1 to PA6 are calculated (see FIG. 6). Then, the feature point detection / tracking unit 10 searches for the feature points CP1 'to CP6' from the prediction regions PA1 to PA6 by template matching using the reference images of the feature points (see FIG. 7).

予測領域の算出方法としては、フレーム間での顔の動きは小さいと考えられるので、各特徴点を中心にして前フレームから現フレームへのフレーム間で動き得る最大領域分を加算した画素を予測領域とする。つまり、(前フレームでの各特徴点の位置±フレーム間画像上での最大移動量)を算出し、予測領域とする。例えば、前フレームのある特徴点の位置を(x0,y0)とした場合、フレーム間で水平、垂直方向に最大で(s,t)だけ動く可能性があるとすると、この特徴点の予測領域は、水平方向がx0−s〜x0+sの範囲であり、垂直方向がy0−t〜y0+tの範囲である。特徴点の探索方法は上記と同様の方法であるが、特徴点の追跡において、類似度が最も大きくなる位置でも式(1)のcorrの値が閾値以下とならない場合、撮像画像中に追跡中の特徴点(ひいては、顔)が存在しないと判断し、以降の処理を停止し、次のフレームの撮像画像に対しては特徴点(顔)の検出処理に戻る。   As the calculation method of the prediction area, it is considered that the movement of the face between frames is small, so predict the pixel by adding the maximum area that can move between frames from the previous frame to the current frame around each feature point This is an area. That is, (the position of each feature point in the previous frame ± the maximum amount of movement on the inter-frame image) is calculated and set as the prediction region. For example, if the position of a certain feature point in the previous frame is (x0, y0), and there is a possibility that the feature point moves in the horizontal and vertical directions at most (s, t), the prediction region of this feature point The horizontal direction is a range of x0-s to x0 + s, and the vertical direction is a range of y0-t to y0 + t. The feature point search method is the same method as described above, but in tracking feature points, if the value of corr in equation (1) does not fall below the threshold even at the position where the similarity is the highest, tracking is being performed in the captured image. It is determined that there is no feature point (and thus a face), the subsequent processing is stopped, and the process returns to the feature point (face) detection process for the captured image of the next frame.

特徴点周辺輝度特徴計測部11では、各特徴点を検出または追跡できた場合、各特徴点のうち目と口に関する特徴点の位置を用いて、右目全体、左目全体、口全体を含む各領域を部位存在領域として設定する。この部位存在領域の設定については、水平方向については特徴点の位置に基づいて設定し、垂直方向については目や口が開閉した場合を考慮して開いている状態でも、閉じている状態でも十分に含む範囲を設定する。そして、特徴点周辺輝度特徴計測部11では、各部位存在領域の輝度画像における各画素の輝度値を用いて、各部位存在領域の輝度特徴を求める。輝度特徴としては、例えば、輝度分布を示す画素値のヒストグラム、輝度値の平均、標準偏差や分散である。   When the feature point peripheral luminance feature measurement unit 11 can detect or track each feature point, each region including the entire right eye, the entire left eye, and the entire mouth using the position of the feature point related to the eyes and the mouth among the feature points. Is set as the region existing area. Regarding the setting of this part existence area, the horizontal direction is set based on the position of the feature point, and the vertical direction is sufficient whether it is open or closed in consideration of the case where the eyes and mouth are opened and closed. Set the range to include. Then, the feature point peripheral luminance feature measurement unit 11 obtains the luminance feature of each part existence region using the luminance value of each pixel in the luminance image of each part existence region. Examples of luminance characteristics include a histogram of pixel values indicating a luminance distribution, an average of luminance values, a standard deviation, and a variance.

図8には、口の部位存在領域の輝度特徴の一例として輝度値のヒストグラムを示しており、(a)図が口を開いた場合であり、(b)図が口を閉じた場合である。口を開いた場合、口の中の暗い部分が現れるので、ヒストグラムには口を閉じた場合より輝度値の小さいところに多く分布している。したがって、輝度値の平均は口を開いた場合も方が小さくなる。また、ヒストグラムから判るように、口を開いた場合の方が輝度値の分布範囲が広いので、輝度値の分散や標準偏差は口を開いた場合の方が大きくなる。目についても、目を閉じた場合には殆ど肌色となるので、目を閉じた場合と開いた場合とではこれらの輝度特徴に差がでる。例えば、目を閉じた場合、肌色の情報が大部分を占めるので、輝度値の分散や標準偏差は目を開いた場合より小さくなり、ヒストグラムにおける輝度値の分布範囲も狭くなる。このように、各輝度特徴を用いることにより各部位の状態を検出でき、幾つかの輝度特徴を組み合せることによりその検出精度が上がる。   FIG. 8 shows a histogram of luminance values as an example of the luminance characteristics of the region where the mouth part is present. FIG. 8A shows a case where the mouth is opened, and FIG. 8B shows a case where the mouth is closed. . When the mouth is opened, a dark portion in the mouth appears, so the histogram is distributed more in places with lower brightness values than when the mouth is closed. Therefore, the average luminance value is smaller when the mouth is opened. Also, as can be seen from the histogram, the distribution range of the luminance values is wider when the mouth is opened, and therefore the variance and standard deviation of the luminance values are larger when the mouth is opened. As for the eyes, when the eyes are closed, the skin color is almost skin color. Therefore, there is a difference in the luminance characteristics between when the eyes are closed and when the eyes are opened. For example, when the eyes are closed, the skin color information occupies most of the information. Therefore, the variance and standard deviation of the luminance values are smaller than when the eyes are opened, and the distribution range of the luminance values in the histogram is also narrowed. Thus, the state of each part can be detected by using each luminance feature, and the detection accuracy is improved by combining several luminance features.

顔部位変形検出部12では、左目、右目、口について、各部位存在領域の輝度特徴に基づいて状態を検出する。そして、顔部位変形検出部12では、左目、右目、口について、検出した状態が参照画像を作成した際の正面顔画像における左目、右目、口の状態(閉じた状態)から変形しているか否かを判断する。顔部位変形検出部12では、変形している部位がある場合、その部位に関する特徴点を特定し、その情報を顔運動推定部13に提供する。   The face part deformation detection unit 12 detects the state of the left eye, right eye, and mouth based on the luminance characteristics of each part existence region. Then, in the facial part deformation detection unit 12, whether the detected state of the left eye, right eye, and mouth is deformed from the left eye, right eye, and mouth states (closed state) in the front face image when the reference image is created. Determine whether. When there is a deformed part, the face part deformation detection unit 12 specifies a feature point related to the part and provides the information to the face motion estimation unit 13.

各部位の状態の検出方法としては、1つのフレーム毎に検出する方法と時間的に連続するフレーム間で検出する方法がある。1つのフレーム毎に検出する方法としては、ヒストグラムの分布状態から検出する方法、平均と閾値とを比較することによって検出する方法、分散または標準偏差と閾値とを比較することによって検出する方法があり、このうちの一つの方法で検出してもよいし、2つの以上の方法を組み合せて検出してもよい。口の場合、例えば、口が閉じているときのヒストグラムを予め保持しておき、そのヒストグラムとの類似度などを求めることによって口の開閉状態を検出したり、Aという閾値を設定し、平均がAより大きい場合には閉じていると判定し、A以下の場合には開いていると判定したり、Bという閾値を設定し、標準偏差がBより大きい場合には開いていると判定し、B以下の場合には閉じていると判定する。連続するフレーム間で検出する方法としては、ヒストグラム、平均、標準偏差(分散)のうちの1つまたは複数の時間的な変化を検出することによって、各部位が変形したか否かを検出する。この場合、例えば、あるフレームで変化が起きたか否かを、それ以前のフレームでの平均や標準偏差の値に比べて予め設定した割合よりも小さくなったかあるいは大きくなったかという現象を捉えることで判断でき、また、ヒストグラムの分布状態の変化から判断できる。   As a method for detecting the state of each part, there are a method of detecting every frame and a method of detecting between temporally consecutive frames. As a method of detecting every frame, there are a method of detecting from a distribution state of a histogram, a method of detecting by comparing an average with a threshold value, and a method of detecting by comparing a variance or standard deviation with a threshold value. One of these methods may be detected, or two or more methods may be combined and detected. In the case of the mouth, for example, a histogram when the mouth is closed is stored in advance, and the opening / closing state of the mouth is detected by obtaining the similarity to the histogram, or a threshold value A is set, and the average is If it is greater than A, it is determined to be closed, if it is less than A, it is determined to be open, or a threshold value B is set, and if the standard deviation is greater than B, it is determined to be open, If it is B or less, it is determined that it is closed. As a method of detecting between successive frames, it is detected whether or not each part has been deformed by detecting one or more temporal changes of a histogram, an average, and a standard deviation (variance). In this case, for example, whether or not a change has occurred in a certain frame can be determined by grasping the phenomenon of whether it has become smaller or larger than a preset ratio compared to the average and standard deviation values in the previous frame. It can be determined, and can also be determined from changes in the distribution state of the histogram.

顔運動推定部13では、顔部位変形検出部12において全ての部位に変形がないと判断している場合、特徴点検出・追跡部10で検出または追跡した全ての特徴点を用いて、その特徴点の位置の時間変化から顔の運動(回転運動と並進運動)を算出する。また、顔運動推定部13では、顔部位変形検出部12においてある部位の変形があると判断している場合、特徴点検出・追跡部10で検出または追跡した全ての特徴点の中からその変形した部位に関する特徴点を除いた特徴点を用いて、その特徴点の位置の時間変化から顔の運動を算出する。   When the facial part deformation detection unit 12 determines that all parts are not deformed, the face motion estimation unit 13 uses all the feature points detected or tracked by the feature point detection / tracking unit 10 and uses the feature points. The facial motion (rotational motion and translational motion) is calculated from the time change of the point position. Further, when the face motion estimation unit 13 determines that there is a deformation of a part in the face part deformation detection unit 12, the deformation is selected from all the feature points detected or tracked by the feature point detection / tracking unit 10. Using the feature points excluding the feature points related to the part, the face motion is calculated from the temporal change in the position of the feature points.

図1を参照して、画像処理装置1の動作について説明する。特に、画像ECU3における特徴点検出処理については図9のフローチャートに沿って説明し、特徴点追跡処理については図10のフローチャートに沿って説明する。図9は、図1の画像ECUにおける特徴点検出処理の流れを示すフローチャートである。図10は、図1の画像ECUにおける特徴点追跡処理の流れを示すフローチャートである。   The operation of the image processing apparatus 1 will be described with reference to FIG. In particular, the feature point detection process in the image ECU 3 will be described with reference to the flowchart of FIG. 9, and the feature point tracking process will be described with reference to the flowchart of FIG. FIG. 9 is a flowchart showing a flow of feature point detection processing in the image ECU of FIG. FIG. 10 is a flowchart showing the flow of the feature point tracking process in the image ECU of FIG.

カメラ2では、時間的に連続して撮像し、その撮像画像のデータを画像ECU3に順次送信する。画像ECU3では、その撮像画像を順次取り入れ、撮像画像をRAMに保持するとともに輝度画像に変換する(図9のS10,図10のS20)。   The camera 2 captures images continuously in time, and sequentially transmits the captured image data to the image ECU 3. The image ECU 3 sequentially takes the captured images, holds the captured images in the RAM, and converts them into luminance images (S10 in FIG. 9 and S20 in FIG. 10).

未だ顔候補領域を抽出していない場合、画像ECU3では、撮像画像において顔領域用の参照画像と類似する位置を探索し、顔候補領域を抽出する(S11)。顔候補領域を抽出できなかった場合、画像ECU3では、以降の処理を停止し、次のフレームの撮像画像に対する処理に移る。一方、顔候補領域を抽出できた場合、画像ECU3では、顔候補領域内で、各特徴点の存在する可能性のある候補領域をそれぞれ設定する(S12)。さらに、画像ECU3では、各特徴点用の候補領域内で各特徴点の参照画像と類似する位置を探索し、各特徴点を検出する(S13)。   If the face candidate area has not yet been extracted, the image ECU 3 searches the captured image for a position similar to the reference image for the face area, and extracts the face candidate area (S11). If the face candidate area cannot be extracted, the image ECU 3 stops the subsequent processing and moves to the processing for the captured image of the next frame. On the other hand, when the face candidate area can be extracted, the image ECU 3 sets each candidate area where each feature point may exist in the face candidate area (S12). Further, the image ECU 3 searches for a position similar to the reference image of each feature point in the candidate area for each feature point, and detects each feature point (S13).

既に顔候補領域を抽出している場合、画像ECU3では、前フレームの撮像画像で検出または追跡した各特徴点の位置から現フレームの撮像画像で各特徴点が存在する可能性のある予測領域を算出する(S21)。そして、画像ECU3では、各特徴点用の予測領域内で各特徴点の参照画像と類似する位置を探索し、各特徴点を追跡する(S22)。特徴点を追跡できなかった場合、画像ECU3では、以降の処理を停止し、再度、次のフレームの撮像画像に対する顔候補領域の抽出処理に移る。   When the face candidate area has already been extracted, the image ECU 3 determines a predicted area where each feature point may exist in the captured image of the current frame from the position of each feature point detected or tracked in the captured image of the previous frame. Calculate (S21). Then, the image ECU 3 searches for a position similar to the reference image of each feature point in the prediction area for each feature point, and tracks each feature point (S22). If the feature point cannot be tracked, the image ECU 3 stops the subsequent processing, and again moves to the extraction process of the face candidate region for the captured image of the next frame.

特徴点を検出または追跡できた場合、画像ECU3では、全ての特徴点のうちの目と口に対する特徴点を用いて、各目全体、口全体を含む各部位存在領域を設定する。そして、画像ECU3では、各部位存在領域の輝度画像から、各部位存在領域についての輝度特徴を求める。さらに、画像ECU3では、各部位存在領域の輝度特徴に基づいて各目と口の状態を検出し、現フレームにおける各目、口の状態が参照画像のときの状態から変形しているか否かを判断する。   When the feature points can be detected or tracked, the image ECU 3 uses the feature points for the eyes and the mouth among all the feature points to set each part existing region including each eye and the whole mouth. Then, the image ECU 3 obtains a luminance feature for each part existence region from the luminance image of each part existence region. Furthermore, the image ECU 3 detects the state of each eye and mouth based on the luminance characteristics of each region, and determines whether the state of each eye and mouth in the current frame is deformed from the state at the time of the reference image. to decide.

両目及び口が変形していないと判断した場合、画像ECU3では、検出または追跡した全ての特徴点を用いて、その各特徴点の位置の時間変化から顔の運動を推定する。一方、両目及び口のうちある部位が変形していると判断した場合、画像ECU3では、検出または追跡した全ての特徴点の中から変形した部位に関する特徴点を除いた特徴点を用いて、その各特徴点の位置の時間変化から顔の運動を推定する。   When it is determined that both eyes and mouth are not deformed, the image ECU 3 uses all the feature points detected or tracked to estimate the facial motion from the temporal change in the position of each feature point. On the other hand, when it is determined that a certain part of both eyes and mouth is deformed, the image ECU 3 uses the feature points excluding the feature points related to the deformed part from all the detected or tracked feature points. The movement of the face is estimated from the time change of the position of each feature point.

この画像処理装置1によれば、目や口を含む領域の輝度特徴から各部位の変形を検出するので、各部位が変形しているか否かを高精度に検出することができる。そのため、この検出結果を利用して顔運動の推定を行った場合、顔における局所的な変化を排除して処理を行うことできるので、その推定精度を向上させることができる。   According to this image processing apparatus 1, since the deformation of each part is detected from the luminance characteristics of the region including the eyes and mouth, it can be detected with high accuracy whether or not each part is deformed. Therefore, when estimation of face motion is performed using this detection result, processing can be performed while eliminating local changes in the face, so that the estimation accuracy can be improved.

以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。   As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.

例えば、本実施の形態では顔の各部位の変化を顔の運動の推定に利用する構成としたが、顔の認識や顔の表情検出などの他の処理に利用する構成としてもよい。   For example, in the present embodiment, the change in each part of the face is used for estimation of facial motion, but the configuration may be used for other processes such as face recognition and facial expression detection.

また、本実施の形態では画像ECUでアプリケーションプログラム(ソフトウエア)を実行することによって各処理部を構成したが、パーソナルコンピュータなどのコンピュータ上に各処理部を構成してもよいし、あるいは、ハードウエアによって各処理部を構成してもよい。   In the present embodiment, each processing unit is configured by executing an application program (software) in the image ECU. However, each processing unit may be configured on a computer such as a personal computer, or hardware. Each processing unit may be configured by wear.

また、本実施の形態では輝度情報を用いて特徴点検出や各部位の変形判断などを行う構成としたが、彩度、RGBの色情報などの他の画像情報を用いて行ってもよい。   In this embodiment, the luminance information is used to detect feature points and determine the deformation of each part. However, other image information such as saturation and RGB color information may be used.

また、本実施の形態では顔の目、口についての変形を検出する構成としたが、眉毛などの他の部位の変形を検出する構成としてもよい。   In the present embodiment, the configuration is such that the deformation of the eyes and mouth of the face is detected, but the configuration may be such that the deformation of other parts such as eyebrows is detected.

本実施の形態に係る画像処理装置の構成図である。It is a block diagram of the image processing apparatus which concerns on this Embodiment. 図1のカメラの撮像画像の一例である。It is an example of the captured image of the camera of FIG. 撮像画像から抽出した顔候補領域を示す画像の一例である。It is an example of the image which shows the face candidate area | region extracted from the captured image. 顔候補領域内に設定した各特徴点の候補領域を示す画像の一例である。It is an example of the image which shows the candidate area | region of each feature point set in the face candidate area | region. 各候補領域から検出した各特徴点を示す画像の一例である。It is an example of the image which shows each feature point detected from each candidate field. 前フレームの各特徴点の位置から予測した現フレームにおける各特徴点の予測領域を示す画像の一例である。It is an example of the image which shows the prediction area | region of each feature point in the present frame estimated from the position of each feature point of the previous frame. 各予測領域から追跡した各特徴点を示す画像の一例である。It is an example of the image which shows each feature point tracked from each prediction area. 口領域の輝度のヒストグラムであり、(a)が口が開いている場合であり、(b)が口を閉じている場合である。It is a brightness | luminance histogram of a mouth area | region, (a) is a case where the mouth is open, (b) is a case where the mouth is closed. 図1の画像ECUにおける特徴点検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the feature point detection process in image ECU of FIG. 図1の画像ECUにおける特徴点追跡処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the feature point tracking process in image ECU of FIG.

符号の説明Explanation of symbols

1…画像処理装置、2…カメラ、3…画像ECU、10…特徴点検出・追跡部、11…特徴点周辺輝度特徴計測部、12…顔部位変形検出部、13…顔運動推定部
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 2 ... Camera, 3 ... Image ECU, 10 ... Feature point detection and tracking part, 11 ... Feature point periphery luminance feature measurement part, 12 ... Face part deformation | transformation detection part, 13 ... Face motion estimation part

Claims (2)

顔を撮像する撮像手段と、
前記撮像手段で撮像した撮像画像から顔の特徴点を検出する特徴点検出手段と、
前記特徴点検出手段で検出した特徴点を用いて顔の部位全体を含む存在領域を設定する存在領域設定手段と、
前記存在領域設定手段で設定した存在領域内の輝度の統計値として輝度の分散値、標準偏差値及び平均値の少なくとも1つを検出する画像特徴検出手段と、
前記画像特徴検出手段で検出した存在領域内の輝度の統計値と該統計値に応じた閾値とを比較し、比較結果に基づいて顔の部位の開閉状態を判断する判断手段と
を備えることを特徴とする画像処理装置。
Imaging means for imaging the face;
Feature point detection means for detecting feature points of a face from a captured image captured by the imaging means;
Presence area setting means for setting an existence area including the entire part of the face using the feature points detected by the feature point detection means;
Image feature detection means for detecting at least one of a variance value, a standard deviation value, and an average value of luminance as a statistical value of luminance in the presence area set by the presence area setting means;
A determination unit that compares a statistical value of luminance in the presence area detected by the image feature detection unit with a threshold value corresponding to the statistical value, and determines an open / closed state of the facial part based on the comparison result. A featured image processing apparatus.
顔を撮像する撮像ステップと、
前記撮像ステップで撮像した撮像画像から顔の特徴点を検出する特徴点検出ステップと、
前記特徴点検出ステップで検出した特徴点を用いて顔の部位全体を含む存在領域を設定する存在領域設定ステップと、
前記存在領域設定ステップで設定した存在領域内の輝度の統計値として輝度の分散値、標準偏差値及び平均値の少なくとも1つを検出する画像特徴検出ステップと、
前記画像特徴検出ステップで検出した存在領域内の輝度の統計値と該統計値に応じた閾値とを比較し、比較結果に基づいて顔の部位の開閉状態を判断する判断ステップと
を含むことを特徴とする画像処理方法。
An imaging step for imaging the face;
A feature point detection step of detecting a feature point of the face from the captured image captured in the imaging step;
An existing area setting step for setting an existing area including the entire face part using the feature points detected in the feature point detecting step;
An image feature detection step of detecting at least one of a variance value, a standard deviation value, and an average value of luminance as a statistical value of luminance in the presence region set in the presence region setting step;
A determination step of comparing a statistical value of luminance in the existing region detected in the image feature detection step with a threshold value corresponding to the statistical value, and determining an open / closed state of a facial part based on the comparison result. A featured image processing method.
JP2005038018A 2005-02-15 2005-02-15 Image processing apparatus and image processing method Expired - Fee Related JP4692006B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005038018A JP4692006B2 (en) 2005-02-15 2005-02-15 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005038018A JP4692006B2 (en) 2005-02-15 2005-02-15 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2006227734A JP2006227734A (en) 2006-08-31
JP4692006B2 true JP4692006B2 (en) 2011-06-01

Family

ID=36989092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005038018A Expired - Fee Related JP4692006B2 (en) 2005-02-15 2005-02-15 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4692006B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5950664B2 (en) * 2012-04-10 2016-07-13 キヤノン株式会社 Imaging apparatus and control method thereof
JP7374581B2 (en) * 2018-10-01 2023-11-07 カシオ計算機株式会社 Robot, image processing method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015816A (en) * 2001-06-29 2003-01-17 Honda Motor Co Ltd Face/visual line recognizing device using stereo camera
JP2004341954A (en) * 2003-05-16 2004-12-02 Nissan Motor Co Ltd Arousal level determination device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015816A (en) * 2001-06-29 2003-01-17 Honda Motor Co Ltd Face/visual line recognizing device using stereo camera
JP2004341954A (en) * 2003-05-16 2004-12-02 Nissan Motor Co Ltd Arousal level determination device

Also Published As

Publication number Publication date
JP2006227734A (en) 2006-08-31

Similar Documents

Publication Publication Date Title
JP6695503B2 (en) Method and system for monitoring the condition of a vehicle driver
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
US8320618B2 (en) Object tracker and object tracking method
EP1426898B1 (en) Human detection through face detection and motion detection
CN100426317C (en) Multiple attitude human face detection and track system and method
US7362885B2 (en) Object tracking and eye state identification method
JP6234762B2 (en) Eye detection device, method, and program
KR20190128500A (en) Method and apparatus for detecting garbage dumping action in real time on video surveillance system
JP5271227B2 (en) Crowd monitoring device, method and program
JP5127531B2 (en) Image monitoring device
JP2003015816A (en) Face/visual line recognizing device using stereo camera
JP5001930B2 (en) Motion recognition apparatus and method
US7697766B2 (en) System and method to determine awareness
US11161470B2 (en) Occupant observation device
US20220366570A1 (en) Object tracking device and object tracking method
JP6922821B2 (en) Image analyzers, methods and programs
JP4692006B2 (en) Image processing apparatus and image processing method
CN110826495A (en) Body left and right limb consistency tracking and distinguishing method and system based on face orientation
CN115923607A (en) Seat parameter adjusting method, device, storage medium and device
JP2000142164A (en) Eye condition sensing device and driving-asleep alarm device
JP2007156771A (en) Image detection tracing device, image detection tracing method and image detection tracing program
CN100426318C (en) AAM-based object location method
JP2011086051A (en) Eye position recognition device
JP2009009404A (en) Image processing device, image processing method and image processing program
Wang From blob metrics to posture classification to activity profiling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4692006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees