JP2012018622A - Driving-support device and method - Google Patents

Driving-support device and method Download PDF

Info

Publication number
JP2012018622A
JP2012018622A JP2010156952A JP2010156952A JP2012018622A JP 2012018622 A JP2012018622 A JP 2012018622A JP 2010156952 A JP2010156952 A JP 2010156952A JP 2010156952 A JP2010156952 A JP 2010156952A JP 2012018622 A JP2012018622 A JP 2012018622A
Authority
JP
Japan
Prior art keywords
face
area
driver
hand
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010156952A
Other languages
Japanese (ja)
Other versions
JP5587068B2 (en
Inventor
Khiat Abdelaziz
アブデラジズ キアツト
Takahiro Watanabe
孝弘 渡辺
Kazuma Yamamoto
一真 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Oki Electric Industry Co Ltd
Original Assignee
Nissan Motor Co Ltd
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd, Oki Electric Industry Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2010156952A priority Critical patent/JP5587068B2/en
Publication of JP2012018622A publication Critical patent/JP2012018622A/en
Application granted granted Critical
Publication of JP5587068B2 publication Critical patent/JP5587068B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driving-support device and the like capable of suppressing false detection of a hand movement of a driver.SOLUTION: A face detection/face feature tracking unit 11 detects a face area and a light environment determination unit 12 determines a lighting environment in the face area. A motion detection/contrast countermeasure unit 13 detects motion information from a motion detection area around the face of a driver in a video taken by a camera 1 to detect a hand area. If brightness changes rapidly, a light change detection unit 14 suspends determination of a hand movement event. A motion direction determination/event detection unit 15 classifies the motion information into first motion direction information from outside to inside with respect to surroundings of the face of the driver and second motion direction information from inside to outside. If the second motion direction information is detected after the first motion direction information is detected, it is determined that a hand movement event of the driver has occurred.

Description

本発明は、ドライバの運転を支援する情報を提示する運転支援装置及び方法に関する。   The present invention relates to a driving support apparatus and method for presenting information for supporting driving of a driver.

従来より、下記の特許文献1のように運転者の手の動きを検出する技術が知られている。この特許文献1には、メニュー選択やヘッドアップディスプレイの見え方のために、運転者の手の動きを検出している。   2. Description of the Related Art Conventionally, a technique for detecting the movement of a driver's hand as in Patent Document 1 below is known. In Patent Document 1, the movement of the driver's hand is detected for menu selection and the way the head-up display is seen.

特開2009−104297号公報JP 2009-104297 A

しかしながら、特許文献1の技術は、運転者の手の動きを誤検出する可能性があった。例えば、運転者の顔が動いた時や他の乗員が動いた時に、運転者の手の動きとを区別できず、運転者の顔の動きや他の乗員の動きを手の動きと誤検出してしまう可能性があった。   However, the technique of Patent Document 1 may erroneously detect the movement of the driver's hand. For example, when the driver's face moves or when another occupant moves, the movement of the driver's hand cannot be distinguished from the movement of the driver's face or the movement of another occupant as a hand movement. There was a possibility that.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、運転者の手の動きに対する誤検出を抑制することができる運転支援装置及び方法を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above-described circumstances, and an object thereof is to provide a driving support apparatus and method that can suppress erroneous detection of a driver's hand movement.

本発明は、運転者の顔周囲の動き検出領域から動き情報を検出し、当該動き情報を運転者の顔の周囲に対して外部から内部への第1動き方向情報と内部から外部への第2動き方向情報とに分類し、第1動き方向情報が検出された後に第2動き方向情報が検出された場合に、運転者の手の動きイベントが発生したと判定する。   The present invention detects motion information from a motion detection region around the driver's face, and uses the motion information as the first motion direction information from the outside to the inside and the first from the inside to the outside with respect to the periphery of the driver's face. When the second movement direction information is detected after the first movement direction information is detected, it is determined that a movement event of the driver's hand has occurred.

本発明によれば、顔領域に対して外部から内部への第1動き方向情報が検出された後に顔領域に対して内部から外部への第2動き方向情報が検出された場合に、手の動きイベントが発生したと判定するので、運転者の顔が動いた時や他の乗員が動いたことを手動きのイベントとして誤検出することを抑制できる。   According to the present invention, when the first movement direction information from the outside to the inside is detected for the face area and then the second movement direction information from the inside to the outside is detected for the face area, Since it is determined that a movement event has occurred, it is possible to suppress erroneous detection as a hand movement event when the driver's face moves or when another occupant moves.

本発明を実施形態として示す運転支援装置の概略を示すブロック図である。It is a block diagram which shows the outline of the driving assistance apparatus which shows this invention as embodiment. 本発明の実施形態として示す運転支援装置において、カメラシステムの設置例を説明する図である。It is a figure explaining the example of installation of a camera system in the driving assistance device shown as an embodiment of the present invention. 本発明の実施形態として示す運転支援装置における手動き検出装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the hand movement detection apparatus in the driving assistance apparatus shown as embodiment of this invention. 本発明の実施形態として示す運転支援装置において、カメラ画像に設定される顔近接領域、顔遠隔領域を示す図である。In the driving assistance device shown as an embodiment of the present invention, it is a figure showing a face proximity field and a face remote field set as a camera image. 本発明の実施形態として示す運転支援装置において、顔近接領域、顔遠隔領域に対する手が進入及び退出するときの検出率を示すタイムチャートである。In the driving assistance device shown as an embodiment of the present invention, it is a time chart which shows a detection rate when a hand with respect to a face proximity area and a face remote area enters and leaves. 本発明の実施形態として示す運転支援装置において、カメラ画像の明度と2値化閾値との関係を示す図であり、(a)が夜間環境、(b)がトンネル環境、(c)が昼間環境である。In the driving assistance apparatus shown as embodiment of this invention, it is a figure which shows the relationship between the brightness of a camera image, and a binarization threshold value, (a) is a night environment, (b) is a tunnel environment, (c) is a daytime environment. It is. 本発明の実施形態として示す運転支援装置において、光環境判定領域を顔領域に応じて変更することを示す図である。In the driving assistance apparatus shown as embodiment of this invention, it is a figure which shows changing a light environment determination area | region according to a face area | region. 本発明の実施形態として示す運転支援装置において、カメラ画像に第1顔周辺領域及び第2顔周辺領域を設定することを示す図である。In the driving assistance device shown as an embodiment of the present invention, it is a figure showing setting up the 1st face circumference area and the 2nd face circumference area to a camera picture. 本発明の実施形態として示す運転支援装置において、カメラ画像に第1顔周辺領域及び第2顔周辺領域を設定することを示す他の図である。In the driving assistance apparatus shown as embodiment of this invention, it is another figure which shows setting a 1st face peripheral area and a 2nd face peripheral area to a camera image. 本発明の実施形態として示す運転支援装置において、動き検出・コントラスト対策部によって動きマスク画像を生成する処理を示す図である。It is a figure which shows the process which produces | generates a motion mask image by the motion detection and contrast countermeasure part in the driving assistance device shown as embodiment of this invention. 本発明の実施形態として示す運転支援装置において、(A)の(a)〜(f)は明度が一時的に変化するときのカメラ画像を示し、(B)の(a)〜(f)は、このカメラ画像の時の動きマスク画像を示す。In the driving assistance apparatus shown as an embodiment of the present invention, (a) to (f) show camera images when the brightness changes temporarily, and (B) (a) to (f). The motion mask image at the time of this camera image is shown. 本発明の実施形態として示す運転支援装置において、(A)の(a)〜(f)は手領域が現れたときのカメラ画像を示し、(B)の(a)〜(f)は、このカメラ画像の時の動きマスク画像を示す。In the driving support apparatus shown as the embodiment of the present invention, (A) (a) to (f) show camera images when the hand region appears, and (B) (a) to (f) The motion mask image at the time of a camera image is shown. 本発明の実施形態として示す運転支援装置において、一時的に急峻に明度が変化する様子を示す図である。It is a figure which shows a mode that the brightness changes temporarily steeply in the driving assistance apparatus shown as embodiment of this invention.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明の実施形態として示す運転支援装置は、例えば図1に示すように構成される。   A driving support apparatus shown as an embodiment of the present invention is configured as shown in FIG. 1, for example.

運転支援装置は、撮像手段としてのカメラ1、赤外線光源2、手動き検出装置3を有する。   The driving support device includes a camera 1 as an imaging unit, an infrared light source 2, and a hand movement detection device 3.

カメラ1は、運転者の顔の周囲を含む領域を撮像する。カメラ1は、例えば赤外線光源2によって照射された顔領域を含むカメラ画像を所定時間ごとに手動き検出装置3に供給する。赤外線光源2は、運転者の顔を含む領域に赤外線を照射する。この赤外線光源2は、運転者の顔領域の明度が不足しているときに、当該顔領域の明度を補足するために用いられる。なお、カメラ1は、赤外線カメラに限らず、他の形式のカメラであってもよいことは勿論である。   The camera 1 captures an area including the periphery of the driver's face. The camera 1 supplies, for example, a camera image including a face area irradiated by the infrared light source 2 to the hand motion detection device 3 every predetermined time. The infrared light source 2 irradiates an area including the driver's face with infrared rays. The infrared light source 2 is used to supplement the brightness of the face area when the brightness of the driver's face area is insufficient. Needless to say, the camera 1 is not limited to an infrared camera, and may be a camera of another type.

この運転支援装置は、カメラ画像に基づいて手動き検出装置3により運転者の手の動き状態を検出した時に、当該手動き検出信号を出力する。この手動き検出信号は、例えば、図示しない運転者状態の監視装置に供給される。これにより、手動き検出信号は、例えば、運転者の覚醒状態を認識するために使用され、覚醒状態に応じて休息をとるよう警報音をスピーカ等から出力させるために用いることができる。また、この手動き検出信号は、車両の動作を制御するためや、車両外部の情報センタに送信するために用いることもできる。   This driving assistance device outputs the hand movement detection signal when the hand movement detecting device 3 detects the movement state of the driver's hand based on the camera image. This hand movement detection signal is supplied, for example, to a driver state monitoring device (not shown). Thereby, the hand movement detection signal is used, for example, for recognizing the driver's arousal state, and can be used for outputting a warning sound from a speaker or the like so as to take a rest according to the arousal state. The hand movement detection signal can also be used to control the operation of the vehicle or to transmit it to an information center outside the vehicle.

この運転支援装置は、例えば図2に示すように、運転者が操作する運転席に設けられる。カメラ1及び赤外線光源2を含むカメラシステム302は、ステアリング300の近傍であって、運転者が視認できる計器類301の前辺りに設置される。これにより、カメラシステム302は、少なくとも運転者の顔画像及び当該顔の周囲画像を撮影できる。カメラ1により撮像して得たカメラ画像は、手動き検出装置3に供給される。   For example, as shown in FIG. 2, the driving support device is provided in a driver seat operated by a driver. The camera system 302 including the camera 1 and the infrared light source 2 is installed in the vicinity of the steering 300 and near the instrument 301 that can be visually recognized by the driver. Thereby, the camera system 302 can photograph at least a driver's face image and a surrounding image of the face. A camera image obtained by imaging with the camera 1 is supplied to the hand motion detection device 3.

手動き検出装置3は、例えば図3に示すような機能的な各部を備えている。なお、手動き検出装置3は、実際にはROM、RAM、CPU等にて構成されているが、当該CPUがROMに格納された手動き検出用のプログラムに従って処理をすることによって実現できる機能をブロックとして説明する。   The hand movement detection device 3 includes functional units as shown in FIG. 3, for example. Note that the hand movement detection device 3 is actually composed of a ROM, a RAM, a CPU, and the like, but has functions that can be realized when the CPU performs processing according to a program for hand movement detection stored in the ROM. It will be described as a block.

この手動き検出装置3は、例えば図4に示すように、カメラ1によって撮像されたカメラ画像100のうち、運転者の顔領域の周囲に顔近接領域201を設け、当該顔近接領域よりも外側に顔遠隔領域202を設ける。顔近接領域201は、上下左右の領域201U,201D,201R,201Lからなる。顔遠隔領域202は、上下左右の領域202U,202D,202R,202Lからなる。   For example, as shown in FIG. 4, the hand movement detection device 3 includes a face proximity area 201 around a driver's face area in a camera image 100 captured by the camera 1, and is located outside the face proximity area. The face remote area 202 is provided. The face proximity area 201 includes upper, lower, left, and right areas 201U, 201D, 201R, and 201L. The face remote area 202 includes upper, lower, left and right areas 202U, 202D, 202R, 202L.

ここで、運転者が手を顔に近づけた後に、手を顔から離すという手動きのイベントの発生を考える。   Here, consider the occurrence of a hand movement event in which the driver moves his hand closer to his face and then releases his hand from his face.

手動き検出装置3は、運転者の手の外側から内側への第1方向への動き及び運転者の手の内側から外側への第2方向への動きを検出する。運転者の手の外側から内側への第1方向への動きが発生した後に、運転者の手の内側から外側への第2方向への動きが発生したとき、手動き検出装置3は、図5に示すような信号を検出する。   The hand movement detection device 3 detects a movement in the first direction from the outside to the inside of the driver's hand and a movement in the second direction from the inside to the outside of the driver's hand. When movement in the second direction from the inside of the driver's hand to the outside occurs after movement in the first direction from the outside to the inside of the driver's hand occurs, the hand movement detection device 3 A signal as shown in FIG.

図5によれば、先ず、時刻t1にて顔遠隔領域202に手が進入したことの信号S1が検出され、その後の時刻t2に、顔近接領域201に手が進入したことの信号S2が検出される。更にその後の時刻t3にて、顔近接領域201に手が進入したことの信号S3が検出され、その後の時刻t4に、顔遠隔領域202に手が進入したことの信号S4が検出される。   According to FIG. 5, first, a signal S1 indicating that a hand has entered the face remote area 202 is detected at time t1, and then a signal S2 indicating that a hand has entered the face proximity area 201 is detected at time t2. Is done. Further, a signal S3 indicating that a hand has entered the face proximity area 201 is detected at a subsequent time t3, and a signal S4 indicating that a hand has entered the face remote area 202 is detected at a subsequent time t4.

このように、手動き検出装置3は、手動きのイベント発生時には、手動きを、運転者の顔の周囲に対して外部から内部への第1動き方向情報と、内部から外部への第2動き方向情報とに分類できる。そして、手動き検出装置3は、第1動き方向情報が検出された後に第2動き方向情報が検出された場合に、運転者の手の動きイベントが発生したと判定する(イベント判定手段)。以下、このような手動きのイベントを検出するための具体的な構成について説明する。   As described above, the hand movement detecting device 3 detects the hand movement when the event of the hand movement occurs, the first movement direction information from the outside to the inside with respect to the periphery of the driver's face, and the second from the inside to the outside. It can be classified into motion direction information. Then, the hand movement detection device 3 determines that the movement event of the driver's hand has occurred when the second movement direction information is detected after the first movement direction information is detected (event determination means). Hereinafter, a specific configuration for detecting such a hand movement event will be described.

手動き検出装置3は、顔検出・顔特徴追跡部11、光環境判別部12、動き検出・コントラスト対策部13、光変化検出部14、動き方向判定・イベント検出部15を含む。   The hand motion detection device 3 includes a face detection / face feature tracking unit 11, a light environment determination unit 12, a motion detection / contrast countermeasure unit 13, a light change detection unit 14, and a motion direction determination / event detection unit 15.

顔検出・顔特徴追跡部11は、カメラ1からカメラ画像100が供給される。顔検出・顔特徴追跡部11は、カメラ画像100を用いて、当該カメラ画像100に含まれる顔領域を検出する。この顔領域情報は、複数の座標データからなり、例えば長方形の領域として特定される。また、顔検出・顔特徴追跡部11は、顔領域の特徴を抽出し、当該顔領域の特徴を追跡する。これにより、顔検出・顔特徴追跡部11は、顔の動きを検出して、顔領域の移動を検出する。顔検出・顔特徴追跡部11は、顔領域を表す座標データである顔領域情報を光環境判別部12及び動き検出・コントラスト対策部13に供給する。   The face detection / face feature tracking unit 11 is supplied with a camera image 100 from the camera 1. The face detection / face feature tracking unit 11 uses the camera image 100 to detect a face area included in the camera image 100. This face area information is composed of a plurality of coordinate data, and is specified as, for example, a rectangular area. Further, the face detection / face feature tracking unit 11 extracts a feature of the face area and tracks the feature of the face area. Thereby, the face detection / face feature tracking unit 11 detects the movement of the face area by detecting the movement of the face. The face detection / face feature tracking unit 11 supplies face area information, which is coordinate data representing a face area, to the light environment determination unit 12 and the motion detection / contrast countermeasure unit 13.

光環境判別部12は、カメラ1からカメラ画像100が供給されると共に、顔検出・顔特徴追跡部11から顔領域情報が供給される。光環境判別部12は、カメラ画像100に基づいて運転者の周囲における光環境を判別する。光環境判別部12は、カメラ1により撮像されたカメラ画像100内のうち、車両内の天井領域における明度に基づいて、日中、夜間、トンネル内の何れかの光環境であるかを判別する。光環境判別部12は、判別した光環境に基づいて、後段の動き検出・コントラスト対策部13が、カメラ画像100のうちの顔領域以外の動き検出領域から手領域を識別する2値化閾値を設定する(閾値設定手段)。   The light environment determination unit 12 is supplied with the camera image 100 from the camera 1 and the face area information from the face detection / face feature tracking unit 11. The light environment determination unit 12 determines the light environment around the driver based on the camera image 100. The light environment determination unit 12 determines whether the light environment is in the daytime, at night, or in the tunnel based on the brightness in the ceiling area in the vehicle in the camera image 100 captured by the camera 1. . Based on the determined light environment, the light environment determination unit 12 sets a binarization threshold value for the subsequent motion detection / contrast countermeasure unit 13 to identify a hand region from a motion detection region other than the face region in the camera image 100. Set (threshold setting means).

光環境判別部12は、顔領域情報から得られた顔領域よりも外側の領域を動き検出・コントラスト対策部13によって動き情報を検出する動き検出領域として特定する。そして、光環境判別部12は、当該動き検出領域における明度に基づいて動き情報を検出する2値化閾値を設定する(閾値設定手段)。   The light environment determination unit 12 specifies a region outside the face region obtained from the face region information as a motion detection region in which motion information is detected by the motion detection / contrast countermeasure unit 13. Then, the light environment determination unit 12 sets a binarization threshold value for detecting motion information based on the lightness in the motion detection area (threshold setting means).

光環境判別部12は、カメラ1により撮像された映像のうち車両内の天井領域における明度に基づいて、時間帯(夜間、昼間、トンネル)を認識する(時間帯認識手段)。光環境判別部12は、当該認識された時間帯に基づいて、動き検出・コントラスト対策部13が動き検出領域における明度に基づいて動き情報を検出する2値化閾値を設定する(閾値設定手段)。   The light environment discriminating unit 12 recognizes a time zone (nighttime, daytime, tunnel) based on the brightness in the ceiling area in the vehicle in the video imaged by the camera 1 (time zone recognition means). Based on the recognized time zone, the light environment determination unit 12 sets a binarization threshold value by which the motion detection / contrast countermeasure unit 13 detects motion information based on the brightness in the motion detection area (threshold setting unit). .

具体的には、光環境判別部12は、図6に示すように、カメラ画像100における天井に相当する領域に光環境判定領域101R、101Lを設ける。この光環境判定領域101R、101Lは、車両の走行に応じて明度が変化しにくく、光環境に応じて明度が変化する領域が設定されている。この光環境判定領域101R、101Lは、縦方向長さCH、横方向長さCWが所定の長さに予め設定されている。この光環境判定領域101R、101Lは、カメラ1の取り付け位置及び画角、カメラ1と通常の運転者の顔位置等に基づいて設定される。   Specifically, as shown in FIG. 6, the light environment determination unit 12 provides light environment determination regions 101R and 101L in a region corresponding to the ceiling in the camera image 100. In the light environment determination regions 101R and 101L, regions where the lightness hardly changes according to the traveling of the vehicle and the lightness changes according to the light environment are set. In the light environment determination regions 101R and 101L, the vertical length CH and the horizontal length CW are preset to predetermined lengths. The light environment determination areas 101R and 101L are set based on the mounting position and angle of view of the camera 1, the face position of the camera 1 and a normal driver, and the like.

夜間環境である場合には、図6(a)に示すように、光環境判定領域101R、101Lの平均明度は低い値となる。したがって、光環境判別部12は、手領域を判定するための2値化閾値を低い値に設定する。トンネル環境である場合には、図6(b)に示すように、光環境判定領域101R、101Lの平均明度は、夜間環境よりも高く昼間環境よりも低い。したがって、光環境判別部12は、手領域を判定するための2値化閾値を、夜間環境よりも高い値に設定する。昼間環境である場合には、図6(c)に示すように、光環境判定領域101R、101Lの平均明度は、最も高くなる。したがって、光環境判別部12は、手領域を判定するための2値化閾値を、トンネル環境よりも高い値に設定する。   In the night environment, as shown in FIG. 6A, the average brightness of the light environment determination areas 101R and 101L is a low value. Therefore, the light environment determination unit 12 sets the binarization threshold for determining the hand area to a low value. In the tunnel environment, as shown in FIG. 6B, the average brightness of the light environment determination areas 101R and 101L is higher than the night environment and lower than the daytime environment. Therefore, the light environment determination unit 12 sets the binarization threshold for determining the hand area to a value higher than that of the night environment. In the daytime environment, as shown in FIG. 6C, the average brightness of the light environment determination areas 101R and 101L is the highest. Therefore, the light environment determination unit 12 sets the binarization threshold for determining the hand area to a value higher than that of the tunnel environment.

また、光環境判定領域101R、101Lは、顔領域に応じて変動しても良い。例えば図7に示すように、運転者が顔を傾けた時には、顔領域102と光環境判定領域101R、101Lとの重複領域103が発生する。このとき、光環境判別部12は、光環境判定領域101R、101Lのうち顔領域102を除いた領域を光環境判定領域101R、101Lに設定する。これにより、光環境判別部12は、顔領域102の明度によって光環境を誤検出することを抑制でき、より正確に光環境を判別して2値化閾値を設定できる。   Also, the light environment determination areas 101R and 101L may vary depending on the face area. For example, as shown in FIG. 7, when the driver tilts his / her face, an overlapping area 103 between the face area 102 and the light environment determination areas 101R and 101L occurs. At this time, the light environment determination unit 12 sets the areas other than the face area 102 in the light environment determination areas 101R and 101L as the light environment determination areas 101R and 101L. Thereby, the light environment discrimination | determination part 12 can suppress misdetecting a light environment with the brightness of the face area | region 102, can discriminate | determine a light environment more correctly, and can set a binarization threshold value.

更に、光環境判別部12は、顔領域102外の手領域を検出するために単一の2値化閾値でなく、複数の2値化閾値を設定しても良い。   Furthermore, the light environment determination unit 12 may set a plurality of binarization thresholds instead of a single binarization threshold in order to detect a hand region outside the face region 102.

例えば図8に示すように、カメラ画像100のうち、顔領域102の外側に隣接した第1顔周辺領域104と、当該第1顔周辺領域104よりも外側に隣接した第2顔周辺領域105を設定する。光環境判別部12は、第1顔周辺領域104に対しては、第1の2値化閾値を設定し、第2顔周辺領域105に対しては、第2の2値化閾値を設定する。夜間環境において、赤外線光源2から運転者の顔に赤外線光を照射している状況では、運転者の顔付近にも赤外線光が照射されている。よって、光環境判別部12は、第1の2値化閾値を、第2の2値化閾値よりも高く設定する。これにより、第1顔周辺領域104及び第2顔周辺領域105に現れた手領域を精度良く検出できる。   For example, as shown in FIG. 8, in the camera image 100, a first face peripheral area 104 adjacent to the outside of the face area 102 and a second face peripheral area 105 adjacent to the outside of the first face peripheral area 104 are displayed. Set. The light environment determination unit 12 sets a first binarization threshold for the first face peripheral area 104 and sets a second binarization threshold for the second face peripheral area 105. . In a situation where the infrared light source 2 irradiates the driver's face with infrared light in the nighttime environment, the infrared light is also irradiated near the driver's face. Therefore, the light environment determination unit 12 sets the first binarization threshold higher than the second binarization threshold. Thereby, the hand area that appears in the first face peripheral area 104 and the second face peripheral area 105 can be detected with high accuracy.

他の例としては、図9に示すように、カメラ画像100のうち、顔領域102の窓側に隣接した第1顔周辺領域106と、顔領域102の車内側に隣接した第2顔周辺領域107を設定する。光環境判別部12は、第1顔周辺領域106に対しては、第1の2値化閾値を設定し、第2顔周辺領域107に対しては、第2の2値化閾値を設定する。昼間環境において、窓側から運転者の顔に自然光が照射されている状況では、窓側の平均明度が高く、車内側の平均明度は低い。よって、光環境判別部12は、第1の2値化閾値を、第2の2値化閾値よりも高く設定する。これにより、第1顔周辺領域106及び第2顔周辺領域107に現れた手領域を精度良く検出できる。   As another example, as shown in FIG. 9, in the camera image 100, the first face peripheral area 106 adjacent to the window side of the face area 102 and the second face peripheral area 107 adjacent to the vehicle interior side of the face area 102. Set. The light environment determination unit 12 sets a first binarization threshold for the first face peripheral area 106 and sets a second binarization threshold for the second face peripheral area 107. . In a daytime environment, in a situation where natural light is irradiated on the driver's face from the window side, the average brightness on the window side is high and the average brightness on the inside of the vehicle is low. Therefore, the light environment determination unit 12 sets the first binarization threshold higher than the second binarization threshold. As a result, the hand areas appearing in the first face peripheral area 106 and the second face peripheral area 107 can be detected with high accuracy.

動き検出・コントラスト対策部13は、カメラ1からのカメラ画像100、顔検出・顔特徴追跡部11からの顔領域情報、光環境判別部12からの2値化閾値が供給される。動き検出・コントラスト対策部13は、カメラ画像100のうち顔検出・顔特徴追跡部11により検出された顔領域よりも外側の領域を、動き検出領域として認識する。また、動き検出・コントラスト対策部13は、カメラ画像100のうち、顔検出・顔特徴追跡部11により検出された顔領域が移動したことに応じて、当該移動した顔領域よりも外側の動き検出領域を移動させる。   The motion detection / contrast countermeasure unit 13 is supplied with a camera image 100 from the camera 1, face area information from the face detection / face feature tracking unit 11, and a binarization threshold from the light environment determination unit 12. The motion detection / contrast countermeasure unit 13 recognizes an area outside the face area detected by the face detection / face feature tracking unit 11 in the camera image 100 as a motion detection area. In addition, the motion detection / contrast countermeasure unit 13 detects motion outside the face area that has been moved in response to the movement of the face area detected by the face detection / face feature tracking unit 11 in the camera image 100. Move the area.

動き検出・コントラスト対策部13は、カメラ画像100のうち顔領域102を除く領域である動き検出領域から、手領域を検出する。このとき、動き検出・コントラスト対策部13は、カメラ画像100の顔領域102を除く動き検出領域のうち、2値化閾値よりも高い明度の領域を手領域とし、2値化閾値よりも低い明度の領域を手領域ではないと判定する。動き検出・コントラスト対策部13は、手領域の値が「1」であり、手領域以外がマスク(値=0)された動きマスク情報を光変化検出部14に供給する。   The motion detection / contrast countermeasure unit 13 detects a hand region from a motion detection region that is a region excluding the face region 102 in the camera image 100. At this time, the motion detection / contrast countermeasure unit 13 sets a region having a brightness higher than the binarization threshold among the motion detection regions excluding the face region 102 of the camera image 100 as a hand region, and a brightness lower than the binarization threshold. Is determined not to be a hand region. The motion detection / contrast countermeasure unit 13 supplies to the light change detection unit 14 motion mask information in which the value of the hand area is “1” and the area other than the hand area is masked (value = 0).

動き検出・コントラスト対策部13は、図10に示すように、新たにカメラ画像100を入力すると、当該カメラ画像100に対してフィルタリング処理を施す(ステップST1)。このフィルタリング処理は、局所的に輝度高い領域等を除去したカメラ画像100に加工する。   As shown in FIG. 10, when the camera image 100 is newly input, the motion detection / contrast countermeasure unit 13 performs a filtering process on the camera image 100 (step ST1). This filtering process is performed into a camera image 100 from which a region with high brightness is locally removed.

次に動き検出・コントラスト対策部13は、フィルタリング処理が施されたカメラ画像100aに対して前景抽出処理を行う(ステップST3)。この前景抽出処理は、図10に示すようにフィルタリングされたカメラ画像100aと、前フレームの背景抽出処理(ステップST2)において予め作成された背景画像との差分処理によって行われ、その結果、動きが検出された領域を抽出した動き画像100cを取得する。そして、動き検出・コントラスト対策部13は、光環境判別部12により設定された2値化閾値と、動き画像の画素値とを比較して、2値化閾値を超える画素値の画素を手領域として抽出する(ステップST4)。これにより、動き検出・コントラスト対策部13は、値が「1」の手領域100d(1)と値が「0」のマスク領域100d(0)とを含む動きマスク画像100dを生成する。また、図10に示す背景抽出処理(ステップST2)では、現在の背景画像に、今回入力されたカメラ画像にフィルタリング処理を施したカメラ画像100aとの加重平均処理を行い、次のフレーム処理で利用する背景画像を作成する。   Next, the motion detection / contrast countermeasure unit 13 performs a foreground extraction process on the camera image 100a subjected to the filtering process (step ST3). This foreground extraction process is performed by a difference process between the camera image 100a filtered as shown in FIG. 10 and the background image created in advance in the background extraction process (step ST2) of the previous frame. A motion image 100c obtained by extracting the detected area is acquired. Then, the motion detection / contrast countermeasure unit 13 compares the binarization threshold set by the light environment discrimination unit 12 with the pixel value of the motion image, and determines a pixel having a pixel value exceeding the binarization threshold as a hand region. (Step ST4). Accordingly, the motion detection / contrast countermeasure unit 13 generates a motion mask image 100d including the hand region 100d (1) having a value “1” and the mask region 100d (0) having a value “0”. Further, in the background extraction process (step ST2) shown in FIG. 10, a weighted average process is performed on the current background image with the camera image 100a obtained by filtering the camera image input this time, and used in the next frame process. Create a background image.

夜間環境においては、カメラ画像100の全体が低コントラストとなり、赤外線光源2から顔領域102に照射されている赤外線光によって顔付近が明るくなる傾向がある。よって、動き検出・コントラスト対策部13は、図8に示したように、顔領域102の周囲の第1顔周辺領域104と第2顔周辺領域105とで異なる2値化閾値を用いることが望ましい。これは、光環境やカメラ1の特性によって、同じ手領域や背景(動き検出領域)であっても、カメラ画像100内の位置によって差分値が異なる傾向となる対策のためである。よって、動き検出・コントラスト対策部13は、光環境に応じて、カメラ画像100の位置に応じて異なる2値化閾値を用いることが望ましい。   In the nighttime environment, the entire camera image 100 has a low contrast, and the vicinity of the face tends to be brightened by the infrared light applied to the face area 102 from the infrared light source 2. Therefore, it is desirable that the motion detection / contrast countermeasure unit 13 uses different binarization threshold values for the first face peripheral area 104 and the second face peripheral area 105 around the face area 102 as shown in FIG. . This is because of the countermeasure that the difference value tends to be different depending on the position in the camera image 100 even in the same hand region or background (motion detection region) depending on the light environment or the characteristics of the camera 1. Therefore, it is desirable that the motion detection / contrast countermeasure unit 13 uses a different binarization threshold depending on the position of the camera image 100 depending on the light environment.

夜間環境においては、顔領域102を中心として、顔領域102に対しては赤外線光源2の赤外線光が照射されるために、顔領域102以外の領域(動き検出領域)でも明るくなり、顔領域102から更に離れた領域では更に暗くなる。そのために、同じ動き検出領域に手領域が現れても、顔領域102周囲での差分値よりも、カメラ画像100の端部における差分値が小さくなる。更に、一般的なカメラ1の特性は、カメラ画像100の中央に比べて、カメラ画像100の端部ではコントラストが低くなる。このため、同じ動き検出領域に手領域が現れても、顔領域102周囲での差分値よりも、カメラ画像100の端部における差分値が小さくなる。   In the night environment, since the infrared light from the infrared light source 2 is irradiated to the face area 102 around the face area 102, the area other than the face area 102 (motion detection area) becomes brighter. It becomes darker in the area farther away from. Therefore, even if a hand region appears in the same motion detection region, the difference value at the end of the camera image 100 is smaller than the difference value around the face region 102. Furthermore, as a general characteristic of the camera 1, the contrast is lower at the end of the camera image 100 than at the center of the camera image 100. For this reason, even if a hand region appears in the same motion detection region, the difference value at the end of the camera image 100 is smaller than the difference value around the face region 102.

このような夜間環境及びカメラ1の特性を考慮して、動き検出・コントラスト対策部13は、光環境判別部12によって夜間環境であると判別されている場合、顔領域102以外の2値化閾値nighttimeNoFaceTHと、顔領域102の2値化閾値nighttimeFaceTHとの大小関係を、
nighttimeNoFaceTH ≦ nighttimeFaceTH
とする。これにより、赤外線光源2の照明及びカメラ1の特性に関わらず、顔領域102以外での手領域を高精度に検出できる。
In consideration of such a night environment and the characteristics of the camera 1, the motion detection / contrast countermeasure unit 13 determines a binarization threshold other than the face region 102 when the light environment determination unit 12 determines that the night environment is present. The magnitude relationship between nighttimeNoFaceTH and the binarization threshold nighttimeFaceTH of the face area 102 is
nighttimeNoFaceTH ≤ nighttimeFaceTH
And Thereby, regardless of the illumination of the infrared light source 2 and the characteristics of the camera 1, a hand region other than the face region 102 can be detected with high accuracy.

トンネル環境、昼間環境においても同様に、赤外線光源2から顔領域102に対して赤外線光が照射されているが、夜間環境に比較して赤外線光の影響は少ない。しかし、カメラ1の特性より、顔領域102よりもカメラ画像100の端部においては、コントラストが低下する。このことを考慮して、動き検出・コントラスト対策部13は、トンネル環境における顔領域102以外の領域(動き検出領域)の2値化閾値tunnelNoFaceTH、トンネル環境における顔領域102の2値化閾値tunnelFaceTH、昼間環境における顔領域102以外の領域(動き検出領域)の2値化閾値daytimeNoFaceTH、昼間環境における顔領域102の2値化閾値daytimeFaceTHの大小関係を、
tunnelNoFaceTH ≦ tunnelFaceTH
daytimeNoFaceTH ≦ daytimeFaceTH
とする。これにより、顔領域102よりも、当該顔領域102より端側にある動き検出領域のコントラストが低くても、低い2値化閾値によって精度良く手領域を検出できる。
Similarly, in the tunnel environment and the daytime environment, infrared light is irradiated from the infrared light source 2 to the face area 102, but the influence of the infrared light is less than that in the night environment. However, due to the characteristics of the camera 1, the contrast is lower at the end of the camera image 100 than at the face area 102. In consideration of this, the motion detection / contrast countermeasure unit 13 performs binarization threshold tunnelNoFaceTH for an area other than the face area 102 (motion detection area) in the tunnel environment, binarization threshold tunnelFaceTH for the face area 102 in the tunnel environment, The magnitude relationship between the binarization threshold daytimeNoFaceTH of the area (motion detection area) other than the face area 102 in the daytime environment, and the binarization threshold daytimeFaceTH of the face area 102 in the daytime environment,
tunnelNoFaceTH ≤ tunnelFaceTH
daytimeNoFaceTH ≦ daytimeFaceTH
And Thereby, even if the contrast of the motion detection area located on the end side of the face area 102 is lower than that of the face area 102, the hand area can be detected with high accuracy by the low binarization threshold.

更に、各光環境での照明条件を考慮すると、
nighttimeNoFaceTH ≦ tunnelNoFaceTH ≦ daytimeNoFaceTH
と2値化閾値を設定することによって、光環境によらず効果的に手領域を検出できる。しかし、必ずしもこのように2値化閾値を設定する必要はない。
Furthermore, considering the lighting conditions in each light environment,
nighttimeNoFaceTH ≤ tunnelNoFaceTH ≤ daytimeNoFaceTH
By setting the binarization threshold, the hand region can be detected effectively regardless of the light environment. However, it is not always necessary to set the binarization threshold in this way.

更に、動き検出・コントラスト対策部13は、上述した図8や図9のように、カメラ画像100の領域ごとに2値化閾値を異なる値としても良い。   Further, the motion detection / contrast countermeasure unit 13 may set different binarization threshold values for each region of the camera image 100 as shown in FIGS.

図8に示すように、顔領域102の周辺に、第1顔周辺領域104及び第2顔周辺領域105を設定した場合、顔領域102での2値化閾値FaceTH、第1顔周辺領域104での2値化閾値NoFaceTH1、第2顔周辺領域105での2値化閾値NoFaceTH2は、
NoFaceTH2 ≦ NoFaceTH1 ≦ FaceTH
とする。動き検出・コントラスト対策部13は、顔領域102、第1顔周辺領域104、第2顔周辺領域105といったようにカメラ画像100の端部となるほどコントラストが低下しても、顔領域102よりも第1顔周辺領域104での手領域を精度良く検出し、第1顔周辺領域104よりも第2顔周辺領域105での手領域を精度良く検出できる。
As shown in FIG. 8, when the first face peripheral area 104 and the second face peripheral area 105 are set around the face area 102, the binarization threshold value FaceTH in the face area 102 and the first face peripheral area 104 The binarization threshold NoFaceTH1 and the binarization threshold NoFaceTH2 in the second face peripheral area 105 are
NoFaceTH2 ≤ NoFaceTH1 ≤ FaceTH
And The motion detection / contrast countermeasure unit 13 is higher than the face region 102 even if the contrast decreases as it reaches the end of the camera image 100 such as the face region 102, the first face peripheral region 104, and the second face peripheral region 105. The hand region in the one-face peripheral region 104 can be detected with high accuracy, and the hand region in the second face-peripheral region 105 can be detected with higher accuracy than the first face-peripheral region 104.

昼間環境において、窓側のコントラストが高く、車内側のコントラストが低い場合がある。このような昼間環境において、動き検出・コントラスト対策部13は、図9に示したように、顔領域102から窓側の第1顔周辺領域106での2値化閾値NoFaceTH3、顔領域102から車内側の第2顔周辺領域107での2値化閾値NoFaceTH4とすると、
NoFaceTH4 ≦ NoFaceTH3 ≦ FaceTH
とする。これにより、動き検出・コントラスト対策部13は、顔領域102よりも第1顔周辺領域106及び第2顔周辺領域107での手領域を精度良く検出し、コントラストが低下する第2顔周辺領域107での手領域を精度良く検出できる。
In daytime environments, the contrast on the window side may be high and the contrast on the inside of the vehicle may be low. In such a daytime environment, as shown in FIG. 9, the motion detection / contrast countermeasure unit 13 performs binarization threshold NoFaceTH3 from the face area 102 to the first face peripheral area 106 on the window side, and from the face area 102 to the vehicle interior side. If the binarization threshold NoFaceTH4 in the second face peripheral region 107 is
NoFaceTH4 ≤ NoFaceTH3 ≤ FaceTH
And Thereby, the motion detection / contrast countermeasure unit 13 detects the hand area in the first face peripheral area 106 and the second face peripheral area 107 more accurately than the face area 102, and the second face peripheral area 107 in which the contrast decreases. The hand region at can be detected with high accuracy.

光変化検出部14は、動き検出・コントラスト対策部13から動きマスク情報が供給される。光変化検出部14は、急峻に明度が高くなる光環境の変化を検出する。光変化検出部14は、急峻に明度が明るくなることによって動きマスク情報によって手領域が出現する可能性を判断する。光変化検出部14は、急峻な明度が発生していた場合には、当該動きマスク情報をキャンセルして、動き方向判定・イベント検出部15に対して動きマスク情報を供給しない。これにより、光変化検出部14は、急峻に明度が高くなることが検出された場合に、運転者の手動きイベントが発生したと判定する処理を中止する。   The light change detection unit 14 is supplied with motion mask information from the motion detection / contrast countermeasure unit 13. The light change detection unit 14 detects a change in the light environment in which the brightness is rapidly increased. The light change detection unit 14 determines the possibility that a hand region will appear based on the motion mask information due to the sharp increase in brightness. The light change detection unit 14 cancels the motion mask information and does not supply the motion mask information to the motion direction determination / event detection unit 15 when steep brightness has occurred. Thereby, the light change detection part 14 stops the process which determines that the driver | operator's hand movement event generate | occur | produced, when it is detected that the brightness becomes sharply high.

具体的には、図11(A)に示すように、時系列でカメラ画像100が(a)〜(f)のように供給された場合、動き検出・コントラスト対策部13によって、図11(B)の(a)〜(f)のように、時系列で動きマスク画像100dが光変化検出部14に供給された場面を考える。急峻に明度が高くなるような光環境の変化が発生すると、動きマスク画像100dのうち、手領域と認識された手領域100d(1)が数フレームに亘ってのみ発生する。また、この手領域100d(1)の面積は、マスク領域100d(0)の面積と比較して非常に小さくなる。   Specifically, as shown in FIG. 11A, when the camera images 100 are supplied in time series as shown in (a) to (f), the motion detection / contrast countermeasure unit 13 performs the processing shown in FIG. ) Consider a scene in which the motion mask image 100d is supplied to the light change detection unit 14 in time series as in (a) to (f). When a change in the light environment that sharply increases the brightness occurs, the hand region 100d (1) recognized as the hand region of the motion mask image 100d occurs only over several frames. Further, the area of the hand region 100d (1) is very small compared to the area of the mask region 100d (0).

一方、図12(A)に示すように、運転者が手を動かしている状況で(a)〜(f)のカメラ画像100が取得されると、図12(B)の(a)〜(f)に示すように、手領域100d(1)の面積が大きく、多数のフレーム(長時間)に亘って手領域100d(1)が現れる。   On the other hand, as shown in FIG. 12A, when the camera images 100 of (a) to (f) are acquired in a situation where the driver is moving his hand, (a) to (a) of FIG. As shown in f), the area of the hand region 100d (1) is large, and the hand region 100d (1) appears over many frames (long time).

以上より、光変化検出部14は、手領域100d(1)の面積が小さく、当該手領域100d(1)が発生したフレーム数が少ない(短時間)である場合には、急峻に明度が上昇した場面であると判定して、当該動きマスク画像100dを動き方向判定・イベント検出部15には供給しない。   As described above, when the area of the hand region 100d (1) is small and the number of frames in which the hand region 100d (1) is generated is small (short time), the light change detection unit 14 increases the brightness sharply. Therefore, the motion mask image 100d is not supplied to the motion direction determination / event detection unit 15.

更に、光変化検出部14は、図13に示すように、カメラ画像100のうち、光環境判定領域101R、101Lの平均明度を求めて、急峻に明度の変化を検出しても良い。例えば、窓側から日光が急に差し込んだ場面においては、光環境判定領域101Lの平均明度が上限値に近い値となる。このような場面であっても、光変化検出部14は、当該光環境判定領域101R、101Lに急峻に明度が変化したときに動き検出・コントラスト対策部13から取得した動きマスク画像100dを動き方向判定・イベント検出部15には供給しない。   Further, as shown in FIG. 13, the light change detection unit 14 may obtain the average brightness of the light environment determination regions 101R and 101L in the camera image 100 to detect the change in brightness steeply. For example, in a scene where sunlight suddenly enters from the window side, the average brightness of the light environment determination area 101L is close to the upper limit value. Even in such a scene, the light change detection unit 14 uses the motion mask image 100d acquired from the motion detection / contrast countermeasure unit 13 when the lightness sharply changes in the light environment determination regions 101R and 101L. It is not supplied to the determination / event detection unit 15.

これにより、光変化検出部14は、急峻に明度の変化が生じたときに発生した動きマスク画像100dを動き方向判定・イベント検出部15に供給することによる手領域の誤検知を抑制できる。   As a result, the light change detection unit 14 can suppress erroneous detection of the hand region caused by supplying the motion mask image 100d generated when the brightness change suddenly occurs to the motion direction determination / event detection unit 15.

動き方向判定・イベント検出部15は、光変化検出部14を介して動きマスク画像100dが供給される。動き方向判定・イベント検出部15は、時間的に連続する動きマスク画像100dを参照して、上述の図4に示したように、手領域100d(1)が顔遠隔領域202から顔近接領域201に移動する第1動き方向情報と、手領域100d(1)が上述の顔近接領域201から顔遠隔領域202に移動する第2動き方向情報とに分類する。   The motion direction determination / event detection unit 15 is supplied with the motion mask image 100 d via the light change detection unit 14. With reference to the temporally continuous motion mask image 100d, the motion direction determination / event detection unit 15 moves the hand region 100d (1) from the face remote region 202 to the face proximity region 201 as shown in FIG. Into the first movement direction information and the second movement direction information in which the hand area 100d (1) moves from the face proximity area 201 to the face remote area 202 described above.

動き方向判定・イベント検出部15は、図5に示したように、第1動き方向情報(S1→S2)の後に第2動き方向情報(S3→S4)が検出された場合に、当該一連の手領域100d(1)の動作を、手動きのイベントとして認識する(イベント判定手段)。   As illustrated in FIG. 5, the movement direction determination / event detection unit 15 performs the series of operations when the second movement direction information (S3 → S4) is detected after the first movement direction information (S1 → S2). The movement of the hand region 100d (1) is recognized as an event of hand movement (event determination means).

動き方向判定・イベント検出部15は、当該手動きのイベントを認識したときには、手動き検出信号を外部に出力する。なお、顔近接領域201及び顔遠隔領域202は、所定の座標データによって表されていても良く、顔領域102の移動に応じて、動的に移動させても良い。   The movement direction determination / event detection unit 15 outputs a hand movement detection signal to the outside when recognizing the hand movement event. The face proximity area 201 and the face remote area 202 may be represented by predetermined coordinate data, and may be moved dynamically according to the movement of the face area 102.

ここで、動き方向判定・イベント検出部15は、顔近接領域201及び顔遠隔領域202のうち手領域100d(1)が含まれている占有率(%)が所定値以上である場合に、手領域100d(1)が顔近接領域201及び顔遠隔領域202に進入したと判定する。手領域100d(1)が顔近接領域201又は顔遠隔領域202に進入すると、最初は顔近接領域201又は顔遠隔領域202の全体に対する手領域100d(1)の占有率が低く、次第に手領域100d(1)の占有率が高くなり、その後、手が顔近接領域201又は顔遠隔領域202を通過して、手領域100d(1)の占有率が低くなる。動き方向判定・イベント検出部15は、手領域100d(1)の占有率が最大となった座標値を検出することによって、顔近接領域201と顔遠隔領域202とで何れかから先に手が進入し、どの方向に手が移動したかを判定することができる。これにより、動き方向判定・イベント検出部15は、手がカメラ画像100の外から内に移動し、更に、手がカメラ画像100の内から外に移動する動き方向を検出できる。   Here, the movement direction determination / event detection unit 15 detects the hand when the occupation ratio (%) including the hand region 100d (1) in the face proximity region 201 and the face remote region 202 is equal to or greater than a predetermined value. It is determined that the area 100d (1) has entered the face proximity area 201 and the face remote area 202. When the hand area 100d (1) enters the face proximity area 201 or the face remote area 202, the occupation ratio of the hand area 100d (1) with respect to the entire face proximity area 201 or the face remote area 202 is low, and the hand area 100d gradually increases. The occupation ratio of (1) increases, and then the hand passes through the face proximity area 201 or the face remote area 202, and the occupation ratio of the hand area 100d (1) decreases. The movement direction determination / event detection unit 15 detects the coordinate value at which the occupation ratio of the hand area 100d (1) is maximized, so that the hand approaches the face proximity area 201 or the face remote area 202 first. It is possible to determine in which direction the hand has moved by entering. Thereby, the movement direction determination / event detection unit 15 can detect the movement direction in which the hand moves from the outside of the camera image 100 to the inside and the hand moves from the inside of the camera image 100 to the outside.

第1動き方向情報(S1→S2)の後に第2動き方向情報(S3→S4)が検出された場合には、運転者が自身の顔又は頭部に触れる振る舞いをしたことを表している。ここで、顔近接領域201及び顔遠隔領域202は、顔領域102の周囲の上方、下方、右側及び左側に設けられている。したがって、手領域100d(1)の進入方向と手領域100d(1)の退出方向とが一致しない場合があり、この場合には、手動きイベントの検出精度が曖昧になってしまう。   When the second movement direction information (S3 → S4) is detected after the first movement direction information (S1 → S2), it indicates that the driver behaves to touch his / her face or head. Here, the face proximity area 201 and the face remote area 202 are provided above, below, on the right side, and on the left side around the face area 102. Therefore, the approach direction of the hand region 100d (1) may not coincide with the exit direction of the hand region 100d (1). In this case, the detection accuracy of the hand movement event becomes ambiguous.

これに対し、動き方向判定・イベント検出部15は、各顔近接領域201及び顔遠隔領域202に重み付けを設定しても良い。この顔近接領域201又は顔遠隔領域202の重み付けは、運転者自身が手によって自己の顔又は頭部に触れる振る舞いに合致するよう設定する。例えば、顔領域102に対する右側の顔近接領域201R及び顔遠隔領域202Rと顔領域102に対する左側の顔近接領域201L及び顔遠隔領域202Lの重み付けは、顔領域102に対する上側の顔近接領域201U及び顔遠隔領域202Uと顔領域102に対する下側の顔近接領域201D及び顔遠隔領域202Dの重み付けよりも、高くする。これは、右側又は左側から手が進入及び退出する手動きのイベントの発生確率が、上側又は下側から手が進入する手動きのイベントの発生確率よりも、高いからである。   On the other hand, the movement direction determination / event detection unit 15 may set weights for each face proximity area 201 and face remote area 202. The weighting of the face proximity area 201 or the face remote area 202 is set so as to match the behavior of the driver touching his / her face or head with his / her hand. For example, the right face proximity area 201R and face remote area 202R on the face area 102 and the left face proximity area 201L and face remote area 202L on the face area 102 are weighted by the upper face proximity area 201U and face remoteness on the face area 102, respectively. The weighting of the lower face proximity area 201D and the face remote area 202D with respect to the area 202U and the face area 102 is set higher. This is because the occurrence probability of a hand movement event in which a hand enters and exits from the right side or the left side is higher than the occurrence probability of a hand movement event in which a hand enters from the upper side or the lower side.

これにより、動き方向判定・イベント検出部15は、重み付けが高い顔近接領域201R及び顔遠隔領域202R、顔近接領域201L及び顔遠隔領域202Lに手領域100d(1)が現れたときに、当該手領域100d(1)の占有率が低くても、当該領域に手が進入したと判定しやすくする。すなわち、動き方向判定・イベント検出部15は、右側又は左側から手が進入して、退出する手動きのイベントを検出しやすくできる。   As a result, the movement direction determination / event detection unit 15 causes the hand area 100d (1) to appear when the hand area 100d (1) appears in the face proximity area 201R, the face remote area 202R, the face proximity area 201L, and the face remote area 202L with high weight. Even if the occupation ratio of the area 100d (1) is low, it is easy to determine that a hand has entered the area. That is, the movement direction determination / event detection unit 15 can easily detect an event of a hand movement in which a hand enters and exits from the right side or the left side.

以上詳細に説明したように、本発明の実施形態として示した運転支援装置によれば、図5で示したように、手領域100d(1)の動き情報を顔領域102に対して外部から内部への第1動き方向情報と内部から外部への第2動き方向情報とに分類し、第1動き方向情報が検出された後に第2動き方向情報が検出された場合に、運転者の手の動きイベントが発生したと判定する。これにより、この運転支援装置によれば、運転者の顔が動いた時や他の乗員が動いたことを手動きのイベントとして誤検出することを抑制できる。また、この運転支援装置によれば、顔領域102の背景を動き検出領域として設定して手領域100d(1)の方向を検出するので、簡単な構成で、少ない処理負荷で手動きのイベントを検出できる。   As described above in detail, according to the driving support apparatus shown as the embodiment of the present invention, as shown in FIG. 5, the motion information of the hand region 100d (1) is externally applied to the face region 102 from the outside. When the second movement direction information is detected after the first movement direction information is detected, the driver's hand is classified into the first movement direction information and the second movement direction information from the inside to the outside. It is determined that a motion event has occurred. Thereby, according to this driving assistance device, it is possible to suppress erroneous detection as an event of hand movement that the driver's face has moved or that another occupant has moved. In addition, according to this driving support device, the background of the face area 102 is set as a motion detection area and the direction of the hand area 100d (1) is detected. Therefore, an event of hand movement can be performed with a simple processing and a small processing load. It can be detected.

また、この運転支援装置によれば、顔検出・顔特徴追跡部11によって検出された顔領域よりも外側の領域を、動き検出領域として認識するので、顔領域102を動き検出領域から排除できる。また、この運転支援装置によれば、顔検出・顔特徴追跡部11により検出された顔領域が移動したことに応じて、顔領域102よりも外側の動き検出領域を移動させる。これにより、この運転支援装置によれば、手の動きではない頭部の動きを手領域100d(1)から排除でき、手領域100d(1)の検出率を向上することができ、手動きのイベントの誤検出を抑制できる。   Further, according to this driving support device, the area outside the face area detected by the face detection / face feature tracking unit 11 is recognized as the motion detection area, so that the face area 102 can be excluded from the motion detection area. Further, according to this driving support apparatus, the motion detection area outside the face area 102 is moved in response to the movement of the face area detected by the face detection / face feature tracking unit 11. Thereby, according to this driving assistance device, the movement of the head that is not the movement of the hand can be excluded from the hand area 100d (1), the detection rate of the hand area 100d (1) can be improved, and the movement of the hand movement can be improved. It is possible to suppress false detection of events.

更に、この運転支援装置によれば、顔検出・顔特徴追跡部11により検出された顔領域102よりも外側の領域を動き検出領域として特定し、当該動き検出領域における明度に基づいて動き情報を検出する2値化閾値を設定する。これにより、この運転支援装置によれば、例えば夜間環境、昼間環境、トンネル環境といったように車内での光環境が変動しても適切な2値化閾値を設定して、精度良く手領域100d(1)を検出でき、手動きのイベントの誤検出を抑制できる。   Furthermore, according to this driving support device, an area outside the face area 102 detected by the face detection / face feature tracking unit 11 is specified as a motion detection area, and motion information is obtained based on the brightness in the motion detection area. A binarization threshold value to be detected is set. Thereby, according to this driving assistance apparatus, even if the light environment in the vehicle fluctuates, such as a night environment, a daytime environment, and a tunnel environment, an appropriate binarization threshold value is set, and the hand region 100d ( 1) can be detected, and erroneous detection of hand movement events can be suppressed.

更にまた、この運転支援装置によれば、カメラ画像100のうち車両内の天井領域に相当する光環境判定領域101R、101Lにおける明度に基づいて時間帯を認識して、動き検出領域における明度に基づいて2値化閾値を設定する。これにより、この運転支援装置よれば、精度良く車室内の光環境を判定して適切な2値化閾値を設定でき、精度良く手領域100d(1)を検出して手動きのイベントの誤検出を抑制できる。   Furthermore, according to this driving support device, the time zone is recognized based on the lightness in the light environment determination regions 101R and 101L corresponding to the ceiling region in the vehicle in the camera image 100, and based on the lightness in the motion detection region. To set a binarization threshold. As a result, according to this driving support device, it is possible to accurately determine the light environment in the passenger compartment and set an appropriate binarization threshold, accurately detect the hand region 100d (1), and erroneously detect a hand movement event. Can be suppressed.

更にまた、この運転支援装置によれば、急峻に明度が高くなる光環境の変化を検出したときには、運転者の手の動きイベントが発生したと判定する処理を中止するので、一時的に急峻に明度が変化したときに手動きのイベントを誤検出することを抑制できる。   Furthermore, according to this driving support device, when a change in the light environment in which the brightness is sharply increased is detected, the process for determining that the movement event of the driver's hand has occurred is stopped. It is possible to suppress erroneous detection of a hand movement event when the brightness changes.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

1 カメラ
2 赤外線光源
3 検出装置
11 顔検出・顔特徴追跡部
12 光環境判別部
13 検出・コントラスト対策部
14 光変化検出部
15 方向判定・イベント検出部
DESCRIPTION OF SYMBOLS 1 Camera 2 Infrared light source 3 Detection apparatus 11 Face detection / face characteristic tracking part 12 Light environment discrimination | determination part 13 Detection / contrast countermeasure part 14 Light change detection part 15 Direction determination / event detection part

Claims (7)

運転者の顔の周囲を含む領域を撮像する撮像手段と、
前記撮像手段により撮像された映像のうち、前記運転者の顔周囲の動き検出領域から手領域の動き情報を検出する動き検出手段と、
前記動き検出手段により検出された手領域の動き情報を前記運転者の顔の周囲に対して外部から内部への第1動き方向情報と内部から外部への第2動き方向情報とに分類し、前記第1動き方向情報が検出された後に前記第2動き方向情報が検出された場合に、運転者の手の動きイベントが発生したと判定するイベント判定手段と
を備えることを特徴とする運転支援装置。
Imaging means for imaging an area including the periphery of the driver's face;
A motion detection means for detecting motion information of a hand region from a motion detection region around the driver's face out of the video imaged by the imaging means;
Classifying the movement information of the hand area detected by the movement detection means into first movement direction information from the outside to the inside and second movement direction information from the inside to the outside with respect to the periphery of the driver's face; Driving support comprising: event determination means for determining that a movement event of a driver's hand has occurred when the second movement direction information is detected after the first movement direction information is detected. apparatus.
前記撮像手段により撮像された映像のうち前記運転者の顔領域を検出する顔領域検出手段を備え、
前記動き検出手段は、前記顔領域検出手段により検出された顔領域よりも外側の領域を、前記動き検出領域として認識すること
を特徴とする請求項1に記載の運転支援装置。
A face area detecting means for detecting the driver's face area in the video imaged by the imaging means;
The driving support device according to claim 1, wherein the motion detection unit recognizes a region outside the face region detected by the face region detection unit as the motion detection region.
前記撮像手段により撮像された映像のうち前記運転者の顔領域を検出する顔領域検出手段を備え、
前記動き検出手段は、前記顔領域検出手段により検出された顔領域が移動したことに応じて、前記顔領域検出手段により検出された顔領域よりも外側の動き検出領域を移動させること
を特徴とする請求項1に記載の運転支援装置。
A face area detecting means for detecting the driver's face area in the video imaged by the imaging means;
The motion detection means moves a motion detection area outside the face area detected by the face area detection means in response to movement of the face area detected by the face area detection means. The driving support device according to claim 1.
前記撮像手段により撮像された映像のうち前記運転者の顔領域を検出する顔領域検出手段と、
前記顔領域検出手段により検出された顔領域よりも外側の領域を前記動き検出手段によって動き情報を検出する動き検出領域として特定し、当該動き検出領域における明度に基づいて動き情報を検出する2値化閾値を設定する閾値設定手段と
を備えること請求項1に記載の運転支援装置。
A face area detecting means for detecting the driver's face area in the video imaged by the imaging means;
A binary value that identifies an area outside the face area detected by the face area detection means as a motion detection area for detecting motion information by the motion detection means, and detects motion information based on brightness in the motion detection area The driving support apparatus according to claim 1, further comprising: a threshold setting unit that sets a threshold value.
前記撮像手段により撮像された映像のうち車両内の天井領域における明度に基づいて、時間帯を認識する時間帯認識手段と、
前記時間帯認識手段により認識された時間帯に基づいて、前記動き検出手段が動き検出領域における明度に基づいて動き情報を検出する2値化閾値を設定する閾値設定手段と
を備えることを特徴とする請求項1に記載の運転支援装置。
A time zone recognizing means for recognizing a time zone based on brightness in a ceiling area in a vehicle among images captured by the imaging means;
Threshold setting means for setting a binarization threshold value for detecting motion information based on lightness in a motion detection area based on a time zone recognized by the time zone recognition means, The driving support device according to claim 1.
急峻に明度が高くなる光環境の変化を検出する光環境検出手段を備え、
前記イベント判定手段は、前記光環境検出手段により急峻に明度が高くなることが検出された場合に、前記運転者の手の動きイベントが発生したと判定する処理を中止することを特徴とする請求項1に記載の運転支援装置。
Provided with light environment detection means for detecting changes in the light environment where the brightness increases sharply,
The event determination unit, when the light environment detection unit detects that the brightness is sharply increased, stops the process of determining that a movement event of the driver's hand has occurred. Item 2. The driving support device according to Item 1.
撮像手段により撮像された映像のうち、運転者の顔周囲の動き検出領域から動き情報を検出し、
前記検出された動き情報を前記運転者の顔の周囲に対して外部から内部への第1動き方向情報と内部から外部への第2動き方向情報とに分類し、
前記第1動き方向情報が検出された後に前記第2動き方向情報が検出された場合に、運転者の手の動きイベントが発生したと判定すること
を特徴とする運転支援方法。
From the video imaged by the imaging means, detecting motion information from the motion detection area around the driver's face,
Classifying the detected movement information into first movement direction information from outside to inside and second movement direction information from inside to outside with respect to the periphery of the driver's face;
A driving support method, wherein when the second movement direction information is detected after the first movement direction information is detected, it is determined that a movement event of a driver's hand has occurred.
JP2010156952A 2010-07-09 2010-07-09 Driving support apparatus and method Active JP5587068B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010156952A JP5587068B2 (en) 2010-07-09 2010-07-09 Driving support apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010156952A JP5587068B2 (en) 2010-07-09 2010-07-09 Driving support apparatus and method

Publications (2)

Publication Number Publication Date
JP2012018622A true JP2012018622A (en) 2012-01-26
JP5587068B2 JP5587068B2 (en) 2014-09-10

Family

ID=45603813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010156952A Active JP5587068B2 (en) 2010-07-09 2010-07-09 Driving support apparatus and method

Country Status (1)

Country Link
JP (1) JP5587068B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104243B2 (en) 2013-09-25 2015-08-11 Hyundai Motor Company Vehicle operation device
WO2019159364A1 (en) * 2018-02-19 2019-08-22 三菱電機株式会社 Passenger state detection device, passenger state detection system, and passenger state detection method
US10719697B2 (en) 2016-09-01 2020-07-21 Mitsubishi Electric Corporation Gesture judgment device, gesture operation device, and gesture judgment method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005228163A (en) * 2004-02-13 2005-08-25 Omron Corp Control system, and control operation determining method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005228163A (en) * 2004-02-13 2005-08-25 Omron Corp Control system, and control operation determining method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200202299003; 今川和幸 外3名: '顔によるオクルージョンを考慮した手話動画像からの実時間掌追跡' 電子情報通信学会技術研究報告 PRMU97-104〜110 パターン認識・メディア理解 第97巻 第251号, 19970912, 第15〜22頁, 社団法人電子情報通信学会 *
JPN6014005611; 今川和幸 外3名: '顔によるオクルージョンを考慮した手話動画像からの実時間掌追跡' 電子情報通信学会技術研究報告 PRMU97-104〜110 パターン認識・メディア理解 第97巻 第251号, 19970912, 第15〜22頁, 社団法人電子情報通信学会 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9104243B2 (en) 2013-09-25 2015-08-11 Hyundai Motor Company Vehicle operation device
KR101550604B1 (en) * 2013-09-25 2015-09-07 현대자동차 주식회사 Vehicle operation device
US10719697B2 (en) 2016-09-01 2020-07-21 Mitsubishi Electric Corporation Gesture judgment device, gesture operation device, and gesture judgment method
WO2019159364A1 (en) * 2018-02-19 2019-08-22 三菱電機株式会社 Passenger state detection device, passenger state detection system, and passenger state detection method
JPWO2019159364A1 (en) * 2018-02-19 2020-05-28 三菱電機株式会社 Passenger status detection device, passenger status detection system, and passenger status detection method
CN111712852A (en) * 2018-02-19 2020-09-25 三菱电机株式会社 Passenger state detection device, passenger state detection system, and passenger state detection method
CN111712852B (en) * 2018-02-19 2023-08-11 三菱电机株式会社 Passenger state detection device, system and method

Also Published As

Publication number Publication date
JP5587068B2 (en) 2014-09-10

Similar Documents

Publication Publication Date Title
JP7130895B2 (en) HELMET WEARING DETERMINATION METHOD, HELMET WEARING DETERMINATION DEVICE AND PROGRAM
JP5577398B2 (en) Vehicle periphery monitoring device
JP5706874B2 (en) Vehicle periphery monitoring device
JP4692344B2 (en) Image recognition device
JP5480925B2 (en) Vehicle periphery monitoring device
JP2001175876A (en) Method and device for detecting moving body
JP6569385B2 (en) Vehicle detection device, vehicle detection system, vehicle detection method, and vehicle detection program
US20140002657A1 (en) Forward collision warning system and forward collision warning method
JP4528283B2 (en) Vehicle periphery monitoring device
KR20160075135A (en) Vehicle System for Detecting Objects and Detecting Method
KR101646000B1 (en) Surveillance System And Method To Object And Area
JP2009157492A (en) Vehicle detection device, vehicle detection system, and vehicle detection method
JP2007207274A (en) Start annunciation device
US20120189161A1 (en) Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus
JP5587068B2 (en) Driving support apparatus and method
JP3984863B2 (en) Start notification device
JP2009125518A (en) Driver's blink detection method, driver's awakening degree determination method, and device
KR101960741B1 (en) Method for Setting Event Rule According to Interested Boundary and Apparatus for Monitoring Event Using The Method
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP2005309660A (en) Device supporting vehicle in turning right or left
CN114973053A (en) Detection method, device and system, storage medium and computer equipment
JP2018163530A (en) Object detection device, object detection method, and object detection program
KR101543119B1 (en) Method for providing drive composite image
JP5559121B2 (en) Object type determination device
WO2016139674A1 (en) Method and system for detecting ambient light

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140723

R150 Certificate of patent or registration of utility model

Ref document number: 5587068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150