JP2012084068A - Image analyzer - Google Patents

Image analyzer Download PDF

Info

Publication number
JP2012084068A
JP2012084068A JP2010231672A JP2010231672A JP2012084068A JP 2012084068 A JP2012084068 A JP 2012084068A JP 2010231672 A JP2010231672 A JP 2010231672A JP 2010231672 A JP2010231672 A JP 2010231672A JP 2012084068 A JP2012084068 A JP 2012084068A
Authority
JP
Japan
Prior art keywords
image
driver
license
degree
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010231672A
Other languages
Japanese (ja)
Inventor
Kazumichi Hoshiya
一路 星屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2010231672A priority Critical patent/JP2012084068A/en
Publication of JP2012084068A publication Critical patent/JP2012084068A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image analyzer for calculating a degree (presence/absence) of drowsiness and inattentive driving of a driver through acquiring by a certain method an image of the driver, especially a front face image of him/her when he/she is awake and analyzing the image by using it.SOLUTION: A face image of a driving license carried by the driver is acquired by a card reader 6 and his/her face image is imaged by a near-infrared camera 2. A partial image is extracted as a template image from the face image in the license which is an arousal front face image of the driver, and a recognition processing is conducted to the image imaged by the camera 2. By comparing a feature amount between the face image in the license and the image imaged by the camera 2, a drowsiness degree and an inattentive driving degree of the driver are determined and an alarm is issued by an alarm device 4 when there is a drowsiness or an inattentive driving.

Description

本発明は、画像解析装置に関する。   The present invention relates to an image analysis apparatus.

自動車の運転者の居眠り運転や脇見運転を防止するために、ドライバの状態をカメラで撮影してモニタし、居眠り運転や脇見運転が検出されたら警報を発するシステムが提案されている。例えば下記特許文献1では、顔の認識処理において、人が顔画像を撮影する画像入力装置に対して移動したり向きを変えなくても精度よく認識が実行できる装置が提案されている。   In order to prevent a driver of a car from taking a nap or looking aside, a system has been proposed in which a driver's state is photographed and monitored by a camera, and an alarm is issued when a nap or aside driving is detected. For example, Patent Document 1 below proposes an apparatus capable of performing recognition with high accuracy without moving or changing a direction with respect to an image input apparatus that captures a face image in face recognition processing.

特開2001−243466号公報JP 2001-243466 A

しかし特許文献1の手法では、平均的な顔のテンプレート画像を用いて、画像解析を行うので、認識に時間がかかる、認識の精度が高くない、などといった課題がある。何らかの方法により運転者本人の画像、さらに理想的には覚醒時の正面画像、を取得して、それを用いて画像解析して運転者の眠気や脇見の程度(有無)を算出するシステムが望ましいが、従来技術においてそのようなシステムの提案はない。   However, the method of Patent Document 1 has problems such as that it takes time for recognition and the accuracy of recognition is not high because image analysis is performed using an average face template image. It is desirable to have a system that obtains the driver's image by some method, more ideally, a frontal image at awakening, and uses that to analyze the image to calculate the driver's sleepiness and the degree of presence (existence) However, there is no proposal of such a system in the prior art.

そこで本発明が解決しようとする課題は、上記問題点に鑑み、何らかの方法により運転者本人の画像、特に覚醒時の正面画像を取得して、それを用いて画像解析して運転者の眠気や脇見の程度(有無)を算出する画像解析装置を提供することにある。   Therefore, in view of the above problems, the problem to be solved by the present invention is to acquire an image of the driver himself, particularly a frontal image at awakening by some method, and use the image analysis to analyze the driver's sleepiness and An object of the present invention is to provide an image analysis device that calculates the degree of presence (existence).

課題を解決するための手段及び発明の効果Means for Solving the Problems and Effects of the Invention

上記課題を達成するために、本発明に係る画像解析装置は、車両の運転席に着座した運転者の顔画像である現在画像を撮影する撮影手段と、前記運転者が所持する運転免許証内に記憶された運転者の顔画像である免許証内画像を取得する取得手段と、その取得手段が取得した免許証内画像を用いて、前記撮影手段が撮影した現在画像における顔の認識処理を行う認識処理手段と、その認識処理手段によって認識された現在画像における所定の特徴量を算出する第1算出手段と、その第1算出手段によって算出された特徴量が基準値から離れている程度を判定する判定手段と、を備えたことを特徴とする。   In order to achieve the above object, an image analysis apparatus according to the present invention includes a photographing means for photographing a current image that is a face image of a driver seated in a driver's seat of a vehicle, and a driver's license possessed by the driver. Using the acquisition means for acquiring the in-license image that is the driver's face image stored in the image, and the face recognition processing in the current image captured by the imaging means, using the in-license image acquired by the acquisition means. A recognition processing unit to perform, a first calculation unit for calculating a predetermined feature amount in the current image recognized by the recognition processing unit, and a degree to which the feature amount calculated by the first calculation unit is away from the reference value. Determining means for determining.

これにより本発明に係る画像解析装置では、運転者が所持する免許証内の顔画像を取得して、それを用いて、運転者の撮影画像の画像認識を行い、認識された画像内の特徴量を算出して、それが基準値からどれだけ離れているかを判定する。したがって、免許証内の運転者本人の正面画像を画像認識に用いることにより、例えば運転者の居眠り運転や脇見運転を抑制するためのシステムにおいて、迅速にかつ高精度に画像認識が行えるので、運転者の居眠り運転や脇見運転を迅速、高精度に判定できる画像解析装置が実現できる。   Thus, in the image analysis apparatus according to the present invention, the face image in the license possessed by the driver is acquired, and using this, the driver recognizes the photographed image, and the feature in the recognized image A quantity is calculated to determine how far it is from the reference value. Therefore, by using the front image of the driver himself / herself in the license for image recognition, for example, in a system for suppressing the driver's dozing or side-by-side driving, image recognition can be performed quickly and with high accuracy. An image analysis apparatus that can quickly and accurately determine a person's dozing driving or aside driving is realized.

また前記取得手段が取得した免許証内画像における顔の所定の部位の部分画像を抽出する抽出手段を備え、前記認識処理手段は、前記抽出手段によって抽出された所定の部位の部分画像と前記現在画像との間でマッチング処理を行って、前記現在画像における所定の部位を認識するとしてもよい。   In addition, the image processing apparatus includes an extraction unit that extracts a partial image of a predetermined part of the face in the image in the license acquired by the acquisition unit, and the recognition processing unit includes the partial image of the predetermined part extracted by the extraction unit and the current image A matching process may be performed on the image to recognize a predetermined part in the current image.

これにより免許証内画像における部分画像を用いたマッチング処理によって運転者の撮影画像の画像認識を行うので、運転者本人の正面画像の部分画像を用いたマッチング処理により、迅速かつ高精度で、その部位の認識が行える。したがって例えば運転者の居眠り運転や脇見運転を抑制するためのシステムにおいて、迅速にかつ高精度に画像認識を行って、運転者の居眠り運転や脇見運転を迅速、高精度に判定できる画像解析装置が実現できる。   As a result, image recognition of the driver's photographed image is performed by matching processing using the partial image in the image in the license, so that matching processing using the partial image of the driver's own front image can be performed quickly and with high accuracy. The part can be recognized. Therefore, for example, in a system for suppressing a driver's nap driving or aside driving, an image analysis apparatus capable of quickly and highly accurately recognizing images and quickly and accurately determining a driver's napping driving or aside driving. realizable.

また本発明に係る画像解析装置は、車両の運転席に着座した運転者の顔画像である現在画像を撮影する撮影手段と、前記運転者が所持する運転免許証内に記憶された運転者の顔画像である免許証内画像を取得する取得手段と、前記撮影手段によって取得された現在画像における所定の特徴量を算出する第2算出手段と、前記取得手段によって取得された免許証内画像における所定の特徴量を算出する第3算出手段と、前記第2算出手段によって算出された特徴量が、前記第3算出手段によって算出された所定の特徴量に応じて定まる基準値から離れている程度を判定する判定手段と、を備えたことを特徴とする。   The image analysis apparatus according to the present invention also includes a photographing means for photographing a current image, which is a face image of a driver seated in a driver's seat of a vehicle, and a driver's license stored in the driver's license possessed by the driver. An acquisition unit that acquires an image in a license that is a face image, a second calculation unit that calculates a predetermined feature amount in the current image acquired by the photographing unit, and an image in the license acquired by the acquisition unit A third calculation unit that calculates a predetermined feature amount, and a feature amount calculated by the second calculation unit is far from a reference value determined according to the predetermined feature amount calculated by the third calculation unit And determining means for determining.

これにより運転者が所持する免許証内の顔画像を取得して、それの特徴量と、運転者の撮影画像の特徴量とを比較して、撮影画像の特徴量が免許証内画像の特徴量によって定まる基準値から離れているかを判定する。したがって、免許証内の運転者本人の覚醒時の正面画像の特徴量を比較対象として用いることにより、例えば運転者の居眠り運転や脇見運転を抑制するためのシステムにおいて、眠気や脇見の判定が高精度に行える。したがって運転者の居眠り運転や脇見運転を高精度に判定できる画像解析装置が実現できる。   As a result, the face image in the license possessed by the driver is acquired, and the feature amount of the driver is compared with the feature amount of the photographed image of the driver, and the feature amount of the photographed image is the feature of the image in the license. It is determined whether the distance is away from the reference value determined by the amount. Therefore, by using the feature value of the front image when the driver wakes up in the driver's license as a comparison target, for example, in a system for suppressing the driver's dozing driving or side-by-side driving, the determination of sleepiness or side-by-side is high. It can be done accurately. Therefore, it is possible to realize an image analysis device that can determine the driver's drowsy driving or aside driving with high accuracy.

また前記所定の特徴量は、顔画像における眠気の程度を示す部位の位置を示す数値を含むとしてもよい。   Further, the predetermined feature amount may include a numerical value indicating a position of a part indicating the degree of sleepiness in the face image.

これにより顔画像における眠気の程度を示す部位の位置を特徴量として用いることによって、免許証内の運転者本人の覚醒時の正面画像を用いた画像解析を行って、運転者の眠気の程度が迅速、高精度に判定できる。したがって運転者の居眠り運転を迅速、高精度に判定できる画像解析装置が実現できる。   Thus, by using the position of the part indicating the degree of sleepiness in the face image as a feature amount, image analysis using the front image when the driver himself / herself awakens in the license is performed, and the degree of sleepiness of the driver is determined. Judge quickly and with high accuracy. Therefore, it is possible to realize an image analysis apparatus that can quickly and accurately determine the driver's drowsy driving.

また前記眠気の程度を示す部位の位置を示す数値は、顔画像におけるまぶたの開度と相関のある数値であるとしてもよい。   The numerical value indicating the position of the part indicating the degree of sleepiness may be a numerical value correlated with the eyelid opening degree in the face image.

これにより顔画像におけるまぶたの開度と相関のある数値を特徴量として用いることによって、免許証内の運転者本人の覚醒時の正面画像を用いた画像解析を行って、運転者の眠気の程度が迅速、高精度に判定できる。したがって運転者の居眠り運転を迅速、高精度に判定できる画像解析装置が実現できる。   By using a numerical value correlated with the eyelid opening in the face image as a feature value, image analysis using the front image at the driver's awakening in the driver's license is performed, and the degree of sleepiness of the driver Can be determined quickly and with high accuracy. Therefore, it is possible to realize an image analysis apparatus that can quickly and accurately determine the driver's drowsy driving.

また前記所定の特徴量は、顔画像における脇見の程度を示す数値を含むとしてもよい。   The predetermined feature amount may include a numerical value indicating the degree of looking aside in the face image.

これにより顔画像における脇見の程度を示す数値を特徴量として用いることによって、免許証内の運転者本人の覚醒時の正面画像を用いた画像解析を行って、運転者の脇見の程度が迅速、高精度に判定できる。したがって運転者の脇見運転を迅速、高精度に判定できる画像解析装置が実現できる。   By using a numerical value indicating the degree of aside look in the face image as a feature amount, image analysis using the front image at the time of the driver's awakening in the driver's license is performed, and the degree of the driver's aside look is quick, Can be determined with high accuracy. Accordingly, it is possible to realize an image analysis apparatus that can quickly and accurately determine the driver's side-by-side driving.

また前記脇見の程度を示す数値は、顔の向きが車両の前後方向に対して有する角度と相関のある数値であるとしてもよい。   Further, the numerical value indicating the degree of looking aside may be a numerical value that correlates with the angle that the face orientation has with respect to the front-rear direction of the vehicle.

これにより顔の向きが車両の前後方向に対して有する角度と相関のある数値を特徴量として用いることによって、免許証内の運転者本人の覚醒時の正面画像を用いた画像解析を行って、運転者の脇見の程度が迅速、高精度に判定できる。したがって運転者の脇見運転を迅速、高精度に判定できる画像解析装置が実現できる。   By using a numerical value that correlates with the angle that the direction of the face has with respect to the front and rear direction of the vehicle as a feature amount, image analysis using the front image at the time of the driver's awakening in the license is performed, The degree of driver's side aside can be determined quickly and with high accuracy. Accordingly, it is possible to realize an image analysis apparatus that can quickly and accurately determine the driver's side-by-side driving.

本発明の実施例における画像解析装置の構成図。The block diagram of the image-analysis apparatus in the Example of this invention. 免許証内画像に対する画像処理の手順を示すフローチャート。The flowchart which shows the procedure of the image process with respect to the image in a license. 近赤外線カメラで撮影された画像に対する画像処理の手順を示すフローチャート。The flowchart which shows the procedure of the image process with respect to the image image | photographed with the near-infrared camera. 眠気度に関する目の特徴量の例を示す図。The figure which shows the example of the feature-value of the eye regarding a sleepiness degree. 脇見の程度に関する顔の特徴量の例を示す図。The figure which shows the example of the feature-value of the face regarding the degree of a side look. 脇見の程度の段階の例を示す図。The figure which shows the example of the step of the level of a side look.

以下、本発明の実施形態を図面を参照しつつ説明する。まず図1は、本発明に係る画像解析システム1(画像解析装置、以下システム)の装置構成の概略図である。システム1は例えば自動車の車両に装備される。   Embodiments of the present invention will be described below with reference to the drawings. First, FIG. 1 is a schematic diagram of an apparatus configuration of an image analysis system 1 (image analysis apparatus, hereinafter referred to as system) according to the present invention. The system 1 is installed in, for example, an automobile vehicle.

システム1は、近赤外線カメラ2、ドライバモニタ電子制御装置3(ECU:Electronic Control Unit)、警報装置4、カードリーダ6を備える。またシステム1では運転者が所持する運転免許証5(免許証)を使用する。近赤外線カメラ2、ドライバモニタECU4、警報装置5、カードリーダ6は例えば車内通信で接続されて情報の受け渡しが可能となっている。   The system 1 includes a near-infrared camera 2, a driver monitor electronic control device 3 (ECU: Electronic Control Unit), an alarm device 4, and a card reader 6. The system 1 uses a driver's license 5 (license) possessed by the driver. The near-infrared camera 2, driver monitor ECU 4, alarm device 5, and card reader 6 are connected by, for example, in-vehicle communication and can exchange information.

近赤外線カメラ2は、近赤外領域に感度を有する例えばCCDカメラであり、車室内に設置されて、運転者に対して近赤外線を照射して、その反射光を受光して撮影する。設置場所は運転者の正面の顔画像が撮影できる場所ならばよく、例えばステアリングコラムなどとすればよい。本システムでは、近赤外線カメラ2で撮影された画像は、モノクロの濃淡画像(グレイスケール画像)として扱われる。近赤外線カメラ2を用いることにより、夜間でも運転者の顔画像が取得できる。   The near-infrared camera 2 is, for example, a CCD camera having sensitivity in the near-infrared region. The near-infrared camera 2 is installed in the passenger compartment, irradiates the driver with near-infrared light, receives the reflected light, and takes a picture. The installation location may be any location where a face image in front of the driver can be taken, for example, a steering column. In this system, an image photographed by the near-infrared camera 2 is treated as a monochrome grayscale image (grayscale image). By using the near-infrared camera 2, a driver's face image can be acquired even at night.

ドライバモニタECU3は、通常のコンピュータと同様の構造を有し、各種演算などの情報処理を実行するCPU30、CPU30の作業領域としての一時記憶部であるRAM31、各種情報を記憶するROM32を備える。なおROM32は記憶内容が書き換え可能なEEPROMを含むとすればよい。   The driver monitor ECU 3 has a structure similar to that of an ordinary computer, and includes a CPU 30 that executes information processing such as various calculations, a RAM 31 that is a temporary storage unit as a work area of the CPU 30, and a ROM 32 that stores various information. The ROM 32 may include an EEPROM whose stored contents can be rewritten.

警報装置4は、後述する画像処理によって運転者の眠気程度が高い、あるいは脇見運転をしている等が検知された場合に車室内、あるいは運転者に向けて警報を発する。なお本発明の警報装置4としては、多様な方式で運転者(や乗員)に眠気程度が高いこと、脇見をしていることを報知する装置を用いればよい。例えば、眠気程度が高いこと、脇見をしていることを報知する内容の音声(あるいはブザーなどの音響)による報知でもよい。インストルメントパネルの表示装置に文字、絵柄、図柄を表示する報知でもよい。また空調装置から冷風を運転者に向けて送ることによる報知でもよい。運転席やステアリングに振動装置を備えて、振動によって運転者に報知する方式でもよい。   The alarm device 4 issues an alarm toward the passenger compartment or the driver when it is detected that the driver's drowsiness level is high or the driver is looking aside by image processing to be described later. As the alarm device 4 of the present invention, a device that informs the driver (and the occupant) that the degree of drowsiness is high and that he is looking aside may be used in various ways. For example, notification by sound (or sound such as a buzzer) that informs that the degree of drowsiness is high or looking aside is also possible. The notification which displays a character, a pattern, and a pattern on the display apparatus of an instrument panel may be sufficient. Moreover, the alert | report by sending cool air toward a driver | operator from an air conditioner may be sufficient. A system in which a vibration device is provided in the driver's seat or the steering wheel and the driver is notified by vibration may be used.

免許証5は、ICチップ50を内臓する。ICチップ50内には免許証の各種情報が記憶されており、その情報のなかには運転者(免許証所持者)の正面向きの顔画像51が記憶されている。ICチップ50は非接触型であり、アンテナ52を備えて、無線によりICチップ内の情報が取得される。本システムでは免許証内画像もモノクロの濃淡画像(グレイスケール画像)として扱う。免許証内画像がグレイスケール画像でない場合にはグレイスケール画像に変換する。   The license 5 incorporates an IC chip 50. Various information on the license is stored in the IC chip 50, and a face image 51 facing the front of the driver (the license holder) is stored in the information. The IC chip 50 is a non-contact type, includes an antenna 52, and information in the IC chip is acquired wirelessly. In this system, the image in the license is also handled as a monochrome grayscale image. If the image in the license is not a grayscale image, it is converted to a grayscale image.

カードリーダ6は、免許証内の情報を取得するために装備されて、送信部60、受信部61を有する。送信部60から電磁波を送信して、その電磁波の到達範囲内に免許証5があると、電磁波の磁界の影響でICチップ内に起電力が発生する。この起電力によりICチップ50内に電流が流れて、アンテナ52から運転者顔画像51を含む免許証の各種情報を含む信号が送信される。カードリーダ6は受信部61で、アンテナ52から発信された信号を受信して、そのなかから運転者顔画像51を取得する。   The card reader 6 is equipped to acquire information in the license and has a transmission unit 60 and a reception unit 61. When an electromagnetic wave is transmitted from the transmitter 60 and the license 5 is within the reach of the electromagnetic wave, an electromotive force is generated in the IC chip due to the influence of the electromagnetic field. The electromotive force causes a current to flow in the IC chip 50, and a signal including various information on the license including the driver face image 51 is transmitted from the antenna 52. The card reader 6 receives the signal transmitted from the antenna 52 by the receiving unit 61 and acquires the driver face image 51 from the received signal.

以上の構成のもとで、システム1は、運転者の眠気程度、脇見の有無(程度)を算出する処理を行う。その処理手順は図2、図3に示されている。図2は、免許証内の顔画像51から、各部のテンプレート画像、各種特徴量や特徴点の位置を抽出、算出する手順である。図3は、図2で求められたテンプレート画像などを用いて、近赤外線カメラ2で撮影された運転者の現在の顔画像を認識処理して、運転者の眠気や脇見の有無(程度)を算出する手順である。図2、図3の処理手順は予めプログラム化しておいて、例えばROM32に記憶しておき、CPU30が自動的に実行すればよい。   Under the above configuration, the system 1 performs a process of calculating the degree of sleepiness of the driver and the presence or absence (degree) of looking aside. The processing procedure is shown in FIGS. FIG. 2 shows a procedure for extracting and calculating a template image of each part, various feature amounts and feature points from the face image 51 in the license. 3 recognizes the driver's current face image captured by the near-infrared camera 2 using the template image obtained in FIG. 2, and determines whether or not the driver is drowsy or looks aside (degree). It is a procedure to calculate. The processing procedures in FIGS. 2 and 3 may be programmed in advance and stored in the ROM 32, for example, and the CPU 30 may automatically execute them.

図2の処理を説明する。図2の処理ではまずS10で、CPU30が運転席のドアの開放を検知する。次にS20でCPU30は、免許証内の顔画像51を取得する。当然、顔画像51は運転者本人の、覚醒時における、正面の顔画像である。なお車両の他の乗員が自身の免許証を所持している可能性があるので、カードリーダ6が運転者の免許証のみから免許証内画像を取得するように工夫を施す必要がある。この目的のために、例えばカードリーダ6を装備する場所を運転席ドアにする等、送信部60、受信部61の通信範囲が運転席に限定されるようにすればよい。あるいは免許証を挿入するスロットを車室内に装備する形態でもよい。   The process of FIG. 2 will be described. In the process of FIG. 2, first, in S10, the CPU 30 detects the opening of the driver's seat door. Next, in S20, the CPU 30 acquires the face image 51 in the license. Naturally, the face image 51 is a front face image of the driver himself / herself at the time of awakening. Since there is a possibility that other occupants of the vehicle have their own licenses, it is necessary to devise so that the card reader 6 acquires the in-license image only from the driver's license. For this purpose, the communication range of the transmission unit 60 and the reception unit 61 may be limited to the driver's seat, for example, a place where the card reader 6 is equipped is a driver's seat door. Or the form which equips the vehicle interior with the slot which inserts a license may be sufficient.

S30でCPU30は、目や鼻などのテンプレート画像をROM32から呼び出す。この目や鼻などのテンプレート画像は、任意の人物の顔画像から抽出したテンプレート画像でもよく、複数の人物の顔画像の平均をとった標準的なテンプレート画像でもよい。ROM32には予めこうした目や鼻などのテンプレート画像を記憶しておく。   In S <b> 30, the CPU 30 calls a template image such as an eye or nose from the ROM 32. The template image such as eyes or nose may be a template image extracted from an arbitrary person's face image, or may be a standard template image obtained by averaging the face images of a plurality of persons. The ROM 32 stores such template images such as eyes and nose in advance.

S40でCPU30は、S30で呼び出した目や鼻などのテンプレート画像と、S20で取得した免許証内画像とでテンプレートマッチングを実行する。これにより、マッチングにより算出された尤度が最も高い位置が運転者の目や鼻と認識される。   In S40, the CPU 30 executes template matching with the template image such as the eyes and nose called in S30 and the image in the license acquired in S20. Thereby, the position with the highest likelihood calculated by matching is recognized as the driver's eyes and nose.

S50でCPU30は、S40で運転者の目や鼻と認識された部分を免許証内画像51から抽出して、運転者の目や鼻のテンプレート画像として例えばROM32(EEPROM)に記憶する。S50までで免許証内画像51の画像認識が完了したことを受けて、以下のS60からS80で免許証内画像51において、顔の各種の特徴を示す量である各種の特徴量を算出し、記憶する。S60、S70では運転者の眠気の程度を示す数値のとして、まぶたの開度と相関のある数値を算出する。当然免許証内画像は運転者の覚醒時の画像であるので、以下で算出する数値は眠気度の算出における基準値となる。   In S50, the CPU 30 extracts the portion recognized as the driver's eyes and nose in S40 from the in-license image 51, and stores it in the ROM 32 (EEPROM), for example, as the driver's eyes and nose template image. In response to the completion of the image recognition of the in-license image 51 up to S50, in the following in S60 to S80, in the in-license image 51, various feature amounts, which are amounts indicating various features of the face, are calculated, Remember. In S60 and S70, a numerical value correlated with the opening degree of the eyelid is calculated as a numerical value indicating the degree of sleepiness of the driver. Naturally, since the image in the license is an image when the driver is awakened, the numerical value calculated below is a reference value for calculating the sleepiness level.

まずS60でCPU30は、S50で記憶した目のテンプレート画像(あるいは免許証内画像51においてS40で目と認識した部分)において、特徴量として、まぶた端部曲線(を規定する係数パラメータ、さらにはそのうち曲率に関わるパラメータ)を算出する。まぶた端部曲線は、図4に示されている上まぶたの下端曲線A1である。   First, in S60, the CPU 30 determines the eyelid end curve (a coefficient parameter defining the eyelid end curve) as a feature amount in the eye template image stored in S50 (or the portion recognized as the eye in S40 in the in-license image 51). Parameter for curvature). The eyelid end curve is the lower eyelid curve A1 of the upper eyelid shown in FIG.

一般に、まぶた端部曲線は眠気の程度が高くなるほど直線に近くなる(例えば曲率が小さくなる)ので、まぶた端部曲線は眠気の程度を算出する目的に使用できる。S60での算出は、具体的にはまず、上まぶたの下端を検出する。一般に、例えばまぶた部分は明度が高く、眼球は明度が低いといった傾向があるので、この傾向を用いてグレイスケール画像の(あるいは、グレイスケール画像に変換された)免許証内画像51内において、上記S50で目の領域と認識された領域内の画素ごとの明度を検出して、その分布から上まぶたの下端部分の画素が検出できる。   In general, the eyelid end curve becomes closer to a straight line (for example, the curvature becomes smaller) as the degree of drowsiness increases, so the eyelid end curve can be used for the purpose of calculating the degree of drowsiness. Specifically, the calculation in S60 first detects the lower end of the upper eyelid. In general, for example, the eyelid portion has a high lightness and the eyeball has a low lightness. Therefore, the above-described tendency is used in the in-license image 51 of the grayscale image (or converted into the grayscale image). The brightness of each pixel in the region recognized as the eye region in S50 is detected, and the pixel at the lower end portion of the upper eyelid can be detected from the distribution.

そして上まぶたの下端部分の画素の形状を例えば2次曲線にフィッティングさせる。フィッティングの手法としては、例えば2次曲線と上まぶたの下端部分の画素の位置との間の差分値の2乗和が最小になるような係数パラメータを最小2乗法により算出すればよい。   Then, the shape of the pixel at the lower end portion of the upper eyelid is fitted to a quadratic curve, for example. As a fitting method, for example, a coefficient parameter that minimizes the square sum of the difference value between the quadratic curve and the position of the pixel at the lower end of the upper eyelid may be calculated by the least square method.

次にS70でCPU30は、S50で記憶した目のテンプレート画像(あるいは免許証内画像51においてS40で目と認識した部分)において、特徴量として、目縦幅を算出する。目縦幅A2は、図4に示されているように、目の左右方向の中央部における(あるいは、上まぶたの下端と下まぶたの上端との間の距離が最も大きい箇所における)、上まぶたの下端と下まぶたの上端の間の距離である。一般に、目縦幅は眠気の程度が高くなるほど小さくなるので、目縦幅は眠気の程度を算出する目的に使用できる。   Next, in S70, the CPU 30 calculates the eye vertical width as a feature amount in the template image of the eye stored in S50 (or the portion recognized as the eye in S40 in the in-license image 51). As shown in FIG. 4, the upper eyelid A2 is the upper eyelid at the center in the left-right direction of the eye (or at the point where the distance between the lower end of the upper eyelid and the upper end of the lower eyelid is the largest). The distance between the lower end of the eyelid and the upper end of the lower eyelid. In general, the eye length decreases as the degree of sleepiness increases, so the eye length can be used for the purpose of calculating the degree of sleepiness.

S70での算出は、具体的にはまず、上まぶたの下端と下まぶたの上端の画素を検出する。この検出処理は、S60での上まぶたの下端の画素の検出と同様に行えばよい。そして上まぶたの下端の画素の位置と下まぶたの上端の画素の位置との差分を、水平方向に算出していって、その最大値を算出する。   More specifically, the calculation in S70 first detects pixels at the lower end of the upper eyelid and the upper end of the lower eyelid. This detection process may be performed in the same manner as the detection of the pixel at the lower end of the upper eyelid in S60. Then, the difference between the position of the pixel at the lower end of the upper eyelid and the position of the pixel at the upper end of the lower eyelid is calculated in the horizontal direction, and the maximum value is calculated.

次にS80でCPU30は、免許証内画像51において、特徴量として、所定の特徴点の位置を記憶する。ここで特徴点とは、顔面において予め指定された点とし、以下の説明では運転者の脇見の程度を算出するために用いられる数値、例えば右目の中心、左目の中心、左右の鼻孔の中間とする。免許証内画像はあきらかに正面を向いた画像なので、免許証内画像内の特徴点の位置は、正面に向いた状態での特徴点の位置(以下、正面特徴点位置)となる。   Next, in S <b> 80, the CPU 30 stores the position of a predetermined feature point as a feature amount in the in-license image 51. Here, the feature point is a point specified in advance on the face, and in the following explanation, numerical values used for calculating the degree of the driver's looking aside, for example, the center of the right eye, the center of the left eye, and the middle of the left and right nostrils To do. Since the image in the license is clearly an image facing the front, the position of the feature point in the image in the license is the position of the feature point in the state of facing the front (hereinafter, the front feature point position).

S40で免許証内画像51において目や鼻の部位が認識されているので、これを受けてS80では、認識された目や鼻において右目の中心位置、左目の中心位置、左右の鼻孔の中間位置を算出する。これにより、運転者本人の覚醒時の正面画像における右目の中心位置、左目の中心位置、左右の鼻孔の中間位置が取得される。図5には右目の中心位置B1、左目の中心位置B2、左右の鼻孔の中間位置B3の例が示されている。以上が図2の処理手順である。   In S40, since the eye and nose are recognized in the license image 51, in S80, in the recognized eye and nose, the center position of the right eye, the center of the left eye, and the intermediate position of the right and left nostrils. Is calculated. Thereby, the center position of the right eye, the center position of the left eye, and the intermediate position of the left and right nostrils in the front image when the driver himself / herself is awakened are acquired. FIG. 5 shows an example of the center position B1 of the right eye, the center position B2 of the left eye, and the middle position B3 of the left and right nostrils. The above is the processing procedure of FIG.

次に図3の処理手順を説明する。図3の処理でCPU30は、まずS100で運転者の現在の顔画像(以下、現在画像)を撮影する。次にS110でCPU30は、上記のS50で記憶された運転者の目、鼻のテンプレート画像を呼び出す。   Next, the processing procedure of FIG. 3 will be described. In the process of FIG. 3, the CPU 30 first captures the driver's current face image (hereinafter, the current image) in S100. Next, in S110, the CPU 30 calls the template image of the driver's eyes and nose stored in S50.

次にS120でCPU30は、S110で呼び出された目、鼻のテンプレート画像とS100で撮影された運転者の現在画像との間でテンプレートマッチングを実行する。この処理により現在画像における目や鼻が認識される。これは運転者本人の正面顔画像のテンプレートを用いているので、迅速で高精度な認識処理である。   Next, in S120, the CPU 30 executes template matching between the eye and nose template images called in S110 and the current image of the driver photographed in S100. With this process, the eyes and nose in the current image are recognized. This is a quick and highly accurate recognition process because a template of the front face image of the driver himself is used.

続いてS130でCPU30は、S100で撮影されてS120で目や鼻が認識された運転者の現在の顔画像におけるまぶた端部曲線A1を算出し、記憶する。まぶた端部曲線A1の算出は上記S60と同様でよい。すなわちまぶた部分は明度が高く、眼球は明度が低いといった傾向を用いて、グレイスケール画像の(あるいは、グレイスケール画像に変換された)現在画像内において、上記S120で目の領域と認識された領域内の画素ごとの明度を検出して、その分布から上まぶたの下端部分の画素を検出する。   Subsequently, in S130, the CPU 30 calculates and stores the eyelid end curve A1 in the current face image of the driver that has been shot in S100 and whose eyes and nose are recognized in S120. The calculation of the eyelid end curve A1 may be the same as S60 described above. That is, the region recognized as the eye region in S120 in the current image of the grayscale image (or converted to the grayscale image) using the tendency that the eyelid part has high brightness and the eyeball has low brightness. The brightness of each pixel is detected, and the pixel at the lower end of the upper eyelid is detected from the distribution.

そして上まぶたの下端部分の画素の形状が最もフィッティングする2次曲線を、例えば2次曲線と上まぶたの下端部分の画素の位置との間の差分値の2乗和が最小になるように最小2乗法を用いて算出する。   The quadratic curve that best fits the shape of the pixel at the lower end of the upper eyelid is minimized so that, for example, the sum of squares of the difference value between the quadratic curve and the position of the pixel at the lower end of the upper eyelid is minimized. Calculate using the square method.

次にS140でCPU30は、運転者の現在画像における目縦幅A2を算出する。目縦幅A2の算出は上記S70と同様でよい。すなわち、S130での上まぶたの下端の画素の検出と同様に、運転者の現在画像においてS120で目の領域と認識された領域内で、上まぶたの下端と下まぶたの上端の画素を検出する。そして上まぶたの下端の画素の位置と下まぶたの上端の画素の位置との差分を、水平方向に算出していって、その最大値を算出する。   Next, in S140, the CPU 30 calculates the eye length A2 in the current image of the driver. The calculation of the eye length A2 may be the same as S70 described above. That is, similarly to the detection of the pixel at the lower end of the upper eyelid at S130, the pixel at the lower end of the upper eyelid and the pixel at the upper end of the lower eyelid are detected in the region recognized as the eye region in S120 in the current image of the driver. . Then, the difference between the position of the pixel at the lower end of the upper eyelid and the position of the pixel at the upper end of the lower eyelid is calculated in the horizontal direction, and the maximum value is calculated.

S150でCPU30は、S60およびS130で算出された覚醒時および現在のまぶた端部曲線、S70およびS140で算出された覚醒時および現在の目縦幅、を用いて眠気の程度(眠気度)を算出する。まず、まぶた端部曲線、目縦幅のそれぞれに対して、眠気度を判定する。眠気度は、例えば「眠気度0(眠気なし)」、「眠気度1」、・・、「眠気度n(完全に睡眠中)」といったかたちでn+1段階(nは任意の整数)とする。   In S150, the CPU 30 calculates the degree of sleepiness (sleepiness level) using the awake and current eyelid end curves calculated in S60 and S130, and the awake and current eye height calculated in S70 and S140. To do. First, sleepiness is determined for each of the eyelid end curve and the eye length. The sleepiness level is, for example, “sleepiness level 0 (no sleepiness)”, “sleepiness level 1”,..., “Sleepiness level n (completely sleeping)” in n + 1 stages (n is an arbitrary integer).

具体的には、覚醒時のまぶた端部曲線の曲率から現在のまぶた端部曲線の曲率が離れている程度(差分値)を算出し、その数値が上記n+1段階のどこに属するかを判定する。n+1段階に区分するための閾値は予め設定しておけばよい。目縦幅に関しても同様に、覚醒時の目縦幅から現在の目縦幅が離れている程度(差分値)を算出し、その数値が上記n+1段階のどこに属するかを判定する。n+1段階に区分するための閾値は予め設定しておけばよい。なお、例えば覚醒時のまぶた端部曲線の曲率と現在のまぶた端部曲線の曲率との差分値や、覚醒時の目縦幅と現在の目縦幅との差分値そのものを眠気度とするように、眠気度は連続的としてもよい。   Specifically, a degree (difference value) in which the curvature of the current eyelid end curve is separated from the curvature of the eyelid end curve at the time of awakening is determined, and it is determined where the numerical value belongs in the n + 1 stage. A threshold value for dividing into n + 1 stages may be set in advance. Similarly, the degree (difference value) in which the current eye length is separated from the eye height at the time of awakening is calculated in regard to the eye length, and it is determined where the numerical value belongs in the above n + 1 stages. A threshold value for dividing into n + 1 stages may be set in advance. In addition, for example, the difference between the curvature of the eyelid end curve at the time of awakening and the curvature of the current eyelid end curve, or the difference value between the width of the eye at the time of awakening and the current eye vertical width itself is set as sleepiness. In addition, the sleepiness level may be continuous.

以上の2つの眠気度を組み合わせて総合的な眠気度を算出する。2つの眠気度から総合的な眠気度を算出するルールは予め定めておけばよい(例えば、低い(高い)方の眠気度を総合的な眠気度とする、2つの眠気度の平均および四捨五入を総合的な眠気度とする、等)。   A total sleepiness level is calculated by combining the above two sleepiness levels. The rule for calculating the total sleepiness from the two sleepiness levels may be determined in advance (for example, the average and rounding of the two sleepiness levels, where the lower (higher) sleepiness level is the overall sleepiness level) The overall sleepiness, etc.).

S160でCPU30は、S120で目や鼻の部位が認識されている現在画像において、右目の中心位置、左目の中心位置、左右の鼻孔の中間位置を算出する。これにより、運転者の現在画像における右目の中心位置、左目の中心位置、左右の鼻孔の中間位置が取得される。   In S160, the CPU 30 calculates the center position of the right eye, the center position of the left eye, and the middle position of the left and right nostrils in the current image in which the eye and nose regions are recognized in S120. Thereby, the center position of the right eye, the center position of the left eye, and the intermediate position of the left and right nostrils in the current image of the driver are acquired.

次にS170でCPU30は、現在の運転者の頭部のヨー角(ヨー方向の回転角度)を算出する。ここでヨー方向の回転とは運転者の首の軸まわりの回転であり、ヨー角は、運転者の顔の向きと車両の進行方向との間の角度である。この算出は具体的には例えば以下のようにする。図5の右側には、脇見状態における右目の中心位置B1、左目の中心位置B2、左右の鼻孔の中間位置B3の例が示されている。   Next, in S170, the CPU 30 calculates the current yaw angle (rotation angle in the yaw direction) of the driver's head. Here, the rotation in the yaw direction is rotation around the axis of the driver's neck, and the yaw angle is an angle between the direction of the driver's face and the traveling direction of the vehicle. This calculation is specifically performed as follows, for example. The right side of FIG. 5 shows an example of the center position B1 of the right eye, the center position B2 of the left eye, and the middle position B3 of the left and right nostrils in the side-view state.

同図のとおり、運転者が脇見運転をしている場合、左右の鼻孔の中間位置B3は右目の中心位置B1と左目の中心位置B2との中間からずれる傾向がある。同図に示されたb1とb2(線分B1とB2とを繋いだ線分をB3の水平方向の位置で内分したときの、内分点からB1までの距離、内分点からB2までの距離をそれぞれb1、b2としている)とに対して、b1が短い(b2が長い)ほど運転者の顔は相対的に右に向いており、b1が長い(b2が短い)ほど運転者の顔は相対的に左に向いている。   As shown in the figure, when the driver is driving aside, the middle position B3 of the right and left nostrils tends to deviate from the middle between the center position B1 of the right eye and the center position B2 of the left eye. B1 and b2 (the line connecting B1 and B2 shown in the figure is internally divided at the horizontal position of B3, the distance from the internal dividing point to B1, and from the internal dividing point to B2 The distance of the driver is b1 and b2, respectively), the shorter the b1 (the longer b2), the more the driver's face is facing to the right, and the longer the b1 (the shorter b2), the driver's face The face is relatively left.

以上の傾向を用いて、S170では、S160で求めたB1、B2、B3からb1とb2とを求めて、b1とb2との比から現在の運転者の頭部のヨー角を算出する。なお近赤外線カメラ2が運転者から見て左右方向の中央位置に設置されている場合は、運転者が正面(車両の前方方向)を見ているとb1とb2とが等しくなるが、本発明における近赤外線カメラ2の設置位置は必ずしもこれに限定されなくともよい。   Using the above tendency, in S170, b1 and b2 are obtained from B1, B2, and B3 obtained in S160, and the current yaw angle of the driver's head is calculated from the ratio of b1 and b2. When the near-infrared camera 2 is installed at the center position in the left-right direction when viewed from the driver, b1 and b2 are equal when the driver is looking at the front (front direction of the vehicle). The installation position of the near-infrared camera 2 is not necessarily limited to this.

したがって近赤外線カメラ2は、運転者から見て右方向あるいは左方向にずれた位置に設置されていてもよい。いずれにせよ、b1とb2との比と運転者の頭部のヨー角との関係(関数関係)を予め求めておいて、例えばROM32(EEPROM)に記憶しておき、S170ではそれを用いればよい。   Therefore, the near-infrared camera 2 may be installed at a position shifted rightward or leftward when viewed from the driver. In any case, the relationship (functional relationship) between the ratio between b1 and b2 and the yaw angle of the driver's head is obtained in advance and stored in, for example, the ROM 32 (EEPROM), and this is used in S170. Good.

あるいは免許証内画像と現在画像との比較で運転者の頭部のヨー角を算出してもよい。その場合、ヨー角が大きいほど図5の点B1と点B2との間の距離が小さくなる性質を利用して、例えば免許証内画像における正面方向からの点B1と点B2との間の距離と現在画像における同距離との比較によってヨー角を算出すればよい。当然免許証内画像は正面を向いた画像(ヨー角がゼロ)なので、免許証内画像における点B1と点B2との間の距離は脇見の判定における基準値となる。   Alternatively, the yaw angle of the driver's head may be calculated by comparing the image in the license with the current image. In that case, for example, the distance between the point B1 and the point B2 from the front direction in the image in the license is utilized by utilizing the property that the distance between the point B1 and the point B2 in FIG. And the yaw angle may be calculated by comparing the current distance with the same distance in the current image. Naturally, since the image in the license is an image facing the front (the yaw angle is zero), the distance between the point B1 and the point B2 in the image in the license is a reference value in the determination of the aside.

免許証内画像における点B1と点B2との間の距離と、現在画像における同距離との関係(比率)とヨー角との関係(あるいは算出式)を予め求めておけばよい。なお免許証画像と現在画像との比較においては、例えば両画像における輪郭の一部を検出する等をしたうえで画像の拡大縮小をおこなって両画像のサイズを一致させるとすればよい。なおヨー角そのものを算出するのではなく、ヨー角と相関のある数値(例えば免許証内画像における点B1と点B2との間の距離と、現在画像における同距離との比率そのもの)を算出するとしてもよい。   What is necessary is just to obtain | require previously the relationship (or calculation formula) of the relationship (ratio) and the yaw angle between the distance between the point B1 and the point B2 in the image in the license and the same distance in the current image. In comparison between the license image and the current image, for example, a part of the contour in both images may be detected, and then the images may be enlarged / reduced to match the sizes of both images. Instead of calculating the yaw angle itself, a numerical value correlated with the yaw angle (for example, the ratio between the distance between the point B1 and the point B2 in the image in the license and the same distance in the current image) is calculated. It is good.

続いてS180でCPU30は、S170で算出されたヨー角に応じて脇見の程度(脇見度)を判定する。その例が図6に示されている。図6の例では、運転者の頭部のヨー角を、左右方向ともに基準値であるゼロからの差分値に応じて、「脇見なし(正常)」、「軽度の脇見」、「重度の脇見」の3段階に分割している。本発明は図6の例に限定されず、2段階、4段階など任意の段階数に脇見の程度を分割してもよい。あるいはヨー角そのものを脇見度の数値とするように、脇見度を連続的な数値としてもよい。   Subsequently, in S180, the CPU 30 determines the degree of looking aside (degree of looking aside) according to the yaw angle calculated in S170. An example is shown in FIG. In the example of FIG. 6, the yaw angle of the driver's head is determined according to the difference value from zero, which is the reference value in both the left and right directions, “side aside (normal)”, “mild aside”, “severe aside” Is divided into three stages. The present invention is not limited to the example of FIG. 6, and the degree of looking aside may be divided into any number of stages such as two stages and four stages. Alternatively, the degree of looking aside may be a continuous number so that the yaw angle itself is a value for the degree of looking aside.

次にS190でCPU30は、居眠り運転、脇見運転に関する警報処理を実行する。警報は、S150の眠気度の判定結果、S180での脇見度の判定結果に応じて、正常(眠気なし、脇見なし)の範囲を外れたら行う。   Next, in S190, the CPU 30 executes an alarm process regarding the dozing operation and the aside driving. The alarm is issued when the range of normal (no sleepiness, no side aside) is out of the range according to the determination result of the sleepiness degree in S150 and the determination result of the lookout degree in S180.

眠気度の警報の場合、例えば眠気の有無に応じて警報を発する。この場合、眠気度は、「眠気がある」、「眠気がない」の2段階とすればよい。そして「眠気がある」の場合に、運転者が眠気を有していることを示す音声を出力する、ブザーなどの音響を出力する、運転者が眠気を有していることを示す文字、絵柄、図柄をインストルメントパネルの表示装置に表示する、空調装置から冷風を運転者に向けて送る、シートやステアリングを振動させる等(あるいは、これらの組み合わせ)の警報を出力する。「眠気がない」場合には、こうした警報を出力しない。   In the case of a sleepiness level alarm, for example, an alarm is issued according to the presence or absence of sleepiness. In this case, the sleepiness level may be set in two stages: “sleepy” and “not sleepy”. When “Drowsiness” is selected, a voice or sound indicating that the driver is drowsy is output, a sound such as a buzzer is output, or a character or pattern indicating that the driver is drowsy The alarm is output such as displaying the symbol on the display device of the instrument panel, sending cool air from the air conditioner toward the driver, vibrating the seat and steering (or a combination thereof). When “no sleepiness”, such an alarm is not output.

あるいは眠気の程度に応じて出力する警報の程度を変化させてもよい。すなわち複数の眠気段階を設定して、S150で算出した眠気度をどの眠気段階に属するかを判定し、より眠気度が高い眠気段階に属する場合に、より眠気度が高いことを示す内容の音声、より音量の大きいブザーなどの音響、より眠気度が高いことを示す内容の文字、絵柄、図柄の表示、より強い冷風やより低温の冷風の出力、シートやステアリングのより強い振動(あるいは、これらの組み合わせ)の警報を出力する。   Or you may change the grade of the alarm output according to the degree of sleepiness. That is, by setting a plurality of sleepiness levels, determining which sleepiness level the sleepiness level calculated in S150 belongs to, and in the case of belonging to a sleepiness level with a higher sleepiness level, an audio having a content indicating that the sleepiness level is higher , Sounds such as louder buzzers, characters, pictures, and patterns that indicate more drowsiness, more cool or cooler wind output, stronger vibrations of the seat and steering (or these Alarm) is output.

同様に脇見度の警報の場合も、例えば脇見の有無に応じて警報を発する。この場合、脇見度は、「脇見をしている」、「脇見をしていない」の2段階とすればよい。そして「脇見をしている」の場合に、運転者が脇見をしていることを示す音声を出力する、ブザーなどの音響を出力する、運転者が脇見をしていることを示す文字、絵柄、図柄を表示するインストルメントパネルの表示装置に表示する、空調装置から冷風を運転者に向けて送る、シートやステアリングを振動させる等(あるいは、これらの組み合わせ)の警報を出力する。「脇見をしていない」場合には、こうした警報を出力しない。   Similarly, in the case of an alarm for the degree of looking aside, for example, an alarm is issued according to the presence or absence of an aside. In this case, the degree of looking aside may be set in two stages: “looking aside” and “not looking aside”. In case of "looking aside", it outputs a sound indicating that the driver is looking aside, outputs a sound such as a buzzer, a character or a picture indicating that the driver is looking aside The alarm is output on the display device of the instrument panel that displays the symbols, the cool air is sent from the air conditioner to the driver, the seat and the steering are vibrated (or a combination thereof). When “not looking aside”, such an alarm is not output.

あるいは脇見の程度に応じて出力する警報の程度を変化させてもよい。すなわち複数の脇見段階を設定して、S180で算出した脇見状態(あるいはS170で算出したヨー角)がどの脇見段階に属するかを判定し、より脇見度が高い脇見段階に属する場合に、より脇見度が高いことを示す内容の音声、より音量の大きいブザーなどの音響、より脇見度が高いことを示す内容の文字、絵柄、図柄の表示、より強い冷風やより低温の冷風の出力、シートやステアリングのより強い振動(あるいは、これらの組み合わせ)の警報を出力する。   Or you may change the grade of the alarm output according to the grade of an aside. That is, by setting a plurality of side-by-step stages, it is determined which side-by-side stage the side-by-side state calculated in S180 (or the yaw angle calculated in S170) belongs, and when it belongs to a side-by-stage stage with a higher degree of side-by-side, High-level sound, sound such as a louder buzzer, characters, patterns and designs that indicate a higher level of looking aside, stronger and cooler cold wind output, sheets and Outputs warning of stronger vibration of steering (or a combination of these).

なおS190における警報処理は、現在の眠気度、脇見度のみでなく、現在を含む過去の所定期間内の眠気度、脇見度(の例えば平均)にもとづいて行うとすればよい。そのためS150で算出した眠気度、S180で算出した脇見度は一定期間、例えばRAM31に記憶すればよい。これにより眠気度、脇見度の判定の精度が向上する。以上が図3の処理手順である。   Note that the alarm processing in S190 may be performed based on not only the current sleepiness level and the degree of looking aside but also the sleepiness level and the degree of looking aside (for example, an average) within a predetermined period including the present. Therefore, the sleepiness degree calculated in S150 and the look-aside degree calculated in S180 may be stored in the RAM 31, for example, for a certain period. As a result, the accuracy of the determination of sleepiness and the degree of looking aside improves. The above is the processing procedure of FIG.

なお上記実施例は本発明の一実施例に過ぎず、特許請求の範囲に記載された本発明の趣旨を逸脱しない範囲で適宜変更してよい。例えば特徴量は、上記実施例で用いられた特徴量に限定しなくともよい。具体的には、左右の口角の距離、眉と目の距離、頭部傾き角度、眉頭の中点と目頭の中点間の距離、眉頭間の距離、鼻下端の中点と目頭の中点間の距離、口端の中点と目頭の中点間の距離、下唇下端と目頭の中点間の距離、上まぶたと下まぶた間の距離、左右鼻孔外側端間の距離、上唇上端と目頭の中点間の距離、頭部の前後への傾き角度、頭部の左右への傾き角度などを特徴量として用いてもよい。   The above embodiment is merely an embodiment of the present invention, and may be changed as appropriate without departing from the spirit of the present invention described in the claims. For example, the feature amount need not be limited to the feature amount used in the above embodiment. Specifically, the distance between the left and right mouth corners, the distance between the eyebrows and the eyes, the head tilt angle, the distance between the midpoint of the eyebrow and the midpoint of the eye, the distance between the eyebrows, the midpoint of the lower nose and the midpoint of the eye The distance between the middle point of the mouth edge and the middle point of the eye, the distance between the lower edge of the lower lip and the middle point of the eye, the distance between the upper and lower eyelids, the distance between the outer edges of the left and right nostrils, the upper edge of the upper lip The distance between the midpoints of the eyes, the inclination angle of the head to the front and rear, the inclination angle of the head to the left and right, and the like may be used as the feature amount.

これらの特徴量を眠気度の算出で用いればよい。眉と目の距離、眉頭の中点と目頭の中点間の距離、眉頭間の距離、鼻下端の中点と目頭の中点間の距離、口端の中点と目頭の中点間の距離、下唇下端と目頭の中点間の距離、上唇上端と目頭の中点間の距離、頭部の前後への傾き角度、頭部の左右への傾き角度は、大きい数値であるほど眠気度が高い傾向がある。また左右の口角の距離、上まぶたと下まぶた間の距離、左右鼻孔外側端間の距離は、小さい数値であるほど眠気度が高い傾向がある(詳細は特開2009−45418号公報などを参照)。   These feature values may be used in calculating sleepiness. Eyebrow-eye distance, distance between midpoint of eyebrow and midpoint of eye, distance between browhead, distance between midpoint of lower nose and midpoint of eye, midpoint of mouth and midpoint of eye The greater the distance, the distance between the lower lip lower end and the midpoint of the eye, the distance between the upper lip upper end and the midpoint of the upper eye, the head tilt angle to the front and back, and the head tilt angle to the left and right, the greater the drowsiness Tend to be high. Also, the smaller the numerical value of the distance between the left and right mouth corners, the distance between the upper and lower eyelids, and the distance between the outer edges of the left and right nostrils, the higher the drowsiness (see JP 2009-45418 A for details). ).

これらの特徴量をS20で取得した免許証内画像、およびS100で撮影した現在画像の両方に対して算出して、S150の眠気度の算出において、まぶた端部曲線A1や目縦幅A2と同様に用いればよい。すなわち、これらの特徴量のそれぞれに対して、免許証内画像における個々の特徴量と現在画像における個々の特徴量との差分値を算出し、予めn個の閾値を設定しておいて、個々の特徴量に対してn+1段階の眠気度のどこに属するかを判定する。そして、それらを総合(上記と同様に例えば最低値、最高値、平均と四捨五入など)して総合的な眠気度を判定する。   These feature values are calculated for both the in-license image acquired in S20 and the current image captured in S100, and in the calculation of sleepiness in S150, similar to the eyelid end curve A1 and the eye vertical width A2. Can be used. That is, for each of these feature amounts, a difference value between each feature amount in the license image and each feature amount in the current image is calculated, and n threshold values are set in advance. It is determined where the drowsiness level of n + 1 level belongs to the feature amount. Then, the total drowsiness is determined by comprehensively combining them (for example, the lowest value, the highest value, the average and the rounding off, etc.).

また例えば上記の顔画像認識をAAM(アクティブ外観モデル、Active Appearance Model)を用いた手法と組み合わせてもよい。AAMは、画像の輝度(明度)値分布と3次元形状と間の相関を表す統計的なモデルを用いることにより、実際に取得した画像の輝度値の分布状況の情報から、その3次元形状を取得する手法である(AAMの詳細は例えばT.F.Cootes et al.: Active appearance models, Proc. 15th European Conf. Computer Vision, vol.2, pp.484-498 (1998)に説明されている)。上記画像認識においてAAMを用いる場合、AAMによって、免許証内画像と近赤外線カメラで撮影された現在画像とを3次元形状に変換して、その3次元形状において上記の特徴量を算出する。そして、それらの特徴量を用いて眠気、脇見の程度を算出すればよい。   Further, for example, the face image recognition described above may be combined with a method using an AAM (Active Appearance Model). AAM uses a statistical model representing the correlation between the luminance (brightness) value distribution of an image and the three-dimensional shape, thereby obtaining the three-dimensional shape from information on the distribution of luminance values of the actually acquired image. (Details of AAM are described in, for example, TFCootes et al .: Active appearance models, Proc. 15th European Conf. Computer Vision, vol. 2, pp. 484-498 (1998)). When AAM is used in the image recognition, the AAM converts the image in the license and the current image taken by the near-infrared camera into a three-dimensional shape, and calculates the feature amount in the three-dimensional shape. Then, the degree of drowsiness and looking aside may be calculated using these feature amounts.

また上記実施例では運転者の頭部のヨー角(左右方向の回転角度)を算出したが、それに加えてピッチ角(前後方向の傾き角度)、ロール角(左右方向の傾き角度)を算出してもよい。その場合、例えば図5の点B1、B2間の線分の長さや傾き、同線分と点B3との間の距離などからピッチ角、ロール角を算出するマップや算出式を予め求めておく。そして例えばロール角やピッチ角が大きい(あるいは、大きく変動する)ときに眠気度が大きいと判断する。   In the above embodiment, the yaw angle (left / right rotation angle) of the driver's head is calculated. In addition, the pitch angle (front / rear direction tilt angle) and roll angle (left / right direction tilt angle) are calculated. May be. In this case, for example, a map or a calculation formula for calculating the pitch angle and roll angle is obtained in advance from the length and inclination of the line segment between the points B1 and B2 in FIG. 5 and the distance between the line segment and the point B3. . For example, when the roll angle or the pitch angle is large (or greatly fluctuates), it is determined that the sleepiness level is large.

上記実施例では、脇見度の判定のために図5に示された点B1、B2、B3を求めたが、これらに限定する必要はなく、ヨー角の変化によって位置が変化する他の特徴点でもよい。脇見度の判定のために複数の特徴量を用いる場合には、上記眠気度の場合と同様に、免許証内画像における個々の特徴量と現在画像における個々の特徴量との差分値を算出し、予め所定個(例えばm個)の閾値を設定しておいて、個々の特徴量に対してm+1段階の脇見度のどこに属するかを判定する。そして、それらを総合(上記と同様に例えば最低値、最高値、平均と四捨五入など)して総合的な脇見度を判定する。   In the above embodiment, the points B1, B2, and B3 shown in FIG. 5 are obtained for the determination of the degree of looking aside. However, it is not necessary to limit to these, and other characteristic points whose position changes due to the change of the yaw angle But you can. When multiple feature quantities are used to determine the degree of looking aside, the difference value between each feature quantity in the license image and each feature quantity in the current image is calculated in the same manner as in the case of the sleepiness degree. Predetermined (for example, m) threshold values are set in advance, and it is determined where the individual feature amount belongs to the degree of looking aside in m + 1 stages. Then, they are comprehensively determined (for example, the lowest value, the highest value, the average and rounded off, etc., as described above) to determine the overall degree of looking aside.

また上記実施例における画像認識では目や鼻のテンプレート画像を用いたが、目や鼻のみに限定する必要はなく、口、眉、耳など、他の部位の部分画像のテンプレート画像を用いて画像認識を行ってもよい。   In the image recognition in the above embodiment, the template images of the eyes and nose are used. However, the image need not be limited to only the eyes and nose. Recognition may be performed.

1 画像解析装置
2 近赤外線カメラ
3 ドライバモニタECU
4 警報装置
5 運転免許証
6 カードリーダ
1 Image analysis device 2 Near-infrared camera 3 Driver monitor ECU
4 Alarm device 5 Driver's license 6 Card reader

Claims (7)

車両の運転席に着座した運転者の顔画像である現在画像を撮影する撮影手段と、
前記運転者が所持する運転免許証内に記憶された運転者の顔画像である免許証内画像を取得する取得手段と、
その取得手段が取得した免許証内画像を用いて、前記撮影手段が撮影した現在画像における顔の認識処理を行う認識処理手段と、
その認識処理手段によって認識された現在画像における所定の特徴量を算出する第1算出手段と、
その第1算出手段によって算出された特徴量が基準値から離れている程度を判定する判定手段と、
を備えたことを特徴とする画像解析装置。
Photographing means for photographing a current image that is a face image of a driver seated in a driver seat of a vehicle;
An obtaining means for obtaining an image in the driver's face, which is a face image of the driver stored in the driver's license possessed by the driver;
Recognition processing means for performing face recognition processing in the current image taken by the photographing means, using the image in the license obtained by the obtaining means;
First calculation means for calculating a predetermined feature amount in the current image recognized by the recognition processing means;
Determination means for determining the extent to which the feature amount calculated by the first calculation means is away from the reference value;
An image analysis apparatus comprising:
前記取得手段が取得した免許証内画像における顔の所定の部位の部分画像を抽出する抽出手段を備え、
前記認識処理手段は、前記抽出手段によって抽出された所定の部位の部分画像と前記現在画像との間でマッチング処理を行って、前記現在画像における所定の部位を認識する請求項1に記載の画像解析装置。
An extraction means for extracting a partial image of a predetermined part of the face in the image in the license acquired by the acquisition means;
The image according to claim 1, wherein the recognition processing unit recognizes a predetermined part in the current image by performing a matching process between the partial image of the predetermined part extracted by the extracting unit and the current image. Analysis device.
車両の運転席に着座した運転者の顔画像である現在画像を撮影する撮影手段と、
前記運転者が所持する運転免許証内に記憶された運転者の顔画像である免許証内画像を取得する取得手段と、
前記撮影手段によって取得された現在画像における所定の特徴量を算出する第2算出手段と、
前記取得手段によって取得された免許証内画像における所定の特徴量を算出する第3算出手段と、
前記第2算出手段によって算出された特徴量が、前記第3算出手段によって算出された所定の特徴量に応じて定まる基準値から離れている程度を判定する判定手段と、
を備えたことを特徴とする画像解析装置。
Photographing means for photographing a current image that is a face image of a driver seated in a driver seat of a vehicle;
An obtaining means for obtaining an image in the driver's face, which is a face image of the driver stored in the driver's license possessed by the driver;
Second calculating means for calculating a predetermined feature amount in the current image acquired by the photographing means;
Third calculation means for calculating a predetermined feature amount in the image in the license acquired by the acquisition means;
A determination unit that determines a degree to which the feature amount calculated by the second calculation unit is away from a reference value determined according to the predetermined feature amount calculated by the third calculation unit;
An image analysis apparatus comprising:
前記所定の特徴量は、顔画像における眠気の程度を示す部位の位置を示す数値を含む請求項1乃至3のいずれか1項に記載の画像解析装置。   The image analysis apparatus according to claim 1, wherein the predetermined feature amount includes a numerical value indicating a position of a part indicating a degree of sleepiness in a face image. 前記眠気の程度を示す部位の位置を示す数値は、顔画像におけるまぶたの開度と相関のある数値である請求項4に記載の画像解析装置。   The image analysis apparatus according to claim 4, wherein the numerical value indicating the position of the part indicating the degree of sleepiness is a numerical value correlated with an eyelid opening degree in the face image. 前記所定の特徴量は、顔画像における脇見の程度を示す数値を含む請求項1乃至5のいずれか1項に記載の画像解析装置。   The image analysis apparatus according to claim 1, wherein the predetermined feature amount includes a numerical value indicating a degree of looking aside in the face image. 前記脇見の程度を示す数値は、顔の向きが車両の前後方向に対して有する角度と相関のある数値である請求項6に記載の画像解析装置。   The image analysis apparatus according to claim 6, wherein the numerical value indicating the degree of looking aside is a numerical value correlated with an angle that a face direction has with respect to a front-rear direction of the vehicle.
JP2010231672A 2010-10-14 2010-10-14 Image analyzer Pending JP2012084068A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010231672A JP2012084068A (en) 2010-10-14 2010-10-14 Image analyzer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010231672A JP2012084068A (en) 2010-10-14 2010-10-14 Image analyzer

Publications (1)

Publication Number Publication Date
JP2012084068A true JP2012084068A (en) 2012-04-26

Family

ID=46242842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010231672A Pending JP2012084068A (en) 2010-10-14 2010-10-14 Image analyzer

Country Status (1)

Country Link
JP (1) JP2012084068A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103310539A (en) * 2013-06-25 2013-09-18 宁夏新航信息科技有限公司 Automatic reminding system of ATM
JP2016502165A (en) * 2012-10-19 2016-01-21 オートリブ ディベロップメント エービー Driver attention detection method and apparatus
JP2016539446A (en) * 2013-10-29 2016-12-15 キム,ジェ−チョル A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape
JP2017511165A (en) * 2014-02-24 2017-04-20 ソニー株式会社 Smart wearable device and method for customized haptic feedback
KR101737800B1 (en) * 2015-04-07 2017-05-29 엘지전자 주식회사 Vehicle terminal and control method thereof
JP6264495B1 (en) * 2017-03-14 2018-01-24 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
JP2018508870A (en) * 2015-01-19 2018-03-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for detecting instantaneous sleep of a vehicle driver
CN108263380A (en) * 2016-12-30 2018-07-10 现代自动车株式会社 Consider that pedestrian watches the pedestrian impact preventing mean and method of mode attentively
WO2021182483A1 (en) * 2020-03-11 2021-09-16 いすゞ自動車株式会社 Safe driving determination device
WO2024070213A1 (en) * 2022-09-28 2024-04-04 日立建機株式会社 Construction machine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000301963A (en) * 1999-04-23 2000-10-31 Fujitsu Ltd Accident deterrent system and method
JP2001243466A (en) * 2000-03-02 2001-09-07 Honda Motor Co Ltd Device and method for face recognition
JP2008204107A (en) * 2007-02-19 2008-09-04 Toyota Motor Corp Carelessness warning device, vehicle equipment control method for the device and program for vehicle control device
JP2009090691A (en) * 2007-10-03 2009-04-30 Toshiba Corp Unlawful driving preventive device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000301963A (en) * 1999-04-23 2000-10-31 Fujitsu Ltd Accident deterrent system and method
JP2001243466A (en) * 2000-03-02 2001-09-07 Honda Motor Co Ltd Device and method for face recognition
JP2008204107A (en) * 2007-02-19 2008-09-04 Toyota Motor Corp Carelessness warning device, vehicle equipment control method for the device and program for vehicle control device
JP2009090691A (en) * 2007-10-03 2009-04-30 Toshiba Corp Unlawful driving preventive device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502165A (en) * 2012-10-19 2016-01-21 オートリブ ディベロップメント エービー Driver attention detection method and apparatus
CN103310539A (en) * 2013-06-25 2013-09-18 宁夏新航信息科技有限公司 Automatic reminding system of ATM
JP2016539446A (en) * 2013-10-29 2016-12-15 キム,ジェ−チョル A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape
JP2017511165A (en) * 2014-02-24 2017-04-20 ソニー株式会社 Smart wearable device and method for customized haptic feedback
JP2018508870A (en) * 2015-01-19 2018-03-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for detecting instantaneous sleep of a vehicle driver
US10748404B2 (en) 2015-01-19 2020-08-18 Robert Bosch Gmbh Method and apparatus for recognising microsleep in a driver of a vehicle
KR101737800B1 (en) * 2015-04-07 2017-05-29 엘지전자 주식회사 Vehicle terminal and control method thereof
CN108263380A (en) * 2016-12-30 2018-07-10 现代自动车株式会社 Consider that pedestrian watches the pedestrian impact preventing mean and method of mode attentively
JP6264494B1 (en) * 2017-03-14 2018-01-24 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
JP6264492B1 (en) * 2017-03-14 2018-01-24 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
WO2018167991A1 (en) * 2017-03-14 2018-09-20 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
JP2018152034A (en) * 2017-03-14 2018-09-27 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
JP2018152038A (en) * 2017-03-14 2018-09-27 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
JP2018152037A (en) * 2017-03-14 2018-09-27 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
CN110268456A (en) * 2017-03-14 2019-09-20 欧姆龙株式会社 Driver's monitoring arrangement, driver monitor method, learning device and learning method
DE112017007252T5 (en) 2017-03-14 2019-12-19 Omron Corporation DRIVER MONITORING DEVICE, DRIVER MONITORING METHOD, LEARNING DEVICE AND LEARNING METHOD
JP6264495B1 (en) * 2017-03-14 2018-01-24 オムロン株式会社 Driver monitoring device, driver monitoring method, learning device, and learning method
WO2021182483A1 (en) * 2020-03-11 2021-09-16 いすゞ自動車株式会社 Safe driving determination device
WO2024070213A1 (en) * 2022-09-28 2024-04-04 日立建機株式会社 Construction machine

Similar Documents

Publication Publication Date Title
JP2012084068A (en) Image analyzer
RU2756256C1 (en) System and methods for monitoring the behaviour of the driver for controlling a car fleet in a fleet of vehicles using an imaging apparatus facing the driver
US7835834B2 (en) Method of mitigating driver distraction
EP3033999B1 (en) Apparatus and method for determining the state of a driver
EP1801730B1 (en) Method of detecting vehicle-operator state
JP5680667B2 (en) System and method for identifying driver wakefulness
US10369926B2 (en) Driver state sensing system, driver state sensing method, and vehicle including the same
US9105172B2 (en) Drowsiness-estimating device and drowsiness-estimating method
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
US9662977B2 (en) Driver state monitoring system
US11455810B2 (en) Driver attention state estimation
JP2006338594A (en) Pedestrian recognition system
JP2014109958A (en) Photographed image display device, and photographed image display method
JP5447335B2 (en) Notification system
CN109415020B (en) Luminance control device, luminance control system and luminance control method
US11161470B2 (en) Occupant observation device
JP6772775B2 (en) Driving support device and driving support method
Jiao et al. Real-time eye detection and tracking under various light conditions
JPH0793700A (en) Driver state monitoring device
JP4781292B2 (en) Closed eye detection device, dozing detection device, closed eye detection method, and closed eye detection program
WO2021024905A1 (en) Image processing device, monitoring device, control system, image processing method, computer program, and recording medium
JP4935387B2 (en) Information display device
CN114037979A (en) Lightweight driver fatigue state detection method
JP6689470B1 (en) Information processing apparatus, program, and information processing method
WO2019221070A1 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121013

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140516