JP2012084068A - Image analyzer - Google Patents
Image analyzer Download PDFInfo
- Publication number
- JP2012084068A JP2012084068A JP2010231672A JP2010231672A JP2012084068A JP 2012084068 A JP2012084068 A JP 2012084068A JP 2010231672 A JP2010231672 A JP 2010231672A JP 2010231672 A JP2010231672 A JP 2010231672A JP 2012084068 A JP2012084068 A JP 2012084068A
- Authority
- JP
- Japan
- Prior art keywords
- image
- driver
- license
- degree
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像解析装置に関する。 The present invention relates to an image analysis apparatus.
自動車の運転者の居眠り運転や脇見運転を防止するために、ドライバの状態をカメラで撮影してモニタし、居眠り運転や脇見運転が検出されたら警報を発するシステムが提案されている。例えば下記特許文献1では、顔の認識処理において、人が顔画像を撮影する画像入力装置に対して移動したり向きを変えなくても精度よく認識が実行できる装置が提案されている。 In order to prevent a driver of a car from taking a nap or looking aside, a system has been proposed in which a driver's state is photographed and monitored by a camera, and an alarm is issued when a nap or aside driving is detected. For example, Patent Document 1 below proposes an apparatus capable of performing recognition with high accuracy without moving or changing a direction with respect to an image input apparatus that captures a face image in face recognition processing.
しかし特許文献1の手法では、平均的な顔のテンプレート画像を用いて、画像解析を行うので、認識に時間がかかる、認識の精度が高くない、などといった課題がある。何らかの方法により運転者本人の画像、さらに理想的には覚醒時の正面画像、を取得して、それを用いて画像解析して運転者の眠気や脇見の程度(有無)を算出するシステムが望ましいが、従来技術においてそのようなシステムの提案はない。 However, the method of Patent Document 1 has problems such as that it takes time for recognition and the accuracy of recognition is not high because image analysis is performed using an average face template image. It is desirable to have a system that obtains the driver's image by some method, more ideally, a frontal image at awakening, and uses that to analyze the image to calculate the driver's sleepiness and the degree of presence (existence) However, there is no proposal of such a system in the prior art.
そこで本発明が解決しようとする課題は、上記問題点に鑑み、何らかの方法により運転者本人の画像、特に覚醒時の正面画像を取得して、それを用いて画像解析して運転者の眠気や脇見の程度(有無)を算出する画像解析装置を提供することにある。 Therefore, in view of the above problems, the problem to be solved by the present invention is to acquire an image of the driver himself, particularly a frontal image at awakening by some method, and use the image analysis to analyze the driver's sleepiness and An object of the present invention is to provide an image analysis device that calculates the degree of presence (existence).
上記課題を達成するために、本発明に係る画像解析装置は、車両の運転席に着座した運転者の顔画像である現在画像を撮影する撮影手段と、前記運転者が所持する運転免許証内に記憶された運転者の顔画像である免許証内画像を取得する取得手段と、その取得手段が取得した免許証内画像を用いて、前記撮影手段が撮影した現在画像における顔の認識処理を行う認識処理手段と、その認識処理手段によって認識された現在画像における所定の特徴量を算出する第1算出手段と、その第1算出手段によって算出された特徴量が基準値から離れている程度を判定する判定手段と、を備えたことを特徴とする。 In order to achieve the above object, an image analysis apparatus according to the present invention includes a photographing means for photographing a current image that is a face image of a driver seated in a driver's seat of a vehicle, and a driver's license possessed by the driver. Using the acquisition means for acquiring the in-license image that is the driver's face image stored in the image, and the face recognition processing in the current image captured by the imaging means, using the in-license image acquired by the acquisition means. A recognition processing unit to perform, a first calculation unit for calculating a predetermined feature amount in the current image recognized by the recognition processing unit, and a degree to which the feature amount calculated by the first calculation unit is away from the reference value. Determining means for determining.
これにより本発明に係る画像解析装置では、運転者が所持する免許証内の顔画像を取得して、それを用いて、運転者の撮影画像の画像認識を行い、認識された画像内の特徴量を算出して、それが基準値からどれだけ離れているかを判定する。したがって、免許証内の運転者本人の正面画像を画像認識に用いることにより、例えば運転者の居眠り運転や脇見運転を抑制するためのシステムにおいて、迅速にかつ高精度に画像認識が行えるので、運転者の居眠り運転や脇見運転を迅速、高精度に判定できる画像解析装置が実現できる。 Thus, in the image analysis apparatus according to the present invention, the face image in the license possessed by the driver is acquired, and using this, the driver recognizes the photographed image, and the feature in the recognized image A quantity is calculated to determine how far it is from the reference value. Therefore, by using the front image of the driver himself / herself in the license for image recognition, for example, in a system for suppressing the driver's dozing or side-by-side driving, image recognition can be performed quickly and with high accuracy. An image analysis apparatus that can quickly and accurately determine a person's dozing driving or aside driving is realized.
また前記取得手段が取得した免許証内画像における顔の所定の部位の部分画像を抽出する抽出手段を備え、前記認識処理手段は、前記抽出手段によって抽出された所定の部位の部分画像と前記現在画像との間でマッチング処理を行って、前記現在画像における所定の部位を認識するとしてもよい。 In addition, the image processing apparatus includes an extraction unit that extracts a partial image of a predetermined part of the face in the image in the license acquired by the acquisition unit, and the recognition processing unit includes the partial image of the predetermined part extracted by the extraction unit and the current image A matching process may be performed on the image to recognize a predetermined part in the current image.
これにより免許証内画像における部分画像を用いたマッチング処理によって運転者の撮影画像の画像認識を行うので、運転者本人の正面画像の部分画像を用いたマッチング処理により、迅速かつ高精度で、その部位の認識が行える。したがって例えば運転者の居眠り運転や脇見運転を抑制するためのシステムにおいて、迅速にかつ高精度に画像認識を行って、運転者の居眠り運転や脇見運転を迅速、高精度に判定できる画像解析装置が実現できる。 As a result, image recognition of the driver's photographed image is performed by matching processing using the partial image in the image in the license, so that matching processing using the partial image of the driver's own front image can be performed quickly and with high accuracy. The part can be recognized. Therefore, for example, in a system for suppressing a driver's nap driving or aside driving, an image analysis apparatus capable of quickly and highly accurately recognizing images and quickly and accurately determining a driver's napping driving or aside driving. realizable.
また本発明に係る画像解析装置は、車両の運転席に着座した運転者の顔画像である現在画像を撮影する撮影手段と、前記運転者が所持する運転免許証内に記憶された運転者の顔画像である免許証内画像を取得する取得手段と、前記撮影手段によって取得された現在画像における所定の特徴量を算出する第2算出手段と、前記取得手段によって取得された免許証内画像における所定の特徴量を算出する第3算出手段と、前記第2算出手段によって算出された特徴量が、前記第3算出手段によって算出された所定の特徴量に応じて定まる基準値から離れている程度を判定する判定手段と、を備えたことを特徴とする。 The image analysis apparatus according to the present invention also includes a photographing means for photographing a current image, which is a face image of a driver seated in a driver's seat of a vehicle, and a driver's license stored in the driver's license possessed by the driver. An acquisition unit that acquires an image in a license that is a face image, a second calculation unit that calculates a predetermined feature amount in the current image acquired by the photographing unit, and an image in the license acquired by the acquisition unit A third calculation unit that calculates a predetermined feature amount, and a feature amount calculated by the second calculation unit is far from a reference value determined according to the predetermined feature amount calculated by the third calculation unit And determining means for determining.
これにより運転者が所持する免許証内の顔画像を取得して、それの特徴量と、運転者の撮影画像の特徴量とを比較して、撮影画像の特徴量が免許証内画像の特徴量によって定まる基準値から離れているかを判定する。したがって、免許証内の運転者本人の覚醒時の正面画像の特徴量を比較対象として用いることにより、例えば運転者の居眠り運転や脇見運転を抑制するためのシステムにおいて、眠気や脇見の判定が高精度に行える。したがって運転者の居眠り運転や脇見運転を高精度に判定できる画像解析装置が実現できる。 As a result, the face image in the license possessed by the driver is acquired, and the feature amount of the driver is compared with the feature amount of the photographed image of the driver, and the feature amount of the photographed image is the feature of the image in the license. It is determined whether the distance is away from the reference value determined by the amount. Therefore, by using the feature value of the front image when the driver wakes up in the driver's license as a comparison target, for example, in a system for suppressing the driver's dozing driving or side-by-side driving, the determination of sleepiness or side-by-side is high. It can be done accurately. Therefore, it is possible to realize an image analysis device that can determine the driver's drowsy driving or aside driving with high accuracy.
また前記所定の特徴量は、顔画像における眠気の程度を示す部位の位置を示す数値を含むとしてもよい。 Further, the predetermined feature amount may include a numerical value indicating a position of a part indicating the degree of sleepiness in the face image.
これにより顔画像における眠気の程度を示す部位の位置を特徴量として用いることによって、免許証内の運転者本人の覚醒時の正面画像を用いた画像解析を行って、運転者の眠気の程度が迅速、高精度に判定できる。したがって運転者の居眠り運転を迅速、高精度に判定できる画像解析装置が実現できる。 Thus, by using the position of the part indicating the degree of sleepiness in the face image as a feature amount, image analysis using the front image when the driver himself / herself awakens in the license is performed, and the degree of sleepiness of the driver is determined. Judge quickly and with high accuracy. Therefore, it is possible to realize an image analysis apparatus that can quickly and accurately determine the driver's drowsy driving.
また前記眠気の程度を示す部位の位置を示す数値は、顔画像におけるまぶたの開度と相関のある数値であるとしてもよい。 The numerical value indicating the position of the part indicating the degree of sleepiness may be a numerical value correlated with the eyelid opening degree in the face image.
これにより顔画像におけるまぶたの開度と相関のある数値を特徴量として用いることによって、免許証内の運転者本人の覚醒時の正面画像を用いた画像解析を行って、運転者の眠気の程度が迅速、高精度に判定できる。したがって運転者の居眠り運転を迅速、高精度に判定できる画像解析装置が実現できる。 By using a numerical value correlated with the eyelid opening in the face image as a feature value, image analysis using the front image at the driver's awakening in the driver's license is performed, and the degree of sleepiness of the driver Can be determined quickly and with high accuracy. Therefore, it is possible to realize an image analysis apparatus that can quickly and accurately determine the driver's drowsy driving.
また前記所定の特徴量は、顔画像における脇見の程度を示す数値を含むとしてもよい。 The predetermined feature amount may include a numerical value indicating the degree of looking aside in the face image.
これにより顔画像における脇見の程度を示す数値を特徴量として用いることによって、免許証内の運転者本人の覚醒時の正面画像を用いた画像解析を行って、運転者の脇見の程度が迅速、高精度に判定できる。したがって運転者の脇見運転を迅速、高精度に判定できる画像解析装置が実現できる。 By using a numerical value indicating the degree of aside look in the face image as a feature amount, image analysis using the front image at the time of the driver's awakening in the driver's license is performed, and the degree of the driver's aside look is quick, Can be determined with high accuracy. Accordingly, it is possible to realize an image analysis apparatus that can quickly and accurately determine the driver's side-by-side driving.
また前記脇見の程度を示す数値は、顔の向きが車両の前後方向に対して有する角度と相関のある数値であるとしてもよい。 Further, the numerical value indicating the degree of looking aside may be a numerical value that correlates with the angle that the face orientation has with respect to the front-rear direction of the vehicle.
これにより顔の向きが車両の前後方向に対して有する角度と相関のある数値を特徴量として用いることによって、免許証内の運転者本人の覚醒時の正面画像を用いた画像解析を行って、運転者の脇見の程度が迅速、高精度に判定できる。したがって運転者の脇見運転を迅速、高精度に判定できる画像解析装置が実現できる。 By using a numerical value that correlates with the angle that the direction of the face has with respect to the front and rear direction of the vehicle as a feature amount, image analysis using the front image at the time of the driver's awakening in the license is performed, The degree of driver's side aside can be determined quickly and with high accuracy. Accordingly, it is possible to realize an image analysis apparatus that can quickly and accurately determine the driver's side-by-side driving.
以下、本発明の実施形態を図面を参照しつつ説明する。まず図1は、本発明に係る画像解析システム1(画像解析装置、以下システム)の装置構成の概略図である。システム1は例えば自動車の車両に装備される。 Embodiments of the present invention will be described below with reference to the drawings. First, FIG. 1 is a schematic diagram of an apparatus configuration of an image analysis system 1 (image analysis apparatus, hereinafter referred to as system) according to the present invention. The system 1 is installed in, for example, an automobile vehicle.
システム1は、近赤外線カメラ2、ドライバモニタ電子制御装置3(ECU:Electronic Control Unit)、警報装置4、カードリーダ6を備える。またシステム1では運転者が所持する運転免許証5(免許証)を使用する。近赤外線カメラ2、ドライバモニタECU4、警報装置5、カードリーダ6は例えば車内通信で接続されて情報の受け渡しが可能となっている。
The system 1 includes a near-
近赤外線カメラ2は、近赤外領域に感度を有する例えばCCDカメラであり、車室内に設置されて、運転者に対して近赤外線を照射して、その反射光を受光して撮影する。設置場所は運転者の正面の顔画像が撮影できる場所ならばよく、例えばステアリングコラムなどとすればよい。本システムでは、近赤外線カメラ2で撮影された画像は、モノクロの濃淡画像(グレイスケール画像)として扱われる。近赤外線カメラ2を用いることにより、夜間でも運転者の顔画像が取得できる。
The near-
ドライバモニタECU3は、通常のコンピュータと同様の構造を有し、各種演算などの情報処理を実行するCPU30、CPU30の作業領域としての一時記憶部であるRAM31、各種情報を記憶するROM32を備える。なおROM32は記憶内容が書き換え可能なEEPROMを含むとすればよい。
The driver monitor ECU 3 has a structure similar to that of an ordinary computer, and includes a
警報装置4は、後述する画像処理によって運転者の眠気程度が高い、あるいは脇見運転をしている等が検知された場合に車室内、あるいは運転者に向けて警報を発する。なお本発明の警報装置4としては、多様な方式で運転者(や乗員)に眠気程度が高いこと、脇見をしていることを報知する装置を用いればよい。例えば、眠気程度が高いこと、脇見をしていることを報知する内容の音声(あるいはブザーなどの音響)による報知でもよい。インストルメントパネルの表示装置に文字、絵柄、図柄を表示する報知でもよい。また空調装置から冷風を運転者に向けて送ることによる報知でもよい。運転席やステアリングに振動装置を備えて、振動によって運転者に報知する方式でもよい。 The alarm device 4 issues an alarm toward the passenger compartment or the driver when it is detected that the driver's drowsiness level is high or the driver is looking aside by image processing to be described later. As the alarm device 4 of the present invention, a device that informs the driver (and the occupant) that the degree of drowsiness is high and that he is looking aside may be used in various ways. For example, notification by sound (or sound such as a buzzer) that informs that the degree of drowsiness is high or looking aside is also possible. The notification which displays a character, a pattern, and a pattern on the display apparatus of an instrument panel may be sufficient. Moreover, the alert | report by sending cool air toward a driver | operator from an air conditioner may be sufficient. A system in which a vibration device is provided in the driver's seat or the steering wheel and the driver is notified by vibration may be used.
免許証5は、ICチップ50を内臓する。ICチップ50内には免許証の各種情報が記憶されており、その情報のなかには運転者(免許証所持者)の正面向きの顔画像51が記憶されている。ICチップ50は非接触型であり、アンテナ52を備えて、無線によりICチップ内の情報が取得される。本システムでは免許証内画像もモノクロの濃淡画像(グレイスケール画像)として扱う。免許証内画像がグレイスケール画像でない場合にはグレイスケール画像に変換する。
The
カードリーダ6は、免許証内の情報を取得するために装備されて、送信部60、受信部61を有する。送信部60から電磁波を送信して、その電磁波の到達範囲内に免許証5があると、電磁波の磁界の影響でICチップ内に起電力が発生する。この起電力によりICチップ50内に電流が流れて、アンテナ52から運転者顔画像51を含む免許証の各種情報を含む信号が送信される。カードリーダ6は受信部61で、アンテナ52から発信された信号を受信して、そのなかから運転者顔画像51を取得する。
The
以上の構成のもとで、システム1は、運転者の眠気程度、脇見の有無(程度)を算出する処理を行う。その処理手順は図2、図3に示されている。図2は、免許証内の顔画像51から、各部のテンプレート画像、各種特徴量や特徴点の位置を抽出、算出する手順である。図3は、図2で求められたテンプレート画像などを用いて、近赤外線カメラ2で撮影された運転者の現在の顔画像を認識処理して、運転者の眠気や脇見の有無(程度)を算出する手順である。図2、図3の処理手順は予めプログラム化しておいて、例えばROM32に記憶しておき、CPU30が自動的に実行すればよい。
Under the above configuration, the system 1 performs a process of calculating the degree of sleepiness of the driver and the presence or absence (degree) of looking aside. The processing procedure is shown in FIGS. FIG. 2 shows a procedure for extracting and calculating a template image of each part, various feature amounts and feature points from the
図2の処理を説明する。図2の処理ではまずS10で、CPU30が運転席のドアの開放を検知する。次にS20でCPU30は、免許証内の顔画像51を取得する。当然、顔画像51は運転者本人の、覚醒時における、正面の顔画像である。なお車両の他の乗員が自身の免許証を所持している可能性があるので、カードリーダ6が運転者の免許証のみから免許証内画像を取得するように工夫を施す必要がある。この目的のために、例えばカードリーダ6を装備する場所を運転席ドアにする等、送信部60、受信部61の通信範囲が運転席に限定されるようにすればよい。あるいは免許証を挿入するスロットを車室内に装備する形態でもよい。
The process of FIG. 2 will be described. In the process of FIG. 2, first, in S10, the
S30でCPU30は、目や鼻などのテンプレート画像をROM32から呼び出す。この目や鼻などのテンプレート画像は、任意の人物の顔画像から抽出したテンプレート画像でもよく、複数の人物の顔画像の平均をとった標準的なテンプレート画像でもよい。ROM32には予めこうした目や鼻などのテンプレート画像を記憶しておく。
In S <b> 30, the
S40でCPU30は、S30で呼び出した目や鼻などのテンプレート画像と、S20で取得した免許証内画像とでテンプレートマッチングを実行する。これにより、マッチングにより算出された尤度が最も高い位置が運転者の目や鼻と認識される。
In S40, the
S50でCPU30は、S40で運転者の目や鼻と認識された部分を免許証内画像51から抽出して、運転者の目や鼻のテンプレート画像として例えばROM32(EEPROM)に記憶する。S50までで免許証内画像51の画像認識が完了したことを受けて、以下のS60からS80で免許証内画像51において、顔の各種の特徴を示す量である各種の特徴量を算出し、記憶する。S60、S70では運転者の眠気の程度を示す数値のとして、まぶたの開度と相関のある数値を算出する。当然免許証内画像は運転者の覚醒時の画像であるので、以下で算出する数値は眠気度の算出における基準値となる。
In S50, the
まずS60でCPU30は、S50で記憶した目のテンプレート画像(あるいは免許証内画像51においてS40で目と認識した部分)において、特徴量として、まぶた端部曲線(を規定する係数パラメータ、さらにはそのうち曲率に関わるパラメータ)を算出する。まぶた端部曲線は、図4に示されている上まぶたの下端曲線A1である。
First, in S60, the
一般に、まぶた端部曲線は眠気の程度が高くなるほど直線に近くなる(例えば曲率が小さくなる)ので、まぶた端部曲線は眠気の程度を算出する目的に使用できる。S60での算出は、具体的にはまず、上まぶたの下端を検出する。一般に、例えばまぶた部分は明度が高く、眼球は明度が低いといった傾向があるので、この傾向を用いてグレイスケール画像の(あるいは、グレイスケール画像に変換された)免許証内画像51内において、上記S50で目の領域と認識された領域内の画素ごとの明度を検出して、その分布から上まぶたの下端部分の画素が検出できる。
In general, the eyelid end curve becomes closer to a straight line (for example, the curvature becomes smaller) as the degree of drowsiness increases, so the eyelid end curve can be used for the purpose of calculating the degree of drowsiness. Specifically, the calculation in S60 first detects the lower end of the upper eyelid. In general, for example, the eyelid portion has a high lightness and the eyeball has a low lightness. Therefore, the above-described tendency is used in the in-
そして上まぶたの下端部分の画素の形状を例えば2次曲線にフィッティングさせる。フィッティングの手法としては、例えば2次曲線と上まぶたの下端部分の画素の位置との間の差分値の2乗和が最小になるような係数パラメータを最小2乗法により算出すればよい。 Then, the shape of the pixel at the lower end portion of the upper eyelid is fitted to a quadratic curve, for example. As a fitting method, for example, a coefficient parameter that minimizes the square sum of the difference value between the quadratic curve and the position of the pixel at the lower end of the upper eyelid may be calculated by the least square method.
次にS70でCPU30は、S50で記憶した目のテンプレート画像(あるいは免許証内画像51においてS40で目と認識した部分)において、特徴量として、目縦幅を算出する。目縦幅A2は、図4に示されているように、目の左右方向の中央部における(あるいは、上まぶたの下端と下まぶたの上端との間の距離が最も大きい箇所における)、上まぶたの下端と下まぶたの上端の間の距離である。一般に、目縦幅は眠気の程度が高くなるほど小さくなるので、目縦幅は眠気の程度を算出する目的に使用できる。
Next, in S70, the
S70での算出は、具体的にはまず、上まぶたの下端と下まぶたの上端の画素を検出する。この検出処理は、S60での上まぶたの下端の画素の検出と同様に行えばよい。そして上まぶたの下端の画素の位置と下まぶたの上端の画素の位置との差分を、水平方向に算出していって、その最大値を算出する。 More specifically, the calculation in S70 first detects pixels at the lower end of the upper eyelid and the upper end of the lower eyelid. This detection process may be performed in the same manner as the detection of the pixel at the lower end of the upper eyelid in S60. Then, the difference between the position of the pixel at the lower end of the upper eyelid and the position of the pixel at the upper end of the lower eyelid is calculated in the horizontal direction, and the maximum value is calculated.
次にS80でCPU30は、免許証内画像51において、特徴量として、所定の特徴点の位置を記憶する。ここで特徴点とは、顔面において予め指定された点とし、以下の説明では運転者の脇見の程度を算出するために用いられる数値、例えば右目の中心、左目の中心、左右の鼻孔の中間とする。免許証内画像はあきらかに正面を向いた画像なので、免許証内画像内の特徴点の位置は、正面に向いた状態での特徴点の位置(以下、正面特徴点位置)となる。
Next, in S <b> 80, the
S40で免許証内画像51において目や鼻の部位が認識されているので、これを受けてS80では、認識された目や鼻において右目の中心位置、左目の中心位置、左右の鼻孔の中間位置を算出する。これにより、運転者本人の覚醒時の正面画像における右目の中心位置、左目の中心位置、左右の鼻孔の中間位置が取得される。図5には右目の中心位置B1、左目の中心位置B2、左右の鼻孔の中間位置B3の例が示されている。以上が図2の処理手順である。
In S40, since the eye and nose are recognized in the
次に図3の処理手順を説明する。図3の処理でCPU30は、まずS100で運転者の現在の顔画像(以下、現在画像)を撮影する。次にS110でCPU30は、上記のS50で記憶された運転者の目、鼻のテンプレート画像を呼び出す。
Next, the processing procedure of FIG. 3 will be described. In the process of FIG. 3, the
次にS120でCPU30は、S110で呼び出された目、鼻のテンプレート画像とS100で撮影された運転者の現在画像との間でテンプレートマッチングを実行する。この処理により現在画像における目や鼻が認識される。これは運転者本人の正面顔画像のテンプレートを用いているので、迅速で高精度な認識処理である。
Next, in S120, the
続いてS130でCPU30は、S100で撮影されてS120で目や鼻が認識された運転者の現在の顔画像におけるまぶた端部曲線A1を算出し、記憶する。まぶた端部曲線A1の算出は上記S60と同様でよい。すなわちまぶた部分は明度が高く、眼球は明度が低いといった傾向を用いて、グレイスケール画像の(あるいは、グレイスケール画像に変換された)現在画像内において、上記S120で目の領域と認識された領域内の画素ごとの明度を検出して、その分布から上まぶたの下端部分の画素を検出する。
Subsequently, in S130, the
そして上まぶたの下端部分の画素の形状が最もフィッティングする2次曲線を、例えば2次曲線と上まぶたの下端部分の画素の位置との間の差分値の2乗和が最小になるように最小2乗法を用いて算出する。 The quadratic curve that best fits the shape of the pixel at the lower end of the upper eyelid is minimized so that, for example, the sum of squares of the difference value between the quadratic curve and the position of the pixel at the lower end of the upper eyelid is minimized. Calculate using the square method.
次にS140でCPU30は、運転者の現在画像における目縦幅A2を算出する。目縦幅A2の算出は上記S70と同様でよい。すなわち、S130での上まぶたの下端の画素の検出と同様に、運転者の現在画像においてS120で目の領域と認識された領域内で、上まぶたの下端と下まぶたの上端の画素を検出する。そして上まぶたの下端の画素の位置と下まぶたの上端の画素の位置との差分を、水平方向に算出していって、その最大値を算出する。
Next, in S140, the
S150でCPU30は、S60およびS130で算出された覚醒時および現在のまぶた端部曲線、S70およびS140で算出された覚醒時および現在の目縦幅、を用いて眠気の程度(眠気度)を算出する。まず、まぶた端部曲線、目縦幅のそれぞれに対して、眠気度を判定する。眠気度は、例えば「眠気度0(眠気なし)」、「眠気度1」、・・、「眠気度n(完全に睡眠中)」といったかたちでn+1段階(nは任意の整数)とする。
In S150, the
具体的には、覚醒時のまぶた端部曲線の曲率から現在のまぶた端部曲線の曲率が離れている程度(差分値)を算出し、その数値が上記n+1段階のどこに属するかを判定する。n+1段階に区分するための閾値は予め設定しておけばよい。目縦幅に関しても同様に、覚醒時の目縦幅から現在の目縦幅が離れている程度(差分値)を算出し、その数値が上記n+1段階のどこに属するかを判定する。n+1段階に区分するための閾値は予め設定しておけばよい。なお、例えば覚醒時のまぶた端部曲線の曲率と現在のまぶた端部曲線の曲率との差分値や、覚醒時の目縦幅と現在の目縦幅との差分値そのものを眠気度とするように、眠気度は連続的としてもよい。 Specifically, a degree (difference value) in which the curvature of the current eyelid end curve is separated from the curvature of the eyelid end curve at the time of awakening is determined, and it is determined where the numerical value belongs in the n + 1 stage. A threshold value for dividing into n + 1 stages may be set in advance. Similarly, the degree (difference value) in which the current eye length is separated from the eye height at the time of awakening is calculated in regard to the eye length, and it is determined where the numerical value belongs in the above n + 1 stages. A threshold value for dividing into n + 1 stages may be set in advance. In addition, for example, the difference between the curvature of the eyelid end curve at the time of awakening and the curvature of the current eyelid end curve, or the difference value between the width of the eye at the time of awakening and the current eye vertical width itself is set as sleepiness. In addition, the sleepiness level may be continuous.
以上の2つの眠気度を組み合わせて総合的な眠気度を算出する。2つの眠気度から総合的な眠気度を算出するルールは予め定めておけばよい(例えば、低い(高い)方の眠気度を総合的な眠気度とする、2つの眠気度の平均および四捨五入を総合的な眠気度とする、等)。 A total sleepiness level is calculated by combining the above two sleepiness levels. The rule for calculating the total sleepiness from the two sleepiness levels may be determined in advance (for example, the average and rounding of the two sleepiness levels, where the lower (higher) sleepiness level is the overall sleepiness level) The overall sleepiness, etc.).
S160でCPU30は、S120で目や鼻の部位が認識されている現在画像において、右目の中心位置、左目の中心位置、左右の鼻孔の中間位置を算出する。これにより、運転者の現在画像における右目の中心位置、左目の中心位置、左右の鼻孔の中間位置が取得される。
In S160, the
次にS170でCPU30は、現在の運転者の頭部のヨー角(ヨー方向の回転角度)を算出する。ここでヨー方向の回転とは運転者の首の軸まわりの回転であり、ヨー角は、運転者の顔の向きと車両の進行方向との間の角度である。この算出は具体的には例えば以下のようにする。図5の右側には、脇見状態における右目の中心位置B1、左目の中心位置B2、左右の鼻孔の中間位置B3の例が示されている。
Next, in S170, the
同図のとおり、運転者が脇見運転をしている場合、左右の鼻孔の中間位置B3は右目の中心位置B1と左目の中心位置B2との中間からずれる傾向がある。同図に示されたb1とb2(線分B1とB2とを繋いだ線分をB3の水平方向の位置で内分したときの、内分点からB1までの距離、内分点からB2までの距離をそれぞれb1、b2としている)とに対して、b1が短い(b2が長い)ほど運転者の顔は相対的に右に向いており、b1が長い(b2が短い)ほど運転者の顔は相対的に左に向いている。 As shown in the figure, when the driver is driving aside, the middle position B3 of the right and left nostrils tends to deviate from the middle between the center position B1 of the right eye and the center position B2 of the left eye. B1 and b2 (the line connecting B1 and B2 shown in the figure is internally divided at the horizontal position of B3, the distance from the internal dividing point to B1, and from the internal dividing point to B2 The distance of the driver is b1 and b2, respectively), the shorter the b1 (the longer b2), the more the driver's face is facing to the right, and the longer the b1 (the shorter b2), the driver's face The face is relatively left.
以上の傾向を用いて、S170では、S160で求めたB1、B2、B3からb1とb2とを求めて、b1とb2との比から現在の運転者の頭部のヨー角を算出する。なお近赤外線カメラ2が運転者から見て左右方向の中央位置に設置されている場合は、運転者が正面(車両の前方方向)を見ているとb1とb2とが等しくなるが、本発明における近赤外線カメラ2の設置位置は必ずしもこれに限定されなくともよい。
Using the above tendency, in S170, b1 and b2 are obtained from B1, B2, and B3 obtained in S160, and the current yaw angle of the driver's head is calculated from the ratio of b1 and b2. When the near-
したがって近赤外線カメラ2は、運転者から見て右方向あるいは左方向にずれた位置に設置されていてもよい。いずれにせよ、b1とb2との比と運転者の頭部のヨー角との関係(関数関係)を予め求めておいて、例えばROM32(EEPROM)に記憶しておき、S170ではそれを用いればよい。
Therefore, the near-
あるいは免許証内画像と現在画像との比較で運転者の頭部のヨー角を算出してもよい。その場合、ヨー角が大きいほど図5の点B1と点B2との間の距離が小さくなる性質を利用して、例えば免許証内画像における正面方向からの点B1と点B2との間の距離と現在画像における同距離との比較によってヨー角を算出すればよい。当然免許証内画像は正面を向いた画像(ヨー角がゼロ)なので、免許証内画像における点B1と点B2との間の距離は脇見の判定における基準値となる。 Alternatively, the yaw angle of the driver's head may be calculated by comparing the image in the license with the current image. In that case, for example, the distance between the point B1 and the point B2 from the front direction in the image in the license is utilized by utilizing the property that the distance between the point B1 and the point B2 in FIG. And the yaw angle may be calculated by comparing the current distance with the same distance in the current image. Naturally, since the image in the license is an image facing the front (the yaw angle is zero), the distance between the point B1 and the point B2 in the image in the license is a reference value in the determination of the aside.
免許証内画像における点B1と点B2との間の距離と、現在画像における同距離との関係(比率)とヨー角との関係(あるいは算出式)を予め求めておけばよい。なお免許証画像と現在画像との比較においては、例えば両画像における輪郭の一部を検出する等をしたうえで画像の拡大縮小をおこなって両画像のサイズを一致させるとすればよい。なおヨー角そのものを算出するのではなく、ヨー角と相関のある数値(例えば免許証内画像における点B1と点B2との間の距離と、現在画像における同距離との比率そのもの)を算出するとしてもよい。 What is necessary is just to obtain | require previously the relationship (or calculation formula) of the relationship (ratio) and the yaw angle between the distance between the point B1 and the point B2 in the image in the license and the same distance in the current image. In comparison between the license image and the current image, for example, a part of the contour in both images may be detected, and then the images may be enlarged / reduced to match the sizes of both images. Instead of calculating the yaw angle itself, a numerical value correlated with the yaw angle (for example, the ratio between the distance between the point B1 and the point B2 in the image in the license and the same distance in the current image) is calculated. It is good.
続いてS180でCPU30は、S170で算出されたヨー角に応じて脇見の程度(脇見度)を判定する。その例が図6に示されている。図6の例では、運転者の頭部のヨー角を、左右方向ともに基準値であるゼロからの差分値に応じて、「脇見なし(正常)」、「軽度の脇見」、「重度の脇見」の3段階に分割している。本発明は図6の例に限定されず、2段階、4段階など任意の段階数に脇見の程度を分割してもよい。あるいはヨー角そのものを脇見度の数値とするように、脇見度を連続的な数値としてもよい。
Subsequently, in S180, the
次にS190でCPU30は、居眠り運転、脇見運転に関する警報処理を実行する。警報は、S150の眠気度の判定結果、S180での脇見度の判定結果に応じて、正常(眠気なし、脇見なし)の範囲を外れたら行う。
Next, in S190, the
眠気度の警報の場合、例えば眠気の有無に応じて警報を発する。この場合、眠気度は、「眠気がある」、「眠気がない」の2段階とすればよい。そして「眠気がある」の場合に、運転者が眠気を有していることを示す音声を出力する、ブザーなどの音響を出力する、運転者が眠気を有していることを示す文字、絵柄、図柄をインストルメントパネルの表示装置に表示する、空調装置から冷風を運転者に向けて送る、シートやステアリングを振動させる等(あるいは、これらの組み合わせ)の警報を出力する。「眠気がない」場合には、こうした警報を出力しない。 In the case of a sleepiness level alarm, for example, an alarm is issued according to the presence or absence of sleepiness. In this case, the sleepiness level may be set in two stages: “sleepy” and “not sleepy”. When “Drowsiness” is selected, a voice or sound indicating that the driver is drowsy is output, a sound such as a buzzer is output, or a character or pattern indicating that the driver is drowsy The alarm is output such as displaying the symbol on the display device of the instrument panel, sending cool air from the air conditioner toward the driver, vibrating the seat and steering (or a combination thereof). When “no sleepiness”, such an alarm is not output.
あるいは眠気の程度に応じて出力する警報の程度を変化させてもよい。すなわち複数の眠気段階を設定して、S150で算出した眠気度をどの眠気段階に属するかを判定し、より眠気度が高い眠気段階に属する場合に、より眠気度が高いことを示す内容の音声、より音量の大きいブザーなどの音響、より眠気度が高いことを示す内容の文字、絵柄、図柄の表示、より強い冷風やより低温の冷風の出力、シートやステアリングのより強い振動(あるいは、これらの組み合わせ)の警報を出力する。 Or you may change the grade of the alarm output according to the degree of sleepiness. That is, by setting a plurality of sleepiness levels, determining which sleepiness level the sleepiness level calculated in S150 belongs to, and in the case of belonging to a sleepiness level with a higher sleepiness level, an audio having a content indicating that the sleepiness level is higher , Sounds such as louder buzzers, characters, pictures, and patterns that indicate more drowsiness, more cool or cooler wind output, stronger vibrations of the seat and steering (or these Alarm) is output.
同様に脇見度の警報の場合も、例えば脇見の有無に応じて警報を発する。この場合、脇見度は、「脇見をしている」、「脇見をしていない」の2段階とすればよい。そして「脇見をしている」の場合に、運転者が脇見をしていることを示す音声を出力する、ブザーなどの音響を出力する、運転者が脇見をしていることを示す文字、絵柄、図柄を表示するインストルメントパネルの表示装置に表示する、空調装置から冷風を運転者に向けて送る、シートやステアリングを振動させる等(あるいは、これらの組み合わせ)の警報を出力する。「脇見をしていない」場合には、こうした警報を出力しない。 Similarly, in the case of an alarm for the degree of looking aside, for example, an alarm is issued according to the presence or absence of an aside. In this case, the degree of looking aside may be set in two stages: “looking aside” and “not looking aside”. In case of "looking aside", it outputs a sound indicating that the driver is looking aside, outputs a sound such as a buzzer, a character or a picture indicating that the driver is looking aside The alarm is output on the display device of the instrument panel that displays the symbols, the cool air is sent from the air conditioner to the driver, the seat and the steering are vibrated (or a combination thereof). When “not looking aside”, such an alarm is not output.
あるいは脇見の程度に応じて出力する警報の程度を変化させてもよい。すなわち複数の脇見段階を設定して、S180で算出した脇見状態(あるいはS170で算出したヨー角)がどの脇見段階に属するかを判定し、より脇見度が高い脇見段階に属する場合に、より脇見度が高いことを示す内容の音声、より音量の大きいブザーなどの音響、より脇見度が高いことを示す内容の文字、絵柄、図柄の表示、より強い冷風やより低温の冷風の出力、シートやステアリングのより強い振動(あるいは、これらの組み合わせ)の警報を出力する。 Or you may change the grade of the alarm output according to the grade of an aside. That is, by setting a plurality of side-by-step stages, it is determined which side-by-side stage the side-by-side state calculated in S180 (or the yaw angle calculated in S170) belongs, and when it belongs to a side-by-stage stage with a higher degree of side-by-side, High-level sound, sound such as a louder buzzer, characters, patterns and designs that indicate a higher level of looking aside, stronger and cooler cold wind output, sheets and Outputs warning of stronger vibration of steering (or a combination of these).
なおS190における警報処理は、現在の眠気度、脇見度のみでなく、現在を含む過去の所定期間内の眠気度、脇見度(の例えば平均)にもとづいて行うとすればよい。そのためS150で算出した眠気度、S180で算出した脇見度は一定期間、例えばRAM31に記憶すればよい。これにより眠気度、脇見度の判定の精度が向上する。以上が図3の処理手順である。
Note that the alarm processing in S190 may be performed based on not only the current sleepiness level and the degree of looking aside but also the sleepiness level and the degree of looking aside (for example, an average) within a predetermined period including the present. Therefore, the sleepiness degree calculated in S150 and the look-aside degree calculated in S180 may be stored in the
なお上記実施例は本発明の一実施例に過ぎず、特許請求の範囲に記載された本発明の趣旨を逸脱しない範囲で適宜変更してよい。例えば特徴量は、上記実施例で用いられた特徴量に限定しなくともよい。具体的には、左右の口角の距離、眉と目の距離、頭部傾き角度、眉頭の中点と目頭の中点間の距離、眉頭間の距離、鼻下端の中点と目頭の中点間の距離、口端の中点と目頭の中点間の距離、下唇下端と目頭の中点間の距離、上まぶたと下まぶた間の距離、左右鼻孔外側端間の距離、上唇上端と目頭の中点間の距離、頭部の前後への傾き角度、頭部の左右への傾き角度などを特徴量として用いてもよい。 The above embodiment is merely an embodiment of the present invention, and may be changed as appropriate without departing from the spirit of the present invention described in the claims. For example, the feature amount need not be limited to the feature amount used in the above embodiment. Specifically, the distance between the left and right mouth corners, the distance between the eyebrows and the eyes, the head tilt angle, the distance between the midpoint of the eyebrow and the midpoint of the eye, the distance between the eyebrows, the midpoint of the lower nose and the midpoint of the eye The distance between the middle point of the mouth edge and the middle point of the eye, the distance between the lower edge of the lower lip and the middle point of the eye, the distance between the upper and lower eyelids, the distance between the outer edges of the left and right nostrils, the upper edge of the upper lip The distance between the midpoints of the eyes, the inclination angle of the head to the front and rear, the inclination angle of the head to the left and right, and the like may be used as the feature amount.
これらの特徴量を眠気度の算出で用いればよい。眉と目の距離、眉頭の中点と目頭の中点間の距離、眉頭間の距離、鼻下端の中点と目頭の中点間の距離、口端の中点と目頭の中点間の距離、下唇下端と目頭の中点間の距離、上唇上端と目頭の中点間の距離、頭部の前後への傾き角度、頭部の左右への傾き角度は、大きい数値であるほど眠気度が高い傾向がある。また左右の口角の距離、上まぶたと下まぶた間の距離、左右鼻孔外側端間の距離は、小さい数値であるほど眠気度が高い傾向がある(詳細は特開2009−45418号公報などを参照)。 These feature values may be used in calculating sleepiness. Eyebrow-eye distance, distance between midpoint of eyebrow and midpoint of eye, distance between browhead, distance between midpoint of lower nose and midpoint of eye, midpoint of mouth and midpoint of eye The greater the distance, the distance between the lower lip lower end and the midpoint of the eye, the distance between the upper lip upper end and the midpoint of the upper eye, the head tilt angle to the front and back, and the head tilt angle to the left and right, the greater the drowsiness Tend to be high. Also, the smaller the numerical value of the distance between the left and right mouth corners, the distance between the upper and lower eyelids, and the distance between the outer edges of the left and right nostrils, the higher the drowsiness (see JP 2009-45418 A for details). ).
これらの特徴量をS20で取得した免許証内画像、およびS100で撮影した現在画像の両方に対して算出して、S150の眠気度の算出において、まぶた端部曲線A1や目縦幅A2と同様に用いればよい。すなわち、これらの特徴量のそれぞれに対して、免許証内画像における個々の特徴量と現在画像における個々の特徴量との差分値を算出し、予めn個の閾値を設定しておいて、個々の特徴量に対してn+1段階の眠気度のどこに属するかを判定する。そして、それらを総合(上記と同様に例えば最低値、最高値、平均と四捨五入など)して総合的な眠気度を判定する。 These feature values are calculated for both the in-license image acquired in S20 and the current image captured in S100, and in the calculation of sleepiness in S150, similar to the eyelid end curve A1 and the eye vertical width A2. Can be used. That is, for each of these feature amounts, a difference value between each feature amount in the license image and each feature amount in the current image is calculated, and n threshold values are set in advance. It is determined where the drowsiness level of n + 1 level belongs to the feature amount. Then, the total drowsiness is determined by comprehensively combining them (for example, the lowest value, the highest value, the average and the rounding off, etc.).
また例えば上記の顔画像認識をAAM(アクティブ外観モデル、Active Appearance Model)を用いた手法と組み合わせてもよい。AAMは、画像の輝度(明度)値分布と3次元形状と間の相関を表す統計的なモデルを用いることにより、実際に取得した画像の輝度値の分布状況の情報から、その3次元形状を取得する手法である(AAMの詳細は例えばT.F.Cootes et al.: Active appearance models, Proc. 15th European Conf. Computer Vision, vol.2, pp.484-498 (1998)に説明されている)。上記画像認識においてAAMを用いる場合、AAMによって、免許証内画像と近赤外線カメラで撮影された現在画像とを3次元形状に変換して、その3次元形状において上記の特徴量を算出する。そして、それらの特徴量を用いて眠気、脇見の程度を算出すればよい。 Further, for example, the face image recognition described above may be combined with a method using an AAM (Active Appearance Model). AAM uses a statistical model representing the correlation between the luminance (brightness) value distribution of an image and the three-dimensional shape, thereby obtaining the three-dimensional shape from information on the distribution of luminance values of the actually acquired image. (Details of AAM are described in, for example, TFCootes et al .: Active appearance models, Proc. 15th European Conf. Computer Vision, vol. 2, pp. 484-498 (1998)). When AAM is used in the image recognition, the AAM converts the image in the license and the current image taken by the near-infrared camera into a three-dimensional shape, and calculates the feature amount in the three-dimensional shape. Then, the degree of drowsiness and looking aside may be calculated using these feature amounts.
また上記実施例では運転者の頭部のヨー角(左右方向の回転角度)を算出したが、それに加えてピッチ角(前後方向の傾き角度)、ロール角(左右方向の傾き角度)を算出してもよい。その場合、例えば図5の点B1、B2間の線分の長さや傾き、同線分と点B3との間の距離などからピッチ角、ロール角を算出するマップや算出式を予め求めておく。そして例えばロール角やピッチ角が大きい(あるいは、大きく変動する)ときに眠気度が大きいと判断する。 In the above embodiment, the yaw angle (left / right rotation angle) of the driver's head is calculated. In addition, the pitch angle (front / rear direction tilt angle) and roll angle (left / right direction tilt angle) are calculated. May be. In this case, for example, a map or a calculation formula for calculating the pitch angle and roll angle is obtained in advance from the length and inclination of the line segment between the points B1 and B2 in FIG. 5 and the distance between the line segment and the point B3. . For example, when the roll angle or the pitch angle is large (or greatly fluctuates), it is determined that the sleepiness level is large.
上記実施例では、脇見度の判定のために図5に示された点B1、B2、B3を求めたが、これらに限定する必要はなく、ヨー角の変化によって位置が変化する他の特徴点でもよい。脇見度の判定のために複数の特徴量を用いる場合には、上記眠気度の場合と同様に、免許証内画像における個々の特徴量と現在画像における個々の特徴量との差分値を算出し、予め所定個(例えばm個)の閾値を設定しておいて、個々の特徴量に対してm+1段階の脇見度のどこに属するかを判定する。そして、それらを総合(上記と同様に例えば最低値、最高値、平均と四捨五入など)して総合的な脇見度を判定する。 In the above embodiment, the points B1, B2, and B3 shown in FIG. 5 are obtained for the determination of the degree of looking aside. However, it is not necessary to limit to these, and other characteristic points whose position changes due to the change of the yaw angle But you can. When multiple feature quantities are used to determine the degree of looking aside, the difference value between each feature quantity in the license image and each feature quantity in the current image is calculated in the same manner as in the case of the sleepiness degree. Predetermined (for example, m) threshold values are set in advance, and it is determined where the individual feature amount belongs to the degree of looking aside in m + 1 stages. Then, they are comprehensively determined (for example, the lowest value, the highest value, the average and rounded off, etc., as described above) to determine the overall degree of looking aside.
また上記実施例における画像認識では目や鼻のテンプレート画像を用いたが、目や鼻のみに限定する必要はなく、口、眉、耳など、他の部位の部分画像のテンプレート画像を用いて画像認識を行ってもよい。 In the image recognition in the above embodiment, the template images of the eyes and nose are used. However, the image need not be limited to only the eyes and nose. Recognition may be performed.
1 画像解析装置
2 近赤外線カメラ
3 ドライバモニタECU
4 警報装置
5 運転免許証
6 カードリーダ
1
4
Claims (7)
前記運転者が所持する運転免許証内に記憶された運転者の顔画像である免許証内画像を取得する取得手段と、
その取得手段が取得した免許証内画像を用いて、前記撮影手段が撮影した現在画像における顔の認識処理を行う認識処理手段と、
その認識処理手段によって認識された現在画像における所定の特徴量を算出する第1算出手段と、
その第1算出手段によって算出された特徴量が基準値から離れている程度を判定する判定手段と、
を備えたことを特徴とする画像解析装置。 Photographing means for photographing a current image that is a face image of a driver seated in a driver seat of a vehicle;
An obtaining means for obtaining an image in the driver's face, which is a face image of the driver stored in the driver's license possessed by the driver;
Recognition processing means for performing face recognition processing in the current image taken by the photographing means, using the image in the license obtained by the obtaining means;
First calculation means for calculating a predetermined feature amount in the current image recognized by the recognition processing means;
Determination means for determining the extent to which the feature amount calculated by the first calculation means is away from the reference value;
An image analysis apparatus comprising:
前記認識処理手段は、前記抽出手段によって抽出された所定の部位の部分画像と前記現在画像との間でマッチング処理を行って、前記現在画像における所定の部位を認識する請求項1に記載の画像解析装置。 An extraction means for extracting a partial image of a predetermined part of the face in the image in the license acquired by the acquisition means;
The image according to claim 1, wherein the recognition processing unit recognizes a predetermined part in the current image by performing a matching process between the partial image of the predetermined part extracted by the extracting unit and the current image. Analysis device.
前記運転者が所持する運転免許証内に記憶された運転者の顔画像である免許証内画像を取得する取得手段と、
前記撮影手段によって取得された現在画像における所定の特徴量を算出する第2算出手段と、
前記取得手段によって取得された免許証内画像における所定の特徴量を算出する第3算出手段と、
前記第2算出手段によって算出された特徴量が、前記第3算出手段によって算出された所定の特徴量に応じて定まる基準値から離れている程度を判定する判定手段と、
を備えたことを特徴とする画像解析装置。 Photographing means for photographing a current image that is a face image of a driver seated in a driver seat of a vehicle;
An obtaining means for obtaining an image in the driver's face, which is a face image of the driver stored in the driver's license possessed by the driver;
Second calculating means for calculating a predetermined feature amount in the current image acquired by the photographing means;
Third calculation means for calculating a predetermined feature amount in the image in the license acquired by the acquisition means;
A determination unit that determines a degree to which the feature amount calculated by the second calculation unit is away from a reference value determined according to the predetermined feature amount calculated by the third calculation unit;
An image analysis apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010231672A JP2012084068A (en) | 2010-10-14 | 2010-10-14 | Image analyzer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010231672A JP2012084068A (en) | 2010-10-14 | 2010-10-14 | Image analyzer |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012084068A true JP2012084068A (en) | 2012-04-26 |
Family
ID=46242842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010231672A Pending JP2012084068A (en) | 2010-10-14 | 2010-10-14 | Image analyzer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012084068A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310539A (en) * | 2013-06-25 | 2013-09-18 | 宁夏新航信息科技有限公司 | Automatic reminding system of ATM |
JP2016502165A (en) * | 2012-10-19 | 2016-01-21 | オートリブ ディベロップメント エービー | Driver attention detection method and apparatus |
JP2016539446A (en) * | 2013-10-29 | 2016-12-15 | キム,ジェ−チョル | A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape |
JP2017511165A (en) * | 2014-02-24 | 2017-04-20 | ソニー株式会社 | Smart wearable device and method for customized haptic feedback |
KR101737800B1 (en) * | 2015-04-07 | 2017-05-29 | 엘지전자 주식회사 | Vehicle terminal and control method thereof |
JP6264495B1 (en) * | 2017-03-14 | 2018-01-24 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP2018508870A (en) * | 2015-01-19 | 2018-03-29 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method and apparatus for detecting instantaneous sleep of a vehicle driver |
CN108263380A (en) * | 2016-12-30 | 2018-07-10 | 现代自动车株式会社 | Consider that pedestrian watches the pedestrian impact preventing mean and method of mode attentively |
WO2021182483A1 (en) * | 2020-03-11 | 2021-09-16 | いすゞ自動車株式会社 | Safe driving determination device |
WO2024070213A1 (en) * | 2022-09-28 | 2024-04-04 | 日立建機株式会社 | Construction machine |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000301963A (en) * | 1999-04-23 | 2000-10-31 | Fujitsu Ltd | Accident deterrent system and method |
JP2001243466A (en) * | 2000-03-02 | 2001-09-07 | Honda Motor Co Ltd | Device and method for face recognition |
JP2008204107A (en) * | 2007-02-19 | 2008-09-04 | Toyota Motor Corp | Carelessness warning device, vehicle equipment control method for the device and program for vehicle control device |
JP2009090691A (en) * | 2007-10-03 | 2009-04-30 | Toshiba Corp | Unlawful driving preventive device |
-
2010
- 2010-10-14 JP JP2010231672A patent/JP2012084068A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000301963A (en) * | 1999-04-23 | 2000-10-31 | Fujitsu Ltd | Accident deterrent system and method |
JP2001243466A (en) * | 2000-03-02 | 2001-09-07 | Honda Motor Co Ltd | Device and method for face recognition |
JP2008204107A (en) * | 2007-02-19 | 2008-09-04 | Toyota Motor Corp | Carelessness warning device, vehicle equipment control method for the device and program for vehicle control device |
JP2009090691A (en) * | 2007-10-03 | 2009-04-30 | Toshiba Corp | Unlawful driving preventive device |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016502165A (en) * | 2012-10-19 | 2016-01-21 | オートリブ ディベロップメント エービー | Driver attention detection method and apparatus |
CN103310539A (en) * | 2013-06-25 | 2013-09-18 | 宁夏新航信息科技有限公司 | Automatic reminding system of ATM |
JP2016539446A (en) * | 2013-10-29 | 2016-12-15 | キム,ジェ−チョル | A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape |
JP2017511165A (en) * | 2014-02-24 | 2017-04-20 | ソニー株式会社 | Smart wearable device and method for customized haptic feedback |
JP2018508870A (en) * | 2015-01-19 | 2018-03-29 | ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method and apparatus for detecting instantaneous sleep of a vehicle driver |
US10748404B2 (en) | 2015-01-19 | 2020-08-18 | Robert Bosch Gmbh | Method and apparatus for recognising microsleep in a driver of a vehicle |
KR101737800B1 (en) * | 2015-04-07 | 2017-05-29 | 엘지전자 주식회사 | Vehicle terminal and control method thereof |
CN108263380A (en) * | 2016-12-30 | 2018-07-10 | 现代自动车株式会社 | Consider that pedestrian watches the pedestrian impact preventing mean and method of mode attentively |
JP6264494B1 (en) * | 2017-03-14 | 2018-01-24 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP6264492B1 (en) * | 2017-03-14 | 2018-01-24 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
WO2018167991A1 (en) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP2018152034A (en) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP2018152038A (en) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP2018152037A (en) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
CN110268456A (en) * | 2017-03-14 | 2019-09-20 | 欧姆龙株式会社 | Driver's monitoring arrangement, driver monitor method, learning device and learning method |
DE112017007252T5 (en) | 2017-03-14 | 2019-12-19 | Omron Corporation | DRIVER MONITORING DEVICE, DRIVER MONITORING METHOD, LEARNING DEVICE AND LEARNING METHOD |
JP6264495B1 (en) * | 2017-03-14 | 2018-01-24 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
WO2021182483A1 (en) * | 2020-03-11 | 2021-09-16 | いすゞ自動車株式会社 | Safe driving determination device |
WO2024070213A1 (en) * | 2022-09-28 | 2024-04-04 | 日立建機株式会社 | Construction machine |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012084068A (en) | Image analyzer | |
RU2756256C1 (en) | System and methods for monitoring the behaviour of the driver for controlling a car fleet in a fleet of vehicles using an imaging apparatus facing the driver | |
US7835834B2 (en) | Method of mitigating driver distraction | |
EP3033999B1 (en) | Apparatus and method for determining the state of a driver | |
EP1801730B1 (en) | Method of detecting vehicle-operator state | |
JP5680667B2 (en) | System and method for identifying driver wakefulness | |
US10369926B2 (en) | Driver state sensing system, driver state sensing method, and vehicle including the same | |
US9105172B2 (en) | Drowsiness-estimating device and drowsiness-estimating method | |
JP5482737B2 (en) | Visual load amount estimation device, driving support device, and visual load amount estimation program | |
US9662977B2 (en) | Driver state monitoring system | |
US11455810B2 (en) | Driver attention state estimation | |
JP2006338594A (en) | Pedestrian recognition system | |
JP2014109958A (en) | Photographed image display device, and photographed image display method | |
JP5447335B2 (en) | Notification system | |
CN109415020B (en) | Luminance control device, luminance control system and luminance control method | |
US11161470B2 (en) | Occupant observation device | |
JP6772775B2 (en) | Driving support device and driving support method | |
Jiao et al. | Real-time eye detection and tracking under various light conditions | |
JPH0793700A (en) | Driver state monitoring device | |
JP4781292B2 (en) | Closed eye detection device, dozing detection device, closed eye detection method, and closed eye detection program | |
WO2021024905A1 (en) | Image processing device, monitoring device, control system, image processing method, computer program, and recording medium | |
JP4935387B2 (en) | Information display device | |
CN114037979A (en) | Lightweight driver fatigue state detection method | |
JP6689470B1 (en) | Information processing apparatus, program, and information processing method | |
WO2019221070A1 (en) | Information processing device, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20121013 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131016 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131210 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140516 |